JP2014158083A - Video processing device, video processing method, broadcast reception device, video imaging device, video storage device, and program - Google Patents

Video processing device, video processing method, broadcast reception device, video imaging device, video storage device, and program Download PDF

Info

Publication number
JP2014158083A
JP2014158083A JP2013026781A JP2013026781A JP2014158083A JP 2014158083 A JP2014158083 A JP 2014158083A JP 2013026781 A JP2013026781 A JP 2013026781A JP 2013026781 A JP2013026781 A JP 2013026781A JP 2014158083 A JP2014158083 A JP 2014158083A
Authority
JP
Japan
Prior art keywords
frame
noise reduction
motion vector
motion
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013026781A
Other languages
Japanese (ja)
Other versions
JP2014158083A5 (en
JP6128878B2 (en
Inventor
Osamu Nasu
督 那須
Tomokazu Fukuda
智教 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013026781A priority Critical patent/JP6128878B2/en
Publication of JP2014158083A publication Critical patent/JP2014158083A/en
Publication of JP2014158083A5 publication Critical patent/JP2014158083A5/ja
Application granted granted Critical
Publication of JP6128878B2 publication Critical patent/JP6128878B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Picture Signal Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a video processing device, video processing method, broadcast reception device, video imaging device, video storage device, and program capable of reducing noise while avoiding reduction in video quality.SOLUTION: A video processing device 1 includes: a movement detection unit 10 which takes one of a plurality of frames as an attention frame, uses at least either of frames preceding and succeeding the attention frame as a movement detection reference frame, and detects a movement vector MV in a pixel unit; and a noise reduction unit 20 for generating a noise reduction frame FS3 by using the movement vector MV, attention frame, and noise reduction reference frame. The noise reduction unit 20 generates movement vector boundary pixel information, analyzes a pixel value change rate between the attention frame and noise reduction reference frame, generates analysis result information on the pixel value change rate, and generates a noise reduction frame by using the movement vector boundary pixel information and analysis result information on the pixel value change rate.

Description

本発明は、映像信号に含まれるノイズを低減することができる装置、方法、及びプログラムに関する。   The present invention relates to an apparatus, a method, and a program that can reduce noise included in a video signal.

一般に、被写体を撮影して映像信号を生成する処理、この映像信号を伝送する処理、及び受信した映像信号に基づいて表示装置に映像を表示させる処理において、映像信号にノイズが付加される。このノイズは、暗ノイズ及び符号化ノイズなどを含む。暗ノイズは、暗い被写体を明るい映像として表示させるための増幅処理によって、映像信号の微小な揺らぎをも増幅してしまうことで現れるノイズである。符号化ノイズは、映像信号を伝送するための符号化処理によって映像信号に発生するノイズである。   In general, noise is added to a video signal in a process of photographing a subject to generate a video signal, a process of transmitting the video signal, and a process of displaying a video on a display device based on the received video signal. This noise includes dark noise and coding noise. Dark noise is noise that appears when a small fluctuation of a video signal is amplified by amplification processing for displaying a dark subject as a bright video. The coding noise is noise generated in the video signal by the coding process for transmitting the video signal.

このようなノイズを低減する方法として、平均化フィルタ又はガウシアンフィルタなどを用いて、映像信号に対し空間方向の平滑化処理を行う方法が知られている。しかし、空間方向の平滑化処理を行った場合には、ノイズの低減の度合いが増すほど画像の鮮鋭度が低下して、画像にぼやけが発生するという問題がある。また、メディアンフィルタを用いて、画像のエッジを保存しながら空間方向の平滑化処理を行う方法も知られているが、この場合には、画像のエッジの形状が変化するという他の問題が生じる。   As a method of reducing such noise, a method of performing a smoothing process in a spatial direction on a video signal using an averaging filter or a Gaussian filter is known. However, when the smoothing process in the spatial direction is performed, there is a problem that the sharpness of the image is lowered and the image is blurred as the degree of noise reduction is increased. In addition, a method of performing a smoothing process in the spatial direction while preserving the edge of an image using a median filter is also known, but in this case, another problem that the shape of the edge of the image changes occurs. .

上記問題を解決するために、時間的に隣接する複数の映像フレーム(以下「フレーム」又は「1フレームの映像データ」ともいう。)の比較結果に基づいてノイズ低減処理を行う3次元ノイズ低減法が提案されている。この方法は、例えば、ノイズ低減の対象フレームである現フレーム(着目フレーム)と、現フレームに対し時間的に先行するフレーム(前フレーム)と、現フレームに対し時間的に後続するフレーム(後フレーム)とから成る3つのフレームにおいて、同一座標の画素の画素値の平均を算出し、現フレームの画素値を、算出された画素値(平均値)に置き換える方法である。3次元ノイズ低減法は、空間方向の平滑化処理の場合のような画像のぼやけを発生させないが、異なる時刻の複数のフレームの同一座標の画素の画素値を参照するため、映像に物体の動きが存在する場合には、残像のようなぼやけが発生するという問題がある。   In order to solve the above problem, a three-dimensional noise reduction method for performing noise reduction processing based on a comparison result of a plurality of temporally adjacent video frames (hereinafter also referred to as “frames” or “one-frame video data”). Has been proposed. In this method, for example, a current frame (frame of interest) that is a target frame for noise reduction, a frame temporally preceding the current frame (previous frame), and a frame temporally subsequent to the current frame (back frame) ) Is calculated and the pixel value of the pixel having the same coordinate is calculated, and the pixel value of the current frame is replaced with the calculated pixel value (average value). The three-dimensional noise reduction method does not generate image blur as in the case of the smoothing process in the spatial direction, but refers to the pixel values of the pixels at the same coordinates in a plurality of frames at different times, so Is present, there is a problem that blurring such as afterimage occurs.

この残像のようなぼやけは、同一座標の画素の画素値を参照する代わりに、同一物体の同一位置の画素の画素値を参照する動き補償方式を用いることで軽減可能である(例えば、特許文献1参照)。しかし、動き補償方式を用いた3次元ノイズ低減法においては、物体の動き(フレーム間の動きベクトル)に応じて参照する画素の位置を決めるため、着目フレームより時間的に先行するフレームにおける動きの検出精度がノイズ低減の性能に大きく影響する。例えば、動きを誤って検出した場合は、ノイズを低減できないだけでなく、映像品質を低下させるおそれがある。特に、時間の経過に伴って前景物体に隠れる領域、又は、時間の経過に伴って前景物体の陰から出現する領域(すなわち、隠れていた領域)が存在する場合には、これらの領域において、着目フレームよりも時間的に先行するフレーム内に参照すべき画素が存在せず、物体の動きに応じて、参照する画素の座標位置を適切に決めることができない。   Blurring such as an afterimage can be reduced by using a motion compensation method that refers to the pixel value of the pixel at the same position of the same object instead of referring to the pixel value of the pixel of the same coordinate (for example, Patent Documents). 1). However, in the three-dimensional noise reduction method using the motion compensation method, the position of the pixel to be referred to is determined according to the motion of the object (the motion vector between frames). Detection accuracy greatly affects noise reduction performance. For example, when motion is detected by mistake, not only noise cannot be reduced, but also the video quality may be lowered. In particular, if there are areas that are hidden in the foreground object over time, or areas that appear behind the foreground object over time (i.e. areas that were hidden), There is no pixel to be referenced in a frame that temporally precedes the frame of interest, and the coordinate position of the pixel to be referenced cannot be appropriately determined according to the movement of the object.

特開2008−294601号公報JP 2008-294601 A

以上に説明したように、従来の3次元ノイズ低減法においては、フレーム間の動きベクトルを誤って検出した場合に、ノイズを適切に低減できないだけでなく、映像品質を低下させるおそれがある。   As described above, in the conventional three-dimensional noise reduction method, when a motion vector between frames is erroneously detected, not only noise can be appropriately reduced but also video quality may be lowered.

そこで、本発明は、上記従来技術の課題を解決するためになされたものであり、その目的は、映像品質の低下を回避しながら、ノイズを適切に低減することができる映像処理装置、映像処理方法、放送受信装置、映像撮影装置、映像蓄積装置及びプログラムを提供することである。   Therefore, the present invention has been made to solve the above-described problems of the prior art, and an object of the present invention is to provide a video processing apparatus and video processing capable of appropriately reducing noise while avoiding deterioration in video quality. A method, a broadcast receiving device, a video photographing device, a video storage device, and a program are provided.

本発明の一態様に係る映像処理装置は、動画像を構成する一連の複数のフレームの1つを着目フレームとし、前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方を動き検出用参照フレームとして用いて、前記着目フレームと前記動き検出用参照フレームとの間の動きを推定し、前記着目フレームを構成する画素単位の動きベクトルを検出する動き検出部と、前記動き検出部によって検出された前記動きベクトル、前記着目フレーム、及び前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方であるノイズ低減用参照フレームを用いて、前記着目フレームのノイズが低減されたノイズ低減フレームを生成するノイズ低減部とを有し、前記ノイズ低減部は、前記動きベクトルの境界画素を検出し、前記検出された境界画素を示す動きベクトル境界画素情報を生成する動きベクトル境界検出手段と、前記着目フレームと前記ノイズ低減用参照フレームとの間における画素値変化率を解析し、前記画素値変化率の解析結果情報を生成する画素値変化率解析手段と、前記動きベクトル境界画素情報及び前記画素値変化率の解析結果情報を用いて前記ノイズ低減フレームの生成を行う補正手段とを有することを特徴としている。   The video processing apparatus according to one aspect of the present invention uses one of a plurality of frames constituting a moving image as a target frame, and at least one of a temporally preceding frame and a temporally subsequent frame of the target frame. As a motion detection reference frame, estimating a motion between the frame of interest and the motion detection reference frame, and detecting a motion vector in units of pixels constituting the frame of interest, and the motion Using the reference vector for noise reduction that is at least one of the motion vector, the frame of interest, the frame temporally preceding the frame of interest, and the frame temporally following the frame of interest detected by the detection unit, A noise reduction unit that generates a noise reduction frame with reduced noise, the noise reduction unit Pixel value change between the motion vector boundary detection means for detecting the boundary pixel of the motion vector and generating motion vector boundary pixel information indicating the detected boundary pixel, and the reference frame for noise reduction A pixel value change rate analyzing means for analyzing a rate and generating analysis result information of the pixel value change rate, and generating the noise reduction frame using the motion vector boundary pixel information and the analysis result information of the pixel value change rate And correction means for performing the above.

本発明の他の態様に係る映像処理方法は、動画像を構成する一連の複数のフレームの1つを着目フレームとし、前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方を動き検出用参照フレームとして用いて、前記着目フレームと前記動き検出用参照フレームとの間の動きを推定し、前記着目フレームを構成する画素単位の動きベクトルを検出する動き検出ステップと、前記動き検出ステップにおいて検出された前記動きベクトル、前記着目フレーム、及び前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方であるノイズ低減用参照フレームを用いて、前記着目フレームのノイズが低減されたノイズ低減フレームを生成するノイズ低減ステップとを有し、前記ノイズ低減ステップは、前記動きベクトルの境界画素を検出し、前記検出された境界画素を示す動きベクトル境界画素情報を生成する動きベクトル境界検出ステップと、前記着目フレームと前記動き検出用参照フレームとの間における画素値変化率を解析し、前記画素値変化率の解析結果情報を生成する画素値変化率解析ステップと、前記動きベクトル境界画素情報及び前記画素値変化率の解析結果情報を用いて前記ノイズ低減フレームの生成を行うノイズ低減フレーム生成ステップと
を有することを特徴としている。
In the video processing method according to another aspect of the present invention, one of a plurality of frames constituting a moving image is set as a frame of interest, and at least of a frame temporally preceding and temporally following the frame of interest. Using one of them as a reference frame for motion detection, estimating a motion between the frame of interest and the reference frame for motion detection, and detecting a motion vector in units of pixels constituting the frame of interest; The target frame using the noise reduction reference frame that is at least one of the motion vector, the target frame, the temporally preceding frame, and the temporally following frame detected in the motion detection step. A noise reduction step for generating a noise reduction frame with reduced noise The noise reduction step includes a motion vector boundary detection step of detecting a boundary pixel of the motion vector and generating motion vector boundary pixel information indicating the detected boundary pixel; the frame of interest; and the motion detection reference frame; A pixel value change rate analysis step for analyzing the pixel value change rate between the two, generating the pixel value change rate analysis result information, and using the motion vector boundary pixel information and the pixel value change rate analysis result information And a noise reduction frame generation step for generating the noise reduction frame.

本発明の他の態様に係る放送受信装置は、放送波を受信し、前記放送波に含まれる映像情報の復号化を行う放送受信部と、前記放送受信部から動画像を構成する一連の複数のフレームを受け取り、前記一連の複数のフレームの1つを着目フレームとし、前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方を動き検出用参照フレームとして用いて、前記着目フレームと前記動き検出用参照フレームとの間の動きを推定し、前記着目フレームを構成する画素単位の動きベクトルを検出する動き検出部と、前記動き検出部によって検出された前記動きベクトル、前記着目フレーム、及び前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方であるノイズ低減用参照フレームを用いて、前記着目フレームのノイズが低減されたノイズ低減フレームを生成するノイズ低減部とを有し、前記ノイズ低減部は、
前記動きベクトルの境界画素を検出し、前記検出された境界画素を示す動きベクトル境界画素情報を生成する動きベクトル境界検出手段と、前記着目フレームと前記動き検出用参照フレームとの間における画素値変化率を解析し、前記画素値変化率の解析結果情報を生成する画素値変化率解析手段と、前記動きベクトル境界画素情報及び前記画素値変化率の解析結果情報を用いて前記ノイズ低減フレームの生成を行う補正手段とを有することを特徴としている。
A broadcast receiving apparatus according to another aspect of the present invention includes a broadcast receiving unit that receives a broadcast wave and decodes video information included in the broadcast wave, and a series of a plurality of pieces that configure a moving image from the broadcast receiving unit. And using one of the plurality of frames as a target frame, using at least one of a temporally preceding frame and a temporally following frame as the motion detection reference frame, Estimating a motion between the frame of interest and the reference frame for motion detection, detecting a motion vector in units of pixels constituting the frame of interest, the motion vector detected by the motion detector, Noise reduction that is at least one of a frame of interest and a frame temporally preceding and temporally following the frame of interest Using the reference frames, and a noise reduction unit which generates a noise reduction frame noise of the focus frame is reduced, the noise reduction unit,
Pixel value change between the motion vector boundary detection means for detecting the boundary pixel of the motion vector and generating motion vector boundary pixel information indicating the detected boundary pixel, and the frame of interest and the reference frame for motion detection A pixel value change rate analyzing means for analyzing a rate and generating analysis result information of the pixel value change rate, and generating the noise reduction frame using the motion vector boundary pixel information and the analysis result information of the pixel value change rate And correction means for performing the above.

本発明の他の態様に係る映像撮影装置は、映像を撮影し動画像を構成する一連の複数のフレームデータを生成する撮像部と、前記撮像部から動画像を構成する一連の複数のフレームを受け取り、前記一連の複数のフレームの1つを着目フレームとし、前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方を動き検出用参照フレームとして用いて、前記着目フレームと前記動き検出用参照フレームとの間の動きを推定し、前記着目フレームを構成する画素単位の動きベクトルを検出する動き検出部と、前記動き検出部によって検出された前記動きベクトル、前記着目フレーム、及び前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方であるノイズ低減用参照フレームを用いて、前記着目フレームのノイズが低減されたノイズ低減フレームを生成するノイズ低減部とを有し、前記ノイズ低減部は、前記動きベクトルの境界画素を検出し、前記検出された境界画素を示す動きベクトル境界画素情報を生成する動きベクトル境界検出手段と、前記着目フレームと前記動き検出用参照フレームとの間における画素値変化率を解析し、前記画素値変化率の解析結果情報を生成する画素値変化率解析手段と、前記動きベクトル境界画素情報及び前記画素値変化率の解析結果情報を用いて前記ノイズ低減フレームの生成を行う補正手段とを有することを特徴としている。   An image capturing apparatus according to another aspect of the present invention includes an imaging unit that captures a video and generates a series of frame data constituting a moving image, and a series of frames that constitute a moving image from the imaging unit. Receiving one of the plurality of frames as a target frame, using at least one of a temporally preceding frame and a temporally following frame as the motion detection reference frame, A motion detection unit that estimates a motion between the motion detection reference frame and detects a motion vector in units of pixels constituting the target frame; the motion vector detected by the motion detection unit; the target frame; And at least one of a temporally preceding frame and a temporally following frame of the frame of interest. A noise reduction unit that generates a noise reduction frame in which noise of the frame of interest is reduced using a reference frame, wherein the noise reduction unit detects a boundary pixel of the motion vector, and detects the detected boundary Motion vector boundary detection means for generating motion vector boundary pixel information indicating a pixel; and a pixel value change rate between the frame of interest and the motion detection reference frame; and analysis result information of the pixel value change rate It has a pixel value change rate analyzing means to be generated, and a correcting means for generating the noise reduction frame using the motion vector boundary pixel information and the analysis result information of the pixel value change rate.

本発明の他の態様に係る映像蓄積装置は、動画像を構成する一連の複数のフレームを記憶する記憶部と、前記記憶部に記憶されている前記一連の複数のフレームの1つを着目フレームとし、前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方を動き検出用参照フレームとして用いて、前記着目フレームと前記動き検出用参照フレームとの間の動きを推定し、前記着目フレームを構成する画素単位の動きベクトルを検出する動き検出部と、前記動き検出部によって検出された前記動きベクトル、前記着目フレーム、及び前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方であるノイズ低減用参照フレームを用いて、前記着目フレームのノイズが低減されたノイズ低減フレームを生成するノイズ低減部と、を有し、前記ノイズ低減部は、前記動きベクトルの境界画素を検出し、前記検出された境界画素を示す動きベクトル境界画素情報を生成する動きベクトル境界検出手段と、前記着目フレームと前記動き検出用参照フレームとの間における画素値変化率を解析し、前記画素値変化率の解析結果情報を生成する画素値変化率解析手段と、前記動きベクトル境界画素情報及び前記画素値変化率の解析結果情報を用いて前記ノイズ低減フレームの生成を行う補正手段とを有することを特徴している。   A video storage device according to another aspect of the present invention includes a storage unit that stores a series of frames constituting a moving image, and a frame of interest as one of the series of frames stored in the storage unit. And using at least one of a temporally preceding frame and a temporally following frame as the motion detection reference frame to estimate a motion between the focus frame and the motion detection reference frame. A motion detection unit that detects a motion vector in units of pixels constituting the target frame, the motion vector detected by the motion detection unit, the target frame, a frame temporally preceding the target frame, and a temporal The noise of the frame of interest is reduced by using a noise reduction reference frame that is at least one of the following frames. A noise reduction unit that generates a noise reduction frame, wherein the noise reduction unit detects a boundary pixel of the motion vector and generates motion vector boundary pixel information indicating the detected boundary pixel. Boundary detection means, pixel value change rate analysis means for analyzing a pixel value change rate between the frame of interest and the motion detection reference frame, and generating analysis result information of the pixel value change rate; and the motion vector And correction means for generating the noise reduction frame using boundary pixel information and analysis result information of the pixel value change rate.

本発明の他の態様に係るプログラムは、コンピュータに処理を実行させるプログラムであって、前記処理は、動画像を構成する一連の複数のフレームの1つを着目フレームとし、前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方を動き検出用参照フレームとして用いて、前記着目フレームと前記動き検出用参照フレームとの間の動きを推定し、前記着目フレームを構成する画素単位の動きベクトルを検出する動き検出処理と、前記動き検出処理において検出された前記動きベクトル、前記着目フレーム、及び前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方であるノイズ低減用参照フレームを用いて、前記着目フレームのノイズが低減されたノイズ低減フレームを生成するノイズ低減処理とを含み、前記ノイズ低減処理は、前記動きベクトルの境界画素を検出し、前記検出された境界画素を示す動きベクトル境界画素情報を生成する動きベクトル境界検出処理と、前記着目フレームと前記動き検出用参照フレームとの間における画素値変化率を解析し、前記画素値変化率の解析結果情報を生成する画素値変化率解析処理と、前記動きベクトル境界画素情報及び前記画素値変化率の解析結果情報を用いて前記ノイズ低減フレームの生成を行うノイズ低減フレーム生成処理とを含むことを特徴としている。   A program according to another aspect of the present invention is a program that causes a computer to execute a process, and the process uses one of a plurality of frames constituting a moving image as a target frame, and is temporally more than the target frame. Pixels constituting the frame of interest by estimating the motion between the frame of interest and the reference frame for motion detection using at least one of the frame preceding the frame and the frame following temporally as the frame for motion detection At least one of a motion detection process for detecting a unit motion vector, the motion vector detected in the motion detection process, the frame of interest, a frame temporally preceding the frame of interest, and a frame temporally following Using a noise reduction reference frame, the noise of the frame of interest is reduced. Noise reduction processing for generating a noise reduction frame, wherein the noise reduction processing detects a boundary pixel of the motion vector and generates motion vector boundary pixel information indicating the detected boundary pixel. A pixel value change rate analysis process for analyzing a pixel value change rate between the frame of interest and the motion detection reference frame, and generating analysis result information of the pixel value change rate, and the motion vector boundary pixel information And noise reduction frame generation processing for generating the noise reduction frame using the analysis result information of the pixel value change rate.

本発明によれば、動きベクトルだけでなく、動きベクトルの境界画素を示す動きベクトル境界画素情報及び着目フレームと動き検出用参照フレームとの間における画素値変化率の解析結果情報を用いてノイズ低減フレームを生成するので、映像品質の低下を回避しながら、ノイズを適切に低減することができる。   According to the present invention, not only the motion vector but also the motion vector boundary pixel information indicating the boundary pixel of the motion vector and the analysis result information of the pixel value change rate between the target frame and the motion detection reference frame are used to reduce noise. Since the frame is generated, it is possible to appropriately reduce noise while avoiding deterioration in video quality.

本発明の実施の形態1に係る映像処理装置(すなわち、実施の形態1に係る映像処理方法を実施することができる装置)の構成を概略的に示す機能ブロック図である。It is a functional block diagram which shows roughly the structure of the video processing apparatus (namely, apparatus which can implement the video processing method which concerns on Embodiment 1) which concerns on Embodiment 1 of this invention. 図1に示される映像処理装置のノイズ低減部の構成を概略的に示す機能ブロック図である。It is a functional block diagram which shows roughly the structure of the noise reduction part of the video processing apparatus shown by FIG. 図2に示されるノイズ低減部のフレームブレンド率算出手段の構成を概略的に示す機能ブロック図である。It is a functional block diagram which shows roughly the structure of the frame blend rate calculation means of the noise reduction part shown by FIG. 図2に示されるノイズ低減部の動き誤検出領域補正係数算出手段の構成を概略的に示す機能ブロック図である。FIG. 3 is a functional block diagram schematically showing a configuration of a motion error detection region correction coefficient calculation unit of the noise reduction unit shown in FIG. 2. 実施の形態1に係る映像処理装置におけるノイズ低減処理で参照するフレーム及び座標位置(図5の上側)、並びに、ノイズ低減処理されたフレーム(図5の下側)を概略的に示す図である。FIG. 6 is a diagram schematically showing a frame and a coordinate position (upper side in FIG. 5) referred to in noise reduction processing in the video processing apparatus according to Embodiment 1, and a frame subjected to noise reduction processing (lower side in FIG. 5). . (a)から(i)は、図2に示されるノイズ低減部の画素値変化率解析手段による画素値変化率の解析結果情報の具体例としての解析パターンを示すグラフである。(A)-(i) is a graph which shows the analysis pattern as a specific example of the analysis result information of the pixel value change rate by the pixel value change rate analysis means of the noise reduction part shown by FIG. 図2に示されるノイズ低減部の画素値変化率解析手段により実行される画素値変化パターンの分類処理を概略的に示すフローチャートである。FIG. 3 is a flowchart schematically showing pixel value change pattern classification processing executed by a pixel value change rate analysis unit of the noise reduction unit shown in FIG. 2. FIG. (a)から(c)は、オクルージョンの一例を示す図である。(A)-(c) is a figure which shows an example of an occlusion. 図3に示されるフレームブレンド率算出手段のオクルージョン判定手段から出力されるオクルージョン判定結果に基づくオクルージョン領域の一例を示す図である。It is a figure which shows an example of the occlusion area | region based on the occlusion determination result output from the occlusion determination means of the frame blend rate calculation means shown by FIG. 図4に示される動き誤検出領域補正係数算出手段の参照フレーム不定領域検出手段が検出する参照フレーム不定領域の一例を示す図である。FIG. 5 is a diagram illustrating an example of a reference frame indefinite region detected by a reference frame indefinite region detecting unit of the motion error detection region correction coefficient calculating unit shown in FIG. 4. 図4に示される動き誤検出領域補正係数算出手段の動きベクトル境界集中領域検出手段が検出する動きベクトル集中領域の一例を示す図である。FIG. 5 is a diagram illustrating an example of a motion vector concentration region detected by a motion vector boundary concentration region detection unit of a motion error detection region correction coefficient calculation unit illustrated in FIG. 4. 本発明の実施の形態2に係る映像処理装置(すなわち、実施の形態2に係る映像処理方法を実施することができる装置)の構成を概略的に示す機能ブロック図である。It is a functional block diagram which shows roughly the structure of the video processing apparatus (namely, apparatus which can implement the video processing method which concerns on Embodiment 2) concerning Embodiment 2 of this invention. 実施の形態1に係る映像処理装置おいてノイズ低減処理に用いるフレームを示す図である。6 is a diagram illustrating frames used for noise reduction processing in the video processing apparatus according to Embodiment 1. FIG. 実施の形態2に係る映像処理装置おいてノイズ低減処理に用いるフレームを示す図である。FIG. 10 is a diagram illustrating frames used for noise reduction processing in the video processing apparatus according to the second embodiment. 本発明の実施の形態2の変形例に係る映像処理装置(すなわち、実施の形態2の変形例に係る映像処理方法を実施することができる装置)の構成を概略的に示す機能ブロック図である。It is a functional block diagram which shows roughly the structure of the video processing apparatus (namely, apparatus which can implement the video processing method which concerns on the modification of Embodiment 2) which concerns on the modification of Embodiment 2 of this invention. . 実施の形態2の変形例に係る映像処理装置おいてノイズ低減処理に用いるフレームを示す図である。FIG. 10 is a diagram illustrating frames used for noise reduction processing in a video processing apparatus according to a modification of the second embodiment. 本発明の実施の形態3に係る放送受信装置の構成を概略的に示す機能ブロック図である。It is a functional block diagram which shows roughly the structure of the broadcast receiver which concerns on Embodiment 3 of this invention. 実施の形態3の変形例に係る放送受信装置の構成を概略的に示す機能ブロック図である。FIG. 11 is a functional block diagram schematically showing a configuration of a broadcast receiving device according to a modification of the third embodiment. 本発明の実施の形態4に係る映像撮影装置の構成を概略的に示す機能ブロック図である。It is a functional block diagram which shows roughly the structure of the video imaging device which concerns on Embodiment 4 of this invention. 実施の形態4の変形例に係る映像撮影装置の構成を概略的に示す機能ブロック図である。FIG. 10 is a functional block diagram schematically showing a configuration of a video imaging apparatus according to a modification of the fourth embodiment. 本発明の実施の形態5に係る映像蓄積装置の構成を概略的に示す機能ブロック図である。It is a functional block diagram which shows schematically the structure of the video storage apparatus which concerns on Embodiment 5 of this invention. 実施の形態5の変形例に係る映像蓄積装置の構成を概略的に示す機能ブロック図である。FIG. 10 is a functional block diagram schematically showing a configuration of a video storage device according to a modification of the fifth embodiment.

《1》実施の形態1.
《1−1》実施の形態1の構成
図1は、本発明の実施の形態1に係る映像処理装置(すなわち、実施の形態1に係る映像処理方法を実施することができる装置)1の構成を概略的に示す機能ブロック図である。図1に示されるように、実施の形態1に係る映像処理装置1は、動き検出部10と、ノイズ低減部20とを備えている。また、図1に示されるように、映像処理装置1は、フレームバッファ30と、フレームバッファ40とを備えてもよい。フレームバッファ30は、動画像を構成する一連の複数のフレームFS1を蓄えるための記憶部である。フレームバッファ40は、動画像を構成する一連の複数のフレームを蓄えるための記憶部であるが、例えば、ノイズ低減部20から出力されたノイズ低減された映像データである一連の複数のフレーム(ノイズ低減フレーム)FS3を蓄えることができる。映像処理装置1は、動き補償方式を用いた3次元ノイズ低減法を用いる装置であり、動き検出部10が動きを誤って検出した場合であっても、映像品質を低下させないように、適切にノイズを低減することができる装置である。
<< 1 >> Embodiment 1
<< 1-1 >> Configuration of Embodiment 1 FIG. 1 shows a configuration of a video processing apparatus 1 according to Embodiment 1 of the present invention (that is, an apparatus that can implement the video processing method according to Embodiment 1). FIG. As shown in FIG. 1, the video processing device 1 according to the first embodiment includes a motion detection unit 10 and a noise reduction unit 20. As shown in FIG. 1, the video processing device 1 may include a frame buffer 30 and a frame buffer 40. The frame buffer 30 is a storage unit for storing a series of a plurality of frames FS1 constituting a moving image. The frame buffer 40 is a storage unit for storing a series of a plurality of frames constituting a moving image. For example, the frame buffer 40 is a series of a plurality of frames (noises) that are video data with reduced noise output from the noise reduction unit 20. Reduction frame) FS3 can be stored. The video processing device 1 is a device that uses a three-dimensional noise reduction method using a motion compensation method, and even when the motion detection unit 10 detects motion by mistake, it is appropriately selected so as not to deteriorate the video quality. This is a device that can reduce noise.

また、実施の形態1に係る映像処理方法は、実施の形態1に係る映像処理装置1によって実行可能な方法である。実施の形態1に係る映像処理方法は、動画像を構成する一連の複数のフレームの1つを着目フレームとし、前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方を動き検出用参照フレームとして用いて、前記着目フレームと前記動き検出用参照フレームとの間の動きを推定し、前記着目フレームを構成する画素単位の動きベクトルを検出する動き検出ステップ(動き検出部10によって実行されるステップ)と、動き検出ステップにおいて検出された前記動きベクトル、前記着目フレーム、及び前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方であるノイズ低減用参照フレームを用いて、前記着目フレームのノイズが低減されたノイズ低減フレームを生成するノイズ低減ステップ(ノイズ低減部20によって実行されるステップ)とを有している。ここで、ノイズ低減ステップは、動きベクトルの境界画素を検出し、前記検出された境界画素を示す動きベクトル境界画素情報を生成する動きベクトル境界検出ステップ(後述する動きベクトル境界検出手段202によって実行されるステップ)と、前記着目フレームと前記動き検出用参照フレームとの間における画素値変化率を解析し、前記画素値変化率の解析結果情報を生成する画素値変化率解析ステップ(後述する画素値変化率解析手段201によって実行されるステップ)と、前記動きベクトル境界画素情報及び前記画素値変化率の解析結果情報を用いて前記ノイズ低減フレームの生成を行うノイズ低減フレーム生成ステップ(後述するフレームブレンド率算出手段204、ノイズ低減画像生成手段205、動き誤検出領域補正係数算出手段203、動き誤検出領域補正手段206などによって実行されるステップ)とを含んでいる。   The video processing method according to the first embodiment is a method that can be executed by the video processing device 1 according to the first embodiment. In the video processing method according to the first embodiment, one of a plurality of frames constituting a moving image is set as a frame of interest, and at least one of a temporally preceding frame and a temporally subsequent frame of the frame of interest is used. A motion detection step (motion detection unit 10) that uses the motion detection reference frame as a motion detection reference frame to estimate motion between the target frame and the motion detection reference frame and detect a motion vector in units of pixels constituting the target frame. And a reference for noise reduction that is at least one of the motion vector detected in the motion detection step, the frame of interest, a frame temporally preceding the frame of interest, and a frame temporally following the frame of interest. Noise reduction frame in which the noise of the frame of interest is reduced using a frame And a (steps performed by the noise reduction unit 20) noise reduction step of generating. Here, the noise reduction step is performed by a motion vector boundary detection step (detected by a motion vector boundary detection unit 202 described later) that detects a boundary pixel of a motion vector and generates motion vector boundary pixel information indicating the detected boundary pixel. And a pixel value change rate analysis step (a pixel value to be described later) for analyzing the pixel value change rate between the frame of interest and the motion detection reference frame and generating analysis result information of the pixel value change rate A step executed by the change rate analysis unit 201) and a noise reduction frame generation step (frame blend described later) for generating the noise reduction frame using the motion vector boundary pixel information and the analysis result information of the pixel value change rate. Rate calculation means 204, noise reduction image generation means 205, motion error detection area correction coefficient Detecting means 203 includes the step) and executed by such motion erroneous detection area correcting unit 206.

また、映像処理装置1は、プログラムによって動作するコンピュータであってもよい。このプログラムは、コンピュータに処理を実行させるプログラムであって、前記処理は、動画像を構成する一連の複数のフレームの1つを着目フレームとし、前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方を動き検出用参照フレームとして用いて、前記着目フレームと前記動き検出用参照フレームとの間の動きを推定し、前記着目フレームを構成する画素単位の動きベクトルを検出する動き検出処理と、前記動き検出処理において検出された前記動きベクトル、前記着目フレーム、及び前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方であるノイズ低減用参照フレームを用いて、前記着目フレームのノイズが低減されたノイズ低減フレームを生成するノイズ低減処理とを含み、前記ノイズ低減処理は、前記動きベクトルの境界画素を検出し、前記検出された境界画素を示す動きベクトル境界画素情報を生成する動きベクトル境界検出処理と、前記着目フレームと前記動き検出用参照フレームとの間における画素値変化率を解析し、前記画素値変化率の解析結果情報を生成する画素値変化率解析処理と、前記動きベクトル境界画素情報及び前記画素値変化率の解析結果情報を用いて前記ノイズ低減フレームの生成を行うノイズ低減フレーム生成処理とを含んでいる。   The video processing apparatus 1 may be a computer that operates according to a program. This program is a program for causing a computer to execute processing. In the processing, one of a plurality of frames constituting a moving image is set as a frame of interest, and a frame temporally preceding the frame of interest and temporal Is used as a motion detection reference frame to estimate a motion between the frame of interest and the motion detection reference frame, and detect a motion vector in pixel units constituting the frame of interest A noise detection reference frame that is at least one of a motion detection process, the motion vector detected in the motion detection process, the frame of interest, a frame temporally preceding the frame of interest, and a frame temporally following the frame of interest. Using a noise reduction frame in which the noise of the frame of interest is reduced. Noise reduction processing to be performed, wherein the noise reduction processing detects a boundary pixel of the motion vector and generates motion vector boundary pixel information indicating the detected boundary pixel; and A pixel value change rate analysis process for analyzing a pixel value change rate between the frame and the motion detection reference frame, and generating analysis result information of the pixel value change rate, the motion vector boundary pixel information, and the pixel value And noise reduction frame generation processing for generating the noise reduction frame using the analysis result information of the change rate.

また、上記プログラムは、コンピュータで読み取り可能な記録媒体に記録することができる。この場合には、プログラムを記録したコンピュータで読み取り可能な記録媒体も、本発明の一部をなす。   The program can be recorded on a computer-readable recording medium. In this case, a computer-readable recording medium on which the program is recorded also forms a part of the present invention.

図1に示される動き検出部10は、動画像を構成する一連の複数のフレーム(すなわち、時間的に並ぶ複数のフレームから構成されるフレーム列)FS1を受け取り、この一連の複数のフレームFS1の内の1つを着目フレームとし、この着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方を参照フレームとして用いて(実施の形態1においては、両方のフレームを誤り検出用参照フレームとしている。)、着目フレームと該着目フレームの前後のフレームとの間の動きを推定して画素単位で(すなわち、フレーム内の各画素について)動きベクトルMVを検出する。例えば、動き検出部10は、フレームバッファ30から動画像を構成する一連の複数のフレームFS1を受け取り、受け取った一連の複数のフレームFS1の内の互いに隣接するフレームである第1フレームFn−1と第2フレームFとの間の動きベクトル、及び、互いに隣接する第2フレームFと第3フレームFn+1との間の動きベクトルを検出する。なお、nは、正の整数であり、Fの添え字であるn−1,n,n+1,…は、フレームの並びの順番を示す整数である。また、動きベクトルの検出に用いるフレームは、上記連続する3フレームに限定されない。 The motion detection unit 10 shown in FIG. 1 receives a series of a plurality of frames (that is, a frame sequence composed of a plurality of frames arranged temporally) FS1 constituting a moving image, and the series of the plurality of frames FS1. One of the frames is a target frame, and at least one of a temporally preceding frame and a temporally subsequent frame is used as a reference frame (in the first embodiment, both frames are used for error detection. The motion vector MV is detected in pixel units (that is, for each pixel in the frame) by estimating the motion between the frame of interest and the frames before and after the frame of interest. For example, the motion detection unit 10 receives a series of a plurality of frames FS1 constituting a moving image from the frame buffer 30, and a first frame F n−1 which is a frame adjacent to each other in the received series of frames FS1. Motion vector between the second frame F n and the second frame F n and a motion vector between the second frame F n and the third frame F n + 1 adjacent to each other. Note that n is a positive integer, and the subscripts n of F, n−1, n, n + 1,... Are integers indicating the order of frame arrangement. Also, the frames used for motion vector detection are not limited to the three consecutive frames.

ノイズ低減部20は、動き検出部10によって検出された動きベクトル、着目フレーム、及び着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方である参照フレーム(ノイズ低減用参照フレーム)を用いて、着目フレームのノイズが低減されたノイズ低減フレームを生成する。ノイズ低減部20は、動きベクトルの境界画素を検出し、前記検出された境界画素を示す動きベクトル境界画素情報を生成する動きベクトル境界検出手段(後述する動きベクトル境界検出手段202)と、着目フレームと動き検出用参照フレームとの間における画素値変化率を解析し、画素値変化率の解析結果情報を生成する画素値変化率解析手段(後述する画素値変化率解析手段201)と、前記動きベクトル境界画素情報及び前記画素値変化率の解析結果情報を用いて前記ノイズ低減フレームFS3の生成を行うノイズ低減フレーム生成手段(後述するフレームブレンド率算出手段204、ノイズ低減画像生成手段205、動き誤検出領域補正係数算出手段203、動き誤検出領域補正手段206)とを含んでいる。なお、ノイズ低減フレームFS3の生成に用いるフレームは、上記連続する3フレームに限定されない。   The noise reduction unit 20 includes a reference frame (a reference frame for noise reduction) that is at least one of a motion vector detected by the motion detection unit 10, a frame of interest, a frame temporally preceding the frame of interest, and a temporally subsequent frame. ) Is used to generate a noise reduction frame in which the noise of the frame of interest is reduced. The noise reduction unit 20 detects a motion vector boundary pixel, generates motion vector boundary pixel information indicating the detected boundary pixel, motion vector boundary detection means (motion vector boundary detection means 202 described later), a frame of interest A pixel value change rate analyzing means (pixel value change rate analyzing means 201 described later) for analyzing a pixel value change rate between the reference frame for motion detection and a motion detection reference frame, and generating analysis result information of the pixel value change rate; Noise reduction frame generation means for generating the noise reduction frame FS3 using the vector boundary pixel information and the analysis result information of the pixel value change rate (frame blend rate calculation means 204, noise reduction image generation means 205, motion error described later) Detection area correction coefficient calculation means 203, motion error detection area correction means 206). Note that the frame used for generating the noise reduction frame FS3 is not limited to the three consecutive frames.

図2は、図1に示されるノイズ低減部20の構成を概略的に示す機能ブロック図である。図2に示されるように、ノイズ低減部20は、フレーム間の画素値の変化率を解析して、フレーム間の画素値変化率の解析結果情報ANを生成する画素値変化率解析手段201と、動きベクトルMVの分布を解析し、動きベクトルMVの境界を検出して、動きベクトルMVの境界画素を示す動きベクトル境界画素情報BOを生成する動きベクトル境界検出手段202と、動き検出部10によって行われた動きの検出が誤りであると判断できる領域を検出して、この検出結果に基づいて画像を補正するための補正係数ERを算出する動き誤検出領域補正係数算出手段203とを有する。また、ノイズ低減部20は、ノイズ低減のためのフレームの重み付き平均を計算する際に用いられるフレーム合成係数であるブレンド重み係数(フレームブレンド率)BWを算出するフレームブレンド率算出手段204と、ブレンド重み係数BWを用いてノイズ低減処理を行うノイズ低減画像生成手段205と、動き検出部10によって行われた動きの検出が誤りであると判断できる領域における、検出された動きの誤りに起因するノイズ低減画像の乱れを補正する動き誤検出領域補正手段206とを有する。なお、図2において、207は、動画像を構成する一連の複数のフレーム(すなわち、第1、第2、第3フレームFn−1,F,Fn+1を含むフレーム列)FS1が入力される入力端子を示し、208は、画素単位の動きベクトルMVが入力される入力端子を示し、209は、ノイズを低減した画像データであるノイズ低減フレームFS3が出力される出力端子を示す。 FIG. 2 is a functional block diagram schematically showing the configuration of the noise reduction unit 20 shown in FIG. As shown in FIG. 2, the noise reduction unit 20 analyzes the change rate of the pixel value between frames, and generates pixel value change rate analysis means 201 that generates analysis result information AN of the pixel value change rate between frames. A motion vector boundary detection unit 202 that analyzes the distribution of the motion vector MV, detects a boundary of the motion vector MV, and generates motion vector boundary pixel information BO indicating the boundary pixel of the motion vector MV; It has a motion erroneous detection region correction coefficient calculation means 203 for detecting a region where it can be determined that the detected motion is erroneous and calculating a correction coefficient ER for correcting the image based on the detection result. In addition, the noise reduction unit 20 includes a frame blend rate calculation unit 204 that calculates a blend weight coefficient (frame blend rate) BW that is a frame synthesis coefficient used when calculating a weighted average of frames for noise reduction. Due to the detected motion error in the noise-reduced image generation means 205 that performs noise reduction processing using the blend weight coefficient BW and the region in which the motion detection performed by the motion detection unit 10 can be determined to be erroneous. And a motion erroneous detection region correction means 206 for correcting the disturbance of the noise reduced image. In FIG. 2, reference numeral 207 denotes a series of a plurality of frames (that is, a frame sequence including the first, second, and third frames F n−1 , F n , and F n + 1 ) FS1 that is a moving image. 208 denotes an input terminal to which a pixel-based motion vector MV is input, and 209 denotes an output terminal from which a noise reduction frame FS3, which is image data with reduced noise, is output.

画素値変化率解析手段201は、入力端子207を介して入力される一連の複数のフレームFS1の内の第1、第2、第3フレームFn−1,F,Fn+1と、入力端子208を介して入力される画素単位の動きベクトルMVとを受け取り、受け取った第1、第2、第3フレームFn−1,F,Fn+1及び動きベクトルMVに基づいて、フレーム間の画素値の変化を画素毎に解析し、フレーム間の画素値変化率の解析結果情報ANを生成する。 The pixel value change rate analysis unit 201 includes a first frame, a second frame, a third frame F n−1 , F n , F n + 1 in a series of a plurality of frames FS 1 input via the input terminal 207, and an input terminal. A pixel-by-pixel motion vector MV input via 208, and based on the received first, second, and third frames F n−1 , F n , F n + 1 and the motion vector MV, pixels between frames The change in value is analyzed for each pixel, and analysis result information AN of the pixel value change rate between frames is generated.

動きベクトル境界検出手段202は、入力端子208を介して入力される画素単位の動きベクトルMVを受け取り、検出対象となる対象画素の動きベクトルとこの対象画素に隣接する隣接画素の動きベクトルとの差が所定の値以上になる対象画素を動きベクトルの境界画素として抽出し、この抽出された境界画素に関する情報である動きベクトル境界画素情報BO及び動きベクトルMVを出力する。   The motion vector boundary detection unit 202 receives the motion vector MV in units of pixels input via the input terminal 208, and the difference between the motion vector of the target pixel to be detected and the motion vector of the adjacent pixel adjacent to the target pixel. A target pixel having a value equal to or greater than a predetermined value is extracted as a motion vector boundary pixel, and motion vector boundary pixel information BO and motion vector MV, which are information related to the extracted boundary pixel, are output.

動き誤検出領域補正係数算出手段203は、画素値変化率解析手段201からフレーム間の画素値変化率の解析結果情報ANを受け取り、動きベクトル境界検出手段202から動きベクトルMV及び動きベクトル境界画素情報BOを受け取り、受け取った画素値変化率の解析結果情報AN、動きベクトルMV、及び動きベクトル境界画素情報BOに基づいて、各画素における動きベクトルの誤検出の有無を判断し、誤検出がある画素の補正係数ERを算出する。   The motion error detection region correction coefficient calculation unit 203 receives the analysis result information AN of the pixel value change rate between frames from the pixel value change rate analysis unit 201, and receives the motion vector MV and motion vector boundary pixel information from the motion vector boundary detection unit 202. A pixel that has received the BO, determines the presence or absence of erroneous detection of the motion vector in each pixel based on the received pixel value change rate analysis result information AN, the motion vector MV, and the motion vector boundary pixel information BO. The correction coefficient ER is calculated.

フレームブレンド率算出手段204は、画素値変化率解析手段201からフレーム間の画素値変化率の解析結果情報ANを受け取り、動きベクトル境界検出手段202から動きベクトルMV及び動きベクトル境界画素情報BOを受け取り、受け取った画素値変化率の解析結果情報AN、動きベクトルMV、及び動きベクトル境界画素情報BOに基づいて、第1、第2、第3フレームFn−1,F,Fn+1の重み付き平均に用いるブレンド重み係数BWを算出する。 The frame blend rate calculation unit 204 receives the analysis result information AN of the pixel value change rate between frames from the pixel value change rate analysis unit 201, and receives the motion vector MV and the motion vector boundary pixel information BO from the motion vector boundary detection unit 202. Based on the received pixel value change rate analysis result information AN, motion vector MV, and motion vector boundary pixel information BO, the first, second, and third frames F n−1 , F n , and F n + 1 are weighted. A blend weight coefficient BW used for averaging is calculated.

ノイズ低減画像生成手段205は、入力端子207を介して第1、第2、第3フレームFn−1,F,Fn+1を受け取り、フレームブレンド率算出手段204からブレンド重み係数BWを受け取り、受け取ったブレンド重み係数BWと第1、第2、第3フレームFn−1,F,Fn+1とに基づいて、着目フレームのノイズ低減画像(動き誤検出領域を考慮した補正係数ERによる補正前のノイズ低減フレーム)FS2を生成する。 The noise reduction image generation unit 205 receives the first, second, and third frames F n−1 , F n , and F n + 1 via the input terminal 207, receives the blend weight coefficient BW from the frame blend rate calculation unit 204, Based on the received blend weight coefficient BW and the first, second, and third frames F n−1 , F n , and F n + 1 , the noise-reduced image of the frame of interest (correction by the correction coefficient ER considering the motion error detection region) The previous noise reduction frame) FS2 is generated.

動き誤検出領域補正手段206は、入力端子207を介して第1、第2、第3フレームFn−1,F,Fn+1を受け取り、動き誤検出領域補正係数算出手段203から補正係数ERを受け取り、ノイズ低減画像生成手段205からノイズ低減フレームFS2を受け取り、受け取った第1、第2、第3フレームFn−1,F,Fn+1、補正係数ER、及びノイズ低減画像FS2に基づいて、ノイズ低減画像FS2の動き誤検出領域の補正を行ない、補正後の画像、すなわち、ノイズ低減された映像データを構成する一連の複数のフレーム(ノイズ低減フレーム)FS3を生成する。 The motion error detection area correction unit 206 receives the first, second, and third frames F n−1 , F n , and F n + 1 via the input terminal 207, and the correction coefficient ER from the motion error detection area correction coefficient calculation unit 203. And the noise reduction frame FS2 is received from the noise reduction image generation means 205, and is based on the received first, second, and third frames F n−1 , F n , F n + 1 , the correction coefficient ER, and the noise reduction image FS2. Thus, the motion erroneous detection region of the noise reduced image FS2 is corrected, and a corrected image, that is, a series of a plurality of frames (noise reduced frames) FS3 constituting the noise-reduced video data is generated.

図3は、図2に示されるフレームブレンド率算出手段204の構成を概略的に示す機能ブロック図である。図3に示されるように、フレームブレンド率算出手段204は、画素値変化率の解析結果情報ANから、第1、第2、第3フレームFn−1,F,Fn+1のノイズ低減への寄与率に応じた優先度PRを算出する参照フレーム優先度算出手段2041と、動きベクトルMV及び動きベクトル境界画素情報BOからオクルージョンを判定してオクルージョン判定結果OCを生成するオクルージョン判定手段2042と、ブレンド重み係数率BWを算出するブレンド重み係数算出手段2043とを有する。なお、図3において、2044は、画素値変化率の解析結果情報ANが入力される入力端子を示し、2045は、動きベクトルMVと動きベクトル境界情報BOが入力される入力端子を示し、2046は、ブレンド重み係数BWが出力される出力端子を示す。 FIG. 3 is a functional block diagram schematically showing the configuration of the frame blend rate calculation means 204 shown in FIG. As shown in FIG. 3, the frame blend rate calculation means 204 reduces the noise of the first, second, and third frames F n−1 , F n , and F n + 1 from the analysis result information AN of the pixel value change rate. Reference frame priority calculation means 2041 for calculating a priority PR according to the contribution rate of the image, occlusion determination means 2042 for determining occlusion from the motion vector MV and the motion vector boundary pixel information BO, and generating an occlusion determination result OC; Blend weight coefficient calculation means 2043 for calculating the blend weight coefficient rate BW. In FIG. 3, 2044 indicates an input terminal to which the analysis result information AN of the pixel value change rate is input, 2045 indicates an input terminal to which the motion vector MV and the motion vector boundary information BO are input, and 2046 indicates , The output terminal from which the blend weight coefficient BW is output.

参照フレーム優先度算出手段2041は、入力端子2044を介して画素値変化率の解析結果情報ANを受け取り、第1、第2、第3フレームFn−1,F,Fn+1のそれぞれのノイズの有無、前景物体が背景を隠すオクルージョンの有無を推定し、第1、第2、第3フレームFn−1,F,Fn+1のノイズ低減処理に最適な優先度PRを算出する。 The reference frame priority calculation means 2041 receives the analysis result information AN of the pixel value change rate via the input terminal 2044, and each noise of the first, second, and third frames F n−1 , F n , and F n + 1. And the presence / absence of occlusion that hides the background of the foreground object, and the priority PR optimum for the noise reduction processing of the first, second, and third frames F n−1 , F n , and F n + 1 is calculated.

オクルージョン判定手段2042は、入力端子2045を介して動きベクトルMVと動きベクトル境界画素情報BOを受け取り、画素単位でオクルージョンの有無を判定し、画素毎のオクルージョンの有無を示すオクルージョン判定結果OCを生成する。   The occlusion determination unit 2042 receives the motion vector MV and the motion vector boundary pixel information BO via the input terminal 2045, determines the presence / absence of occlusion for each pixel, and generates an occlusion determination result OC indicating the presence / absence of occlusion for each pixel. .

ブレンド重み係数算出手段2043は、参照フレーム優先度算出手段2041から、第1、第2、第3フレームFn−1,F,Fn+1の優先度PRを受け取り、オクルージョン判定手段2042から画素毎のオクルージョン判定結果OCを受け取り、受け取った優先度PR及びオクルージョン判定結果OCに基づいて、第1、第2、第3フレームFn−1,F,Fn+1の重み付き平均に用いるブレンド重み係数BWを算出する。 The blend weight coefficient calculating unit 2043 receives the priority PR of the first, second, and third frames F n−1 , F n , and F n + 1 from the reference frame priority calculating unit 2041, and for each pixel from the occlusion determining unit 2042. The blend weight coefficient used for the weighted average of the first, second, and third frames F n−1 , F n , and F n + 1 based on the received priority PR and the occlusion determination result OC BW is calculated.

図4は、図2に示される動き誤検出領域補正係数算出手段203の構成を概略的に示す機能ブロック図である。図4に示されるように、動き誤検出領域補正係数算出手段203は、画素値変化率の解析結果情報ANに基づいて、補正の要否を判定する画素値急変領域検出手段2031と、動きベクトル境界画素情報BOに基づいて、参照フレームを決定する際に参照フレームが不定となる参照フレーム不定領域を検出して、検出結果を示す参照フレーム不定領域情報BRを生成する参照フレーム不定領域検出手段2032とを有する。また、動き誤検出領域補正係数算出手段203は、動きベクトル境界が集中する動きベクトル境界集中領域を検出する動きベクトル境界集中領域検出手段2033と、動きベクトルの誤検出領域を補正するための補正係数ERを算出する補正係数算出手段2034とを有する。なお、図4において、2035は、画素値変化率の解析結果情報ANが入力される入力端子を示し、2036は、動きベクトルMVと動きベクトル境界画素情報BOとが入力される入力端子を示し、2037は、動きが誤検出された領域を補正するための補正係数ERが出力される出力端子を示す。   FIG. 4 is a functional block diagram schematically showing the configuration of the motion error detection region correction coefficient calculation unit 203 shown in FIG. As shown in FIG. 4, the motion error detection region correction coefficient calculation unit 203 includes a pixel value sudden change region detection unit 2031 that determines whether correction is necessary based on the analysis result information AN of the pixel value change rate, and a motion vector. Based on the boundary pixel information BO, a reference frame indefinite area detecting unit 2032 that generates a reference frame indefinite area information BR indicating a detection result by detecting a reference frame indefinite area in which the reference frame becomes indefinite when determining a reference frame. And have. The motion error detection area correction coefficient calculation means 203 includes a motion vector boundary concentration area detection means 2033 for detecting a motion vector boundary concentration area where motion vector boundaries are concentrated, and a correction coefficient for correcting a motion vector error detection area. Correction coefficient calculation means 2034 for calculating ER. In FIG. 4, 2035 indicates an input terminal to which the analysis result information AN of the pixel value change rate is input, 2036 indicates an input terminal to which the motion vector MV and the motion vector boundary pixel information BO are input, Reference numeral 2037 denotes an output terminal from which a correction coefficient ER for correcting a region where motion is erroneously detected is output.

画素値急変領域検出手段2031は、入力端子2035を介して画素値変化率の解析結果情報ANを受け取り、受け取った画素値変化率の解析結果情報ANに基づいて、動きの誤検出の影響で画素値が急激に変化する領域を検出し、検出した領域を示す補正対象領域情報SRを生成する。   The pixel value sudden change area detection unit 2031 receives the analysis result information AN of the pixel value change rate via the input terminal 2035, and the pixel value is affected by the erroneous detection of motion based on the received analysis result information AN of the pixel value change rate. A region where the value changes rapidly is detected, and correction target region information SR indicating the detected region is generated.

参照フレーム不定領域検出手段2032は、入力端子2036を介して動きベクトルMVと動きベクトル境界画素情報BOを受け取り、受け取った動きベクトルMVと動きベクトル境界画素情報BOに基づいて、オクルージョンを避けて画素値の参照先を決定する参照フレームが不定である領域を検出し、動きベクトルMVの信頼度が低く、ノイズ低減処理を行うことが不適切な領域を示す参照フレーム不定領域情報RRを生成する。   The reference frame indefinite region detection means 2032 receives the motion vector MV and the motion vector boundary pixel information BO via the input terminal 2036, and avoids occlusion based on the received motion vector MV and the motion vector boundary pixel information BO. An area where the reference frame for determining the reference destination is indefinite is detected, and reference frame indefinite area information RR indicating an area where the reliability of the motion vector MV is low and noise reduction processing is inappropriate is generated.

動きベクトル境界集中領域検出手段2033は、入力端子2036を介して動きベクトルMVと動きベクトル境界画素情報BOを受け取り、受け取った動きベクトルMV及び動きベクトル境界画素情報BOに基づいて、動きの誤検出に起因すると推測される動きベクトル境界集中領域を示す動きベクトル境界集中領域情報BRを生成する。   The motion vector boundary concentration region detection unit 2033 receives the motion vector MV and the motion vector boundary pixel information BO via the input terminal 2036, and detects motion erroneously based on the received motion vector MV and motion vector boundary pixel information BO. Motion vector boundary concentration region information BR indicating a motion vector boundary concentration region estimated to be caused is generated.

補正係数算出手段2034は、画素値急変領域検出手段2031から画素値が急激に変化している補正対象領域情報SRを受け取り、参照フレーム不定領域検出手段2032から参照フレーム不定領域情報RRを受け取り、動きベクトル境界集中領域検出手段2033から動きベクトル境界集中領域情報BRを受け取り、受け取った情報SR,RR,BRに基づいて、これらの領域におけるノイズ低減画像(図2におけるFS2)上の画像の乱れを補正するための補正係数ERを算出する。   The correction coefficient calculation unit 2034 receives the correction target region information SR in which the pixel value is rapidly changing from the pixel value sudden change region detection unit 2031, receives the reference frame indefinite region information RR from the reference frame indefinite region detection unit 2032, and moves The motion vector boundary concentration region information BR is received from the vector boundary concentration region detection means 2033, and the image disturbance on the noise reduced image (FS2 in FIG. 2) in these regions is corrected based on the received information SR, RR, BR. A correction coefficient ER is calculated for this purpose.

《1−2》実施の形態1の動作
《1−2−1》画素値変化率解析手段201
以下に、各機能ブロックの処理内容の詳細を、図面を参照しながら説明する。画素値変化率解析手段201は、第1、第2、第3フレームFn−1,F,Fn+1を受け取り、各画素について、動き補償された第1、第2、第3フレームFn−1,F,Fn+1間の画素値の変化を解析する。
<< 1-2 >> Operation of Embodiment 1 << 1-2-1 >> Pixel Value Change Rate Analysis Unit 201
Details of processing contents of each functional block will be described below with reference to the drawings. The pixel value change rate analysis unit 201 receives the first, second, and third frames F n−1 , F n , and F n + 1 , and motion-compensated first, second, and third frames F n for each pixel. Changes in pixel values between −1 , F n , and F n + 1 are analyzed.

図5は、実施の形態1に係る映像処理装置1におけるノイズ低減処理で参照する第1、第2、第3フレームFn−1,F,Fn+1及び座標位置(図5の上側)、並びに、ノイズ低減処理されたノイズ低減フレームM(図5の下側)を概略的に示す図である。図5に示されるように、実施の形態1においては、映像処理装置1は、第2フレームFをノイズ低減の対象である着目フレームとし、この第2フレームFよりも時間的に先行するフレーム(前フレーム)である第1フレームFn−1及び時間的に後続するフレーム(後フレーム)である第3フレームFn+1を参照フレームとして利用する。ただし、映像処理装置1が使用するフレームの組は、図5の例に限定されない。例えば、動き検出部10は、第1、第2、第3フレームFn−1,F,Fn+1の中から2つのフレームを選択し、選択された2つのフレームを用いて動きを検出し、ノイズ低減部20は、第1、第2、第3フレームFn−1,F,Fn+1の3つのフレームを用いてノイズ低減処理を行うように構成してもよい。 FIG. 5 shows first, second, and third frames F n−1 , F n , F n + 1 and coordinate positions (upper side in FIG. 5) that are referred to in noise reduction processing in the video processing apparatus 1 according to the first embodiment. And it is a figure which shows roughly the noise reduction frame Mn (lower side of FIG. 5) by which the noise reduction process was carried out. As shown in FIG. 5, in the first embodiment, the video processing device 1 sets the second frame F n as a frame of interest that is a target for noise reduction, and precedes the second frame F n in terms of time. A first frame F n−1 that is a frame (previous frame) and a third frame F n + 1 that is a temporally subsequent frame (rear frame) are used as reference frames. However, the set of frames used by the video processing apparatus 1 is not limited to the example of FIG. For example, the motion detection unit 10 selects two frames from the first, second, and third frames F n−1 , F n , and F n + 1 , and detects motion using the selected two frames. The noise reduction unit 20 may be configured to perform noise reduction processing using three frames of the first, second, and third frames F n−1 , F n , and F n + 1 .

図5は、静止した背景111上を画像中の左下から右上に向かって円状の前景物体110が移動する様子を示している。図5の例においては、第2フレームFにおける背景(前景物体110以外の領域)111上の着目画素P1は、静止した背景111上にあるため、動き検出部10から出力された動きベクトルMVである「0ベクトル」に基づき、第1フレームFn−1及び第3フレームFn+1上においても第2フレームF上の画素P1と同一座標の第1フレームFn−1上の画素P1n−1及び第3フレームFn+1上の画素P1n+1を参照することができる。一方、第2フレームF上の画素P2は、移動する前景物体110上にあるため、第1フレームFn−1及び第3フレームFn+1上においては、第2フレームF上の画素P2の座標とは異なる座標の画素を参照する。すなわち、第2フレームF上の画素P2は、動き検出部10から出力された動きベクトルに従って、第1フレームFn−1上の画素P2n−1及び第3フレームFn+1上の画素P2n+1を参照する。 FIG. 5 shows how the circular foreground object 110 moves on the stationary background 111 from the lower left to the upper right in the image. In the example of FIG. 5, since the pixel of interest P1 n on the background (region other than the foreground object 110) 111 in the second frame F n is on the stationary background 111, the motion vector output from the motion detection unit 10 A pixel on the first frame F n−1 having the same coordinates as the pixel P1 n on the second frame F n also on the first frame F n−1 and the third frame F n + 1 based on the “0 vector” that is MV. Reference may be made to pixel P1 n + 1 on P1 n-1 and third frame F n + 1 . On the other hand, the pixel P2 n on the second frame F n is, because there on the foreground object 110 to be moved, in the first frame F n-1 and the third on the frame F n + 1, the pixels on the second frame F n P2 A pixel having a coordinate different from the coordinate of n is referred to. That is, the pixel P2 n on the second frame F n is, according to the motion vector output from the motion detection unit 10, the first frame F n-1 on the pixel P2 n-1 and the third frame F n + 1 on the pixel P2 Refer to n + 1 .

図6(a)から(i)は、図2に示される画素値変化率解析手段201による画素値変化率の解析結果情報ANの具体例としての解析パターンPA1,PA2,…,PA9を示すグラフである。画素値変化率解析手段201は、動き検出部10から出力された動きベクトルMVに基づいて動き補償された3フレームにわたる画素値の変化を、図6(a)から(i)に示される9パターンPA1,PA2,…,PA9のいずれかに分類する。   6A to 6I are graphs showing analysis patterns PA1, PA2,..., PA9 as specific examples of the analysis result information AN of the pixel value change rate by the pixel value change rate analyzing unit 201 shown in FIG. It is. The pixel value change rate analysis unit 201 changes pixel values over three frames, which are motion-compensated based on the motion vector MV output from the motion detection unit 10, in nine patterns shown in FIGS. 6 (a) to 6 (i). It is classified into one of PA1, PA2,.

図6(a)から(c)は、画素値の差の絶対値が比較的小さいパターンを示している。図6(a)は、画素値の差の絶対値が予め決められた第1閾値TH1以下であるパターンを示しており、この場合には、画素値の変化は、微小変化パターンPA1に分類される。図6(b)は、画素値の差の絶対値が、予め決められた第1閾値TH1より大きいが、第2の閾値TH2以下であり(ただし、TH1<TH2)、且つ、時間の経過に伴い画素値の差の絶対値が増加するパターンを示しており、この場合には、画素値の変化は、単調増加パターンPA2に分類される。図6(c)は、画素値の差の絶対値が予め決められた第1閾値TH1より大きく第2の閾値TH2以下であり、且つ、時間の経過に伴い画素値の差の絶対値が減少するパターンを示しており、この場合には、画素値の変化は、単調減少パターンPA3に分類される。   FIGS. 6A to 6C show patterns in which the absolute value of the pixel value difference is relatively small. FIG. 6A shows a pattern in which the absolute value of the difference between the pixel values is equal to or less than a first threshold TH1, which is determined in advance. In this case, the change in the pixel value is classified into a minute change pattern PA1. The FIG. 6B shows that the absolute value of the difference between the pixel values is larger than the predetermined first threshold value TH1, but less than or equal to the second threshold value TH2 (however, TH1 <TH2), and over time. A pattern in which the absolute value of the difference between the pixel values increases is shown. In this case, the change in the pixel value is classified into a monotone increasing pattern PA2. FIG. 6C shows that the absolute value of the pixel value difference is larger than the predetermined first threshold value TH1 and less than or equal to the second threshold value TH2, and the absolute value of the pixel value difference decreases with time. In this case, the change in the pixel value is classified into a monotone decreasing pattern PA3.

図6(d)から(f)は、画素値の差の絶対値が第2閾値TH2より大きく、後述する後端差DifN(第2フレームF上の画素と第3フレームFn+1上の画素の間の画素値の差の絶対値)、両端差DifM(第1フレームFn−1上の画素と第3フレームFn+1上の画素の間の画素値の差の絶対値)、前方差DifP(第1フレームFn−1上の画素と第2フレームF上の画素の間の画素値の差の絶対値)が予め決められた第3閾値TH3以下であるパターンを示している。図6(d)は、第1、第2、第3フレームFn−1,F,Fn+1の画素値の差の絶対値が第2閾値TH2より大きく、且つ、後端差DifNについては、DifN≦TH3であるパターンを示しており、この場合には、画素値の変化は、前方不一致パターンPA4に分類される。図6(e)は、第1、第2、第3フレームFn−1,F,Fn+1の画素値の差の絶対値が第2閾値TH2より大きく、且つ、両端差DifMについては、DifM≦TH3であるパターンを示しており、この場合には、画素値の変化は、中央不一致パターンPA5に分類される。図6(f)は、第1、第2、第3フレームFn−1,F,Fn+1の画素値の差の絶対値が第2閾値TH2より大きく、且つ、前方差DifPについては、DifP≦TH3であるパターンを示しており、この場合には、画素値の変化は、後方不一致パターンPA6に分類される。 FIG 6 (d) (f) is greater than the absolute value of the second threshold TH2 of the difference between the pixel values, the pixel of the pixel and the third frame F n + 1 on the rear differential DifN (second frame F n, which will be described later The absolute value of the difference between the pixel values between the first frame F n−1 and the third frame F n + 1 ), the forward difference DifP A pattern in which (the absolute value of the difference in pixel value between the pixel on the first frame F n−1 and the pixel on the second frame F n ) is equal to or less than a predetermined third threshold value TH3 is shown. FIG. 6D shows that the absolute value of the difference between the pixel values of the first, second, and third frames F n−1 , F n , and F n + 1 is larger than the second threshold value TH2, and the rear end difference DifN is , DifN ≦ TH3. In this case, the change in pixel value is classified into the forward mismatch pattern PA4. In FIG. 6E, the absolute value of the difference between the pixel values of the first, second, and third frames F n−1 , F n , and F n + 1 is larger than the second threshold TH2, and the difference DifM between the both ends is A pattern where DifM ≦ TH3 is shown. In this case, the change in pixel value is classified into the center mismatch pattern PA5. FIG. 6F shows that the absolute value of the difference between the pixel values of the first, second, and third frames F n−1 , F n , and F n + 1 is larger than the second threshold value TH2, and the forward difference DifP is A pattern in which DifP ≦ TH3 is shown. In this case, a change in pixel value is classified into a backward mismatch pattern PA6.

図6(g)から(i)は、第1、第2、第3フレームFn−1,F,Fn+1の画素値の差の絶対値が大きいパターンを示している。図6(h)は、図6(a)から(f)のパターンPA1,…,PA6いずれにも分類されず、且つ、単調増加するパターンを示しており、この場合には、画素値の変化は、単調大増加パターンPA8に分類される。図6(i)は、図6(a)から(f)のパターンPA1,…,PA6いずれにも分類されず、且つ、単調減少するパターンを示しており、この場合には、画素値の変化は、単調大減少パターンPA9に分類される。図6(g)は、図6(a)から(f)、(h)、(i)のパターンPA1,…,PA6,PA8,PA9のいずれにも分類されないパターンを示しており、この場合には、画素値の変化は、不規則パターンPA7に分類される。ただし、図6(a)から(i)の一式の分析結果パターンは一例であり、他のパターンを採用することもできる。 FIGS. 6G to 6I show patterns in which the absolute value of the difference between the pixel values of the first, second, and third frames F n−1 , F n , and F n + 1 is large. FIG. 6H shows a pattern that is not classified into any of the patterns PA1,..., PA6 of FIGS. 6A to 6F and monotonously increases. Are classified into a monotonous large increase pattern PA8. FIG. 6 (i) shows a pattern that is not classified into any of the patterns PA1,..., PA6 in FIGS. 6 (a) to 6 (f) and monotonously decreases. In this case, the pixel value changes. Are classified into the monotonous large decrease pattern PA9. FIG. 6 (g) shows patterns that are not classified into any of the patterns PA1,..., PA6, PA8, PA9 in FIGS. 6 (a) to (f), (h), (i). The change in pixel value is classified into an irregular pattern PA7. However, the set of analysis result patterns in FIGS. 6A to 6I is an example, and other patterns may be adopted.

図7は、図2に示される画素値変化率解析手段201により実行される画素値変化パターンの分類処理を概略的に示すフローチャートである。図7に示されるように、画素値変化率解析手段201は、第1、第2、第3フレームFn−1,F,Fn+1の画像中の着目フレームの各画素に対してパターン分類を行う。 FIG. 7 is a flowchart schematically showing a pixel value change pattern classification process executed by the pixel value change rate analysis unit 201 shown in FIG. As shown in FIG. 7, the pixel value change rate analysis unit 201 performs pattern classification for each pixel of the frame of interest in the images of the first, second, and third frames F n−1 , F n , and F n + 1. I do.

先ず、画素値変化率解析手段201は、対象画素(x、y)の初期値を座標を(0,0)に設定する(ステップST1)。   First, the pixel value change rate analysis unit 201 sets the coordinates of the initial value of the target pixel (x, y) to (0, 0) (step ST1).

次に、画素値変化率解析手段201は、第1、第2、第3フレームFn−1,F,Fn+1間の画素値の差の絶対値を、例えば、式(1)、(2)、(3)により求める。

Figure 2014158083
Next, the pixel value change rate analyzing unit 201 calculates the absolute value of the difference between the pixel values between the first, second, and third frames F n−1 , F n , and F n + 1 , for example, Equations (1) and ( 2) and (3).
Figure 2014158083

DifN(x,y)、DifM(x,y)、DifP(x,y)はそれぞれ、第2及び第3フレームF,Fn+1間の画素値の差の絶対値である後方差DifN、第1及び第3フレームFn−1,Fn+1間の画素値の差の絶対値である両端差DifM、第1及び第2フレームFn−1,F間の画素値の差の絶対値である前方差DifPを示す。また、In−1(x,y),In(x,y),In+1(x,y)はそれぞれ、第1、第2、第3フレームFn−1,F,Fn+1における座標(x,y)の画素の画素値を示す。また、v(x,y),v(x,y)はそれぞれ、第2フレームFにおける座標(x,y)の動きベクトルのx,y成分を示す。なお、画素値は、座標(x,y)の画素の輝度値であってもよく、又は、RGBの値それぞれにおける計算結果の和であってもよい。 DifN (x, y), DifM (x, y), and DifP (x, y) are the backward difference DifN, which is the absolute value of the pixel value difference between the second and third frames F n and F n + 1 , respectively. The absolute value of the difference between both ends DifM, which is the absolute value of the difference between the pixel values between the first and third frames F n−1 and F n + 1 , and the difference between the pixel values between the first and second frames F n−1 and F n. A certain forward difference DifP is shown. Further, I n−1 (x, y), In (x, y), and I n + 1 (x, y) are coordinates in the first, second, and third frames F n−1 , F n , and F n + 1, respectively . The pixel value of the pixel (x, y) is shown. Further, v x (x, y) and v y (x, y) indicate the x and y components of the motion vector at the coordinates (x, y) in the second frame F n , respectively. The pixel value may be a luminance value of a pixel at coordinates (x, y), or may be a sum of calculation results for each of RGB values.

画素値変化率解析手段201は、式(1)、(2)、(3)で求めた各フレーム間の画素値の差の絶対値の内の最も値が大きいものを、式(4)に示す値maxDif(x,y)として求める。

Figure 2014158083
The pixel value change rate analysis unit 201 obtains the largest value among the absolute values of the pixel value differences between the frames obtained by the equations (1), (2), and (3) as the equation (4). It is determined as the indicated value maxDif (x, y).
Figure 2014158083

画素値変化率解析手段201は、maxDif(x,y)が、予め決められた第1の閾値TH1以下(maxDif(x,y)≦TH1)であれば(ステップST2でYES)、画素値の変化を、微小変化パターンPA1(図6(a))に分類する(ステップST3)。   The pixel value change rate analysis unit 201 determines that the pixel value is changed if maxDif (x, y) is equal to or less than a predetermined first threshold value TH1 (maxDif (x, y) ≦ TH1) (YES in step ST2). The change is classified into a minute change pattern PA1 (FIG. 6A) (step ST3).

画素値変化率解析手段201は、maxDif(x,y)が、第1の閾値TH1より大(minDif(x,y)>TH1)であり(ステップST2でNO)、maxDif(x,y)が、予め決められた第2の閾値TH2以下(maxDif(x,y)≦TH2)であり(ステップST4でYES)、且つ、時間経過と共に画素値が増加する(ステップST5でYES)場合は、画素値の変化を、単調増加パターンPA2(図6(b))に分類する(ステップST6)。   In the pixel value change rate analysis unit 201, maxDif (x, y) is larger than the first threshold value TH1 (minDif (x, y)> TH1) (NO in step ST2), and maxDif (x, y) is If the pixel value is less than or equal to a predetermined second threshold TH2 (maxDif (x, y) ≦ TH2) (YES in step ST4) and the pixel value increases with time (YES in step ST5), the pixel The change in value is classified into a monotone increasing pattern PA2 (FIG. 6B) (step ST6).

画素値変化率解析手段201は、第1の閾値TH1より大(minDif(x,y)>TH1)であり、maxDif(x,y)が、第2の閾値TH2以下であり、且つ、時間経過と共に画素値が減少する場合(ステップST7でYES)は、画素値の変化を、単調減少パターンPA3(図6(c))に分類する(ステップST8)。   The pixel value change rate analysis unit 201 is greater than the first threshold value TH1 (minDif (x, y)> TH1), maxDif (x, y) is equal to or less than the second threshold value TH2, and time elapses. At the same time, when the pixel value decreases (YES in step ST7), the change in the pixel value is classified into a monotonous decrease pattern PA3 (FIG. 6C) (step ST8).

画素値変化率解析手段201は、画素値の変化が微小変化パターンPA1、単調増加パターンPA2、単調減少パターンPA3以外の場合で、式(1)に示す前端差DifN(x,y)が、予め決められた第3の閾値TH3以下である場合は(ステップST9でYES)、画素値の変化を、前方不一致パターンPA4に分類し(ステップST10)、式(2)に示す値DifM(x,y)が第3の閾値TH3以下である場合は(ステップST11でYES)、画素値の変化を、中央不一致パターンPA5(図6(e))に分類し(ステップST12)、式(3)に示す値DifP(x,y)が、第3の閾値TH3以下である場合は(ステップST13でYES)、画素値の変化を、後方不一致パターンPA6(図6(f))に分類する(ステップST14)。   The pixel value change rate analyzing means 201 is a case where the change in the pixel value is other than the minute change pattern PA1, the monotone increase pattern PA2, and the monotone decrease pattern PA3, and the front end difference DifN (x, y) shown in Expression (1) is calculated in advance. If it is equal to or less than the determined third threshold TH3 (YES in step ST9), the change in pixel value is classified into the forward mismatch pattern PA4 (step ST10), and the value DifM (x, y shown in equation (2) ) Is less than or equal to the third threshold value TH3 (YES in step ST11), the change in pixel value is classified into the center mismatch pattern PA5 (FIG. 6 (e)) (step ST12), as shown in equation (3). When the value DifP (x, y) is equal to or smaller than the third threshold value TH3 (YES in step ST13), the change in the pixel value is classified into the backward mismatch pattern PA6 (FIG. 6 (f)). Flop ST14).

画素値変化率解析手段201は、画素値の変化がパターンPA1,…,PA6以外の場合で、時間経過と共に画素値が増加する場合は(ステップST15でYES)、画素値の変化を、単調大増加パターンPA8(図6(h))に分類し(ステップST16)、時間経過と共に画素値が減少する場合は(ステップST17でYES)、画素値の変化を、単調大減少パターンPA9(図6(i))に分類し(ステップST18)、画素値の変化がパターンPA1,…,PA6,PA8,PA9以外の場合は(ステップST17でNO)、画素値の変化を、不規則パターンPA9(図6(i))に分類する(ステップST19)。   The pixel value change rate analysis means 201 is a monotonically large change in pixel value when the pixel value changes other than the patterns PA1,..., PA6 and the pixel value increases with time (YES in step ST15). If the pixel value decreases with the passage of time (step ST17: YES), it is classified into the increase pattern PA8 (FIG. 6 (h)) (step ST17: YES). i)) (step ST18), and when the pixel value change is other than the patterns PA1,..., PA6, PA8, PA9 (NO in step ST17), the pixel value change is changed to the irregular pattern PA9 (FIG. 6). (I)) (step ST19).

次に、画素値変化率解析手段201は、対象画素が着目フレーム(1フレーム)内の最終画素でなければ、処理をステップST1に戻し、対象画素が1フレーム内の最終画素であれば、処理を終了する(ステップST20)。処理がステップST1に戻ると、画素値変化率解析手段201は、対象画素(x、y)の初期値の座標を未処理の座標に変更し、ステップST2以降の処理を実行する。   Next, the pixel value change rate analysis unit 201 returns the process to step ST1 if the target pixel is not the final pixel in the target frame (one frame), and performs processing if the target pixel is the final pixel in one frame. Is finished (step ST20). When the process returns to step ST1, the pixel value change rate analysis unit 201 changes the coordinates of the initial value of the target pixel (x, y) to unprocessed coordinates, and executes the processes after step ST2.

《1−2−2》動きベクトル境界検出手段202
動きベクトル境界検出手段202は、隣接する画素の動きベクトルの差が所定の閾値以上の画素を動きベクトル境界として分類する。隣接する画素の動きベクトルの差は、例えば、ラプラシアンフィルタに基づいて、式(5)のように定義される。

Figure 2014158083
ただし、動きベクトルの差を式(5)とは異なる式で算出してもよい。 << 1-2-2 >> Motion vector boundary detection means 202
The motion vector boundary detection unit 202 classifies pixels whose motion vector difference between adjacent pixels is equal to or greater than a predetermined threshold as a motion vector boundary. The difference between the motion vectors of adjacent pixels is defined as in Expression (5) based on a Laplacian filter, for example.
Figure 2014158083
However, the motion vector difference may be calculated by an expression different from Expression (5).

《1−2−3》フレームブレンド率算出手段204
フレームブレンド率算出手段204は、ノイズ低減画像生成手段205が第1、第2、第3フレームFn−1,F,Fn+1の重み付き平均を算出する際に用いるブレンド重み係数BWを算出する。参照フレーム優先度算出手段2041は、画素値変化率解析手段201から出力される画素値変化率の解析結果情報ANを受け取り、第1のブレンド重み係数(KN−1,K,KN+1)を算出する。画素値変化率解析手段201から出力される画素値変化率の解析結果情報ANが微小変化パターンPA1、単調増加パターンPA2、単調減少パターンPA3のいずれかである場合は、第1のブレンド重み係数(KN−1,K,KN+1)を、式(6)のように設定する。画素値変化率解析手段201から出力される画素値変化率の解析結果情報ANが前方不一致パターンPA4の場合は、第1のブレンド重み係数(KN−1,K,KN+1)を、式(7)のように設定し、画素値変化率の解析結果情報ANが中央不一致パターンPA5の場合は、第1のブレンド重み係数(KN−1,K,KN+1)を、式(8)のように設定し、画素値変化率の解析結果情報ANが後方不一致パターンPA6の場合は、第1のブレンド重み係数(KN−1,K,KN+1)を、式(9)のように設定し、それ以外の場合は、第1のブレンド重み係数(KN−1,K,KN+1)を、式(10)のように設定する。
<< 1-2-3 >> Frame Blend Rate Calculation Means 204
The frame blend ratio calculation unit 204 calculates a blend weight coefficient BW used when the noise reduction image generation unit 205 calculates a weighted average of the first, second, and third frames F n−1 , F n , and F n + 1. To do. The reference frame priority calculation unit 2041 receives the pixel value change rate analysis result information AN output from the pixel value change rate analysis unit 201, and receives first blend weight coefficients (K N−1 , K N , K N + 1 ). Is calculated. When the pixel value change rate analysis result information AN output from the pixel value change rate analyzing unit 201 is any one of the minute change pattern PA1, the monotone increase pattern PA2, and the monotone decrease pattern PA3, the first blend weight coefficient ( K N−1 , K N , K N + 1 ) are set as shown in Expression (6). When the analysis result information AN of the pixel value change rate output from the pixel value change rate analyzing unit 201 is the forward mismatch pattern PA4, the first blend weight coefficients (K N−1 , K N , K N + 1 ) are expressed by the formula When the pixel value change rate analysis result information AN is the center mismatch pattern PA5, the first blend weight coefficients (K N−1 , K N , K N + 1 ) are expressed by the formula (8). ), And when the pixel value change rate analysis result information AN is the backward mismatch pattern PA6, the first blend weight coefficients (K N−1 , K N , K N + 1 ) are expressed by the equation (9). In other cases, the first blend weight coefficients (K N−1 , K N , K N + 1 ) are set as in Expression (10).

PA1、PA2、PA3の場合:
(KN−1,K,KN+1)=(1/3,1/3,1/3) 式(6)
PA4の場合:
(KN−1,K,KN+1)=(1−α,α/2,α/2) 式(7)
PA5の場合:
(KN−1,K,KN+1)=(α/2,1−α,α/2) 式(8)
PA6の場合:
(KN−1,K,KN+1)=(α/2,α/2,1−α) 式(9)
PA7、PA8、PA9の場合:
(KN−1,K,KN+1)=((1−α)/2,α,(1−α)/2) 式(10)
ここで、αは、2/3以上1以下の所定の値である。
For PA1, PA2 and PA3:
(K N−1 , K N , K N + 1 ) = (1/3, 1/3, 1/3) Equation (6)
For PA4:
(K N−1 , K N , K N + 1 ) = (1−α, α / 2, α / 2) Equation (7)
For PA5:
(K N−1 , K N , K N + 1 ) = (α / 2, 1−α, α / 2) Equation (8)
For PA6:
(K N−1 , K N , K N + 1 ) = (α / 2, α / 2, 1−α) Equation (9)
For PA7, PA8, PA9:
(K N−1 , K N , K N + 1 ) = ((1−α) / 2, α, (1−α) / 2) Equation (10)
Here, α is a predetermined value of 2/3 or more and 1 or less.

画素値変化率解析手段201から出力される画素値変化率の解析結果情報ANが微小変化パターンPA1、単調増加パターンPA2、単調減少パターンPA3のいずれかである場合は、第1、第2、第3フレームFn−1,F,Fn+1の対応する座標の画素値は、いずれも近い値であるため、第1、第2、第3フレームFn−1,F,Fn+1のすべてのフレームが、ノイズ低減に有効である。 When the pixel value change rate analysis result information AN output from the pixel value change rate analysis unit 201 is any one of the minute change pattern PA1, the monotone increase pattern PA2, and the monotone decrease pattern PA3, the first, second, and second 3 frame F n-1, F n, the pixel values of the corresponding coordinates of F n + 1, since both are close values, first, second, third frame F n-1, F n, F n + 1 for all These frames are effective for noise reduction.

一方で、画素値変化率解析手段201から出力される画素値変化率の解析結果情報ANが前方不一致パターンPA4、中央不一致パターンPA5、後方不一致パターンPA6のいずれかである場合は、それぞれ第1フレームFn−1、第2フレームF及び第3フレームFn+1がノイズなどの影響で他のフレームと大きく異なった値を示しているため、ノイズ低減処理の際に、画素値変化率の解析結果情報ANが微小変化パターンPA1、単調増加パターンPA2、単調減少パターンPA3のいずれかである場合よりも、このフレームの影響を小さくすることでより、より適切なノイズ低減が可能となる。 On the other hand, when the pixel value change rate analysis result information AN output from the pixel value change rate analyzing unit 201 is any one of the front mismatch pattern PA4, the center mismatch pattern PA5, and the rear mismatch pattern PA6, the first frame Since F n−1 , the second frame F n and the third frame F n + 1 show values that are significantly different from other frames due to the influence of noise or the like, the analysis result of the pixel value change rate during the noise reduction processing As compared with the case where the information AN is any one of the minute change pattern PA1, the monotone increase pattern PA2, and the monotone decrease pattern PA3, noise can be more appropriately reduced by reducing the influence of this frame.

画素値変化率解析手段201から出力される画素値変化率の解析結果情報ANがパターンPA7、PA8、PA9の場合は、第1、第2、第3フレームFn−1,F,Fn+1が大きく異なる画素値を持つため、重み付き平均をとることでノイズ低減を行うことが適切でないと推測できる。このため、ノイズ低減の対象フレームである第2フレームFの重みを大きくし、参照フレーム(第1及び第3フレーム)の影響を小さくすることで、ノイズが強調されてしまうなどのリスクを回避している。 When the analysis result information AN of the pixel value change rate output from the pixel value change rate analysis unit 201 is the patterns PA7, PA8, and PA9, the first, second, and third frames F n−1 , F n , and F n + 1. Can be estimated to be inappropriate for noise reduction by taking a weighted average. Therefore, by increasing the weight of the second frame F n is a target frame noise reduction, to reduce the influence of the reference frame (first and third frames), avoiding the risk of noise from being emphasized doing.

なお、実施の形態1においては、フレームブレンド率算出手段204が、微小変化パターンPA1、単調増加パターンPA2、単調減少パターンPA3の区別を行っておらず、また、不規則パターンPA7、単調大増加パターンPA8、単調大減少パターンPA9の区別を行っていないため、画素値変化率解析手段201における分類段階において、これらの区別を行わない簡便な方法を採用してもよい。   In the first embodiment, the frame blend rate calculation unit 204 does not distinguish between the minute change pattern PA1, the monotone increase pattern PA2, and the monotone decrease pattern PA3, and the irregular pattern PA7, the monotone large increase pattern. Since the PA8 and the monotonic large decrease pattern PA9 are not distinguished, a simple method that does not distinguish between them may be employed in the classification stage in the pixel value change rate analysis unit 201.

また、フレームブレンド率算出手段204においては、微小変化パターンPA1、単調増加パターンPA2、単調減少パターンPA3の場合におけるαの値と、不規則パターンPA7、単調大増加パターンPA8、単調大減少パターンPA9の場合におけるαの値とを変えたり、個々の係数を調整するなど、詳細な処理を採用してもよい。   Further, in the frame blend rate calculation means 204, the value of α in the case of the minute change pattern PA1, the monotone increase pattern PA2, the monotone decrease pattern PA3, the irregular pattern PA7, the monotone large increase pattern PA8, and the monotone large decrease pattern PA9. Detailed processing such as changing the value of α in each case or adjusting individual coefficients may be employed.

図8(a)から(c)は、オクルージョンの一例を示す図である。オクルージョン判定手段2042は、前景物体が背景領域を隠す領域を検出し、第1、第2、第3フレームFn−1,F,Fn+1から適切なフレームを選択してノイズ低減を行うよう第2のブレンド重み係数を算出する。図8(a)から(c)は、第1、第2、第3フレームFn−1,F,Fn+1において、静止している背景121上を矩形の前景物体120が右に向かって動く様子を表したものである。第2フレームFにおいて前景物体120の左側の領域122は、第1フレームFn−1で前景物体120によって隠されている。同様に、前景物体120の右の領域123は、第3フレームFn+1においては、前景物体120によって隠されている。すなわち、領域122のノイズ低減をする際は、第1フレームFn−1を参照することは適切ではなく、領域123のノイズ低減をする際は第3フレームFn+1を参照することは適切ではない。オクルージョン判定手段2042は、このような時間的に先行する第1フレームFn−1及び時間的に後続する第3フレームFn+1で隠される領域を検出し、ブレンド重み係数BWを算出する。 FIGS. 8A to 8C are diagrams illustrating an example of occlusion. The occlusion determination means 2042 detects a region where the foreground object hides the background region, and performs noise reduction by selecting an appropriate frame from the first, second, and third frames F n−1 , F n , and F n + 1. A second blend weight coefficient is calculated. FIGS. 8A to 8C show the rectangular foreground object 120 facing the right on the stationary background 121 in the first, second, and third frames F n−1 , F n , and F n + 1 . It shows how it moves. The region 122 on the left side of the foreground object 120 in the second frame F n is hidden by the foreground object 120 in the first frame F n−1 . Similarly, the right region 123 of the foreground object 120 is hidden by the foreground object 120 in the third frame F n + 1 . That is, it is not appropriate to refer to the first frame F n−1 when reducing the noise in the region 122, and it is not appropriate to refer to the third frame F n + 1 when reducing the noise in the region 123. . The occlusion determination unit 2042 detects a region hidden by the first temporally preceding first frame F n−1 and the temporally succeeding third frame F n + 1 and calculates a blend weight coefficient BW.

前後のフレームで隠される領域は、前景物体120と背景121の境界周辺に分布する。境界の検出は、画像にソーベルフィルタなどの微分フィルタを適用することで得ることができるが、微分フィルタを適用した場合には、同一物体中の模様も境界として検出してしまう。そこで、実施の形態1においては、動きベクトルの境界を用いる。動きベクトル境界検出手段202から動きベクトル境界画素情報BOを受け取り、動きベクトルの境界画素の周辺をオクルージョン領域とする。具体的には、フレーム中のすべての動きベクトルの境界画素に対し、上下左右方向に一定距離の画素から得た動きベクトルのx,y成分の差に基づいてオクルージョン領域を設定する。すなわち、式(11)に表すDistX(x,y)の絶対値を横幅とし、DistY(x,y)の絶対値を縦幅とする矩形領域が座標(x,y)に位置する動きベクトルの境界画素の周辺に設定されるオクルージョン領域となる。
DistX(x,y)=v(x+χ,y)−v(x−χ,y) 式(11)
DistY(x,y)=v(x,y+χ)−v(x,y−χ) 式(12)
ここで、χは、上下左右方向の参照する画素を決めるための所定の距離値であり、v(x,y),v(x,y)はそれぞれ、第2フレームFにおける座標(x,y)の動きベクトルのx,y成分を示す。
The area hidden by the preceding and following frames is distributed around the boundary between the foreground object 120 and the background 121. The boundary can be detected by applying a differential filter such as a Sobel filter to the image. However, when the differential filter is applied, a pattern in the same object is also detected as a boundary. Therefore, in the first embodiment, a motion vector boundary is used. The motion vector boundary pixel information BO is received from the motion vector boundary detection means 202, and the periphery of the motion vector boundary pixel is set as an occlusion region. Specifically, an occlusion area is set based on the difference between the x and y components of a motion vector obtained from pixels of a certain distance in the vertical and horizontal directions for all motion vector boundary pixels in the frame. That is, a motion vector in which a rectangular area having the absolute value of DistX (x, y) represented by Expression (11) as the horizontal width and the absolute value of DistY (x, y) as the vertical width is located at the coordinates (x, y) is shown. This is an occlusion area set around the boundary pixel.
DistX (x, y) = v x (x + χ, y) −v x (x−χ, y) Equation (11)
DistY (x, y) = v y (x, y + χ) −v y (x, y−χ) Equation (12)
Here, χ is a predetermined distance value for determining a reference pixel in the vertical and horizontal directions, and v x (x, y) and v y (x, y) are coordinates in the second frame F n ( x, y) represents the x, y component of the motion vector.

図9は、図3に示されるフレームブレンド率算出手段204のオクルージョン判定手段2042から出力されるオクルージョン判定結果OCに基づくオクルージョン領域132,133の一例を示す図である。図9は、131(濃いハッチング部分)の周辺にオクルージョン領域132,133(斜線部分)を設定する例である。ここでは、簡単のために水平方向のみに注目して説明する。動きベクトルの境界画素131の左側は、画像中で右向きに「1」の動きが検出されており、右側は、画像中で左向き「2」(右向き「−2」)の動きが検出されている場合を説明する。この場合には、
DistX(x,y)=(−2)−1=−3
となる。この場合、オクルージョン領域132,133の横幅は、「3」となるため、幅「3」のオクルージョン領域132,133が動きベクトルの境界画素131の両側に設定されることとなる。
FIG. 9 is a diagram illustrating an example of the occlusion areas 132 and 133 based on the occlusion determination result OC output from the occlusion determination unit 2042 of the frame blend ratio calculation unit 204 illustrated in FIG. FIG. 9 shows an example in which occlusion areas 132 and 133 (shaded portions) are set around 131 (dark hatched portions). Here, for the sake of simplicity, only the horizontal direction will be described. On the left side of the boundary pixel 131 of the motion vector, a “1” motion is detected rightward in the image, and a leftward “2” (rightward “−2”) motion is detected on the right side of the image. Explain the case. In this case,
DistX (x, y) = (− 2) −1 = −3
It becomes. In this case, since the horizontal width of the occlusion areas 132 and 133 is “3”, the occlusion areas 132 and 133 having the width “3” are set on both sides of the boundary pixel 131 of the motion vector.

図8(a)から(c)に示されるように、オクルージョン判定手段2042は、オクルージョン領域が、領域122のように時間的に先行する第1フレームFn−1で隠されるのか、領域123のように時間的に後続する第3フレームFn+1で隠されるのかを、オクルージョン領域生成もとの動きベクトルの境界画素125,126から判断する。すなわち、DistX(x,y)の絶対値とDistY(x,y)の絶対値を比較し、大きいほうの符号が正であれば、領域122のように時間的に先行する第1フレームFn−1で隠され、大きいほうの符号が負であれば、領域123のように時間的に後続する第3フレームFn+1で隠される。動きベクトルの境界画素125に着目すると、境界の左側は、静止している背景であるので動き「0」であり、右側は、右向きに動いているため水平方向に正の動きを持っており、DistX(x,y)は、正となる。一方、動きベクトルの境界画素126に着目すると、境界の右側は、静止している背景であるので、動き「0」であり、左側は、右向きに動いているため水平方向に正の動きを持っており、DistX(x,y)は、負となる。 As shown in FIGS. 8A to 8C, the occlusion determination unit 2042 determines whether the occlusion area is hidden by the first frame F n−1 that temporally precedes like the area 122. In this way, it is determined from the boundary pixels 125 and 126 of the motion vector from which the occlusion area is generated whether it is hidden in the third frame F n + 1 that temporally follows. That is, the absolute value of DistX (x, y) is compared with the absolute value of DistY (x, y). If the larger sign is positive, the first frame F n that precedes in time as in the region 122. If it is hidden by −1 and the larger sign is negative, it is hidden in the third frame F n + 1 that temporally follows as in the region 123. Focusing on the boundary pixel 125 of the motion vector, the left side of the boundary is a stationary background, so the movement is “0”, and the right side is moving rightward, and thus has a positive movement in the horizontal direction. DistX (x, y) is positive. On the other hand, paying attention to the boundary pixel 126 of the motion vector, the right side of the boundary is a stationary background, so the motion is “0”, and the left side is moving rightward, and thus has a positive motion in the horizontal direction. DistX (x, y) is negative.

第2のブレンド重み係数(CN−1,C,CN+1)は、オクルージョン領域であるか否か、及び、オクルージョン領域が時間的に前又は後のいずれのフレームで隠されているか、に基づいて決定される。オクルージョン領域以外の画素の第2のブレンド重み係数(CN−1,C,CN+1)は、式(13)で算出され、オクルージョン領域で時間的に後続するフレームで隠される領域の画素の第2のブレンド重み係数(CN−1,CN,CN+1)は、式(14)で算出され、オクルージョン領域で時間的に先行するフレームで隠される領域の画素の第2のブレンド重み係数(CN−1,C,CN+1)は、式(15)で算出される。
(CN−1,C,CN+1)=(1/3,1/3,1/3) 式(13)
(CN−1,C,CN+1)=(β/2,β/2,1−β) 式(14)
(CN−1,C,CN+1)=(1−β,β/2,β/2) 式(15)
ここで、βは、2/3以上1以下の所定の値である。
The second blend weight coefficient (C N−1 , C N , C N + 1 ) determines whether or not the occlusion area is present and whether the occlusion area is hidden in the frame before or after in time. To be determined. The second blend weight coefficients (C N−1 , C N , C N + 1 ) of the pixels other than the occlusion area are calculated by the equation (13), and the pixels of the area hidden in the temporally subsequent frame in the occlusion area The second blend weight coefficient (C N−1 , CN, C N + 1 ) is calculated by the equation (14), and the second blend weight coefficient ((2) of the pixel in the region hidden in the temporally preceding frame in the occlusion region ( C N−1 , C N , C N + 1 ) are calculated by the equation (15).
(C N−1 , C N , C N + 1 ) = (1/3, 1/3, 1/3) Equation (13)
(C N−1 , C N , C N + 1 ) = (β / 2, β / 2, 1−β) Equation (14)
(C N−1 , C N , C N + 1 ) = (1−β, β / 2, β / 2) Equation (15)
Here, β is a predetermined value of 2/3 or more and 1 or less.

このように、動きベクトルの境界画素に着目し、その周辺をオクルージョン領域とすることで、前景物体による隠を考慮した適切なフレームを選択してのノイズ低減が可能となる。   In this way, by focusing on the boundary pixels of the motion vector and setting the periphery thereof as an occlusion area, it is possible to reduce noise by selecting an appropriate frame in consideration of hiding by the foreground object.

ブレンド重み係数算出手段2043は、参照フレーム優先度算出手段2041が算出した第1のブレンド重み係数と、オクルージョン判定手段2042が算出した第2のブレンド重み係数を用いてノイズ低減画像生成手段205が第1、第2、第3フレームFn−1,F,Fn+1の重み付き平均を算出するためのブレンド重み係数(BN−1,B,BN+1)を算出する。算出式は、式(16)、又は、式(17)、(18)である。 The blend weight coefficient calculation means 2043 uses the first blend weight coefficient calculated by the reference frame priority calculation means 2041 and the second blend weight coefficient calculated by the occlusion determination means 2042, and the noise reduction image generation means 205 uses the first blend weight coefficient. Blend weight coefficients (B N−1 , B N , B N + 1 ) for calculating the weighted average of the first, second, and third frames F n−1 , F n , and F n + 1 are calculated. The calculation formula is formula (16) or formulas (17) and (18).

Figure 2014158083
Figure 2014158083
ここで、γは、0以上1以下の所定の値、δは、ブレンド重み係数の正規化のための値である。
Figure 2014158083
Figure 2014158083
Here, γ is a predetermined value between 0 and 1, and δ is a value for normalizing the blend weight coefficient.

《1−2−4》ノイズ低減画像生成手段205
ノイズ低減画像生成手段205は、フレームブレンド率算出手段204によって算出されたブレンド重み係数(BN−1,B,BN+1)を用いて、入力端子207を介して入力されたデータからノイズ低減画像を生成する。ノイズ低減画像生成手段205は、例えば、ノイズ低減画像の各画素値NR(x,y)を、式(19)に従い算出することでノイズ低減画像を生成する。

Figure 2014158083
<< 1-2-4 >> Noise Reduction Image Generating Unit 205
The noise reduction image generation unit 205 uses the blend weight coefficients (B N−1 , B N , B N + 1 ) calculated by the frame blend rate calculation unit 204 to reduce noise from data input through the input terminal 207. Generate an image. For example, the noise reduced image generation unit 205 generates a noise reduced image by calculating each pixel value NR (x, y) of the noise reduced image according to Expression (19).
Figure 2014158083

《1−2−5》動き誤検出領域補正係数算出手段203
動き誤検出領域補正係数算出手段203は、画素値変化率解析手段201から画素値変化率の解析結果情報ANを受け取り、動きベクトル境界検出手段202から動きベクトルMV及び動きベクトル境界画素情報BOを受け取り、画素値変化率の解析結果情報ANと動きベクトルMVと動きベクトル境界画素情報BOとに基づいて、動き検出部10において検出された動きに誤りがある画素を検出し、この画素を補正するための補正係数ERを算出する。
<< 1-2-5 >> Motion Error Detection Area Correction Coefficient Calculation Means 203
The motion error detection region correction coefficient calculation unit 203 receives the analysis result information AN of the pixel value change rate from the pixel value change rate analysis unit 201, and receives the motion vector MV and the motion vector boundary pixel information BO from the motion vector boundary detection unit 202. In order to detect a pixel having an error in motion detected by the motion detector 10 based on the analysis result information AN of the pixel value change rate, the motion vector MV, and the motion vector boundary pixel information BO, and to correct the pixel The correction coefficient ER is calculated.

画素値急変領域検出手段2031は、入力端子2035を介して画素値変化率の解析結果情報ANを受け取り、誤った動きベクトルにより画素値が急激に変化している画素を検出する。画素値に急激な変化があるのは、画素値変化率の解析結果情報ANの中で前方不一致パターンPA4、中央不一致パターンPA5、後方不一致パターンPA6、単調大増加パターンPA8、単調大減少パターンPA9、不規則パターンPA7の場合である。ただし、前方不一致パターンPA4、中央不一致パターンPA5、後方不一致パターンPA6は、オクルージョンが原因で画素値の急激な変化が起こったと推測でき、フレームブレンド率算出手段204においてオクルージョンに対応した係数を算出してノイズ低減を行っているため、これら3つのパターンの場合には、補正係数ERを用いた補正の対象としない。一方、単調大増加パターンPA8、単調大減少パターンPA9、不規則パターンPA7の場合は、いずれも第1、第2、第3フレームFn−1,F,Fn+1の3フレームにわたって値が大きく変化しており、動きベクトルが誤っているため、異なる物体の値が参照されたと推測される。よって、画素値急変領域検出手段2031は、単調大増加パターンPA8、単調大減少パターンPA9、不規則パターンPA7に分類されている画素を補正対象画素として出力する。 The pixel value sudden change region detection unit 2031 receives the analysis result information AN of the pixel value change rate via the input terminal 2035, and detects a pixel whose pixel value is changing rapidly due to an erroneous motion vector. The pixel value has a sudden change in the analysis result information AN of the pixel value change rate, that is, the front mismatch pattern PA4, the center mismatch pattern PA5, the rear mismatch pattern PA6, the monotonically large increase pattern PA8, the monotonously large decrease pattern PA9, This is the case of the irregular pattern PA7. However, the forward mismatch pattern PA4, the center mismatch pattern PA5, and the backward mismatch pattern PA6 can be presumed that the pixel value has changed suddenly due to occlusion, and the frame blend rate calculation means 204 calculates a coefficient corresponding to the occlusion. Since noise reduction is performed, these three patterns are not subjected to correction using the correction coefficient ER. On the other hand, in the case of the monotonous large increase pattern PA8, the monotonous large decrease pattern PA9, and the irregular pattern PA7, the values are large over the three frames of the first, second, and third frames F n−1 , F n , and F n + 1. Since it has changed and the motion vector is incorrect, it is presumed that a value of a different object has been referred to. Therefore, the pixel value sudden change region detection means 2031 outputs the pixels classified into the monotone large increase pattern PA8, the monotone large decrease pattern PA9, and the irregular pattern PA7 as correction target pixels.

図10は、図4に示される動き誤検出領域補正係数算出手段203の参照フレーム不定領域検出手段2032が検出する参照フレーム不定領域134の一例を示す図である。参照フレーム不定領域検出手段2032は、入力端子2036を介して動きベクトルMVと動きベクトル境界画素情報BOを受け取り、参照領域を決定することができない領域を補正対象として出力する。オクルージョン判定手段2042は、動きベクトルMVと動きベクトル境界画素情報BOから、図9に示されるように、動きベクトルの境界画素131の周辺をオクルージョン領域132,133として、さらに、その周辺の動きベクトルから第1フレームFn−1又は第3フレームFn+1のいずれにおける前景物体によって隠されていたのかを判断した。これに対し、参照フレーム不定領域検出手段2032は、図10に示されるように、動きベクトルの境界画素131(濃いハッチング部分)と動きベクトルの境界画素141(濃いハッチング部分)が近接している場合、動きベクトルの境界画素131の周辺領域132,133及び動きベクトルの境界画素141の周辺領域142,143が重なる領域134が発生する。オクルージョン判定手段2042は、後から生成されたオクルージョン領域で画像データが上書きされるため、動きベクトルの境界画素131を先に評価し、動きベクトルの境界画素141を後に評価した場合には、領域134は、動きベクトルの境界画素141の周辺のオクルージョン領域142であると判断する。しかし、領域134が、オクルージョン領域133に属するものとして扱う方が適切な場合もある。さらに、オクルージョン領域同士が重なるほど動きベクトル境界が近接することは、稀なことであるから、動き推定部10において動きベクトルの誤検出が発生したと推測できる。よって、参照フレーム不定領域検出手段2032は、このオクルージョン領域同士が重なる領域134を補正対象とする情報(参照フレーム不定領域情報)RRを出力する。 FIG. 10 is a diagram illustrating an example of the reference frame indefinite region 134 detected by the reference frame indefinite region detecting unit 2032 of the motion error detection region correction coefficient calculating unit 203 illustrated in FIG. The reference frame indefinite region detection unit 2032 receives the motion vector MV and the motion vector boundary pixel information BO via the input terminal 2036, and outputs a region where the reference region cannot be determined as a correction target. From the motion vector MV and the motion vector boundary pixel information BO, the occlusion determination means 2042 sets the periphery of the motion vector boundary pixel 131 as the occlusion regions 132 and 133 as shown in FIG. It was determined whether the first frame F n−1 or the third frame F n + 1 was hidden by the foreground object. On the other hand, as shown in FIG. 10, the reference frame indefinite area detection unit 2032 has a motion vector boundary pixel 131 (dark hatched portion) and a motion vector boundary pixel 141 (dark hatched portion) close to each other. Then, a region 134 in which the peripheral regions 132 and 133 of the motion vector boundary pixel 131 and the peripheral regions 142 and 143 of the motion vector boundary pixel 141 overlap is generated. Since the image data is overwritten in the occlusion area generated later, the occlusion determination means 2042 evaluates the boundary pixel 131 of the motion vector first, and evaluates the boundary pixel 141 of the motion vector later. Is determined to be the occlusion region 142 around the boundary pixel 141 of the motion vector. However, it may be appropriate to treat the area 134 as belonging to the occlusion area 133. Further, since it is rare that the motion vector boundaries become closer as the occlusion regions overlap each other, it can be estimated that the motion estimation unit 10 has erroneously detected a motion vector. Therefore, the reference frame indefinite area detecting unit 2032 outputs information (reference frame indefinite area information) RR that is a correction target for the area 134 where the occlusion areas overlap.

動きベクトル境界集中領域検出手段2033は、入力端子2036を介して動きベクトルMVと動きベクトル境界画素情報BOを受け取り、動きベクトル境界が局所的に集中している領域を補正対象領域とする情報(動きベクトル集中領域情報)BRとして出力する。様々な大きさ方向の動きベクトルが狭い領域に混在し動きベクトル境界が集中することは、稀なことであるから、動き推定部10において動きベクトルの誤検出が原因で動きベクトル境界が局所的に集中していると推測できる。   The motion vector boundary concentration region detection unit 2033 receives the motion vector MV and the motion vector boundary pixel information BO via the input terminal 2036, and sets information on the region where the motion vector boundary is locally concentrated as a correction target region (motion Vector concentrated area information) BR is output. Since it is rare that motion vectors of various magnitude directions are mixed in a narrow region and the motion vector boundaries are concentrated, the motion vector boundaries are locally localized in the motion estimation unit 10 due to erroneous detection of motion vectors. You can guess that it is concentrated.

図11は、図4に示される動き誤検出領域補正係数算出手段203の動きベクトル境界集中領域検出手段2033が検出する動きベクトル集中領域の一例を示す図である。動きベクトル境界集中領域検出手段2033は、動きベクトルの境界画素151(濃いハッチング部分)の集中の有無を判断するためにブロック処理を行う。所定の閾値を設定し、ブロック(図11においては4行4列の16画素からなる太線正方形の領域)内の画素の内の動きベクトルの境界画素151の数が予め決められた閾値を超えたブロックを動きベクトルの境界画素集中ブロックとして、ブロック内の画素を補正対象として出力する。図11は、4画素四方のブロックにおける処理を表したものである。ブロック154は、ブロック内の16画素の内、4画素が動きベクトルの境界画素151である。一方、ブロック155は、16画素中7画素が動きベクトルの境界画素151となっている。閾値を値「5」とした場合、ブロック154は、動きベクトルの境界画素集中ブロックに該当しないが、ブロック155は、動きベクトルの境界画素集中ブロックに該当する。このため、動きベクトル境界集中領域検出手段2033は、ブロック155に属する16画素を補正対象画素であることを示す情報(動きベクトル集中領域情報)BRを出力する。   FIG. 11 is a diagram illustrating an example of a motion vector concentration region detected by the motion vector boundary concentration region detection unit 2033 of the motion error detection region correction coefficient calculation unit 203 illustrated in FIG. The motion vector boundary concentration area detection unit 2033 performs block processing to determine whether or not the boundary pixels 151 (dark hatched portions) of the motion vector are concentrated. A predetermined threshold value is set, and the number of motion vector boundary pixels 151 in the pixels in the block (a thick square area of 16 pixels in 4 rows and 4 columns in FIG. 11) exceeds a predetermined threshold value. The block is output as a pixel to be corrected, and the pixels in the block are output as correction targets. FIG. 11 shows processing in a four-pixel square block. In the block 154, four of the 16 pixels in the block are the boundary pixels 151 of the motion vector. On the other hand, in the block 155, 7 out of 16 pixels are motion vector boundary pixels 151. When the threshold value is “5”, the block 154 does not correspond to a motion vector boundary pixel concentrated block, but the block 155 corresponds to a motion vector boundary pixel concentrated block. For this reason, the motion vector boundary concentration region detection unit 2033 outputs information (motion vector concentration region information) BR indicating that 16 pixels belonging to the block 155 are correction target pixels.

補正係数算出手段2034は、画素値急変領域検出手段2031と、参照フレーム不定領域検出手段2032と、動きベクトル境界集中領域検出手段2033とのそれぞれから、補正対象画素の情報を受け取り、画像中の各画素の補正係数を算出する。補正係数Conp(x、y)は、式(20)に示されるように、画素値急変領域検出手段2031、参照フレーム不定領域検出手段2032、動きベクトル境界集中領域検出手段2033の出力結果のいずれかが補正対象ならば「1」とし、いずれも補正対象外ならば「0」とする。   The correction coefficient calculation unit 2034 receives information on the correction target pixel from each of the pixel value sudden change region detection unit 2031, the reference frame indefinite region detection unit 2032, and the motion vector boundary concentration region detection unit 2033. A pixel correction coefficient is calculated. The correction coefficient Conp (x, y) is one of the output results of the pixel value sudden change region detection unit 2031, the reference frame indefinite region detection unit 2032, and the motion vector boundary concentration region detection unit 2033, as shown in Expression (20). If it is a correction target, “1” is set, and if both are not correction targets, “0” is set.

Figure 2014158083
ここで、S(x,y),S(x,y),S(x,y)は、座標(x,y)について、画素値急変領域検出手段2031、参照フレーム不定領域検出手段2032、動きベクトル境界集中領域検出手段2033の出力結果が補正対象なら「真」、補正対象外なら「偽」を出力する関数である。
Figure 2014158083
Here, S 1 (x, y), S 2 (x, y), and S 3 (x, y) are pixel value sudden change area detection means 2031 and reference frame indefinite area detection means for coordinates (x, y). 2032, a function that outputs “true” if the output result of the motion vector boundary concentration area detection unit 2033 is a correction target, and “false” if it is not a correction target.

なお、補正係数は、式(20)以外の式に基づいて算出してもよい。例えば、式(21)に示されるように、画素値急変領域検出手段2031、参照フレーム不定領域検出手段2032、動きベクトル境界集中領域検出手段2033の出力結果それぞれに重みをつけて、補正係数を算出してもよい。   The correction coefficient may be calculated based on an expression other than Expression (20). For example, as shown in Expression (21), the correction coefficient is calculated by weighting the output results of the pixel value sudden change region detection unit 2031, the reference frame indefinite region detection unit 2032, and the motion vector boundary concentration region detection unit 2033. May be.

Figure 2014158083
ここで、P(x,y),P(x,y),P(x,y)は、座標(x,y)について、画素値急変領域検出手段2031、参照フレーム不定領域検出手段2032、動きベクトル境界集中領域検出手段2033の出力結果が補正対象なら「1」、補正対象外なら「0」を出力する関数であり、Col,Colは、予め決められたブレンド重み係数である。
Figure 2014158083
Here, P 1 (x, y), P 2 (x, y), and P 3 (x, y) are pixel value sudden change area detection means 2031 and reference frame indefinite area detection means for coordinates (x, y). 2032 is a function that outputs “1” if the output result of the motion vector boundary concentration area detection unit 2033 is a correction target and “0” if it is not a correction target. Col 1 and Col 2 are blend weight coefficients determined in advance. is there.

さらに、式(22)及び(23)に示されるように第1、第2、第3フレームFn−1,F,Fn+1間における画素値の差に応じて補正係数を変更してもよい。 Further, as shown in the equations (22) and (23), even if the correction coefficient is changed according to the difference in the pixel values between the first, second, and third frames F n−1 , F n , and F n + 1. Good.

Figure 2014158083
ここで、ConpI(x,y)は、座標(x,y)に対する画素値の差に応じて変更した補正係数であり、maxDif(x,y)は、式(4)に示されるとおりであり、LIMは、補正上限の閾値である。
Figure 2014158083
Here, CompI (x, y) is a correction coefficient changed according to the difference in pixel value with respect to coordinates (x, y), and maxDif (x, y) is as shown in Expression (4). , LIM is a correction upper limit threshold.

《1−2−6》動き誤検出領域補正手段206
図2に示されるように、動き誤検出領域補正手段206は、入力端子207を介して第1、第2、第3フレームFn−1,F,Fn+1を受け取り、ノイズ低減画像生成手段205からノイズ低減画像FS3を受け取り、動き誤検出領域補正係数算出手段203から補正係数ERを受け取り、受け取った情報FS2,ERを用いて、動きの誤検出に伴うノイズ低減画像の乱れを補正する。補正は、補正係数ERに従い、例えば、式(24)及び(25)によって行う。
<< 1-2-6 >> Motion Error Detection Area Correction Unit 206
As shown in FIG. 2, the motion error detection region correction unit 206 receives the first, second, and third frames F n−1 , F n , and F n + 1 via the input terminal 207, and noise reduced image generation unit The noise-reduced image FS3 is received from 205, the correction coefficient ER is received from the motion error detection area correction coefficient calculation means 203, and the disturbance of the noise-reduced image due to motion error detection is corrected using the received information FS2 and ER. The correction is performed according to the correction coefficient ER, for example, using equations (24) and (25).

Figure 2014158083
ここで、CLPFは、0から1の範囲内において予め決められた係数である。また、LPF(x,y)は、平滑化のために算出した座標(x,y)を中心とする3画素四方(すなわち、3行3列の9画素)の正方領域の画素値の平均値である。ただし、LPF(x、y)の算出に、より広い領域又はより狭い領域における平均値又は重みを付けした平均値を採用してもよい。
Figure 2014158083
Here, CLPF is a coefficient determined in the range of 0 to 1. LPF (x, y) is an average value of pixel values in a square area of 3 pixels square (ie, 9 pixels in 3 rows and 3 columns) centered on coordinates (x, y) calculated for smoothing. It is. However, an average value or a weighted average value in a wider area or a narrower area may be employed for calculating LPF (x, y).

《1−3》実施の形態1の効果
以上に説明した実施の形態1に係る映像処理装置1及び映像処理方法によれば、隠蔽や画素値の変化に応じたブレンド率に応じて処理することに加え、動きベクトルの誤りがある領域を検出し、この領域を補正することで、動きベクトルの誤検出に伴う映像品質の低下を抑制しつつ、ノイズを軽減することができる。
<< 1-3 >> Effects of the First Embodiment According to the video processing device 1 and the video processing method according to the first embodiment described above, processing is performed according to the blend rate according to the concealment or the change in the pixel value. In addition, by detecting a region having a motion vector error and correcting this region, it is possible to reduce noise while suppressing deterioration in video quality due to erroneous detection of the motion vector.

《2》実施の形態2.
図12は、本発明の実施の形態2に係る映像処理装置(すなわち、実施の形態2に係る映像処理方法を実施することができる装置)2の構成を概略的に示す機能ブロック図である。図12において、図1に示される構成と同じ又は対応する構成には、同じ符号を付す。実施の形態2に係る映像処理装置2は、動画像を構成する一連の複数のフレームを蓄えるフレームバッファ30と、動画像を構成する一連の複数のフレームの内の時間的に互いに隣接する第1、第2、第3フレームを受け取り、これらのフレーム間の動きを検出して、動きベクトルMVとして出力する動き検出部10aと、動き検出部10aから出力された画素単位の動きベクトルMV及び第1、第2、第3フレームを受け取り、着目フレームである第2フレームFのノイズを低減してノイズ低減フレームFS3aを生成するノイズ低減部20aと、ノイズ低減フレームを画像データとして蓄えるフレームバッファ40とを有する。実施の形態2に係る画像処理装置2及び画像処理方法は、ノイズ低減フレームFS3aを生成する際に参照するフレームの点において、実施の形態1に係る画像処理装置1及び画像処理方法と相違する。他の点については、実施の形態2に係る映像処理装置2及び映像処理方法は、実施の形態1に係る映像処理装置1及び映像処理方法と同じである。
<< 2 >> Embodiment 2
FIG. 12 is a functional block diagram schematically showing the configuration of the video processing apparatus 2 (that is, the apparatus capable of performing the video processing method according to the second embodiment) 2 according to the second embodiment of the present invention. 12, the same reference numerals are given to the same or corresponding components as those shown in FIG. The video processing device 2 according to the second embodiment includes a frame buffer 30 that stores a plurality of frames constituting a moving image, and a first temporally adjacent to each other among the plurality of frames constituting the moving image. The motion detector 10a receives the second and third frames, detects the motion between these frames, and outputs the motion vector MV, and the pixel-based motion vector MV and the first motion vector MV output from the motion detector 10a. receives the second, third frame, and the noise reduction unit 20a for generating a noise by reducing the noise reduction frame FS3a of the second frame F n is a frame of interest, the frame buffer 40 for storing the noise reduction frame as image data Have The image processing device 2 and the image processing method according to the second embodiment are different from the image processing device 1 and the image processing method according to the first embodiment in terms of a frame that is referred to when generating the noise reduction frame FS3a. In other respects, the video processing device 2 and the video processing method according to the second embodiment are the same as the video processing device 1 and the video processing method according to the first embodiment.

図13は、実施の形態1に係る映像処理装置1おいてノイズ低減処理に用いるフレームを示す図であり、実施の形態2を実施の形態1と比較して説明するための図である。図13に示されるように、実施の形態1においては、動き検出部10及びノイズ低減部20には、動画像を構成する一連の複数のフレームとして、時間的に互いに隣接する第1、第2、第3フレームFn−1,F,Fn+1が入力される。そして、実施の形態1においては、図13に示されるように、時間的に第2フレームFに相当するノイズ低減フレームMを,時間的に隣接する第1、第2、第3フレームFn−1,F,Fn+1に基づいて生成する。 FIG. 13 is a diagram illustrating frames used for noise reduction processing in the video processing device 1 according to the first embodiment, and is a diagram for explaining the second embodiment in comparison with the first embodiment. As shown in FIG. 13, in the first embodiment, the motion detection unit 10 and the noise reduction unit 20 include first and second temporally adjacent to each other as a series of frames constituting a moving image. The third frames F n−1 , F n , and F n + 1 are input. In the first embodiment, as shown in FIG. 13, the noise reduction frame M n corresponding to the second frame F n in terms of time is represented by the first, second, and third frames F that are temporally adjacent. It generates based on n-1 , Fn , and Fn + 1 .

図14は、実施の形態2に係る映像処理装置2おいてノイズ低減処理に用いるフレームを示す図である。図14に示されるように、実施の形態2においては、動き検出部10a及びノイズ低減部20aには、動画像を構成する一連の複数のフレームとして、時間的に隣接する入力される3フレームの内の、第1のフレームを過去にノイズ低減部20aが生成し、フレームバッファ40に蓄えられたノイズ低減フレームMn−1で代用する。そして、実施の形態2に係る映像処理装置2においては、図14に示されるように、時間的に第2フレームFに相当するノイズ低減フレームMを、既に生成されフレームバッファ40に蓄積されたノイズ低減フレームMn−1と第2、第3フレームF,Fn+1とに基づいて生成する。 FIG. 14 is a diagram illustrating frames used for noise reduction processing in the video processing device 2 according to the second embodiment. As shown in FIG. 14, in the second embodiment, the motion detection unit 10a and the noise reduction unit 20a have three frames that are temporally adjacent to each other as a series of frames constituting a moving image. Among them, the noise reduction unit 20a generates the first frame in the past, and substitutes the noise reduction frame M n−1 stored in the frame buffer 40. In the video processing device 2 according to the second embodiment, as illustrated in FIG. 14, the noise reduction frame M n corresponding to the second frame F n in terms of time is already generated and stored in the frame buffer 40. Generated based on the noise reduction frame M n−1 and the second and third frames F n and F n + 1 .

図15は、本発明の実施の形態2の変形例に係る映像処理装置(すなわち、実施の形態2の変形例に係る映像処理方法を実施することができる装置)3の構成を概略的に示す機能ブロック図である。図15において、図12に示される構成と同じ又は対応する構成には、同じ符号を付す。実施の形態2の変形例に係る映像処理装置3は、動画像を構成する一連の複数のフレームを蓄えるフレームバッファ30と、動画像を構成する一連の複数のフレームの内の時間的に互いに隣接する第1、第2、第3フレームを受け取り、これらのフレーム間の動きを検出して、動きベクトルMVとして出力する動き検出部10bと、動き検出部10bから出力された画素単位の動きベクトルMV及び第1、第2、第3フレームを受け取り、着目フレームである第2フレームFのノイズを低減してノイズ低減フレームFS3aを生成するノイズ低減部20bと、ノイズ低減フレームを画像データとして蓄えるフレームバッファ40とを有する。実施の形態2の変形例に係る画像処理装置3及び画像処理方法は、ノイズ低減フレームFS3bを生成する際に参照するフレームの点において、実施の形態2に係る画像処理装置2及び画像処理方法と相違する。 FIG. 15 schematically shows a configuration of a video processing apparatus 3 according to a modification of the second embodiment of the present invention (that is, an apparatus capable of performing the video processing method according to the modification of the second embodiment). It is a functional block diagram. In FIG. 15, the same or corresponding components as those shown in FIG. The video processing device 3 according to the modification of the second embodiment includes a frame buffer 30 that stores a plurality of frames constituting a moving image and a temporally adjacent one of the plurality of frames constituting the moving image. Motion detection unit 10b that receives the first, second, and third frames to be detected, detects a motion between these frames, and outputs the motion vector MV, and a motion vector MV in pixel units output from the motion detection unit 10b and first, second, receiving a third frame, the frame store and a noise reduction unit 20b for generating a second frame F n noise by reducing the noise reduction frame FS3a of a frame of interest, the noise reduction frame as image data And a buffer 40. The image processing device 3 and the image processing method according to the modification of the second embodiment are the same as the image processing device 2 and the image processing method according to the second embodiment in terms of the frame that is referred to when the noise reduction frame FS3b is generated. Is different.

図16は、実施の形態2の変形例に係る映像処理装置3おいてノイズ低減処理に用いるフレームを示す図である。図16に示されるように、実施の形態2の変形例においては、動き検出部10b及びノイズ低減部20bには、動画像を構成する一連の複数のフレームとして、時間的に隣接する入力される3フレームの内の、2枚のフレームを過去にノイズ低減部20bが生成し、フレームバッファ40に蓄えられたノイズ低減フレームMn−1,Mで代用する。そして、図16に示されるように、実施の形態2の変形例においては、時間的に第2フレームFに相当するノイズ低減フレームを、既に生成されフレームバッファ40に蓄積されたノイズ低減フレームMn−1,M及び第3フレームFn+1から生成する。 FIG. 16 is a diagram illustrating frames used for noise reduction processing in the video processing device 3 according to the modification of the second embodiment. As shown in FIG. 16, in the modification of the second embodiment, the motion detection unit 10b and the noise reduction unit 20b are temporally adjacent inputs as a series of frames constituting a moving image. Two of the three frames are generated by the noise reduction unit 20b in the past, and the noise reduction frames M n−1 and M n stored in the frame buffer 40 are used instead. Then, as shown in FIG. 16, in the modification of the second embodiment, temporal noise reduction frame corresponding to the second frame F n, the noise reduction already stored in the frame buffer 40 generated frame M It is generated from n−1 , M n and the third frame F n + 1 .

以上に説明したように、実施の形態2に係る映像処理装置2及び映像処理方法、並びに、実施の形態2の変形例に係る映像処理装置3及び映像処理方法によれば、ノイズ低減部20a又は20bは、過去に生成された、着目フレームより時間的に先行する少なくとも1枚のノイズ低減フレームを参照フレームとして用いる。具体的には、ノイズ低減部20a又は20bは、過去に生成されたノイズ低減フレームMn−1、又は、過去に生成されたノイズ低減フレームMn−1,Mを使用して、着目フレームについてノイズ低減処理を行って新たにノイズ低減フレームを生成するので、より高いノイズ低減効果を得ることができる。 As described above, according to the video processing device 2 and the video processing method according to the second embodiment, and the video processing device 3 and the video processing method according to the modification of the second embodiment, the noise reduction unit 20a or 20b uses, as a reference frame, at least one noise reduction frame that is generated in the past and temporally precedes the frame of interest. Specifically, the noise reduction unit 20a or 20b uses the noise reduction frame M n−1 generated in the past or the noise reduction frames M n−1 and M n generated in the past to generate the frame of interest. Since the noise reduction process is newly performed to generate a noise reduction frame, a higher noise reduction effect can be obtained.

《3》実施の形態3.
図17は、本発明の実施の形態3に係る放送受信装置4の構成を概略的に示す機能ブロック図である。図17において、図1に示される構成と同じ又は対応する構成には、同じ符号を付す。図17に示されるように、実施の形態3に係る放送受信装置(又は受像装置)4は、放送波を受信し、映像と音声の多重分離を行い、デコードした映像フレームを出力する放送受信部51と、放送受信部51で受信された放送波に基づく動画像を構成する一連の複数のフレームを蓄えるフレームバッファ30と、動画像を構成する一連の複数のフレームの内の時間的に互いに隣接する第1、第2、第3フレームFn−1,F,Fn+1を受け取り、これらのフレーム間の動きを検出して、動きベクトルMVとして出力する動き検出部10と、動き検出部10から出力された画素単位の動きベクトルMV及び第1、第2、第3フレームFn−1,F,Fn+1を受け取り、着目フレームである第2フレームFのノイズを低減してノイズ低減フレームFS3を生成するノイズ低減部20と、ノイズ低減フレームを画像データとして蓄えるフレームバッファ40と、フレームバッファ40に蓄えられたノイズ低減フレームに基づく映像を表示する映像表示部52とを有する。実施の形態3に係る放送受信装置4は、放送受信部51と映像表示部52を備えた点において、実施の形態1に係る映像処理装置1と相違する。他の構成については、実施の形態3は、実施の形態1と同じである。
<< 3 >> Embodiment 3
FIG. 17 is a functional block diagram schematically showing the configuration of the broadcast receiving device 4 according to Embodiment 3 of the present invention. In FIG. 17, the same or corresponding components as those shown in FIG. As shown in FIG. 17, the broadcast receiving device (or image receiving device) 4 according to Embodiment 3 receives a broadcast wave, demultiplexes video and audio, and outputs a decoded video frame. 51, a frame buffer 30 for storing a plurality of frames constituting a moving image based on a broadcast wave received by the broadcast receiving unit 51, and a temporally adjacent one of a plurality of frames constituting the moving image A motion detection unit 10 that receives the first, second, and third frames F n−1 , F n , and F n + 1 to detect the motion between these frames and outputs them as a motion vector MV; pixel unit output from the motion vector MV and the first, second, third frame F n-1, F n, receives the F n + 1, to reduce the noise of the second frame F n is a frame of interest With a noise reduction unit 20 for generating a noise reduction frame FS3, a frame buffer 40 for storing the noise reduction frame as image data, and a video display unit 52 for displaying an image based on the noise reduction frame stored in the frame buffer 40. The broadcast receiving device 4 according to the third embodiment is different from the video processing device 1 according to the first embodiment in that a broadcast receiving unit 51 and a video display unit 52 are provided. For other configurations, the third embodiment is the same as the first embodiment.

図18は、本発明の実施の形態3の変形例に係る放送受信装置5の構成を概略的に示す機能ブロック図である。図18において、図17に示される構成と同じ又は対応する構成には、同じ符号を付す。図18に示されるように、実施の形態3の変形例に係る放送受信装置5は、動き検出部10及びノイズ低減部20に代えて、動き検出部10a(又は10b)及びノイズ低減部20a(又は20b)を備えた点において、実施の形態3に係る放送受信装置4と相違する。他の構成については、実施の形態3の変形例は、実施の形態3(図17)と同じである。また、動き検出部10a(又は10b)及びノイズ低減部20a(又は20b)は、図12(又は図15)で説明したものと同じである。   FIG. 18 is a functional block diagram schematically showing a configuration of broadcast receiving apparatus 5 according to a modification of the third embodiment of the present invention. In FIG. 18, the same or corresponding components as those shown in FIG. As shown in FIG. 18, the broadcast receiving apparatus 5 according to the modification of the third embodiment replaces the motion detection unit 10 and the noise reduction unit 20 with a motion detection unit 10a (or 10b) and a noise reduction unit 20a ( Or, the point provided with 20b) is different from the broadcast receiving apparatus 4 according to the third embodiment. Regarding other configurations, the modification of the third embodiment is the same as the third embodiment (FIG. 17). The motion detection unit 10a (or 10b) and the noise reduction unit 20a (or 20b) are the same as those described with reference to FIG. 12 (or FIG. 15).

以上に説明したように、実施の形態3に係る放送受信装置4、及び、実施の形態3の変形例に係る放送受信装置5によれば、受信した放送波に基づく映像のノイズを低減して、映像表示部52に表示される映像の品質を向上させることができる。   As described above, according to the broadcast receiving device 4 according to the third embodiment and the broadcast receiving device 5 according to the modification of the third embodiment, the noise of the video based on the received broadcast wave is reduced. The quality of the video displayed on the video display unit 52 can be improved.

また、実施の形態3の変形例に係る放送受信装置5によれば、過去に生成されたノイズ低減フレームMn−1、又は、過去に生成されたノイズ低減フレームMn−1,Mを使用して、新たなノイズ低減フレームの生成を行うので、より高いノイズ低減効果を得ることができる。 Further, according to the broadcast receiving device 5 according to the modification of the third embodiment, the noise reduction frame M n−1 generated in the past or the noise reduction frames M n−1 and M n generated in the past are received. Since a new noise reduction frame is generated using this, a higher noise reduction effect can be obtained.

《4》実施の形態4.
図19は、本発明の実施の形態4に係る映像撮影装置6の構成を概略的に示す機能ブロック図である。図19において、図1に示される構成と同じ又は対応する構成には、同じ符号を付す。図19に示されるように、実施の形態4に係る映像撮影装置6は、レンズなどの光学系を通して入射する光の強度に応じて電気信号を生成することで動画像を構成する一連の複数の画像フレームを生成する撮像部61と、撮像部61で生成された一連の複数のフレームを蓄えるフレームバッファ30と、動画像を構成する一連の複数のフレームの内の時間的に互いに隣接する第1、第2、第3フレームFn−1,F,Fn+1を受け取り、これらのフレーム間の動きを検出して、動きベクトルMVとして出力する動き検出部10と、動き検出部10から出力された画素単位の動きベクトルMV及び第1、第2、第3フレームFn−1,F,Fn+1を受け取り、着目フレームである第2フレームFのノイズを低減してノイズ低減フレームFS3を生成するノイズ低減部20と、ノイズ低減フレームを画像データとして蓄えるフレームバッファ40と、フレームバッファ40に蓄えられたノイズ低減フレームを、ハードディスク、光ディスク、半導体記憶装置の記録媒体に記録する映像記録部62とを有する。実施の形態4に係る映像撮影装置6は、撮像部61と映像記録部62を備えた点において、実施の形態1に係る映像処理装置1と相違する。他の構成については、実施の形態4は、実施の形態1と同じである。
<< 4 >> Embodiment 4
FIG. 19 is a functional block diagram schematically showing the configuration of the video imaging apparatus 6 according to Embodiment 4 of the present invention. In FIG. 19, the same or corresponding components as those shown in FIG. As shown in FIG. 19, the video imaging device 6 according to the fourth embodiment generates a series of a plurality of moving images by generating an electrical signal according to the intensity of light incident through an optical system such as a lens. An imaging unit 61 that generates an image frame, a frame buffer 30 that stores a series of frames generated by the imaging unit 61, and first temporally adjacent ones of a series of frames that form a moving image. , The second and third frames F n−1 , F n , F n + 1 are received, the motion between these frames is detected and output as a motion vector MV, and output from the motion detector 10 motion vector MV and the first pixel unit and, second, third frame F n-1, F n, receives the F n + 1, the noise low to reduce noise of the second frame F n is a frame of interest A noise reduction unit 20 that generates a frame FS3, a frame buffer 40 that stores the noise reduction frame as image data, and a video that records the noise reduction frame stored in the frame buffer 40 on a recording medium of a hard disk, an optical disk, or a semiconductor storage device And a recording unit 62. The video imaging device 6 according to the fourth embodiment is different from the video processing device 1 according to the first embodiment in that an imaging unit 61 and a video recording unit 62 are provided. For other configurations, the fourth embodiment is the same as the first embodiment.

図20は、本発明の実施の形態4の変形例に係る映像撮影装置7の構成を概略的に示す機能ブロック図である。図20において、図19に示される構成と同じ又は対応する構成には、同じ符号を付す。図20に示されるように、実施の形態4の変形例に係る映像撮影装置7は、動き検出部10及びノイズ低減部20に代えて、動き検出部10a(又は10b)及びノイズ低減部20a(又は20b)を備えた点において、実施の形態4に映像撮影装置6と相違する。他の構成については、実施の形態4の変形例は、実施の形態4(図19)と同じである。動き検出部10a(又は10b)及びノイズ低減部20a(又は20b)を備えた点において、実施の形態3に係る放送受信装置4と相違する。他の構成については、実施の形態3の変形例は、実施の形態3(図17)と同じである。また、動き検出部10a(又は10b)及びノイズ低減部20a(又は20b)は、図12(又は図15)で説明したものと同じである。また、動き検出部10a(又は10b)及びノイズ低減部20a(又は20b)は、図12(又は図15)で説明したものと同じである。   FIG. 20 is a functional block diagram schematically showing the configuration of the video imaging apparatus 7 according to a modification of the fourth embodiment of the present invention. 20, the same reference numerals are given to the same or corresponding components as those shown in FIG. As illustrated in FIG. 20, the video imaging apparatus 7 according to the modification of the fourth embodiment replaces the motion detection unit 10 and the noise reduction unit 20 with a motion detection unit 10a (or 10b) and a noise reduction unit 20a ( Alternatively, the fourth embodiment is different from the video photographing apparatus 6 in that it includes 20b). Regarding other configurations, the modification of the fourth embodiment is the same as the fourth embodiment (FIG. 19). The difference from the broadcast receiving apparatus 4 according to the third embodiment is that the motion detection unit 10a (or 10b) and the noise reduction unit 20a (or 20b) are provided. Regarding other configurations, the modification of the third embodiment is the same as the third embodiment (FIG. 17). The motion detection unit 10a (or 10b) and the noise reduction unit 20a (or 20b) are the same as those described with reference to FIG. 12 (or FIG. 15). The motion detection unit 10a (or 10b) and the noise reduction unit 20a (or 20b) are the same as those described with reference to FIG. 12 (or FIG. 15).

以上に説明したように、実施の形態4に係る映像撮影装置6、及び、実施の形態4の変形例に係る映像撮影装置7によれば、撮像部61で発生するノイズを含む映像のノイズを低減して、映像記録部62に記録される映像の品質を向上させることができる。   As described above, according to the video imaging device 6 according to the fourth embodiment and the video imaging device 7 according to the modification of the fourth embodiment, the noise of the video including noise generated in the imaging unit 61 is reduced. The quality of the video recorded in the video recording unit 62 can be improved.

また、実施の形態4の変形例に係る映像撮影装置7によれば、過去に生成されたノイズ低減フレームMn−1、又は、過去に生成されたノイズ低減フレームMn−1,Mを使用してノイズ低減フレームの生成を行うので、より高いノイズ低減効果を得ることができる。 Moreover, according to the video imaging device 7 according to the modification of the fourth embodiment, the noise reduction frame M n−1 generated in the past or the noise reduction frames M n−1 and M n generated in the past are used. Since the noise reduction frame is generated by using it, a higher noise reduction effect can be obtained.

《5》実施の形態5.
図21は、本発明の実施の形態5に係る映像蓄積装置8の構成を概略的に示す機能ブロック図である。図21において、図1に示される構成と同じ又は対応する構成には、同じ符号を付す。図21に示されるように、実施の形態5に係る映像蓄積装置8は、動画像を構成する一連の複数のフレームの内の時間的に互いに隣接する第1、第2、第3フレームFn−1,F,Fn+1を受け取り、これらのフレーム間の動きを検出して、動きベクトルMVとして出力する動き検出部10と、動き検出部10から出力された画素単位の動きベクトルMV及び第1、第2、第3フレームFn−1,F,Fn+1を受け取り、着目フレームである第2フレームFのノイズを低減してノイズ低減フレームFS3を生成するノイズ低減部20と、ノイズ低減フレームを画像データとして蓄えるフレームバッファ40と、フレームバッファ40に蓄えられたノイズ低減フレームを、ハードディスク、光ディスク、半導体記憶装置の記録媒体に記録する映像記録部62とを有する実施の形態5に係る映像蓄積装置8では、動き検出部10とノイズ低減部20に、映像記録部62に蓄積されている一連の複数のフレームが供給される。実施の形態5に係る映像蓄積装置8は、動き検出部10とノイズ低減部20に、映像記録部62に蓄積されている一連の複数のフレームが供給される点において、実施の形態1に係る映像処理装置1と相違する。他の構成については、実施の形態5は、実施の形態1と同じである。
<< 5 >> Embodiment 5
FIG. 21 is a functional block diagram schematically showing the configuration of the video storage device 8 according to Embodiment 5 of the present invention. In FIG. 21, the same or corresponding elements as those shown in FIG. As shown in FIG. 21, the video storage apparatus 8 according to the fifth embodiment includes the first, second, and third frames F n that are temporally adjacent to each other in a series of frames constituting a moving image. -1 , F n , F n + 1 are received, the motion between these frames is detected and output as a motion vector MV, the pixel-based motion vector MV output from the motion detector 10 and the first A noise reduction unit 20 that receives the first, second, and third frames F n−1 , F n , and F n + 1 and reduces the noise of the second frame F n that is the frame of interest to generate the noise reduction frame FS3; A frame buffer 40 that stores reduced frames as image data, and a noise reduction frame stored in the frame buffer 40 are stored in a hard disk, an optical disk, or a semiconductor memory device. In the video storage device 8 according to the fifth embodiment having the video recording unit 62 for recording on a medium, a series of a plurality of frames stored in the video recording unit 62 is supplied to the motion detection unit 10 and the noise reduction unit 20. Is done. The video storage device 8 according to the fifth embodiment is related to the first embodiment in that a series of a plurality of frames stored in the video recording unit 62 are supplied to the motion detection unit 10 and the noise reduction unit 20. Different from the video processing apparatus 1. For other configurations, the fifth embodiment is the same as the first embodiment.

図22は、本発明の実施の形態5の変形例に係る映像蓄積装置9の構成を概略的に示す機能ブロック図である。図22において、図21に示される構成と同じ又は対応する構成には、同じ符号を付す。図22に示されるように、実施の形態5の変形例に係る映像蓄積装置9は、動き検出部10及びノイズ低減部20に代えて、動き検出部10a(又は10b)及びノイズ低減部20a(又は20b)を備えた点において、実施の形態5に映像蓄積装置8と相違する。他の構成については、実施の形態5の変形例は、実施の形態5(図21)と同じである。また、動き検出部10a(又は10b)及びノイズ低減部20a(又は20b)は、図12(又は図15)で説明したものと同じである。また、動き検出部10a(又は10b)及びノイズ低減部20a(又は20b)は、図12(又は図15)で説明したものと同じである。   FIG. 22 is a functional block diagram schematically showing the configuration of the video storage device 9 according to a modification of the fifth embodiment of the present invention. 22, the same reference numerals are given to the same or corresponding components as those shown in FIG. As illustrated in FIG. 22, the video storage device 9 according to the modification of the fifth embodiment replaces the motion detection unit 10 and the noise reduction unit 20 with a motion detection unit 10a (or 10b) and a noise reduction unit 20a ( Alternatively, the fifth embodiment is different from the video storage device 8 in that it includes 20b). Regarding other configurations, the modification of the fifth embodiment is the same as the fifth embodiment (FIG. 21). The motion detection unit 10a (or 10b) and the noise reduction unit 20a (or 20b) are the same as those described with reference to FIG. 12 (or FIG. 15). The motion detection unit 10a (or 10b) and the noise reduction unit 20a (or 20b) are the same as those described with reference to FIG. 12 (or FIG. 15).

以上に説明したように、実施の形態5係る映像蓄積装置8、及び、実施の形態5の変形例に係る映像撮影装置9によれば、ノイズ低減処理を行わずに蓄積された映像フレームのノイズを低減し、新たなノイズ低減フレームとして映像記録部62に記録することができる。   As described above, according to the video storage device 8 according to the fifth embodiment and the video shooting device 9 according to the modification of the fifth embodiment, the noise of the video frames stored without performing the noise reduction process Can be recorded in the video recording unit 62 as a new noise reduction frame.

また、実施の形態5の変形例に係る映像蓄積装置9によれば、過去に生成されたノイズ低減フレームMn−1、又は、過去に生成されたノイズ低減フレームMn−1,Mを使用してノイズ低減フレームの生成を行うので、より高いノイズ低減効果を得ることができる。 Further, according to the video storage device 9 according to the modification of the fifth embodiment, the noise reduction frame M n−1 generated in the past or the noise reduction frames M n−1 and M n generated in the past are used. Since the noise reduction frame is generated by using it, a higher noise reduction effect can be obtained.

本発明は、テレビ受像機、放送受信機、映像記録再生装置、パーソナルコンピュータ、並びに、携帯電話及びスマートフォンなどのような通信端末などのような、映像信号に含まれるノイズを低減する処理を行う装置、映像信号に含まれるノイズを低減する処理を行う方法、及び映像信号に含まれるノイズを低減する処理を装置に実行させるプログラムに適用可能である。   The present invention relates to an apparatus for performing processing for reducing noise included in a video signal, such as a television receiver, a broadcast receiver, a video recording / reproducing apparatus, a personal computer, and a communication terminal such as a mobile phone and a smartphone. The present invention can be applied to a method for performing processing for reducing noise contained in a video signal and a program for causing a device to execute processing for reducing noise contained in a video signal.

1,2,3 映像処理装置、 4,5 放送受信装置、 6,7 映像撮影装置、 8,9 映像蓄積装置、 10,10a,10b 動き検出部、 20,20a,20b ノイズ低減部、 30,40 フレームバッファ、 51 放送受信部、 52 映像表示部、 61 撮像部、 62 映像記録部、 201 画素値変化率解析手段、 202 動きベクトル境界検出手段、 203 動き誤検出領域補正係数算出手段、 204 フレームブレンド率算出手段、 205 ノイズ低減画像生成手段、 206 動き誤検出領域補正手段、 2031 画素値急変領域検出手段、 2032 参照フレーム不定領域検出手段、 2033 動きベクトル境界集中領域検出手段、 2034 補正係数算出手段、 2041 参照フレーム優先度算出手段、 2042 オクルージョン判定手段、 2043 ブレンド重み係数算出手段、 AN 画素値変化率の解析結果情報、 BO 動きベクトル境界画素情報、 BR 動きベクトル集中領域情報、 BW ブレンド重み係数、 ER 補正係数、 Fn−1,F,Fn+1 第1、第2、第3フレーム、 FS フレーム、 FS2 ノイズ低減画像、 FS3,FS3a,FS3b ノイズ低減フレーム、 Mn−1,M ノイズ低減フレーム、 MV 動きベクトル、 OC オクルージョン判定結果、 PR 優先度、 RR 参照フレーム不定領域情報、 SR 補正対象領域情報。 1, 2, 3 Video processing device, 4, 5 Broadcast receiving device, 6, 7 Video shooting device, 8, 9 Video storage device, 10, 10a, 10b Motion detection unit, 20, 20a, 20b Noise reduction unit, 30, 40 frame buffer, 51 broadcast receiving unit, 52 video display unit, 61 imaging unit, 62 video recording unit, 201 pixel value change rate analysis unit, 202 motion vector boundary detection unit, 203 motion error detection area correction coefficient calculation unit, 204 frame Blend rate calculation means, 205 noise reduction image generation means, 206 motion error detection area correction means, 2031 pixel value sudden change area detection means, 2032 reference frame indefinite area detection means, 2033 motion vector boundary concentration area detection means, 2034 correction coefficient calculation means 2041 reference frame priority calculation means, 2042 occlusion determination means, 2043 Blend weight coefficient calculation means, AN pixel value change rate analysis result information, BO motion vector boundary pixel information, BR motion vector concentration area information, BW blend weight coefficient, ER correction coefficient, F n−1 , F n , F n + 1 1st, 2nd, 3rd frame, FS frame, FS2 noise reduction image, FS3, FS3a, FS3b noise reduction frame, Mn-1 , Mn noise reduction frame, MV motion vector, OC occlusion judgment result, PR priority RR Reference frame indefinite area information, SR correction target area information.

Claims (14)

動画像を構成する一連の複数のフレームの1つを着目フレームとし、前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方を動き検出用参照フレームとして用いて、前記着目フレームと前記動き検出用参照フレームとの間の動きを推定し、前記着目フレームを構成する画素単位の動きベクトルを検出する動き検出部と、
前記動き検出部によって検出された前記動きベクトル、前記着目フレーム、及び前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方であるノイズ低減用参照フレームを用いて、前記着目フレームのノイズが低減されたノイズ低減フレームを生成するノイズ低減部と
を有し、
前記ノイズ低減部は、
前記動きベクトルの境界画素を検出し、前記検出された境界画素を示す動きベクトル境界画素情報を生成する動きベクトル境界検出手段と、
前記着目フレームと前記ノイズ低減用参照フレームとの間における画素値変化率を解析し、前記画素値変化率の解析結果情報を生成する画素値変化率解析手段と、
前記動きベクトル境界画素情報及び前記画素値変化率の解析結果情報を用いて前記ノイズ低減フレームの生成を行う補正手段と
を有する
ことを特徴とする映像処理装置。
One of a plurality of frames constituting a moving image is set as a frame of interest, and at least one of a temporally preceding frame and a temporally subsequent frame of the frame of interest is used as a motion detection reference frame. A motion detector that estimates a motion between a frame and the motion detection reference frame, and detects a motion vector in units of pixels constituting the frame of interest;
Using the noise reduction reference frame that is at least one of the motion vector detected by the motion detector, the frame of interest, a frame temporally preceding the frame of interest, and a frame temporally following the frame of interest. A noise reduction unit that generates a noise reduction frame in which the noise of the frame is reduced,
The noise reduction unit is
Motion vector boundary detection means for detecting boundary pixels of the motion vector and generating motion vector boundary pixel information indicating the detected boundary pixels;
A pixel value change rate analysis unit that analyzes a pixel value change rate between the frame of interest and the noise reduction reference frame, and generates analysis result information of the pixel value change rate;
A video processing apparatus comprising: correction means for generating the noise reduction frame using the motion vector boundary pixel information and the analysis result information of the pixel value change rate.
前記ノイズ低減部は、前記画素値変化率解析手段によって生成された前記画素値変化率の解析結果情報と前記動きベクトル境界検出手段によって生成された前記動きベクトル境界画素情報とを用いて、前記着目フレームの画素毎のフレーム合成係数を算出するフレームブレンド率算出手段をさらに有し、
前記補正手段による前記ノイズ低減フレームの生成は、前記動きベクトル境界画素情報、前記画素値変化率の解析結果情報、及び前記フレーム合成係数を用いて行われる
ことを特徴とする請求項1に記載の映像処理装置。
The noise reduction unit uses the pixel value change rate analysis result information generated by the pixel value change rate analysis unit and the motion vector boundary pixel information generated by the motion vector boundary detection unit, and A frame blend rate calculating means for calculating a frame synthesis coefficient for each pixel of the frame;
The generation of the noise reduction frame by the correction unit is performed using the motion vector boundary pixel information, the analysis result information of the pixel value change rate, and the frame synthesis coefficient. Video processing device.
前記画素値変化率解析手段によって生成された前記画素値変化率の解析結果情報は、前記着目フレームと前記ノイズ低減用参照フレームとの間における同じ座標の画素の画素値の変化を、前記着目フレームの画素毎に、予め決められた複数の画素値変化パターンのいずれに分類されるかを示す情報であることを特徴とする請求項1又は2に記載の映像処理装置。   The analysis result information of the pixel value change rate generated by the pixel value change rate analyzing means includes a change in pixel value of a pixel having the same coordinate between the target frame and the noise reduction reference frame. The video processing apparatus according to claim 1, wherein the image processing apparatus is information indicating which of a plurality of predetermined pixel value change patterns is classified for each pixel. 前記ノイズ低減部は、前記画素値変化率解析手段によって生成された前記画素値変化率の解析結果情報と前記動きベクトル境界検出手段によって生成された前記動きベクトル境界画素情報とに基づいて前記動き検出部による動き検出が誤検出であると推定できる領域を検出し、画素毎の補正係数を決定する動き誤検出領域補正係数算出手段をさらに有し、
前記補正手段は、前記画素毎の補正係数を用いて前記ノイズ低減画像を生成する
ことを特徴とする請求項4に記載の映像処理装置。
The noise reduction unit detects the motion based on the analysis result information of the pixel value change rate generated by the pixel value change rate analysis unit and the motion vector boundary pixel information generated by the motion vector boundary detection unit. A motion erroneous detection region correction coefficient calculating means for detecting a region where motion detection by the unit can be estimated to be a false detection and determining a correction coefficient for each pixel;
The video processing apparatus according to claim 4, wherein the correction unit generates the noise reduced image using a correction coefficient for each pixel.
前記動き誤検出領域補正係数算出手段は、
画素値の変化率が大きい箇所を検出して、検出された箇所を示す補正対象領域情報を生成する画素値急変領域検出手段と、
前記着目フレームに隣接するフレームにおいて前景部分であるか背景であるかの判定ができない領域を示す参照フレーム不定領域情報を生成する参照フレーム不定領域検出手段と、
前記動きベクトルの境界が集中する領域を示す動きベクトル集中領域情報を生成する動きベクトル境界集中領域検出手段と、
前記補正対象領域情報、前記参照フレーム不定領域情報、前記動きベクトル集中領域情報に基づいて前記補正係数を決定する補正係数算出手段と
を有することを特徴とする請求項4に記載の映像処理装置。
The motion error detection region correction coefficient calculation means is
A pixel value sudden change region detecting means for detecting a portion where the change rate of the pixel value is large and generating correction target region information indicating the detected portion;
A reference frame indefinite area detecting means for generating reference frame indefinite area information indicating an area in which it is impossible to determine whether it is a foreground part or a background in a frame adjacent to the frame of interest;
Motion vector boundary concentration area detecting means for generating motion vector concentration area information indicating an area where the boundary of the motion vector is concentrated;
5. The video processing apparatus according to claim 4, further comprising correction coefficient calculation means for determining the correction coefficient based on the correction target area information, the reference frame indefinite area information, and the motion vector concentration area information.
前記ノイズ低減フレームを記憶する記憶部をさらに有し、
前記ノイズ低減部は、過去に生成された前記着目フレームより時間的に先行する少なくとも1枚のノイズ低減フレームを前記記憶部から読み出し、前記ノイズ低減用参照フレームとして用いる
ことを特徴とする請求項1から5のいずれか1項に記載の映像処理装置。
A storage unit for storing the noise reduction frame;
The noise reduction unit reads at least one noise reduction frame temporally preceding the frame of interest generated in the past from the storage unit, and uses it as the noise reduction reference frame. 6. The video processing apparatus according to any one of items 1 to 5.
動画像を構成する一連の複数のフレームの1つを着目フレームとし、前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方を動き検出用参照フレームとして用いて、前記着目フレームと前記動き検出用参照フレームとの間の動きを推定し、前記着目フレームを構成する画素単位の動きベクトルを検出する動き検出ステップと、
前記動き検出ステップにおいて検出された前記動きベクトル、前記着目フレーム、及び前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方であるノイズ低減用参照フレームを用いて、前記着目フレームのノイズが低減されたノイズ低減フレームを生成するノイズ低減ステップと
を有し、
前記ノイズ低減ステップは、
前記動きベクトルの境界画素を検出し、前記検出された境界画素を示す動きベクトル境界画素情報を生成する動きベクトル境界検出ステップと、
前記着目フレームと前記動き検出用参照フレームとの間における画素値変化率を解析し、前記画素値変化率の解析結果情報を生成する画素値変化率解析ステップと、
前記動きベクトル境界画素情報及び前記画素値変化率の解析結果情報を用いて前記ノイズ低減フレームの生成を行うノイズ低減フレーム生成ステップと
を有する
ことを特徴とする映像処理方法。
One of a plurality of frames constituting a moving image is set as a frame of interest, and at least one of a temporally preceding frame and a temporally subsequent frame of the frame of interest is used as a motion detection reference frame. A motion detection step of estimating a motion between a frame and the motion detection reference frame, and detecting a motion vector in pixel units constituting the frame of interest;
Using the noise reduction reference frame that is at least one of the motion vector detected in the motion detection step, the frame of interest, and a frame temporally preceding and temporally following the frame of interest. A noise reduction step for generating a noise reduction frame in which the noise of the frame is reduced, and
The noise reduction step includes
A motion vector boundary detection step for detecting a boundary pixel of the motion vector and generating motion vector boundary pixel information indicating the detected boundary pixel;
A pixel value change rate analysis step of analyzing a pixel value change rate between the frame of interest and the motion detection reference frame, and generating analysis result information of the pixel value change rate;
And a noise reduction frame generation step of generating the noise reduction frame using the motion vector boundary pixel information and the analysis result information of the pixel value change rate.
放送波を受信し、前記放送波に含まれる映像情報の復号化を行う放送受信部と、
前記放送受信部から動画像を構成する一連の複数のフレームを受け取り、前記一連の複数のフレームの1つを着目フレームとし、前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方を動き検出用参照フレームとして用いて、前記着目フレームと前記動き検出用参照フレームとの間の動きを推定し、前記着目フレームを構成する画素単位の動きベクトルを検出する動き検出部と、
前記動き検出部によって検出された前記動きベクトル、前記着目フレーム、及び前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方であるノイズ低減用参照フレームを用いて、前記着目フレームのノイズが低減されたノイズ低減フレームを生成するノイズ低減部と
を有し、
前記ノイズ低減部は、
前記動きベクトルの境界画素を検出し、前記検出された境界画素を示す動きベクトル境界画素情報を生成する動きベクトル境界検出手段と、
前記着目フレームと前記動き検出用参照フレームとの間における画素値変化率を解析し、前記画素値変化率の解析結果情報を生成する画素値変化率解析手段と、
前記動きベクトル境界画素情報及び前記画素値変化率の解析結果情報を用いて前記ノイズ低減フレームの生成を行う補正手段と
を有する
ことを特徴とする放送受信装置。
A broadcast receiving unit that receives a broadcast wave and decodes video information included in the broadcast wave;
A series of frames constituting a moving image is received from the broadcast receiving unit, one of the series of frames is set as a frame of interest, and a frame temporally preceding and temporally following the frame of interest Using at least one of them as a motion detection reference frame, estimating a motion between the target frame and the motion detection reference frame, and detecting a motion vector in units of pixels constituting the target frame;
Using the noise reduction reference frame that is at least one of the motion vector detected by the motion detector, the frame of interest, a frame temporally preceding the frame of interest, and a frame temporally following the frame of interest. A noise reduction unit that generates a noise reduction frame in which the noise of the frame is reduced,
The noise reduction unit is
Motion vector boundary detection means for detecting boundary pixels of the motion vector and generating motion vector boundary pixel information indicating the detected boundary pixels;
A pixel value change rate analyzing means for analyzing a pixel value change rate between the frame of interest and the motion detection reference frame, and generating analysis result information of the pixel value change rate;
A broadcast receiving apparatus comprising: correction means for generating the noise reduction frame using the motion vector boundary pixel information and the analysis result information of the pixel value change rate.
前記ノイズ低減フレームを記憶する記憶部をさらに有し、
前記ノイズ低減部は、過去に生成された少なくとも1枚のノイズ低減フレームを前記記憶部から読み出し、前記ノイズ低減用参照フレームとして用いる
ことを特徴とする請求項8に記載の放送受信装置。
A storage unit for storing the noise reduction frame;
The broadcast receiving apparatus according to claim 8, wherein the noise reduction unit reads at least one noise reduction frame generated in the past from the storage unit and uses the frame as the noise reduction reference frame.
映像を撮影し動画像を構成する一連の複数のフレームデータを生成する撮像部と、
前記撮像部から動画像を構成する一連の複数のフレームを受け取り、前記一連の複数のフレームの1つを着目フレームとし、前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方を動き検出用参照フレームとして用いて、前記着目フレームと前記動き検出用参照フレームとの間の動きを推定し、前記着目フレームを構成する画素単位の動きベクトルを検出する動き検出部と、
前記動き検出部によって検出された前記動きベクトル、前記着目フレーム、及び前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方であるノイズ低減用参照フレームを用いて、前記着目フレームのノイズが低減されたノイズ低減フレームを生成するノイズ低減部と
を有し、
前記ノイズ低減部は、
前記動きベクトルの境界画素を検出し、前記検出された境界画素を示す動きベクトル境界画素情報を生成する動きベクトル境界検出手段と、
前記着目フレームと前記動き検出用参照フレームとの間における画素値変化率を解析し、前記画素値変化率の解析結果情報を生成する画素値変化率解析手段と、
前記動きベクトル境界画素情報及び前記画素値変化率の解析結果情報を用いて前記ノイズ低減フレームの生成を行う補正手段と
を有する
ことを特徴とする映像撮影装置。
An imaging unit that shoots video and generates a series of frame data constituting a moving image;
A series of a plurality of frames constituting a moving image is received from the imaging unit, one of the series of frames is set as a frame of interest, and at least a frame temporally preceding and temporally following the frame of interest Using one of them as a motion detection reference frame, estimating a motion between the target frame and the motion detection reference frame, and detecting a motion vector in units of pixels constituting the target frame;
Using the noise reduction reference frame that is at least one of the motion vector detected by the motion detector, the frame of interest, a frame temporally preceding the frame of interest, and a frame temporally following the frame of interest. A noise reduction unit that generates a noise reduction frame in which the noise of the frame is reduced,
The noise reduction unit is
Motion vector boundary detection means for detecting boundary pixels of the motion vector and generating motion vector boundary pixel information indicating the detected boundary pixels;
A pixel value change rate analyzing means for analyzing a pixel value change rate between the frame of interest and the motion detection reference frame, and generating analysis result information of the pixel value change rate;
A video photographing apparatus comprising: correction means for generating the noise reduction frame using the motion vector boundary pixel information and the analysis result information of the pixel value change rate.
前記ノイズ低減フレームを記憶する記憶部をさらに有し、
前記ノイズ低減部は、過去に生成された少なくとも1枚のノイズ低減フレームを前記記憶部から読み出し、前記ノイズ低減用参照フレームとして用いる
ことを特徴とする請求項10に記載の映像撮影装置。
A storage unit for storing the noise reduction frame;
The video imaging apparatus according to claim 10, wherein the noise reduction unit reads at least one noise reduction frame generated in the past from the storage unit and uses the read frame as the noise reduction reference frame.
動画像を構成する一連の複数のフレームを記憶する記憶部と、
前記記憶部に記憶されている前記一連の複数のフレームの1つを着目フレームとし、前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方を動き検出用参照フレームとして用いて、前記着目フレームと前記動き検出用参照フレームとの間の動きを推定し、前記着目フレームを構成する画素単位の動きベクトルを検出する動き検出部と、
前記動き検出部によって検出された前記動きベクトル、前記着目フレーム、及び前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方であるノイズ低減用参照フレームを用いて、前記着目フレームのノイズが低減されたノイズ低減フレームを生成するノイズ低減部と、
を有し、
前記ノイズ低減部は、
前記動きベクトルの境界画素を検出し、前記検出された境界画素を示す動きベクトル境界画素情報を生成する動きベクトル境界検出手段と、
前記着目フレームと前記動き検出用参照フレームとの間における画素値変化率を解析し、前記画素値変化率の解析結果情報を生成する画素値変化率解析手段と、
前記動きベクトル境界画素情報及び前記画素値変化率の解析結果情報を用いて前記ノイズ低減フレームの生成を行う補正手段と
を有する
ことを特徴とする映像蓄積装置。
A storage unit for storing a series of frames constituting a moving image;
One of the series of frames stored in the storage unit is set as a target frame, and at least one of a temporally preceding frame and a temporally subsequent frame is used as a motion detection reference frame. A motion detection unit that estimates a motion between the frame of interest and the motion detection reference frame, and detects a motion vector in units of pixels constituting the frame of interest;
Using the noise reduction reference frame that is at least one of the motion vector detected by the motion detector, the frame of interest, a frame temporally preceding the frame of interest, and a frame temporally following the frame of interest. A noise reduction unit that generates a noise reduction frame in which the noise of the frame is reduced;
Have
The noise reduction unit is
Motion vector boundary detection means for detecting boundary pixels of the motion vector and generating motion vector boundary pixel information indicating the detected boundary pixels;
A pixel value change rate analyzing means for analyzing a pixel value change rate between the frame of interest and the motion detection reference frame, and generating analysis result information of the pixel value change rate;
A video storage device comprising: correction means for generating the noise reduction frame using the motion vector boundary pixel information and the analysis result information of the pixel value change rate.
前記ノイズ低減部は、過去に生成された少なくとも1枚のノイズ低減フレームを前記記憶部から読み出し、前記ノイズ低減用参照フレームとして用いることを特徴とする請求項12に記載の映像蓄積装置。   The video accumulation apparatus according to claim 12, wherein the noise reduction unit reads at least one noise reduction frame generated in the past from the storage unit and uses the frame as the noise reduction reference frame. コンピュータに処理を実行させるプログラムであって、
前記処理は、
動画像を構成する一連の複数のフレームの1つを着目フレームとし、前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方を動き検出用参照フレームとして用いて、前記着目フレームと前記動き検出用参照フレームとの間の動きを推定し、前記着目フレームを構成する画素単位の動きベクトルを検出する動き検出処理と、
前記動き検出処理において検出された前記動きベクトル、前記着目フレーム、及び前記着目フレームより時間的に先行するフレーム及び時間的に後続するフレームの少なくとも一方であるノイズ低減用参照フレームを用いて、前記着目フレームのノイズが低減されたノイズ低減フレームを生成するノイズ低減処理と
を含み、
前記ノイズ低減処理は、
前記動きベクトルの境界画素を検出し、前記検出された境界画素を示す動きベクトル境界画素情報を生成する動きベクトル境界検出処理と、
前記着目フレームと前記動き検出用参照フレームとの間における画素値変化率を解析し、前記画素値変化率の解析結果情報を生成する画素値変化率解析処理と、
前記動きベクトル境界画素情報及び前記画素値変化率の解析結果情報を用いて前記ノイズ低減フレームの生成を行うノイズ低減フレーム生成処理と
を含む
ことを特徴とするプログラム。
A program for causing a computer to execute processing,
The process is
One of a plurality of frames constituting a moving image is set as a frame of interest, and at least one of a temporally preceding frame and a temporally subsequent frame of the frame of interest is used as a motion detection reference frame. A motion detection process for estimating a motion between a frame and the motion detection reference frame and detecting a motion vector in units of pixels constituting the frame of interest;
Using the reference vector for noise reduction that is at least one of the motion vector detected in the motion detection process, the frame of interest, a frame temporally preceding and temporally following the frame of interest Including noise reduction processing for generating a noise reduction frame in which noise of the frame is reduced,
The noise reduction process
A motion vector boundary detection process for detecting a boundary pixel of the motion vector and generating motion vector boundary pixel information indicating the detected boundary pixel;
A pixel value change rate analysis process for analyzing a pixel value change rate between the frame of interest and the motion detection reference frame, and generating analysis result information of the pixel value change rate;
A noise reduction frame generation process for generating the noise reduction frame using the motion vector boundary pixel information and the analysis result information of the pixel value change rate.
JP2013026781A 2013-02-14 2013-02-14 Video processing device, video processing method, broadcast receiving device, video photographing device, video storage device, and program Active JP6128878B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013026781A JP6128878B2 (en) 2013-02-14 2013-02-14 Video processing device, video processing method, broadcast receiving device, video photographing device, video storage device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013026781A JP6128878B2 (en) 2013-02-14 2013-02-14 Video processing device, video processing method, broadcast receiving device, video photographing device, video storage device, and program

Publications (3)

Publication Number Publication Date
JP2014158083A true JP2014158083A (en) 2014-08-28
JP2014158083A5 JP2014158083A5 (en) 2015-11-05
JP6128878B2 JP6128878B2 (en) 2017-05-17

Family

ID=51578723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013026781A Active JP6128878B2 (en) 2013-02-14 2013-02-14 Video processing device, video processing method, broadcast receiving device, video photographing device, video storage device, and program

Country Status (1)

Country Link
JP (1) JP6128878B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111783632A (en) * 2020-06-29 2020-10-16 北京字节跳动网络技术有限公司 Face detection method and device for video stream, electronic equipment and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000013643A (en) * 1998-06-18 2000-01-14 Sony Corp Device and method for reducing noise, video signal processor and motion detecting method
JP2003006658A (en) * 2001-06-19 2003-01-10 Sony Corp Image processor and method for processing image, recording medium and program
JP2003284076A (en) * 2001-12-31 2003-10-03 Pentamicro Inc Device and method for detecting movement in digital image storage utilizing mpeg image compression technique
JP2010283623A (en) * 2009-06-04 2010-12-16 Panasonic Corp Image processor, image processing method, program, recording medium and integrated circuit
JP2011176776A (en) * 2010-02-25 2011-09-08 Olympus Corp Image processing apparatus and image processing method
JP2012080369A (en) * 2010-10-01 2012-04-19 Sony Corp Image processing apparatus and image processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000013643A (en) * 1998-06-18 2000-01-14 Sony Corp Device and method for reducing noise, video signal processor and motion detecting method
JP2003006658A (en) * 2001-06-19 2003-01-10 Sony Corp Image processor and method for processing image, recording medium and program
JP2003284076A (en) * 2001-12-31 2003-10-03 Pentamicro Inc Device and method for detecting movement in digital image storage utilizing mpeg image compression technique
JP2010283623A (en) * 2009-06-04 2010-12-16 Panasonic Corp Image processor, image processing method, program, recording medium and integrated circuit
JP2011176776A (en) * 2010-02-25 2011-09-08 Olympus Corp Image processing apparatus and image processing method
JP2012080369A (en) * 2010-10-01 2012-04-19 Sony Corp Image processing apparatus and image processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111783632A (en) * 2020-06-29 2020-10-16 北京字节跳动网络技术有限公司 Face detection method and device for video stream, electronic equipment and storage medium
CN111783632B (en) * 2020-06-29 2022-06-10 北京字节跳动网络技术有限公司 Face detection method and device for video stream, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP6128878B2 (en) 2017-05-17

Similar Documents

Publication Publication Date Title
US9202263B2 (en) System and method for spatio video image enhancement
JP4666012B2 (en) Image processing apparatus, image processing method, and program
EP2489007B1 (en) Image deblurring using a spatial image prior
US7570309B2 (en) Methods for adaptive noise reduction based on global motion estimation
CN102077572B (en) Method and apparatus for motion blur and ghosting prevention in imaging system
US7702178B2 (en) Method and apparatus for providing noise reduction
JP4857916B2 (en) Noise suppression method, noise suppression method program, recording medium recording noise suppression method program, and noise suppression device
KR100739753B1 (en) Method and apparatus of bidirectional temporal noise reduction
US9002129B2 (en) Method and device for reducing temporal noise for image
JP4454657B2 (en) Blur correction apparatus and method, and imaging apparatus
US20120314093A1 (en) Image processing apparatus and method, program, and recording medium
JP2010286488A (en) Image processor and method
JP6254938B2 (en) Image noise removing apparatus and image noise removing method
US10614554B2 (en) Contrast adaptive video denoising system
JP2012208553A (en) Image processing device, image processing method, and program
KR101805623B1 (en) Method and apparatus for generating superresolution image using prediction and stabilization of high-frequency information of image
JP2012109656A (en) Image processing apparatus and method, and image display unit and method
JP2005150903A (en) Image processing apparatus, noise elimination method, and noise elimination program
JP6128878B2 (en) Video processing device, video processing method, broadcast receiving device, video photographing device, video storage device, and program
JP2012032739A (en) Image processing device, method and image display device
Zhao et al. Image restoration under significant additive noise
EP3540685B1 (en) Image-processing apparatus to reduce staircase artifacts from an image signal
JP5550794B2 (en) Image processing apparatus and method, and image display apparatus and method
KR100772405B1 (en) Methods for adaptive noise reduction based on global motion estimation and video processing system therefore
JP2014158083A5 (en)

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170411

R150 Certificate of patent or registration of utility model

Ref document number: 6128878

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150