JP2015033019A - Image processing device, image display device, program, and recording medium - Google Patents

Image processing device, image display device, program, and recording medium Download PDF

Info

Publication number
JP2015033019A
JP2015033019A JP2013161798A JP2013161798A JP2015033019A JP 2015033019 A JP2015033019 A JP 2015033019A JP 2013161798 A JP2013161798 A JP 2013161798A JP 2013161798 A JP2013161798 A JP 2013161798A JP 2015033019 A JP2015033019 A JP 2015033019A
Authority
JP
Japan
Prior art keywords
pixel
value
image
target
frame image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013161798A
Other languages
Japanese (ja)
Inventor
豊久 松田
Toyohisa Matsuda
豊久 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2013161798A priority Critical patent/JP2015033019A/en
Publication of JP2015033019A publication Critical patent/JP2015033019A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device capable of improving a detail feeling without enhancing a noise component.SOLUTION: An image processing device comprises: a second noise reduction processing unit (18) that reduces an amplitude which can be regarded as noise having small inter-frame correlation to generate a noise-reduced image from a target frame image; and a mixture processing unit (21) that generates an output frame image from the target frame image, the noise-reduced image, and a high-frequency component based on each pixel value of the target frame image and a maximum value and a minimum value in a block including a pixel of interest.

Description

本発明は、画像、及び、映像処理を行う際に、ノイズ成分を強調することなく、画像のディテイル感を向上できる画像処理装置、プログラム及び記録媒体に関する。   The present invention relates to an image processing apparatus, a program, and a recording medium that can improve the feeling of image detail without emphasizing noise components when performing image and video processing.

静止画や動画に拡大処理を施して表示を行うと、等倍表示では十分鮮鋭感のある映像品質であっても、鮮鋭感、及び、ディテイル感の損なわれたぼやけた映像品質となることがある。そこで、拡大処理を行う前に、アンシャープマスク処理などの強調処理を適用することにより鮮鋭感を改善することが可能である。しかしながら、輪郭が太くなる、あるいは、輪郭周辺にオーバーシュートやアンダーシュートが発生するため、強調処理後に拡大処理を適用すると非常に不自然な画像になってしまう。   When a still image or video is enlarged and displayed, even if the image quality is sharp enough for 1x display, the image quality may be blurred and the image quality may be blurred. is there. Therefore, it is possible to improve the sharpness by applying an enhancement process such as an unsharp mask process before the enlargement process. However, since the outline becomes thick or overshoot and undershoot occur around the outline, if an enlargement process is applied after the enhancement process, the image becomes very unnatural.

そこで、フィルタ処理として3×3などのマスクサイズが小さなマスクを採用することにより、輪郭が太くなるのを低減することが可能である。しかしながら、マスクサイズを小さくすると、フィルタの周波数応答が単調になるため、重要な周波数帯域よりも不要な高周波成分への強調効果が強くなる。この問題について図を用いて説明する。図18の(a)〜(c)は、処理対象画像の周囲に負の数の係数を配置したときのフィルタ係数の例と、その周波数応答とを示す図である。なお、図18の(a)に示すマスクの前の数値(1/16)は、マスクの中の数字全てに乗算される数である。周波数応答が高くなるほどゲイン(利得)が高くなる単調増加の特性が示されている。周波数応答が単調なため、中域周波数で構成される輪郭成分への強調効果を高めると、ノイズが多く含まれる不要な高域周波成分も強調されてしまう、という問題が生じる。   Therefore, by adopting a mask having a small mask size such as 3 × 3 as the filter processing, it is possible to reduce the thickening of the contour. However, if the mask size is reduced, the frequency response of the filter becomes monotonous, so that the emphasis effect on unnecessary high frequency components becomes stronger than in the important frequency band. This problem will be described with reference to the drawings. 18A to 18C are diagrams illustrating examples of filter coefficients when a negative number of coefficients are arranged around the processing target image, and the frequency response thereof. The numerical value (1/16) before the mask shown in FIG. 18A is a number that is multiplied by all the numbers in the mask. A monotonically increasing characteristic is shown in which the gain (gain) increases as the frequency response increases. Since the frequency response is monotonous, if the enhancement effect on the contour component composed of the mid-frequency is enhanced, there arises a problem that an unnecessary high-frequency component containing a lot of noise is also enhanced.

一方、特許文献1には、注目画素と他の各画素との輝度値の差より標準偏差を求め、文字や線のように標準偏差が大きい領域にはハイパスフィルタによる強調処理を行い、写真や絵のように標準偏差が小さい領域にはローパスフィルタによる平滑処理を行うことで、画像のエッジを保ったままノイズ除去する方法が記載されている。特許文献1では、3つのフィルタが提案されており、いずれの場合も、標準偏差の大きい場合にハイパスフィルタとしての効果が強くなり、小さい場合にローパスフィルタとしての効果が強くなるように設計されている。そのため、画像のエッジを保ったままノイズ除去することができる。   On the other hand, in Patent Document 1, a standard deviation is obtained from a difference in luminance value between a pixel of interest and each of other pixels, and an area with a large standard deviation such as a character or a line is subjected to an emphasis process using a high-pass filter. A method is described in which a smoothing process using a low-pass filter is performed on an area having a small standard deviation as shown in a picture to remove noise while maintaining the edge of the image. In Patent Document 1, three filters are proposed, and in each case, the effect as a high-pass filter is strong when the standard deviation is large, and the effect as a low-pass filter is strong when the standard deviation is small. Yes. Therefore, noise can be removed while maintaining the edge of the image.

特開2009−266233号公報(2009年11月12日公開)JP 2009-266233 A (released on November 12, 2009)

しかしながら、特許文献1に開示された方法の場合、注目画素と他の各画素との輝度差を利用しており、エッジ部分の強度に基づいた処理となる。そのため、ノイズ成分と画像のディテイル成分とを分類することができない。従って、ノイズがディテイルとして残り、ディテイルがノイズとして平滑化されてしまうという問題を有する。   However, in the case of the method disclosed in Patent Document 1, the luminance difference between the target pixel and each of the other pixels is used, and the processing is based on the strength of the edge portion. Therefore, the noise component and the image detail component cannot be classified. Therefore, there is a problem that noise remains as detail and the detail is smoothed as noise.

そこで、本発明は、上記の問題点に鑑みてなされたものであって、その目的は、ノイズ成分を強調することなくディテイル感を向上させることが可能な画像処理装置、画像表示装置、プログラム及び記録媒体を提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing apparatus, an image display apparatus, a program, and a program capable of improving a detail feeling without enhancing noise components. It is to provide a recording medium.

上記の課題を解決するために、本発明の一態様に係る画像処理装置は、映像を構成するフレーム画像に精細感をもたらすディテイル処理部を備えた画像処理装置であって、上記ディテイル処理部は、対象フレーム画像とその隣接フレーム画像とで各画素間の位置合わせを行う位置合わせ部と、上記位置合わせされたフレーム画像を用いてフレーム間相関の小さいノイズとみなせる振幅を低減し、上記対象フレーム画像からノイズ低減画像を生成するノイズ低減部と、上記対象フレーム画像の各画素について、注目画素とその周辺画素とを含む第1ブロック内の画素値の最大値及び最小値を算出する最大値・最小値算出部と、上記対象フレーム画像の各画素について、注目画素の画素値と当該注目画素について算出された上記最大値及び上記最小値とを基に高周波成分を算出する高周波成分生成部と、上記対象フレーム画像と上記ノイズ低減画像と上記高周波成分とを基に出力フレーム画像を生成する混合部と、を備えることを特徴とする。   In order to solve the above-described problem, an image processing apparatus according to an aspect of the present invention is an image processing apparatus including a detail processing unit that brings a sense of detail to a frame image constituting a video, and the detail processing unit includes: An alignment unit for performing alignment between each pixel in the target frame image and its adjacent frame image, and reducing the amplitude that can be regarded as noise having a small inter-frame correlation using the aligned frame image, A noise reduction unit that generates a noise reduction image from an image, and a maximum value for calculating a maximum value and a minimum value of pixel values in the first block including the target pixel and its surrounding pixels for each pixel of the target frame image; For each pixel of the target frame image, the minimum value calculation unit, the pixel value of the target pixel, the maximum value calculated for the target pixel, and the maximum value A high-frequency component generation unit that calculates a high-frequency component based on the value; and a mixing unit that generates an output frame image based on the target frame image, the noise-reduced image, and the high-frequency component. .

上記構成によると、ノイズ成分を強調することなくディテイル感を向上させる画像処理を行うことができる。なお、ディテイルであるかノイズであるかの判断は、そのフレーム画像単独の情報だけでは困難である。そのため、上記構成のようにフレーム画像間での比較を行うことが有効な手段の一つである。   According to the above configuration, it is possible to perform image processing that improves the feeling of detail without enhancing the noise component. Note that it is difficult to determine whether it is a detail or noise by using only the information of the frame image alone. Therefore, it is an effective means to perform comparison between frame images as in the above configuration.

本発明の一実施の形態のテレビ放送受信装置の構成を示すブロック図である。It is a block diagram which shows the structure of the television broadcast receiver of one embodiment of this invention. 上記テレビ放送受信装置が有する映像信号処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the video signal processing part which the said television broadcast receiver has. 上記映像信号処理部が有するディテイル感向上処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the detail feeling improvement process part which the said video signal process part has. 上記ディテイル感向上処理部が有する位置合わせ処理部の実行する位置合わせ処理の例を示す図である。It is a figure which shows the example of the alignment process which the alignment process part which the said detail feeling improvement process part has performs. 上記ディテイル感向上処理部が有する第2ノイズ低減処理部でのノイズ低減処理のフローチャートを示す図である。It is a figure which shows the flowchart of the noise reduction process in the 2nd noise reduction process part which the said detail feeling improvement process part has. 3×3画素ウインドウにおける注目画素とその周辺画素とを示す図である。It is a figure which shows the attention pixel and its peripheral pixel in a 3x3 pixel window. 上記ディテイル感向上処理部が有する高周波成分生成処理部での高周波成分生成処理のフローチャートを示す図である。It is a figure which shows the flowchart of the high frequency component production | generation process in the high frequency component production | generation process part which the said detail feeling improvement process part has. 上記高周波成分生成処理部での高周波成分生成処理を説明するための図である。It is a figure for demonstrating the high frequency component production | generation process in the said high frequency component production | generation part. 上記ディテイル感向上処理部が有する混合処理部が実行する混合処理のフローチャートを示す図である。It is a figure which shows the flowchart of the mixing process which the mixing process part which the said detail feeling improvement process part has is performed. ダイナミックレンジRangeをアドレスとする重み係数テーブルenhanceWeight及びnoiseWeightの例を示す図である。It is a figure which shows the example of the weighting coefficient table enhancementWeight and noiseWeight which use the dynamic range Range as an address. 本発明の他の実施の形態のディテイル感向上処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the detail feeling improvement process part of other embodiment of this invention. 上記他の実施の形態のディテイル感向上処理部が有する第2ノイズ低減処理部でのノイズ低減処理のフローチャートを示す図である。It is a figure which shows the flowchart of the noise reduction process in the 2nd noise reduction process part which the detail feeling improvement process part of said other embodiment has. 本発明の別の実施の形態のディテイル感向上処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the detail feeling improvement process part of another embodiment of this invention. 上記別の実施の形態のディテイル感向上処理部が有する高周波処理生成部での処理のフローチャートを示す図である。It is a figure which shows the flowchart of the process in the high frequency process production | generation part which the detail feeling improvement process part of said another embodiment has. 本発明のさらに別の実施の形態のディテイル感向上処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the detail feeling improvement process part of another embodiment of this invention. 本発明の他の実施の形態のモニタの構成を示すブロック図である。It is a block diagram which shows the structure of the monitor of other embodiment of this invention. 本発明の別の実施の形態のマルチディスプレイを示す図である。It is a figure which shows the multi-display of another embodiment of this invention. 処理対象画像の周囲に負の数の係数を配置したときのフィルタ係数の例と、その周波数応答とを示す図である。It is a figure which shows the example of a filter coefficient when a negative number coefficient is arrange | positioned around the process target image, and its frequency response.

〔実施の形態1〕
本発明の一実施形態を図に基づき以下で具体的に説明する。本実施の形態では、本発明に係る画像表示装置として、テレビ放送受信装置1を例に用いて説明を行う。また、本発明に係る画像処理装置として、テレビ放送受信装置1が有する映像信号処理部42を例に用いて説明する。なお、以下の実施形態では、映像とは動画像を示すものとする。
[Embodiment 1]
An embodiment of the present invention will be specifically described below with reference to the drawings. In the present embodiment, a television broadcast receiving apparatus 1 will be described as an example of the image display apparatus according to the present invention. Further, as an image processing apparatus according to the present invention, a video signal processing unit 42 included in the television broadcast receiving apparatus 1 will be described as an example. In the following embodiments, the video indicates a moving image.

(テレビ放送受信装置)
図1は、本実施の形態のテレビ放送受信装置(画像表示装置)1の構成を示すブロック図である。テレビ放送受信装置1は、図1に示すように、インターフェース2、チューナー3、制御部4、電源ユニット5、表示部6、音声出力部7、及び、操作部8を備える。
(TV broadcast receiver)
FIG. 1 is a block diagram showing a configuration of a television broadcast receiving apparatus (image display apparatus) 1 according to the present embodiment. As shown in FIG. 1, the television broadcast receiving apparatus 1 includes an interface 2, a tuner 3, a control unit 4, a power supply unit 5, a display unit 6, an audio output unit 7, and an operation unit 8.

インターフェース2は、TVアンテナ25、TMDS(Transition Minimized Differential Signaling)方式でシリアル通信するためのDVI(Digital Visual Interface)端子22及びHDMI(High - Definition multimedia Interface、登録商標)端子23、TCP(Transmission Control Protocol)またはUDP(User Datagram Protocol)等の通信プロトコルで通信するためのLAN端子24、を備える。インターフェース2は、統括制御部41からの指示に従って、DVI端子22、HDMI端子23またはLAN端子24に接続された外部の機器との間でデータを送受信する。   The interface 2 includes a TV antenna 25, a DVI (Digital Visual Interface) terminal 22 for serial communication using a TMDS (Transition Minimized Differential Signaling) system, an HDMI (High-Definition multimedia Interface, registered trademark) terminal 23, a TCP (Transmission Control Protocol). ) Or a LAN terminal 24 for communication using a communication protocol such as UDP (User Datagram Protocol). The interface 2 transmits / receives data to / from an external device connected to the DVI terminal 22, the HDMI terminal 23, or the LAN terminal 24 in accordance with an instruction from the overall control unit 41.

チューナー3は、TVアンテナ25と接続されており、TVアンテナ25が受信する放送信号がチューナー3に入力される。放送信号には、映像データ、音声データ等が含まれる。本実施の形態では、チューナー3は、地上波デジタルチューナー31及びBS/CSデジタルチューナー32を備えているが、これらに限定されない。   The tuner 3 is connected to the TV antenna 25, and a broadcast signal received by the TV antenna 25 is input to the tuner 3. The broadcast signal includes video data, audio data, and the like. In the present embodiment, the tuner 3 includes the terrestrial digital tuner 31 and the BS / CS digital tuner 32, but is not limited thereto.

制御部4は、テレビ放送受信装置1が有する各ブロックを統括的に制御する統括制御部41、映像信号処理部(画像処理装置)42、音声信号処理部43、及びパネルコントローラ44を備える。   The control unit 4 includes an overall control unit 41 that comprehensively controls each block of the television broadcast receiving device 1, a video signal processing unit (image processing device) 42, an audio signal processing unit 43, and a panel controller 44.

映像信号処理部42は、インターフェース9を介して入力される映像データに所定の処理を施し、表示部6にて表示するための映像データ(映像信号)を生成する。   The video signal processing unit 42 performs predetermined processing on the video data input via the interface 9 and generates video data (video signal) to be displayed on the display unit 6.

音声信号処理部43は、インターフェース9を介して入力される音声データに所定の処理を施し音声信号を生成する。   The audio signal processing unit 43 performs predetermined processing on the audio data input through the interface 9 to generate an audio signal.

パネルコントローラ44は、表示部6を制御して、映像信号処理部42が出力する映像データの映像を表示部6に表示する。   The panel controller 44 controls the display unit 6 to display the video of the video data output from the video signal processing unit 42 on the display unit 6.

電源ユニット5は、外部から供給される電力を制御する。統括制御部41は、操作部8が有する電源スイッチから入力される操作指示に応じて、電源ユニット5に電力を供給させる、または、電力の供給を遮断させる。電源スイッチから入力される操作指示が電源オンに切り替える操作指示である場合、テレビ放送受信装置1の全体に電力が供給され、電源スイッチから入力される操作指示が電源オフに切り替える操作指示である場合、テレビ放送受信装置1に供給される電力が遮断される。   The power supply unit 5 controls electric power supplied from the outside. The overall control unit 41 causes the power supply unit 5 to supply power or shuts off the supply of power in accordance with an operation instruction input from the power switch of the operation unit 8. When the operation instruction input from the power switch is an operation instruction to switch on the power, when power is supplied to the entire television broadcast receiving apparatus 1 and the operation instruction input from the power switch is an operation instruction to switch off the power The electric power supplied to the television broadcast receiver 1 is cut off.

表示部6は、例えば、液晶表示装置(LCD)、プラズマディスプレイパネル等であり、映像信号処理部42が出力する映像データの映像を表示する。   The display unit 6 is, for example, a liquid crystal display (LCD), a plasma display panel, or the like, and displays a video of video data output from the video signal processing unit 42.

音声出力部7は、音声信号処理部43で生成された音声信号を統括制御部41の指示の下で出力する。   The audio output unit 7 outputs the audio signal generated by the audio signal processing unit 43 under the instruction of the overall control unit 41.

操作部8は、電源スイッチと、切替スイッチとを少なくとも含む。電源スイッチは、テレビ放送受信装置1の電源のオンとオフの切り替えを指示する操作指示を入力するためのスイッチである。切替スイッチは、テレビ放送受信装置1で受信する放送チャンネルを指定する操作指示を入力するためのスイッチである。操作部8は、電源スイッチ及び切替スイッチが押下されることに応じて、各スイッチに対応する操作指示を統括制御部41に出力する。   The operation unit 8 includes at least a power switch and a changeover switch. The power switch is a switch for inputting an operation instruction for instructing to switch the power of the television broadcast receiving apparatus 1 on and off. The change-over switch is a switch for inputting an operation instruction for designating a broadcast channel received by the television broadcast receiver 1. The operation unit 8 outputs an operation instruction corresponding to each switch to the overall control unit 41 in response to pressing of the power switch and the changeover switch.

なお、テレビ放送受信装置1と無線で通信することが可能なリモートコントローラに操作部8を備えるようにして、各スイッチに対応する操作指示をテレビ放送受信装置1に送信するようにしてもよい。この場合、リモートコントローラがテレビ放送受信装置1と通信する通信媒体は、有線でも無線でもよい。   Note that an operation instruction corresponding to each switch may be transmitted to the television broadcast receiving apparatus 1 by providing the operation unit 8 in a remote controller capable of wirelessly communicating with the television broadcast receiving apparatus 1. In this case, the communication medium with which the remote controller communicates with the television broadcast receiver 1 may be wired or wireless.

(映像信号処理部)
図2は、映像信号処理部42の構成を示すブロック図である。図2に示すように、映像信号処理部42は、デコーダ10、IP変換処理部11、第1ノイズ低減処理部12、ディテイル感向上処理部(ディテイル処理部)13、スケーラ処理部14、シャープネス処理部15、及びカラー調整処理部16、を備えている。なお、本実施の形態では、映像信号処理部42の各処理部は、RGB信号を処理するものとして説明するが、輝度信号を処理する構成であってもよい。
(Video signal processor)
FIG. 2 is a block diagram illustrating a configuration of the video signal processing unit 42. As shown in FIG. 2, the video signal processing unit 42 includes a decoder 10, an IP conversion processing unit 11, a first noise reduction processing unit 12, a detail feeling improvement processing unit (detail processing unit) 13, a scaler processing unit 14, and a sharpness processing. Section 15 and a color adjustment processing section 16. In the present embodiment, each processing unit of the video signal processing unit 42 is described as processing RGB signals, but may be configured to process luminance signals.

デコーダ10は、圧縮された映像ストリームを復号して映像データを生成し、IP変換処理部11に出力する。IP変換処理部11は、必要に応じて、デコーダ10から入力される映像データをインターレース方式からプログレッシブ方式に変換する。第1ノイズ低減処理部12は、IP変換処理部11が出力する映像データに含まれるセンサノイズや圧縮する際に生じた圧縮アーティファクツを低減(抑制)するための各種のノイズ低減処理を実行する。   The decoder 10 decodes the compressed video stream to generate video data, and outputs the video data to the IP conversion processing unit 11. The IP conversion processing unit 11 converts the video data input from the decoder 10 from the interlace method to the progressive method as necessary. The first noise reduction processing unit 12 executes various types of noise reduction processing for reducing (suppressing) sensor noise included in video data output from the IP conversion processing unit 11 and compression artifacts generated during compression. To do.

ディテイル感向上処理部13は、第1ノイズ低減処理部12が出力する映像データに対して、拡大処理後にも精細感をもたらすためのディテイル感向上処理を施す。スケーラ処理部14は、ディテイル感向上処理部13が出力する映像データに対して、表示部6の画素数に応じたスケーリング処理(拡大処理)を実行する。シャープネス処理部15は、スケーラ処理部14が出力する映像データの映像を鮮鋭化するシャープネス処理を実行する。カラー調整処理部16は、シャープネス処理部15が出力する映像データに対して、コントラストや彩度等を調整するカラー調整処理を実行する。   The detail improvement processing unit 13 performs a detail improvement process on the video data output from the first noise reduction processing unit 12 to provide a fine feeling even after the enlargement process. The scaler processing unit 14 performs a scaling process (enlargement process) according to the number of pixels of the display unit 6 on the video data output from the detail improvement processing unit 13. The sharpness processing unit 15 executes a sharpness process for sharpening the video of the video data output from the scaler processing unit 14. The color adjustment processing unit 16 performs color adjustment processing for adjusting contrast, saturation, and the like on the video data output from the sharpness processing unit 15.

なお、映像信号処理部42は、図示しない記憶部に、映像信号処理部42の各ブロックにより各種の処理が実行される際の映像データを適宣記憶させる。   The video signal processing unit 42 appropriately stores video data when various processes are executed by the blocks of the video signal processing unit 42 in a storage unit (not shown).

ここで、映像データを構成する画像データはフレーム単位で構成されており、フレーム単位の画像をフレーム画像と称する。よって、映像は複数のフレーム画像から構成されている。本明細書では、フレーム画像を単にフレームと称する場合もある。   Here, the image data constituting the video data is configured in units of frames, and an image in units of frames is referred to as a frame image. Therefore, the video is composed of a plurality of frame images. In this specification, a frame image may be simply referred to as a frame.

(ディテイル感向上処理部)
図3は、ディテイル感向上処理部13の詳細な構成を示すブロック図である。ディテイル感向上処理部13は、位置合わせ処理部(位置合わせ部)17、第2ノイズ低減処理部(ノイズ低減部)18、最大値・最小値算出処理部(最大値・最小値算出部)19、高周波成分生成処理部(高周波成分生成部)20、及び混合処理部(混合部)21を備える。
(Detail feeling improvement processing section)
FIG. 3 is a block diagram showing a detailed configuration of the detail feeling improvement processing unit 13. The detail improvement processing unit 13 includes an alignment processing unit (positioning unit) 17, a second noise reduction processing unit (noise reduction unit) 18, a maximum value / minimum value calculation processing unit (maximum value / minimum value calculation unit) 19. The high frequency component generation processing unit (high frequency component generation unit) 20 and the mixing processing unit (mixing unit) 21 are provided.

位置合わせ処理部17は、フレーム間の画素の位置合わせを行う位置合わせ処理を実行する。具体的には、位置合わせ処理部17は、各入力画素について、処理対象フレーム(対象フレーム画像)Nとその前フレーム(隣接フレーム画像)N−1との間で、差分絶対値総和SAD(Sum of Absolute Difference)が最小となる前フレームN−1の画素位置を探索する。差分絶対値総和SADは、差分絶対値総和SADの算出対象画素を中心とするP×Q画素ウインドウにおける画素の差分絶対値総和を算出する。処理対象フレームNの画素座標位置を(yn,xn)、その前フレームN−1の画素位置を(yn-1,xn-1)とすると、両者の差分絶対値総和SADは、下記式(1)の通り算出することができる。 The alignment processing unit 17 executes alignment processing for aligning pixels between frames. Specifically, for each input pixel, the alignment processing unit 17 calculates the difference absolute value sum SAD (Sum) between the processing target frame (target frame image) N and the previous frame (adjacent frame image) N−1. of absolute difference) is searched for the pixel position of the previous frame N-1. The difference absolute value sum SAD calculates the sum of absolute differences of pixels in a P × Q pixel window centered on the pixel for which the difference absolute value sum SAD is calculated. When the pixel coordinate position of the processing target frame N is (y n , x n ) and the pixel position of the previous frame N-1 is (y n−1 , x n−1 ), the difference absolute value sum SAD of both is It is computable as following formula (1).

Figure 2015033019
Figure 2015033019

差分絶対値総和SADが最小となる画素位置の探索範囲をI×Jとしたとき、画素位置(y,x)における処理対象フレームNとその前フレームN−1との間の最小差分絶対値総和minSADN-1(y,x)は、下記式(2)の通り算出することができる。 When the search range of the pixel position where the difference absolute value sum SAD is the minimum is I × J, the minimum difference absolute value sum between the processing target frame N and the previous frame N−1 at the pixel position (y, x). minSAD N-1 (y, x) can be calculated according to the following equation (2).

Figure 2015033019
Figure 2015033019

また、上記式(2)を満たす座標(y+i,x+j)を、差分絶対値総和が最小となる座標(motYN-1, motXN-1)として求める。 In addition, coordinates (y + i, x + j) satisfying the above equation (2) are obtained as coordinates (motY N−1 , motX N−1 ) that minimize the sum of absolute differences.

同様にして、画素位置(y,x)における処理対象フレームNとその後フレーム(隣接フレーム画像)N+1との間の最小差分絶対値総和minSADN+1(y,x)は、下記式(3)の通り算出することができる。 Similarly, the minimum difference absolute value sum minSAD N + 1 (y, x) between the processing target frame N at the pixel position (y, x) and the subsequent frame (adjacent frame image) N + 1 is expressed by the following equation (3). It can be calculated as follows.

Figure 2015033019
Figure 2015033019

また、上記式(3)を満たす座標(y+i,x+j)を、差分絶対値総和が最小となる座標(motYN+1, motXN+1)として求める。 Also, coordinates (y + i, x + j) satisfying the above equation (3) are obtained as coordinates (motY N + 1 , motX N + 1 ) that minimize the sum of absolute differences.

図4は、位置合わせ処理の例を示す図である。差分絶対値総和SADの算出ウインドウサイズP×Qを5×5とし、画素位置の探索範囲をI×Jを3×3としたときの、処理対象フレームNとその前フレームN−1との間の差分絶対値総和SADの算出方法を説明する図を示す。処理対象フレームNにおいてINN(y,x)を中心とする5×5画素に対して、差分絶対値総和SADが最小となる前フレームN−1の画素位置を3×3からなる探索範囲、すなわち、(y-1,x-1)、(y-1,x)、(y-1,x+1)、(y,x-1)、(y,x)、(y,x+1)、(y+1,x-1)、(y+1,x)、(y+1,x+1)の計9つの画素の中から探索する。図4の(a)は、処理対象フレームNにおいてINN(y,x)を中心とする5×5画素を示し、図4(b)は、前フレームN−1においてINN-1(y-1,x-1)を中心とする画素、さらにその周辺画素を示している。 FIG. 4 is a diagram illustrating an example of the alignment process. The difference absolute value sum SAD calculation window size P × Q is 5 × 5, and the pixel position search range is I × J 3 × 3. Between the processing target frame N and the previous frame N−1 The figure explaining the calculation method of difference absolute value sum total SAD of is shown. A search range consisting of 3 × 3 pixel positions of the previous frame N−1 where the sum of absolute differences SAD is minimum with respect to 5 × 5 pixels centering on IN N (y, x) in the processing target frame N; That is, (y-1, x-1), (y-1, x), (y-1, x + 1), (y, x-1), (y, x), (y, x + 1 ), (Y + 1, x−1), (y + 1, x), and (y + 1, x + 1) are searched from a total of nine pixels. 4A shows 5 × 5 pixels centering on IN N (y, x) in the processing target frame N, and FIG. 4B shows IN N−1 (y in the previous frame N−1. -1, x-1) as a center pixel and its peripheral pixels.

第2ノイズ低減処理部18は、位置合わせされたフレームを用いてフレーム間相関の小さい(低い)微小振幅(ノイズとみなせる振幅)をノイズとして低減するノイズ低減処理を行う。具体的には、第2ノイズ低減処理部18は、位置合わせ処理部17において算出された最小差分絶対値総和minSADN-1(y,x)、minSADN+1(y,x)、及び、差分絶対値総和が最小となる座標(motYN-1, motXN-1)、(motYN+1, motXN+1)を用いて、時間軸方向にフィルタ処理を行う。以上のように、位置合わせ処理部17にて複数枚のフレーム間の位置合わせを行った後に、第2ノイズ低減処理部18にて、フィルタ処理を行うことにより、フレーム間相関の小さい微小振幅をノイズとして低減することができる。 The second noise reduction processing unit 18 performs noise reduction processing for reducing, as noise, a minute amplitude (amplitude that can be regarded as noise) having a small (low) correlation between frames using the aligned frames. Specifically, the second noise reduction processing unit 18 includes the minimum difference absolute value sum minSAD N−1 (y, x), minSAD N + 1 (y, x) calculated by the alignment processing unit 17, and Filtering is performed in the time axis direction using the coordinates (motY N−1 , motX N−1 ) and (motY N + 1 , motX N + 1 ) that minimize the sum of absolute differences. As described above, after the alignment processing unit 17 performs alignment between a plurality of frames, the second noise reduction processing unit 18 performs filter processing, thereby obtaining a small amplitude with a small inter-frame correlation. It can be reduced as noise.

図5は、第2ノイズ低減処理部18でのノイズ低減処理のフローチャートを示す図である。まず、第2ノイズ低減処理部18は、最小差分絶対値総和minSADN-1(y,x)、minSADN+1(y,x)を用いて、時間軸方向にフィルタ処理を行うための重み係数を算出する(ステップ1、以降ではS1のように省略する)。前フレームN−1における重み係数は、処理対象フレームNとその前フレームN−1との間の差分絶対値総和SADの最小値minSADN-1(y,x)が大きいほど重み係数が小さくなるように算出する。例えば、前フレームN−1の重み係数は、下記式(4)にて算出することができる。なお、差分絶対値総和SADの最小値が大きいほど、両フレームの差異が大きい、すなわち、フレーム間の相関が小さい。 FIG. 5 is a diagram illustrating a flowchart of noise reduction processing in the second noise reduction processing unit 18. First, the second noise reduction processing unit 18 uses the minimum absolute difference sum minSAD N-1 (y, x) and minSAD N + 1 (y, x) to perform weighting for filtering in the time axis direction. A coefficient is calculated (step 1 and the subsequent steps are omitted as S1). The weighting coefficient in the previous frame N-1 is smaller as the minimum value minSAD N-1 (y, x) of the difference absolute value sum SAD between the processing target frame N and the previous frame N-1 is larger. Calculate as follows. For example, the weighting coefficient of the previous frame N-1 can be calculated by the following equation (4). As the minimum value of the difference absolute value sum SAD is larger, the difference between both frames is larger, that is, the correlation between frames is smaller.

Figure 2015033019
Figure 2015033019

上記式(4)では、minSADN-1(y,x)が閾値TH_SAD_UPLIMIT(例えば、2048)より小さいとき、minSADN-1(y,x)をWNR_NORM(例えば、256)で正規化して得られる値を関数f(x)=1/(1+x)に適用して得られる値に、所定重み係数TH_WNR_RATION-1(例えば1.0)を乗算して、重み係数wNRN-1を得る。一方、minSADN-1(y,x)が閾値TH_SAD_UPLIMIT以上のときは、重み係数TH_WEIGHT_INIT(例えば0)を用いる。 In the above equation (4), when minSAD N-1 (y, x) is smaller than a threshold TH_SAD_UPLIMIT (for example, 2048), it is obtained by normalizing minSAD N-1 (y, x) by WNR_NORM (for example, 256). A value obtained by applying the value to the function f (x) = 1 / (1 + x) is multiplied by a predetermined weight coefficient TH_WNR_RATIO N-1 (for example, 1.0) to obtain a weight coefficient wNR N-1 . On the other hand, when minSAD N-1 (y, x) is equal to or greater than the threshold value TH_SAD_UPLIMIT, a weight coefficient TH_WEIGHT_INIT (for example, 0) is used.

処理対象フレームNについては、下記式(5)の通り、所定の重み係数TH_WNR_RATION(例えば1.0)をそのまま重み係数wNRNとして用いるものとする。 For the processing target frame N, a predetermined weight coefficient TH_WNR_RATIO N (for example, 1.0) is used as it is as the weight coefficient wNR N as shown in the following equation (5).

Figure 2015033019
Figure 2015033019

後フレームN+1の重み係数は、前フレームN−1の重み係数と同様にして、処理対象フレームNとその後フレームN+1との間の差分絶対値総和SADの最小値minSADN+1(y,x)を用いて、下記式(6)にて算出することができる。 The weight coefficient of the subsequent frame N + 1 is the minimum value minSAD N + 1 (y, x) of the difference absolute value sum SAD between the processing target frame N and the subsequent frame N + 1 in the same manner as the weight coefficient of the previous frame N-1. Can be calculated by the following equation (6).

Figure 2015033019
Figure 2015033019

次に、第2ノイズ低減処理部18は、各フレームについて求められた重み係数を用いて、処理対象フレームNにおける画素の座標(y,x)における画素値INN(y,x)と、位置合わせされた、前フレームN−1における画素値INN-1(motYN-1,motXN-1)及び後フレームN+1における画素値INN+1(motYN+1,motXN+1)とを混合することにより、ノイズ低減処理結果(ノイズ低減画像)NRN(y,x)を算出する時間軸フィルタ処理を実行する(S2)。ノイズ低減処理結果NRN(y,x)の算出は、下記式(7)の通りである。 Next, the second noise reduction processing unit 18 uses the weighting coefficient obtained for each frame, the pixel value IN N (y, x) at the coordinates (y, x) of the pixel in the processing target frame N, and the position The combined pixel value IN N-1 (motY N−1 , motX N−1 ) in the previous frame N−1 and pixel value IN N + 1 (motY N + 1 , motX N + 1 ) in the subsequent frame N + 1 are combined. Are mixed to execute a time-axis filtering process for calculating a noise reduction processing result (noise reduction image) NR N (y, x) (S2). The calculation of the noise reduction processing result NR N (y, x) is as shown in the following equation (7).

Figure 2015033019
Figure 2015033019

最大値・最小値算出処理部19は、フレームにおける各画素(入力画素)について、注目画素を中心とするm×n(例えば、3×3)画素ウインドウ(第1ブロック)における画素値(画素濃度値)の最大値及び最小値を算出する処理を行う。図6は、一例として、m=n=3の場合の注目画素とその周辺画素とを示す図である。注目画素を中心とするm×n画素ウインドウにおける最大値maxValNは、周辺画素を参照して下記式(8)の通り算出される。 The maximum value / minimum value calculation processing unit 19 for each pixel (input pixel) in the frame, a pixel value (pixel density) in an m × n (for example, 3 × 3) pixel window (first block) centered on the pixel of interest. Value) is calculated. FIG. 6 is a diagram illustrating a pixel of interest and its peripheral pixels when m = n = 3 as an example. The maximum value maxVal N in the m × n pixel window centered on the pixel of interest is calculated as the following formula (8) with reference to the surrounding pixels.

Figure 2015033019
Figure 2015033019

ここで、IN(y,x)は、入力画像(入力画像データ)の座標(y, x)における画素の画素値(本実施の形態では、濃度値)を表す。なお、画素値は、入力画像が、例えば、8ビットで表される場合、0〜255で表される値である。同様にして、注目画素を中心とするm×n画素ウインドウにおける最小値minValNは、周辺画素を参照して下記式(9)の通り算出される。 Here, IN (y, x) represents the pixel value (density value in the present embodiment) of the pixel at the coordinates (y, x) of the input image (input image data). The pixel value is a value represented by 0 to 255 when the input image is represented by 8 bits, for example. Similarly, the minimum value minVal N in the m × n pixel window centered on the target pixel is calculated as the following formula (9) with reference to the surrounding pixels.

Figure 2015033019
Figure 2015033019

高周波成分生成処理部20は、入力画像と最大値・最小値算出処理部19にて算出されたm×nウインドウ内の最大値及び最小値とを用いて高周波成分を生成する高周波成分生成処理を行う。図7は、高周波成分生成処理のフローチャートを示す図である。まず、高周波成分生成処理部20は、入力画像の画素値(入力画素値)とm×nウインドウ内最大値との差分絶対値diffMaxを、下記式(10)の通り算出する(S3)。   The high frequency component generation processing unit 20 performs high frequency component generation processing for generating a high frequency component using the input image and the maximum value and the minimum value in the m × n window calculated by the maximum value / minimum value calculation processing unit 19. Do. FIG. 7 is a flowchart of the high frequency component generation process. First, the high frequency component generation processing unit 20 calculates the absolute difference diffMax between the pixel value (input pixel value) of the input image and the maximum value in the m × n window according to the following equation (10) (S3).

Figure 2015033019
Figure 2015033019

ただし、|・|は絶対値演算を意味する。 However, | · | means absolute value calculation.

同様にして、差分絶対値diffMinを下記式(11)の通り算出する(S4)。   Similarly, the absolute difference value diffMin is calculated according to the following equation (11) (S4).

Figure 2015033019
Figure 2015033019

次に、高周波成分生成処理部20は、最大値との差分絶対値diffMaxと、最小値との差分絶対値diffMinに所定係数(定数)TH_RANGE(例えば、1.5)を乗算した結果とを、比較する(S5)。最大値との差分絶対値diffMaxが、最小値との差分絶対値diffMinとTH_RANGEとの乗算結果よりも大きければ(S5にてYES)、高周波成分Enhを下記式(12)の通り算出する(S6)。   Next, the high frequency component generation processing unit 20 multiplies the absolute difference diffMax from the maximum value and the absolute difference diffMin from the minimum value by a predetermined coefficient (constant) TH_RANGE (for example, 1.5). Compare (S5). If the difference absolute value diffMax from the maximum value is larger than the multiplication result of the difference absolute value diffMin from the minimum value and TH_RANGE (YES in S5), the high frequency component Enh is calculated as shown in the following equation (12) (S6). ).

Figure 2015033019
Figure 2015033019

他方、最大値との差分絶対値diffMaxが、最小値との差分絶対値diffMinとTH_RANGEとの乗算結果以下であると(S5にてNO)、最小値との差分絶対値diffMinと、最大値との差分絶対値diffMaxに所定係数(定数)TH_RANGE(例えば、1.5)を乗算した結果とを、比較する(S7)。最小値との差分絶対値diffMinが、最大値との差分絶対値diffMaxとTH_RANGEとの乗算結果よりも大きければ(S7にてYES)、高周波成分Enhを下記式(13)の通り算出する(S8)。   On the other hand, if the difference absolute value diffMax from the maximum value is equal to or less than the result of multiplying the difference absolute value diffMin from the minimum value by TH_RANGE (NO in S5), the difference absolute value diffMin from the minimum value and the maximum value The result obtained by multiplying the absolute difference value diffMax by a predetermined coefficient (constant) TH_RANGE (for example, 1.5) is compared (S7). If the difference absolute value diffMin from the minimum value is larger than the multiplication result of the difference absolute value diffMax from the maximum value and TH_RANGE (YES in S7), the high frequency component Enh is calculated as shown in the following equation (13) (S8). ).

Figure 2015033019
Figure 2015033019

他方、最小値との差分絶対値diffMinが、最大値との差分絶対値diffMaxとTH_RANGEとの乗算結果以下であると(S7にてNO)、下記式(14)のように高周波成分Enhを0とする(S9)。   On the other hand, if the difference absolute value diffMin from the minimum value is equal to or less than the multiplication result of the difference absolute value diffMax from the maximum value and TH_RANGE (NO in S7), the high frequency component Enh is set to 0 as shown in the following equation (14). (S9).

Figure 2015033019
Figure 2015033019

図8は、高周波成分生成処理を説明するための図である。図8の(a)は、最大値との差分絶対値diffMaxが、最小値との差分絶対値diffMinとTH_RANGEとの乗算結果より大きい場合の、入力画素値、m×nウインドウ内の最大値maxValN、m×nウインドウ内最小値minValN、最大値との差分絶対値diffMax、最小値との差分絶対値diffMin、及び高周波成分Enhの関係を示している。同様にして、図8の(b)は、最小値との差分絶対値diffMinが、最大値との差分絶対値diffMaxとTH_RANGEとの乗算結果より大きい場合の、入力画素値、m×nウインドウ内最大値maxValN、m×nウインドウ内最小値minValN、最大値との差分絶対値diffMax、最小値との差分絶対値diffMin、及び高周波成分Enhの関係を示している。 FIG. 8 is a diagram for explaining the high-frequency component generation processing. (A) of FIG. 8 shows the input pixel value and the maximum value maxVal in the m × n window when the difference absolute value diffMax from the maximum value is larger than the multiplication result of the difference absolute value diffMin from the minimum value and TH_RANGE. N , m × n in-window minimum value minVal N , difference absolute value diffMax from maximum value, difference absolute value diffMin from minimum value, and high frequency component Enh are shown. Similarly, FIG. 8B shows an input pixel value in the m × n window when the difference absolute value diffMin from the minimum value is larger than the multiplication result of the difference absolute value diffMax from the maximum value and TH_RANGE. The relationship among the maximum value maxVal N , the m × n minimum value minVal N in the window, the absolute difference value diffMax from the maximum value, the absolute difference value diffMin from the minimum value, and the high frequency component Enh is shown.

図8の(a)の場合、最小値に近い値を有する入力画素値から最大値との差分絶対値diffMaxを減算することにより高周波成分が生成され、ダイナミックレンジを広げることができるので、エッジ勾配が急になり、ディテイル感を向上させることができる。図8の(b)の場合、最大値に近い値を有する入力画素値に最小値との差分絶対値diffMinを加算することにより高周波成分が生成され、ダイナミックレンジを広げることができるので、エッジ勾配が急になり、ディテイル感を向上させることができる。   In the case of FIG. 8A, the high frequency component is generated by subtracting the difference absolute value diffMax from the maximum value from the input pixel value having a value close to the minimum value, so that the dynamic range can be expanded. Becomes sudden and the detail feeling can be improved. In the case of FIG. 8B, the high frequency component can be generated by adding the difference absolute value diffMin from the minimum value to the input pixel value having a value close to the maximum value, and the dynamic range can be expanded. Becomes sudden and the detail feeling can be improved.

他方、最大値との差分絶対値diffMaxが、最小値との差分絶対値diffMinとTH_RANGEとの乗算結果以下の場合、かつ、最小値との差分絶対値diffMinが、最大値との差分絶対値diffMaxとTH_RANGEとの乗算結果以下の場合は、入力画像の画素値が最小値と最大値との中間付近の値を有している。そのため、この中間付近の値の入力画像を何れかの方向に強調してしまうと、画素値が最小値付近の画素値と最大値付近の画素値とに2極化し、精細感が損なわれてしまう。よって、精細感が損なわれてしまうのを防ぐため高周波成分Enhを0にする。   On the other hand, if the difference absolute value diffMax from the maximum value is equal to or less than the result of multiplication of the difference absolute value diffMin from the minimum value and TH_RANGE, and the difference absolute value diffMin from the minimum value is the difference absolute value diffMax from the maximum value When the result is equal to or less than the multiplication result of TH_RANGE, the pixel value of the input image has a value near the middle between the minimum value and the maximum value. For this reason, if an input image having a value near the middle is emphasized in any direction, the pixel value is divided into a pixel value near the minimum value and a pixel value near the maximum value, and the sense of detail is lost. End up. Therefore, the high frequency component Enh is set to 0 in order to prevent the sense of fineness from being lost.

混合処理部21は、入力画像、第2ノイズ低減処理部18にて生成されたノイズ低減処理結果、及び高周波成分生成処理部20にて生成された高周波成分を混合して、ディテイル感を向上させる混合処理を行う。   The mixing processing unit 21 mixes the input image, the noise reduction processing result generated by the second noise reduction processing unit 18, and the high frequency component generated by the high frequency component generation processing unit 20 to improve the feeling of detail. Mixing is performed.

図9は、混合処理のフローチャートを示す図である。まず、混合処理部21は、注目画素を中心とするK×L(例えば5×5)画素ウインドウ(第2ブロック)における最大値と最小値との差分値であるダイナミックレンジRangeを下記式(15)の通り算出する(S10)。   FIG. 9 is a diagram illustrating a flowchart of the mixing process. First, the mixing processing unit 21 calculates a dynamic range Range that is a difference value between the maximum value and the minimum value in a K × L (for example, 5 × 5) pixel window (second block) centered on the target pixel by the following equation (15). ) (S10).

Figure 2015033019
Figure 2015033019

次に、混合処理部21は、ダイナミックレンジRangeをアドレスとして重み係数テーブル(第1の重み係数)enhanceWeightを参照し、その返り値(enhanceWeight[Range])と高周波成分生成処理部20にて算出された高周波成分Enhとの乗算結果を、強調量wEnhとして算出する(S11)。   Next, the blending processing unit 21 refers to the weighting coefficient table (first weighting coefficient) enhancementWeight using the dynamic range Range as an address, and the return value (enhanceWeight [Range]) and the high frequency component generation processing unit 20 calculate it. The multiplication result with the high frequency component Enh is calculated as the enhancement amount wEnh (S11).

そして、高周波成分を混合することによりノイズが強調されることを避けるために、入力画像とノイズ低減処理結果との差分値を用いて、ノイズによるペナルティ量(ノイズペナルティー、調整量)Reductionを算出する(S12)。ペナルティ量Reductionは、処理対象フレームNにおける入力画素値INN(y,x)とノイズ低減処理結果NRN(y,x)との差分絶対値に、ダイナミックレンジRangeをアドレスとして重み係数テーブル(第2の重み係数)noiseWeightを参照し、その返り値(weightLUT[range])を乗算して算出する。 Then, in order to avoid noise enhancement by mixing high frequency components, a penalty amount (noise penalty, adjustment amount) Reduction due to noise is calculated using a difference value between the input image and the noise reduction processing result. (S12). The penalty amount Reduction is a weighting coefficient table (first order) with the absolute value of the difference between the input pixel value IN N (y, x) in the processing target frame N and the noise reduction processing result NR N (y, x) as the dynamic range Range. 2) (weighting factor 2) noiseWeight, and multiplying the return value (weightLUT [range]).

Figure 2015033019
Figure 2015033019

最後に、混合処理部21は、下記式(17)の通り、強調量wEnhの符号を考慮してペナルティ量Reductionを加減算して、ノイズ低減処理結果NRN(y,x)に加算することにより、最終処理結果(出力フレーム画像)Resultを算出する混合演算処理を行う(S13)。 Finally, the mixing processing unit 21 adds and subtracts the penalty amount Reduction in consideration of the sign of the enhancement amount wEnh and adds it to the noise reduction processing result NR N (y, x) as shown in the following equation (17). Then, a mixed calculation process for calculating a final process result (output frame image) Result is performed (S13).

Figure 2015033019
Figure 2015033019

なお、上記式(17)において、ノイズ低減処理結果NRN(y,x)に加算する代わりに入力画素値INN(y,x)に加算してもよいし、ノイズ低減処理結果NRN(y,x)と入力画素値INN(y,x)とを所定比率で混合したものに加算しても構わない。 In the above equation (17), instead of adding to the noise reduction processing result NR N (y, x), it may be added to the input pixel value IN N (y, x), or the noise reduction processing result NR N ( y, x) and the input pixel value iN N (y, may be added to a mixture of a x) at a predetermined ratio.

図10の(a)及び(b)は、それぞれ、ダイナミックレンジRangeをアドレスとする重み係数テーブルenhanceWeight及びnoiseWeightの一例を示す図である。これらは、図示しない記憶部に格納される。enhanceWeightを図10の(a)の通りに設定し、生成した高周波成分を加算することでノイズが目立ってしまうダイナミックレンジの極端に小さい画像領域を除いた、比較的ダイナミックレンジが狭い画像領域に対して重み係数が大きくなるようにすることで、高いディテイル感の向上効果を得ることができる。更に、ダイナミックレンジの広い画像領域に対して重み係数を小さくすることで、オーバーシュートやアンダーシュートを発生させることなくディテイル感のみを向上させることができる。また、noiseWeightを図10の(b)の通りに設定することで、ノイズが目立ってしまうダイナミックレンジの小さい画像領域においてフレーム間相関の小さい微小振幅がある場合、ペナルティ量を大きくすることにより、ノイズが強調されることを抑制することができる。   FIGS. 10A and 10B are diagrams illustrating examples of weight coefficient tables enhancementWeight and noiseWeight having the dynamic range Range as an address, respectively. These are stored in a storage unit (not shown). For an image area with a relatively narrow dynamic range, excluding an image area with an extremely small dynamic range where noise is conspicuous by setting enhanceWeight as shown in FIG. By increasing the weighting coefficient, it is possible to obtain a high detail feeling improvement effect. Furthermore, by reducing the weighting coefficient for an image region with a wide dynamic range, only the feeling of detail can be improved without causing overshoot or undershoot. Also, by setting the noiseWeight as shown in FIG. 10B, if there is a small amplitude with small correlation between frames in an image region with a small dynamic range where noise is conspicuous, the noise is increased by increasing the penalty amount. Can be suppressed from being emphasized.

以上の処理により、効果的に高周波成分を作成することができ、ノイズ成分を強調することなくディテイル感を向上させることができる。なお、以上の処理は、入力画素すべてについて行われる。   By the above processing, a high frequency component can be created effectively, and the feeling of detail can be improved without enhancing the noise component. The above processing is performed for all input pixels.

ここで、スケーラ処理部14による拡大処理前に輪郭強調処理を行うと、強調された輪郭線分がそのまま拡大される。その結果、拡大後の輪郭線分が太く見え、自然画像では不自然に見えてしまうという問題がある。一方、精細感を与えるディテイル成分については、拡大処理前に精細感を強めておかないと、拡大処理の補間演算で精細感の元となる高周波成分が失われてしまい、拡大処理後に高周波成分を強調してディテイル感を向上させることが難しくなる。そこで、本実施の形態では、拡大処理における補間演算によって高周波成分が損なわれる前に、ディテイル感向上処理を行ってディテイル感を向上しておき、拡大処理後にシャープネス処理を行うことにより、輪郭を太らせることなく鮮鋭度を向上させながら精細感を向上させることができる。   Here, if the outline emphasis process is performed before the enlargement process by the scaler processing unit 14, the emphasized outline segment is enlarged as it is. As a result, there is a problem that the contour line segment after enlargement looks thick and looks unnatural in a natural image. On the other hand, for detail components that give a sense of detail, if the detail is not strengthened before enlargement processing, the high-frequency components that are the source of detail will be lost in the interpolation processing of enlargement processing, and the high-frequency components will be removed after enlargement processing. It becomes difficult to emphasize and improve the detail feeling. Therefore, in this embodiment, before the high frequency component is impaired by the interpolation calculation in the enlargement process, the detail feeling improvement process is performed to improve the detail feeling, and the sharpness process is performed after the enlargement process, thereby thickening the contour. The sense of fineness can be improved while improving the sharpness.

〔実施の形態2〕
本実施の形態の映像信号処理部及びテレビ放送受信装置は、図3に示す実施の形態1の映像信号処理部42のディテイル感向上処理部13が、図11に示すディテイル感向上処理部(ディテイル処理部)13aに置き換わったものである。本実施の形態の映像信号処理部及びテレビ放送受信装置において、ディテイル感向上処理部13a以外の構成は、実施の形態1の映像信号処理部42及びテレビ放送受信装置1と同じである。よって、実施の形態1で説明した構成と同一の構成には同一の符号を付し、実施の形態1で説明した構成及び処理については説明を省略する。
[Embodiment 2]
In the video signal processing unit and the television broadcast receiving apparatus according to the present embodiment, the detail feeling improvement processing unit 13 of the video signal processing unit 42 according to the first embodiment shown in FIG. (Processing section) 13a. In the video signal processing unit and the television broadcast receiving apparatus of the present embodiment, the configuration other than the detail feeling improvement processing unit 13a is the same as that of the video signal processing unit 42 and the television broadcast receiving apparatus 1 of the first embodiment. Therefore, the same components as those described in the first embodiment are denoted by the same reference numerals, and description of the configurations and processes described in the first embodiment is omitted.

図11に示すように、ディテイル感向上処理部13aは、位置合わせ処理部17a、第2ノイズ低減処理部18a、最大値・最小値算出処理部19、高周波成分生成処理部20、混合処理部21にて構成される。ディテイル感向上処理部13aは、前フレームN−1における画素値として、前フレームN−1の入力画素値INN-1を用いる代わりに前フレームN−1におけるノイズ低減処理結果の画素値NRN-1を用いる点で、実施の形態1で図3を用いて説明したディテイル感向上処理部13と異なる。 As shown in FIG. 11, the detail improvement processing unit 13a includes an alignment processing unit 17a, a second noise reduction processing unit 18a, a maximum / minimum value calculation processing unit 19, a high frequency component generation processing unit 20, and a mixing processing unit 21. Consists of. The detail improvement processing unit 13a uses the pixel value NR N of the noise reduction processing result in the previous frame N-1 instead of using the input pixel value IN N-1 of the previous frame N-1 as the pixel value in the previous frame N-1. -1 is different from the detail improvement processing unit 13 described with reference to FIG. 3 in the first embodiment.

位置合わせ処理部17aは、各入力画素について、前フレームN−1の入力画素値INN-1の代わりに前フレームN−1におけるノイズ低減処理結果NRN-1を用いて、処理対象フレームNとその前フレームN−1との間で、差分絶対値総和SADが最小となる前フレームN−1の画素位置を探索する。差分絶対値総和SADが最小となる画素位置の探索範囲をI×Jとしたとき、画素位置(y,x)における処理対象フレームNとその前フレームN−1との間の最小差分絶対値総和minSADN-1(y,x)は、下記式(18)の通り算出することができる。 For each input pixel, the alignment processing unit 17a uses the noise reduction processing result NR N-1 in the previous frame N-1 instead of the input pixel value IN N-1 in the previous frame N-1, and uses the processing target frame N And the previous frame N−1 are searched for the pixel position of the previous frame N−1 where the difference absolute value sum SAD is minimum. When the search range of the pixel position where the difference absolute value sum SAD is the minimum is I × J, the minimum difference absolute value sum between the processing target frame N and the previous frame N−1 at the pixel position (y, x). minSAD N-1 (y, x) can be calculated according to the following equation (18).

Figure 2015033019
Figure 2015033019

また、上記式(18)を満たす座標(y+i、x+j)を、差分絶対値総和が最小となる座標(motYN-1, motXN-1)として求める。一方、画素位置(y,x)における処理対象フレームNとその後フレームN+1との間の最小差分絶対値総和minSADN+1(y,x)、および、差分絶対値総和が最小となる座標(motYN+1, motXN+1)は、実施の形態1での算出と同じ方法で算出することができる。 In addition, coordinates (y + i, x + j) satisfying the above equation (18) are obtained as coordinates (motY N−1 , motX N−1 ) that minimize the sum of absolute differences. On the other hand, the minimum difference absolute value sum minSAD N + 1 (y, x) between the processing target frame N and the subsequent frame N + 1 at the pixel position (y, x), and the coordinates (motY N + 1 , motX N + 1 ) can be calculated by the same method as in the first embodiment.

第2ノイズ低減処理部18aは、実施の形態1の第2ノイズ低減処理部18と同様に、位置合わせ処理部17において算出された、処理対象フレームNとその前フレームN−1との間の最小差分絶対値総和minSADN-1(y,x)、処理対象フレームNとその後フレームN+1との間の最小差分絶対値総和minSADN+1(y,x)、及び、差分絶対値総和が最小となる座標(motYN-1, motXN-1)、(motYN+1, motXN+1)を用いて、時間軸方向にフィルタ処理を行う。このように、位置合わせ処理部17にて複数枚フレーム間の位置合わせを行った後に、第2ノイズ低減処理部18にて、フィルタ処理を行うことにより、フレーム間相関の小さい微小振幅をノイズとして低減することができる。 Similar to the second noise reduction processing unit 18 of the first embodiment, the second noise reduction processing unit 18a is calculated between the processing target frame N and the previous frame N-1 calculated by the alignment processing unit 17. Minimum difference absolute value sum minSAD N-1 (y, x), minimum difference absolute value sum minSAD N + 1 (y, x) between the processing target frame N and the subsequent frame N + 1, and the difference absolute value sum is minimum Using the coordinates (motY N−1 , motX N−1 ) and (motY N + 1 , motX N + 1 ), the filter processing is performed in the time axis direction. As described above, after the alignment between the plurality of frames is performed by the alignment processing unit 17, the second noise reduction processing unit 18 performs the filtering process so that a small amplitude having a small inter-frame correlation is used as noise. Can be reduced.

図12は、本実施の形態の第2ノイズ低減処理部18aでのノイズ低減処理のフローチャートを示す図である。履歴情報による重み係数更新処理を含む点で、実施の形態1にて図5を用いて説明したノイズ低減処理と異なる。まず、第2ノイズ低減処理部18aは、図5を用いて説明した処理と同様にして、最小差分絶対値総和minSADN-1(y,x)、minSADN+1(y,x)、を用いて、時間軸方向に画素値を足し合わせるための重み係数wNRN-1、wNRN、wNRN+1を算出する(S1)。 FIG. 12 is a diagram illustrating a flowchart of the noise reduction processing in the second noise reduction processing unit 18a of the present embodiment. It differs from the noise reduction processing described in Embodiment 1 with reference to FIG. 5 in that it includes a weighting factor update processing based on history information. First, the second noise reduction processing unit 18a performs the minimum difference absolute value sum minSAD N-1 (y, x), minSAD N + 1 (y, x), in the same manner as the process described with reference to FIG. The weight coefficients wNR N−1 , wNR N , and wNR N + 1 for adding the pixel values in the time axis direction are calculated (S1).

次に、直前フレームまでの処理履歴情報を用いて、前フレームN−1の重み係数wNRN-1を更新する(S21)。最初に処理履歴情報controlNRは所定閾値TH_CONTROL_INIT(例えば1.0)に初期化されているものとし、下記式(19)に示すように、最小差分絶対値総和minSADN-1(y,x)が、所定閾値TH_SAD_ACCEPT(例えば、400)より小さければ、最小差分絶対値総和minSADN-1(y,x)の値に応じてcontrolNRの値が大きくなるよう更新する。逆に、最小差分絶対値総和minSADN-1(y,x)がTH_SAD_ACCEPT以上であれば、座標(y,x)において処理対象フレームNと前フレームN−1との間に相関が無くなったものと判定し、処理履歴情報controlNR(y,x)の値をTH_CONTROL_INITにリセットする。例えば、重み係数算出処理で算出された各フレームに対する重み係数の総和と、前フレームN−1における重み係数との比に所定係数TH_RATIO_UPDATE(例えば、1.0)を乗算した値を履歴情報controlNRに加算して更新する。 Next, the weighting factor wNR N-1 of the previous frame N-1 is updated using the processing history information up to the previous frame (S21). First, it is assumed that the processing history information controlNR is initialized to a predetermined threshold TH_CONTROL_INIT (for example, 1.0), and the minimum difference absolute value sum minSAD N-1 (y, x) is expressed as shown in the following equation (19). If it is smaller than a predetermined threshold TH_SAD_ACCEPT (for example, 400), the controlNR is updated so that the value of controlNR becomes larger according to the value of the minimum difference absolute value sum minSAD N-1 (y, x). Conversely, if the minimum difference absolute value sum minSAD N-1 (y, x) is greater than or equal to TH_SAD_ACCEPT, there is no correlation between the processing target frame N and the previous frame N-1 at the coordinates (y, x). And the value of the processing history information controlNR (y, x) is reset to TH_CONTROL_INIT. For example, the history information controlNR is a value obtained by multiplying the ratio of the sum of the weight coefficients for each frame calculated in the weight coefficient calculation process and the weight coefficient in the previous frame N−1 by a predetermined coefficient TH_RATIO_UPDATE (for example, 1.0). Add and update.

Figure 2015033019
Figure 2015033019

下記式(20)に示す通り、前フレームN−1の重み係数wNRN-1に更新された履歴情報controlNR(y,x)を乗算することにより、直前フレームまでの処理履歴情報を用いて、前フレームN−1の重み係数wNRN-1を更新する。 As shown in the following equation (20), by multiplying the weight coefficient wNR N-1 of the previous frame N-1 by the updated history information controlNR (y, x), the processing history information up to the immediately preceding frame is used, The weight coefficient wNR N-1 of the previous frame N- 1 is updated.

Figure 2015033019
Figure 2015033019

最後に、第2ノイズ低減処理部18aは、各フレームについて求められた重み係数を用いて、処理対象フレームNにおける座標(y,x)における画素値INN(y,x)と位置合わせされた、前フレームN−1における画素値NRN-1(motYN-1,motXN-1)、及び後フレームN+1における画素値INN+1(motYN+1,motXN+1)を混合することにより、ノイズ低減処理結果NRN(y,x)を算出する時間軸フィルタ処理を実行する(S2)。ノイズ低減処理結果NRN(y,x)の算出は、下記式(21)の通りである。 Finally, the second noise reduction processing unit 18a is aligned with the pixel value IN N (y, x) at the coordinates (y, x) in the processing target frame N using the weighting coefficient obtained for each frame. , The pixel value NR N-1 (motY N−1 , motX N−1 ) in the previous frame N−1 and the pixel value IN N + 1 (motY N + 1 , motX N + 1 ) in the subsequent frame N + 1 are mixed. As a result, the time axis filter processing for calculating the noise reduction processing result NR N (y, x) is executed (S2). The calculation of the noise reduction processing result NR N (y, x) is as shown in the following equation (21).

Figure 2015033019
Figure 2015033019

最大値・最小値算出処理部19は、実施の形態1にて説明した処理と同様に、各入力画素について注目画素を中心とするm×n(例えば、3×3)画素ウインドウにおける最大値、及び最小値を算出する。高周波成分生成処理部20についても、実施の形態1にて説明した処理と同様に、入力画像、最大値・最小値算出処理部19にて算出されたm×nウインドウ内の最大値、及び最小値を用いて高周波成分を生成する。混合処理部21についても、実施の形態1にて説明した処理と同様に、入力画像、第2ノイズ低減処理部18aにて生成されたノイズ低減処理結果、及び、高周波成分生成処理部20にて生成された高周波成分を混合し、ディテイル感を向上させる。   Similarly to the processing described in the first embodiment, the maximum value / minimum value calculation processing unit 19 uses the maximum value in an m × n (for example, 3 × 3) pixel window centered on the target pixel for each input pixel, And the minimum value is calculated. Also for the high frequency component generation processing unit 20, the input image, the maximum value in the m × n window calculated by the maximum value / minimum value calculation processing unit 19, and the minimum, as in the processing described in the first embodiment. A high frequency component is generated using the value. Similarly to the processing described in the first embodiment, the mixing processing unit 21 also uses the input image, the noise reduction processing result generated by the second noise reduction processing unit 18a, and the high frequency component generation processing unit 20. The generated high frequency components are mixed to improve the detail feeling.

以上の処理により、本実施の形態のディテイル感向上処理は、実施の形態1のディテイル感向上処理と比べて、処理対象フレームNの前フレームにおけるノイズ低減処理結果を反映することができるので、ノイズ低減の性能をより向上することができる。   Through the above processing, the detail improvement processing according to the present embodiment can reflect the noise reduction processing result in the previous frame of the processing target frame N as compared with the detail improvement processing according to the first embodiment. Reduction performance can be further improved.

〔実施の形態3〕
本実施の形態の映像信号処理部及びテレビ放送受信装置は、図3に示す実施の形態1の映像信号処理部42のディテイル感向上処理部13が、図13に示すディテイル感向上処理部(ディテイル処理部)13bに置き換わったものである。本実施の形態の映像信号処理部及びテレビ放送受信装置において、ディテイル感向上処理部13b以外の構成は、実施の形態1の映像信号処理部42及びテレビ放送受信装置1と同じである。よって、実施の形態1で説明した構成と同一の構成には同一の符号を付し、実施の形態1で説明した構成及び処理については説明を省略する。
[Embodiment 3]
In the video signal processing unit and the television broadcast receiving apparatus according to the present embodiment, the detail improvement processing unit 13 of the video signal processing unit 42 according to the first embodiment shown in FIG. (Processing unit) 13b. In the video signal processing unit and the television broadcast receiving apparatus of the present embodiment, the configuration other than the detail improvement processing unit 13b is the same as that of the video signal processing unit 42 and the television broadcast receiving apparatus 1 of the first embodiment. Therefore, the same components as those described in the first embodiment are denoted by the same reference numerals, and description of the configurations and processes described in the first embodiment is omitted.

図13に示すように、ディテイル感向上処理部13bは、位置合わせ処理部17、第2ノイズ低減処理部18、最大値・最小値算出処理部19A、高周波成分生成処理部20b、及び、混合処理部21bを備える。ディテイル感向上処理部13bは、処理対象フレームNだけでなく、位置合わせされた前フレームN−1、及び、後フレームN+1におけるm×nウインドウ内の最大値及び最小値を用いて高周波成分を生成する点で図3を用いて説明したディテイル感向上処理部13と異なる。   As shown in FIG. 13, the detail feeling improvement processing unit 13b includes an alignment processing unit 17, a second noise reduction processing unit 18, a maximum / minimum value calculation processing unit 19A, a high frequency component generation processing unit 20b, and a mixing process. A portion 21b is provided. The detail feeling improvement processing unit 13b generates a high frequency component using not only the processing target frame N but also the maximum value and the minimum value in the m × n window in the aligned previous frame N−1 and the subsequent frame N + 1. This is different from the detail improvement processing unit 13 described with reference to FIG.

位置合わせ処理部17は、実施の形態1で説明した処理と同様に、各入力画素について、処理対象フレームNとその前フレームN−1との間で、差分絶対値総和SADの最小値と差分絶対値総和SADが最小となる画素位置を算出する。また、処理対象フレームNとその後フレームN+1との間で、差分絶対値総和SADの最小値と差分絶対値総和SADが最小となる画素位置を算出する。   Similar to the processing described in the first embodiment, the alignment processing unit 17 determines the difference between the minimum value and the difference of the absolute difference sum SAD between the processing target frame N and the previous frame N−1 for each input pixel. The pixel position where the absolute value sum SAD is minimum is calculated. Further, between the processing target frame N and the subsequent frame N + 1, a pixel position where the minimum value of the difference absolute value sum SAD and the difference absolute value sum SAD are minimum is calculated.

第2ノイズ低減処理部18は、実施の形態1で説明した処理と同様に、位置合わせ処理部17において算出された、処理対象フレームNとその前フレームN−1との間の最小差分絶対値総和minSADN-1(y,x)、処理対象フレームNとその後フレームN+1との間のminSADN+1(y,x)、及び、差分絶対値総和が最小となる座標(motYN-1, motXN-1)、(motYN+1, motXN+1)を用いて、時間軸方向に足し合わせることにより、フレーム間相関の小さい微小振幅をノイズとして低減する。このように、位置合わせ処理部17にて複数枚フレーム間の位置合わせを行った後に、第2ノイズ低減処理部18にて、時間軸フィルタ処理を行うことにより、フレーム間相関の小さい微小振幅をノイズとして低減することができる。 Similar to the processing described in the first embodiment, the second noise reduction processing unit 18 calculates the absolute value of the minimum difference between the processing target frame N and the previous frame N−1 calculated by the alignment processing unit 17. The sum total minSAD N-1 (y, x), minSAD N + 1 (y, x) between the processing target frame N and the subsequent frame N + 1, and the coordinates (motY N-1 , Using motX N-1 ) and (motY N + 1 , motX N + 1 ), the small amplitude with a small inter-frame correlation is reduced as noise by adding in the time axis direction. In this way, after performing alignment between a plurality of frames by the alignment processing unit 17, the second noise reduction processing unit 18 performs time axis filter processing, thereby obtaining a small amplitude with small inter-frame correlation. It can be reduced as noise.

最大値・最小値算出処理部19Aは、処理対象フレームNの各画素、位置合わせされた、前フレームN−1および後フレームN+1の各画素について、注目画素とその周辺画素とを含む第1ブロック内の画素値の最大値及び最小値を算出するブロックである。最大値・最小値算出処理部19Aは、処理対象フレームNの注目画素を中心とするm×n画素ウインドウにおける最大値及び最小値を算出する第1最大値・最小値算出処理部19a、処理対象フレームNに合わせて位置合わせされた前フレームN−1の注目画素を中心とするm×n画素ウインドウにおける最大値及び最小値を算出する第2最大値・最小値算出処理部19b、および、処理対象フレームNに合わせて位置合わせされた後フレームN+1の注目画素を中心とするm×n画素ウインドウにおける最大値及び最小値を算出する第3最大値・最小値算出処理部19cを備える。   The maximum value / minimum value calculation processing unit 19A includes a pixel of interest and a surrounding pixel for each pixel of the processing target frame N and the aligned pixels of the previous frame N-1 and the subsequent frame N + 1. It is a block which calculates the maximum value and the minimum value of the pixel value in the. The maximum value / minimum value calculation processing unit 19A is a first maximum value / minimum value calculation processing unit 19a that calculates the maximum value and the minimum value in the m × n pixel window centered on the target pixel of the processing target frame N, and the processing target. A second maximum value / minimum value calculation processing unit 19b for calculating a maximum value and a minimum value in an m × n pixel window centered on the target pixel of the previous frame N−1 aligned with the frame N; A third maximum value / minimum value calculation processing unit 19c that calculates the maximum value and the minimum value in the m × n pixel window centered on the target pixel of the frame N + 1 after being aligned with the target frame N is provided.

第1最大値・最小値算出処理部19aは、図3を用いて説明した最大値・最小値算出処理部19と同様に、処理対象フレームNにおける各入力画素について、注目画素を中心とするm×n(例えば3×3)画素ウインドウにおける最大値、及び最小値を算出する。   The first maximum value / minimum value calculation processing unit 19a is similar to the maximum value / minimum value calculation processing unit 19 described with reference to FIG. The maximum value and the minimum value in the xn (for example, 3 × 3) pixel window are calculated.

第2最大値・最小値算出処理部19bは、下記式(22)の通り、差分絶対値総和が最小となる座標(motYN-1, motXN-1)を用いて位置合わせされた前フレームN−1における各入力画素について、注目画素を中心とするm×n(例えば、3×3)画素ウインドウにおける最大値maxValN-1を算出する。 The second maximum value / minimum value calculation processing unit 19b uses the coordinates (motY N−1 , motX N−1 ) where the sum of absolute differences is minimum as shown in the following formula (22). For each input pixel at N−1 , a maximum value maxVal N−1 in an m × n (for example, 3 × 3) pixel window centered on the pixel of interest is calculated.

Figure 2015033019
Figure 2015033019

同様にして、注目画素を中心とするm×n画素ウインドウにおける最小値minValN-1を、下記式(23)の通り算出する。 Similarly, the minimum value minVal N−1 in the m × n pixel window centered on the target pixel is calculated as the following equation (23).

Figure 2015033019
Figure 2015033019

第3最大値・最小値算出処理部19cは、下記式(24)の通り、差分絶対値総和が最小となる座標(motYN+1, motXN+1)を用いて位置合わせされた後フレームN+1における各入力画素について、注目画素を中心とするm×n(例えば、3×3)画素ウインドウにおける最大値maxValN+1を算出する。 The third maximum value / minimum value calculation processing unit 19c, after the alignment, is performed using the coordinates (motY N + 1 , motX N + 1 ) that minimize the sum of the absolute differences as shown in the following equation (24). For each input pixel at N + 1 , the maximum value maxVal N + 1 in an m × n (for example, 3 × 3) pixel window centered on the pixel of interest is calculated.

Figure 2015033019
Figure 2015033019

同様にして、注目画素を中心とするm×n画素ウインドウにおける最小値minValN+1を、下記式(25)の通り算出する。 Similarly, the minimum value minVal N + 1 in the m × n pixel window centered on the target pixel is calculated as in the following formula (25).

Figure 2015033019
Figure 2015033019

高周波成分生成処理部20bは、入力画像、第1、第2、及び第3最大値・最小値算出処理部19a,19b,19cにて算出された各フレームにおけるm×nウインドウ内の最大値及び最小値を用いて高周波成分を生成する。高周波成分生成処理部20bは、図14に示すフローチャートに従って各フレームにおける高周波成分(第1高周波成分)を生成する。   The high-frequency component generation processing unit 20b receives the maximum value in the m × n window in each frame calculated by the input image, the first, second, and third maximum / minimum value calculation processing units 19a, 19b, and 19c. A high frequency component is generated using the minimum value. The high frequency component generation processing unit 20b generates a high frequency component (first high frequency component) in each frame according to the flowchart shown in FIG.

まず、各フレームについて高周波成分を算出する(S31)。処理対象フレームNにおける高周波成分EnhNは、それぞれ、diffMaxとしてdiffMaxNを、diffMinとしてdiffMinNを用いて、図7に示すフローチャートに従って算出することができる。最大値との差分絶対値diffMaxと、最小値との差分絶対値diffMinに所定係数TH_RANGE(例えば、1.5)を乗算した結果と、を比較し、最大値との差分絶対値diffMaxが、最小値との差分絶対値diffMinとTH_RANGEとの乗算結果よりも大きければ、高周波成分Enhを下記式(26)の通り算出する。 First, a high frequency component is calculated for each frame (S31). High-frequency component Enh N in the processing target frame N, respectively, the DiffMax N as DiffMax, using DiffMin N as DiffMin, can be calculated according to the flowchart shown in FIG. The difference absolute value diffMax from the maximum value is compared with the result obtained by multiplying the difference absolute value diffMin from the minimum value by a predetermined coefficient TH_RANGE (for example, 1.5), and the difference absolute value diffMax from the maximum value is the minimum If the absolute value of the difference is larger than the multiplication result of the absolute value diffMin and TH_RANGE, the high frequency component Enh is calculated as in the following equation (26).

Figure 2015033019
Figure 2015033019

一方、最大値との差分絶対値diffMaxが、差分絶対値diffMinとTH_RANGEとの乗算結果以下のとき、最小値との差分絶対値diffMinと、最大値との差分絶対値diffMaxに所定係数TH_RANGE(例えば、1.5)を乗算した結果と、を比較する。最小値との差分絶対値diffMinが、最大値との差分絶対値diffMaxとTH_RANGEとの乗算結果よりも大きければ、高周波成分Enhを、下記式(27)の通り算出する。   On the other hand, when the difference absolute value diffMax from the maximum value is equal to or less than the multiplication result of the difference absolute value diffMin and TH_RANGE, the difference absolute value diffMin from the minimum value and the difference absolute value diffMax from the maximum value are set to a predetermined coefficient TH_RANGE (for example, , 1.5) is compared with the result. If the difference absolute value diffMin from the minimum value is larger than the multiplication result of the difference absolute value diffMax from the maximum value and TH_RANGE, the high frequency component Enh is calculated as in the following equation (27).

Figure 2015033019
Figure 2015033019

一方、最小値との差分絶対値diffMinが、差分絶対値diffMaxとTH_RANGEとの乗算結果以下のとき、下記式(28)の通り、高周波成分Enhを0とする。   On the other hand, when the difference absolute value diffMin from the minimum value is equal to or less than the multiplication result of the difference absolute value diffMax and TH_RANGE, the high frequency component Enh is set to 0 as shown in the following equation (28).

Figure 2015033019
Figure 2015033019

前フレームN−1における高周波成分EnhN-1についても、それぞれ、diffMaxとしてdiffMaxN-1を、diffMinとしてdiffMinN-1を用いて、図7に示すフローチャートに従って算出する。また、後フレームN+1における高周波成分EnhN+1についても、それぞれ、diffMaxとしてdiffMaxN+1を、diffMinとしてdiffMinN+1を用いて、図7に示すフローチャートに従って算出する。 For even a high-frequency component Enh N-1 in the previous frame N-1, respectively, the diffMax N-1 as DiffMax, using diffMin N-1 as DiffMin, calculated according to the flowchart shown in FIG. Further, the high-frequency component Enh N + 1 in the subsequent frame N + 1 also respectively, the DiffMax N + 1 as DiffMax, using DiffMin N + 1 as DiffMin, calculated according to the flowchart shown in FIG.

次に、高周波成分生成処理部20bは、各フレームの高周波成分に対する重み係数を算出する(S32)。第2ノイズ低減処理部18と同様にして、最小差分絶対値総和minSADN-1(y,x)、minSADN+1(y,x)を用いて、時間軸方向に高周波成分を足し合わせるための重み係数を算出する。前フレームN−1における重み係数は、処理対象フレームNとその前フレームN−1との間の差分絶対値総和SADの最小値minSADN-1(y,x)が大きいほど重み係数が小さくなるように算出する。例えば、前フレームN−1の重み係数は、下記式(29)の通り算出する。 Next, the high frequency component generation processing unit 20b calculates a weighting factor for the high frequency component of each frame (S32). In the same manner as the second noise reduction processing unit 18, the high frequency components are added in the time axis direction using the minimum difference absolute value sum minSAD N-1 (y, x) and minSAD N + 1 (y, x). The weight coefficient is calculated. The weighting coefficient in the previous frame N-1 is smaller as the minimum value minSAD N-1 (y, x) of the difference absolute value sum SAD between the processing target frame N and the previous frame N-1 is larger. Calculate as follows. For example, the weighting coefficient of the previous frame N-1 is calculated as the following formula (29).

Figure 2015033019
Figure 2015033019

上記式(29)では、minSADN-1(y,x)をWENH_NORM(例えば、256)で正規化して得られる値を関数f(x)=1/(1+x)に適用して得られる値に、所定重み係数TH_WENH_RATION-1(例えば、1.0)を乗算して、重み係数wENHN-1を得る。処理対象フレームNについては、下記式(30)の通り、所定重み係数TH_WENH_RATION(例えば、1.0)を、そのまま重み係数wENHNとして用いるものとする。 In the above equation (29), the value obtained by normalizing minSAD N-1 (y, x) with WENH_NORM (for example, 256) is applied to the function f (x) = 1 / (1 + x). Then, a predetermined weight coefficient TH_WENH_RATIO N-1 (for example, 1.0) is multiplied to obtain a weight coefficient wENH N-1 . For the processing target frame N, a predetermined weight coefficient TH_WENH_RATIO N (for example, 1.0) is used as the weight coefficient wENH N as it is as in the following equation (30).

Figure 2015033019
Figure 2015033019

後フレームN+1の重み係数は、前フレームN−1の重み係数と同様にして、処理対象フレームNとその後フレームN+1との間の差分絶対値総和SADの最小値minSADN+1(y,x)を用いて、下記式(31)の通り算出する。 The weight coefficient of the subsequent frame N + 1 is the minimum value minSAD N + 1 (y, x) of the difference absolute value sum SAD between the processing target frame N and the subsequent frame N + 1 in the same manner as the weight coefficient of the previous frame N-1. Is calculated as shown in the following formula (31).

Figure 2015033019
Figure 2015033019

最後に、高周波成分生成処理部20bは、下記式(32)の通り、各フレームについて求められた重み係数を用いて、各フレームにおける高周波成分と混合することにより、最終的な高周波成分(第2高周波成分)を算出する高周波成分混合処理を行う(S33)。   Finally, the high frequency component generation processing unit 20b uses the weighting coefficient obtained for each frame and mixes with the high frequency component in each frame as shown in the following equation (32), thereby obtaining the final high frequency component (second A high frequency component mixing process for calculating (high frequency component) is performed (S33).

Figure 2015033019
Figure 2015033019

混合処理部21bは、実施の形態1での処理と同様に、入力画像、ノイズ低減処理結果、及び、高周波成分生成処理にて生成された高周波成分を混合する。ただし、図9に示す混合処理のフローチャートにおいて、処理対象フレームNにおける注目画素を中心とするK×L(例えば、5×5)の画素ウインドウにおける最大値と最小値との差分値であるダイナミックレンジRangeを算出する代わりに、下記式(33)の通り、処理対象フレームN、前フレームN−1、後フレームN+1のうち最大となるダイナミックレンジをRangeとして算出する。この点で、図3に示す混合処理部21と異なる。   Similar to the processing in the first embodiment, the mixing processing unit 21b mixes the input image, the noise reduction processing result, and the high-frequency component generated by the high-frequency component generation processing. However, in the flowchart of the mixing process illustrated in FIG. 9, the dynamic range that is the difference value between the maximum value and the minimum value in a K × L (for example, 5 × 5) pixel window centered on the target pixel in the processing target frame N. Instead of calculating the range, the maximum dynamic range among the processing target frame N, the previous frame N−1, and the subsequent frame N + 1 is calculated as the range as shown in the following equation (33). This is different from the mixing processing unit 21 shown in FIG.

Figure 2015033019
Figure 2015033019

以上の処理により、本実施の形態のディテイル感向上処理部13bは、フレーム間相関を考慮して高周波成分を作成することができる。よって、フレーム間で強調量がばらつくことによるチラツキを軽減することができる。   Through the above processing, the detail feeling improvement processing unit 13b of the present embodiment can create a high frequency component in consideration of the inter-frame correlation. Therefore, flicker caused by variations in the amount of enhancement between frames can be reduced.

〔実施の形態4〕
本実施の形態の映像信号処理部及びテレビ放送受信装置は、図3に示す実施の形態1の映像信号処理部42のディテイル感向上処理部13が、図15に示すディテイル感向上処理部(ディテイル処理部)13cに置き換わったものである。本実施の形態の映像信号処理部及びテレビ放送受信装置において、ディテイル感向上処理部13c以外の構成は、実施の形態1の映像信号処理部42及びテレビ放送受信装置1と同じである。よって、実施の形態1で説明した構成と同一の構成には同一の符号を付し、実施の形態1で説明した構成及び処理については説明を省略する。
[Embodiment 4]
In the video signal processing unit and the television broadcast receiving apparatus according to the present embodiment, the detail feeling improvement processing unit 13 of the video signal processing unit 42 according to the first embodiment shown in FIG. (Processing section) 13c. In the video signal processing unit and the television broadcast receiving apparatus of the present embodiment, the configuration other than the detail feeling improvement processing unit 13c is the same as that of the video signal processing unit 42 and the television broadcast receiving apparatus 1 of the first embodiment. Therefore, the same components as those described in the first embodiment are denoted by the same reference numerals, and description of the configurations and processes described in the first embodiment is omitted.

本実施の形態のディテイル感向上処理部13cは、図11に示すディテイル感向上処理部13aと図13に示すディテイル感向上処理部13bとを組み合わせた構成である。図15に示すように、ディテイル感向上処理部13cは、位置合わせ処理部17a、第2ノイズ低減処理部18a、最大値・最小値算出処理部19B、高周波成分生成処理部20b、混合処理部21bを備える。最大値・最小値算出処理部19Bは、第1最大値・最小値算出処理部19a、第2最大値・最小値算出処理部19b’、第3最大値・最小値算出処理部19cを備える。   The detail feeling improvement processing unit 13c of the present embodiment is configured by combining the detail feeling improvement processing unit 13a shown in FIG. 11 and the detail feeling improvement processing unit 13b shown in FIG. As shown in FIG. 15, the detail improvement processing unit 13c includes an alignment processing unit 17a, a second noise reduction processing unit 18a, a maximum / minimum value calculation processing unit 19B, a high frequency component generation processing unit 20b, and a mixing processing unit 21b. Is provided. The maximum value / minimum value calculation processing unit 19B includes a first maximum value / minimum value calculation processing unit 19a, a second maximum value / minimum value calculation processing unit 19b ', and a third maximum value / minimum value calculation processing unit 19c.

ディテイル感向上処理部13cの処理の詳細については、上記したディテイル感向上処理部13a及びディテイル感向上処理部13bの処理の内容と同様である。そのため、説明は省略する。なお、図15からわかるように、第2最大値・最小値算出処理部19b’には、前フレームN−1における画素値として、第2最大値・最小値算出処理部19bでの前フレームN−1の入力画素値INN-1の代わりに、前フレームN−1におけるノイズ低減処理結果の画素値NRN-1が入力される。 Details of the processing of the detail feeling improvement processing unit 13c are the same as the contents of the processing of the detail feeling improvement processing unit 13a and the detail feeling improvement processing unit 13b. Therefore, explanation is omitted. As can be seen from FIG. 15, the second maximum value / minimum value calculation processing unit 19b ′ receives the previous frame N in the second maximum value / minimum value calculation processing unit 19b as the pixel value in the previous frame N-1. Instead of the input pixel value IN N-1 of -1, the pixel value NR N-1 of the noise reduction processing result in the previous frame N-1 is input.

以上の処理により、本実施の形態のディテイル感向上処理部13cは、処理対象フレームNの前フレームにおけるノイズ低減処理結果を反映することができる、よって、ノイズ低減性能を向上することができ、かつ、フレーム間相関を考慮して高周波成分を作成することができる。そのため、フレーム間で強調量がばらつくことによるチラツキを軽減することができる。   Through the above processing, the detail improvement processing unit 13c of the present embodiment can reflect the noise reduction processing result in the previous frame of the processing target frame N. Therefore, the noise reduction performance can be improved, and The high frequency component can be created in consideration of the inter-frame correlation. Therefore, flicker due to variation in the amount of enhancement between frames can be reduced.

〔実施の形態5〕
上記の実施の形態1〜4では、本発明に係る画像処理装置を、チューナーを有するテレビ放送受信装置の映像信号処理部に適用した場合を例に説明した。本実施の形態では、本発明に係る画像処理装置を、チューナーを有していないモニタ(インフォメーションディスプレイ)の映像信号処理を実行する処理部に適用した構成について説明する。
[Embodiment 5]
In the first to fourth embodiments described above, the case where the image processing apparatus according to the present invention is applied to a video signal processing unit of a television broadcast receiving apparatus having a tuner has been described as an example. In this embodiment, a configuration in which the image processing apparatus according to the present invention is applied to a processing unit that executes video signal processing of a monitor (information display) that does not have a tuner will be described.

図16は、本実施の形態のモニタ(画像表示装置)110の構成を示すブロック図である。なお、実施の形態1〜4にて説明した部材と同じ構成については同じ部材番号を付し説明を省略する。   FIG. 16 is a block diagram showing the configuration of the monitor (image display device) 110 of the present embodiment. In addition, about the same structure as the member demonstrated in Embodiment 1-4, the same member number is attached | subjected and description is abbreviate | omitted.

図16に示すように、モニタ110は、インターフェース200、制御部4、電源ユニット5、表示部6、音声出力部7、操作部8を備えている。インターフェース200は、周辺機器と接続するためのものであり、D−subコネクタ111の他に、DVI端子22、HDMI端子23、及びLAN端子24に接続するためのインターフェースを備えるのが一般的である。制御部4は、インターフェース200を介して入力される映像データに所定の処理を施す映像信号処理部42、インターフェース200を介して入力される音声データに所定の処理を施す音声信号処理部43、機器制御を行う統括制御部41、及び表示部6の表示を制御するパネルコントローラ44を備えている。本発明に係る画像処理装置がモニタ110の映像信号処理部42に適用されているため、モニタ110において、高品質に映像のディテイル感を向上させる処理を実行することができる。   As shown in FIG. 16, the monitor 110 includes an interface 200, a control unit 4, a power supply unit 5, a display unit 6, an audio output unit 7, and an operation unit 8. The interface 200 is for connecting to peripheral devices, and generally includes an interface for connecting to the DVI terminal 22, the HDMI terminal 23, and the LAN terminal 24 in addition to the D-sub connector 111. . The control unit 4 includes a video signal processing unit 42 that performs predetermined processing on video data input through the interface 200, an audio signal processing unit 43 that performs predetermined processing on audio data input through the interface 200, and a device An overall control unit 41 that performs control and a panel controller 44 that controls display on the display unit 6 are provided. Since the image processing apparatus according to the present invention is applied to the video signal processing unit 42 of the monitor 110, the monitor 110 can execute processing for improving the sense of details of video with high quality.

〔実施の形態6〕
実施の形態1〜5では、本発明に係る画像処理装置を、表示部6を1つ有する、つまり、単体のディスプレイのテレビ放送受信装置1あるいはモニタ110、の映像信号処理部に適用した場合を例に説明した。しかし、本発明に係る画像処理装置を、例えば図17に示すように表示部6が垂直方向及び水平方向に複数台配置されたマルチディスプレイ(画像表示装置)100の映像信号処理を実行する処理部に適用してもよい。この場合は、マルチディスプレイ100が、本発明に係る画像表示装置である。本発明に係る画像処理装置がマルチディスプレイ100の映像信号処理を実行する処理部に適用されているため、例えば、マルチディスプレイ100にFHD映像を再生するような場合において、高画質に映像のディテイル感を向上させる処理を実行することができる。
[Embodiment 6]
In the first to fifth embodiments, the image processing apparatus according to the present invention has one display unit 6, that is, a case where it is applied to a video signal processing unit of a television broadcast receiving device 1 or a monitor 110 of a single display. Explained in the example. However, the image processing device according to the present invention is a processing unit that executes video signal processing of a multi-display (image display device) 100 in which a plurality of display units 6 are arranged in the vertical and horizontal directions as shown in FIG. You may apply to. In this case, the multi-display 100 is the image display device according to the present invention. Since the image processing apparatus according to the present invention is applied to a processing unit that executes video signal processing of the multi-display 100, for example, when playing an FHD video on the multi-display 100, the detail feeling of the video is high-quality. Can be executed.

〔ソフトウェアによる実現例〕
実施の形態1〜6のテレビ放送受信装置、モニタあるいはマルチディスプレイの制御部(特に映像信号処理部)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
The television broadcast receiver, the monitor or the multi-display control unit (especially the video signal processing unit) of the first to sixth embodiments may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like. Alternatively, it may be realized by software using a CPU (Central Processing Unit).

後者の場合、テレビ放送受信装置、モニタあるいはマルチディスプレイは、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラム及び各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the television broadcast receiver, the monitor or the multi-display includes a CPU for executing instructions of a program which is software for realizing each function, and a ROM in which the program and various data are recorded so as to be readable by the computer (or CPU). (Read Only Memory) or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

本発明は上述した各実施の形態に限定されるものではなく、種々の変更が可能である。すなわち、本発明の要旨を逸脱しない範囲内において適宜変更した技術的手段を組み合わせて得られる実施の形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made. That is, embodiments obtained by combining technical means appropriately changed within the scope not departing from the gist of the present invention are also included in the technical scope of the present invention.

〔まとめ〕
本発明の態様1に係る画像処理装置(映像信号処理部42)は、映像を構成するフレーム画像に精細感をもたらすディテイル処理部を備えた画像処理装置であって、上記ディテイル処理部(ディテイル感向上処理部13)は、対象フレーム画像とその隣接フレーム画像とで各画素間の位置合わせを行う位置合わせ部(位置合わせ処理部17)と、上記位置合わせされたフレーム画像を用いてフレーム間相関の小さいノイズとみなせる振幅を低減し、上記対象フレーム画像からノイズ低減画像を生成するノイズ低減部(第2ノイズ低減処理部18)と、上記対象フレーム画像の各画素について、注目画素とその周辺画素とを含む第1ブロック内の画素値の最大値及び最小値を算出する最大値・最小値算出部(最大値・最小値算出処理部19)と、上記対象フレーム画像の各画素について、注目画素の画素値と当該注目画素について算出された上記最大値及び上記最小値とを基に高周波成分を算出する高周波成分生成部(高周波成分生成処理部20)と、上記対象フレーム画像と上記ノイズ低減画像と上記高周波成分とを基に出力フレーム画像を生成する混合部(混合処理部21)と、を備える。
[Summary]
An image processing device (video signal processing unit 42) according to aspect 1 of the present invention is an image processing device including a detail processing unit that brings a fine feeling to a frame image constituting a video, and includes the detail processing unit (detail feeling). The improvement processing unit 13) includes a registration unit (positioning processing unit 17) that performs alignment between each pixel in the target frame image and its adjacent frame image, and an inter-frame correlation using the aligned frame image. A noise reduction unit (second noise reduction processing unit 18) that generates a noise reduced image from the target frame image by reducing an amplitude that can be regarded as a small noise, and a target pixel and its surrounding pixels for each pixel of the target frame image A maximum value / minimum value calculation unit (maximum value / minimum value calculation processing unit 19) for calculating a maximum value and a minimum value of pixel values in the first block including For each pixel of the target frame image, a high-frequency component generation unit (high-frequency component generation processing unit 20) that calculates a high-frequency component based on the pixel value of the target pixel and the maximum value and the minimum value calculated for the target pixel And a mixing unit (mixing processing unit 21) that generates an output frame image based on the target frame image, the noise-reduced image, and the high-frequency component.

上記構成によると、対象フレーム画像とその隣接フレーム画像とで各画素間の位置合わし、フレーム間相関の小さいノイズとみなせる振幅を低減し、対象フレーム画像からノイズ低減画像を生成する。そして、注目画素を含む複数の画素よりなる第1ブロックの中で画素の画素値の最大値と最小値とを求めて、これらを基に高周波成分を算出する。ここで、ブロックとして小さなサイズを選択すると、小さなサイズで精細感の元となる高周波成分を効果的に算出(生成)することができる。そして、高周波成分と対象フレーム画像と上記ノイズ低減画像とを用いて出力フレーム画像を生成する。   According to the above configuration, each pixel is aligned in the target frame image and its adjacent frame image, the amplitude that can be regarded as noise having a small inter-frame correlation is reduced, and a noise reduced image is generated from the target frame image. Then, the maximum value and the minimum value of the pixel value of the pixel in the first block including a plurality of pixels including the target pixel are obtained, and the high frequency component is calculated based on these values. Here, when a small size is selected as a block, a high-frequency component that is a source of fineness can be effectively calculated (generated) with a small size. Then, an output frame image is generated using the high-frequency component, the target frame image, and the noise reduction image.

よって、上記構成によると、ノイズ成分を強調することなくディテイル感を向上させることができる。なお、ディテイルであるかノイズであるかの判断は、そのフレーム画像単独の情報だけでは困難である。そのため、上記構成のようにフレーム画像間での比較を行うことが有効な手段の一つである。   Therefore, according to the above configuration, it is possible to improve the detail feeling without enhancing the noise component. Note that it is difficult to determine whether it is a detail or noise by using only the information of the frame image alone. Therefore, it is an effective means to perform comparison between frame images as in the above configuration.

また、本発明の態様2に係る画像処理装置では、態様1に係る画像処理装置において、上記ノイズ低減部は、上記隣接フレーム画像の各画素の画素値に対しては、上記対象フレーム画像との相関が小さい程小さい重み係数を、上記対象フレーム画像の各画素の画素値に対しては、予め定められた重み係数を設定し、これらを用いて加重平均を算出して、対象フレーム画像からノイズ低減画像を生成してもよい。   Further, in the image processing device according to aspect 2 of the present invention, in the image processing device according to aspect 1, the noise reduction unit performs a pixel value of each pixel of the adjacent frame image with respect to the target frame image. The smaller the correlation, the smaller the weighting factor, and for the pixel value of each pixel of the target frame image, a predetermined weighting factor is set, and a weighted average is calculated using these to calculate noise from the target frame image. A reduced image may be generated.

また、本発明の態様3に係る画像処理装置では、態様1または2に係る画像処理装置において、上記高周波成分生成部は、(a)注目画素の画素値と当該注目画素について算出された上記最大値との差分絶対値が、当該注目画素の画素値と当該注目画素について算出された上記最小値との差分絶対値に定数を乗算した値よりも大きければ、当該注目画素の画素値から当該注目画素について算出された上記最大値を減算した値を、当該注目画素の上記高周波成分として、(b)注目画素の画素値と当該注目画素について算出された上記最小値との差分絶対値が、当該注目画素の画素値と当該注目画素について算出された上記最大値との差分絶対値に定数を乗算した値よりも大きければ、当該注目画素の画素値から当該注目画素について算出された上記最小値を減算した値を、当該注目画素の上記高周波成分として、算出してもよい。   In the image processing device according to aspect 3 of the present invention, in the image processing device according to aspect 1 or 2, the high-frequency component generation unit includes: (a) a pixel value of the target pixel and the maximum calculated for the target pixel; If the absolute value of the difference from the value is larger than a value obtained by multiplying the absolute value of the difference between the pixel value of the target pixel and the minimum value calculated for the target pixel by a constant, the pixel value of the target pixel The value obtained by subtracting the maximum value calculated for the pixel as the high-frequency component of the pixel of interest is (b) the difference absolute value between the pixel value of the pixel of interest and the minimum value calculated for the pixel of interest is If the absolute value of the difference between the pixel value of the pixel of interest and the maximum value calculated for the pixel of interest is greater than a constant, the pixel value of the pixel of interest is calculated for the pixel of interest. The value obtained by subtracting the minimum value, as the high-frequency component of the target pixel may be calculated.

また、本発明の態様4に係る画像処理装置では、態様1から3のいずれか1つに係る画像処理装置において、上記混合部は、上記ノイズ低減画像の各画素の画素値と、上記高周波成分に基づく強調量と、上記対象フレーム画像と上記ノイズ低減画像とに基づく調整量と、を加算することにより、上記出力フレーム画像を生成してもよい。   In the image processing device according to aspect 4 of the present invention, in the image processing device according to any one of aspects 1 to 3, the mixing unit includes a pixel value of each pixel of the noise-reduced image and the high-frequency component. The output frame image may be generated by adding the enhancement amount based on the image and the adjustment amount based on the target frame image and the noise-reduced image.

また、本発明の態様5に係る画像処理装置では、態様4に係る画像処理装置において、上記混合部は、上記対象フレーム画像における注目画素とその周辺画素とを含む第2ブロック内の画素値の最大値と最小値との差に対して決定される第1の重み係数を、上記高周波成分に乗算することで、上記強調量を算出し、上記第2ブロック内の画素値の最大値と最小値との差に対して決定される第2の重み係数を、上記対象フレーム画像の画素値と上記ノイズ低減画像の画素値との差に乗算することで、上記調整量を算出してもよい。   In the image processing device according to aspect 5 of the present invention, in the image processing device according to aspect 4, the mixing unit is configured to calculate a pixel value in a second block including the target pixel and the peripheral pixels in the target frame image. By multiplying the high frequency component by a first weighting factor determined for the difference between the maximum value and the minimum value, the enhancement amount is calculated, and the maximum value and the minimum value of the pixel values in the second block are calculated. The adjustment amount may be calculated by multiplying the difference between the pixel value of the target frame image and the pixel value of the noise-reduced image by a second weighting factor determined for the difference from the value. .

上記構成のように、第2ブロック内の画素値の最大値と最小値との差に対して決定される第1の重み係数を、高周波成分に乗算して求まる強調量と、第2ブロック内の画素値の最大値と最小値との差に対して決定される第2の重み係数を、対象フレーム画像の画素値とノイズ低減画像の画素値との差に乗算することで求まる調整量と、をノイズ低減画像の各画素の画素値に加算することで、出力フレーム画像を生成する。よって、ノイズが目立つダイナミックレンジの極端に小さい画像領域を除いた、比較的ダイナミックレンジが狭い画像領域に対して、高周波成分への重み係数が大きくなるようにすることができる。それとともに、相関の小さい微小振幅(ノイズ)が目立つダイナミックレンジの小さい画像領域における強調処理を抑制することができる。そのため、ノイズ成分を強調することなく、ディテイル感の向上効果を得ることができる。   As in the above configuration, the enhancement amount obtained by multiplying the high-frequency component by the first weighting factor determined for the difference between the maximum value and the minimum value of the pixel values in the second block, and the second block An adjustment amount obtained by multiplying the difference between the pixel value of the target frame image and the pixel value of the noise-reduced image by a second weighting factor determined for the difference between the maximum value and the minimum value of the pixel value of Is added to the pixel value of each pixel of the noise-reduced image to generate an output frame image. Therefore, it is possible to increase the weighting factor for the high-frequency component for an image region having a relatively narrow dynamic range, excluding an image region having an extremely small dynamic range where noise is conspicuous. At the same time, it is possible to suppress enhancement processing in an image region having a small dynamic range in which a small amplitude (noise) having a small correlation is conspicuous. Therefore, the effect of improving the detail feeling can be obtained without enhancing the noise component.

また、本発明の態様6に係る画像処理装置では、態様1から5のいずれか1つに係る画像処理装置において、上記ノイズ低減部は、上記隣接フレーム画像として、上記対象フレーム画像の1つ前のフレーム画像を上記ノイズ低減部にて処理した結果を用いてもよい。   Further, in the image processing device according to aspect 6 of the present invention, in the image processing device according to any one of aspects 1 to 5, the noise reduction unit is the previous frame image as the adjacent frame image. The result of processing the frame image by the noise reduction unit may be used.

上記構成によると、対象フレーム画像の1つ前のフレーム画像におけるノイズ低減処理結果を反映することができるので、ノイズ低減処理の性能を向上することができる。なお、実施の形態に記載の通り、履歴情報を用いる方法などが効果的である。   According to the above configuration, the noise reduction processing result in the frame image immediately before the target frame image can be reflected, so that the performance of the noise reduction processing can be improved. As described in the embodiment, a method using history information is effective.

また、本発明の態様7に係る画像処理装置では、態様1に係る画像処理装置において、上記最大値・最小値算出部は、さらに、上記位置合わせされた隣接フレーム画像の各画素について、注目画素とその周辺画素とを含む第1ブロック内の画素値の最大値及び最小値を算出し、上記高周波成分生成部は、さらに、上記位置合わせされた隣接フレーム画像の各画素について、注目画素の画素値と当該注目画素について算出された上記最大値及び上記最小値とを基に高周波成分を算出し、かつ、上記対象フレーム画像の各画素の高周波成分と上記位置合わせされた隣接フレーム画像の各画素の高周波成分とを基に新たな高周波成分を算出し、上記混合部は、上記対象フレーム画像と上記ノイズ低減画像と上記新たな高周波成分とを基に上記出力フレーム画像を生成してもよい。   In the image processing device according to aspect 7 of the present invention, in the image processing device according to aspect 1, the maximum value / minimum value calculation unit further includes a pixel of interest for each pixel of the aligned adjacent frame image. And the maximum value and the minimum value of the pixel values in the first block including the surrounding pixels, and the high-frequency component generation unit further selects a pixel of the target pixel for each pixel of the aligned adjacent frame image A high-frequency component based on the value and the maximum value and the minimum value calculated for the pixel of interest, and each pixel of the adjacent frame image aligned with the high-frequency component of each pixel of the target frame image A new high-frequency component is calculated based on the high-frequency component, and the mixing unit is configured to output the output frame based on the target frame image, the noise reduction image, and the new high-frequency component. Over-time image may be generated.

上記構成によると、フレーム間での強調量の差に起因するチラツキを抑制することが可能となる。また、小さなマスクサイズを用いることで、輪郭の太りを低減しながら、不要な高周波成分を強調することなく効果的に高周波成分を生成できる。よって、ノイズ成分を強調することなくディテイル感を向上させることができる。   According to the above configuration, it is possible to suppress flicker caused by a difference in the amount of enhancement between frames. In addition, by using a small mask size, it is possible to effectively generate a high-frequency component without enhancing an unnecessary high-frequency component while reducing the thickness of the contour. Therefore, the feeling of detail can be improved without enhancing the noise component.

また、本発明の態様8に係る画像処理装置では、態様7に係る画像処理装置において、上記高周波成分生成部は、上記対象フレーム画像と上記位置合わせされた隣接フレーム画像とについて、(a)注目画素の画素値と当該注目画素について算出された上記最大値との差分絶対値が、当該注目画素の画素値と当該注目画素について算出された上記最小値との差分絶対値に定数を乗算した値よりも大きければ、当該注目画素の画素値から当該注目画素について算出された上記最大値を減算した値を、当該注目画素の第1高周波成分として、(b)注目画素の画素値と当該注目画素について算出された上記最小値との差分絶対値が、当該注目画素の画素値と当該注目画素について算出された上記最大値との差分絶対値に定数を乗算した値よりも大きければ、当該注目画素の画素値から当該注目画素について算出された上記最小値を減算した値を、当該注目画素の第1高周波成分として、算出し、上記隣接フレーム画像の各画素について算出した上記第1高周波成分に対しては、上記対象フレーム画像との相関が小さい程小さい重み係数を、上記対象フレーム画像の各画素について算出した上記第1高周波成分に対しては、予め定められた重み係数を設定し、これらを用いて加重平均を算出することで第2高周波成分を生成し、上記混合部は、上記新たな高周波成分として上記第2高周波成分を用いてもよい。   In the image processing device according to aspect 8 of the present invention, in the image processing device according to aspect 7, the high-frequency component generation unit is configured to (a) focus on the target frame image and the aligned adjacent frame image. The difference absolute value between the pixel value of the pixel and the maximum value calculated for the target pixel is a value obtained by multiplying the absolute difference between the pixel value of the target pixel and the minimum value calculated for the target pixel by a constant. Is larger than the pixel value of the target pixel, a value obtained by subtracting the maximum value calculated for the target pixel as the first high-frequency component of the target pixel, and (b) the pixel value of the target pixel and the target pixel The difference absolute value calculated from the minimum value calculated for the pixel of interest is greater than the value obtained by multiplying the absolute value of the difference between the pixel value of the target pixel and the maximum value calculated for the target pixel by a constant. If so, a value obtained by subtracting the minimum value calculated for the pixel of interest from the pixel value of the pixel of interest is calculated as the first high-frequency component of the pixel of interest and calculated for each pixel of the adjacent frame image. For the first high-frequency component, a smaller weighting factor is obtained as the correlation with the target frame image is smaller. For the first high-frequency component calculated for each pixel of the target frame image, a predetermined weighting factor is used. And calculating a weighted average using these, the second high frequency component may be generated, and the mixing unit may use the second high frequency component as the new high frequency component.

また、本発明の態様9に係る画像処理装置では、態様7または8に係る画像処理装置において、上記混合部は、上記対象フレーム画像及び上記位置合わせされた隣接フレーム画像における、注目画素とその周辺画素とを含む第2ブロック内の画素値の最大値と最小値との差のうちの最大の差である最大差に対して決定される第1の重み係数を、上記第2高周波成分に乗算することで強調量を算出し、上記最大差に対して決定される第2の重み係数を、上記対象フレーム画像と上記ノイズ低減画像との差に乗算することで調整量を算出し、上記ノイズ低減画像の各画素の画素値と上記強調量と上記調整量とを加算することにより、上記出力フレーム画像を生成してもよい。   In the image processing device according to aspect 9 of the present invention, in the image processing device according to aspect 7 or 8, the mixing unit includes the target pixel and its surroundings in the target frame image and the aligned adjacent frame image. The second high-frequency component is multiplied by a first weighting factor determined for the maximum difference that is the maximum difference between the maximum and minimum pixel values in the second block including the pixel. The amount of enhancement is calculated, and the adjustment amount is calculated by multiplying the difference between the target frame image and the noise-reduced image by the second weighting factor determined for the maximum difference, and the noise The output frame image may be generated by adding the pixel value of each pixel of the reduced image, the enhancement amount, and the adjustment amount.

上記構成によると、フレーム間でのダイナミックレンジの差に起因して、近接するフレーム間で強調量が変化することで発生する、チラツキを抑制することが可能となる。また、小さなマスクサイズを用いることで、効果的に高周波成分を生成することができる。   According to the above configuration, it is possible to suppress flicker that occurs due to a change in the amount of enhancement between adjacent frames due to a difference in dynamic range between frames. Further, by using a small mask size, a high frequency component can be generated effectively.

また、本発明の態様10に係る画像処理装置は、態様1から9のいずれか1つに係る画像処理装置において、上記ディテイル処理部から出力されるフレーム画像に対して、上記映像を表示させる表示部の画素数に応じたスケーリング処理を施すスケーラ処理部と、上記スケーラ処理部から出力されるフレーム画像に対して輪郭強調処理を施すシャープネス処理部と、を備えてもよい。   An image processing apparatus according to aspect 10 of the present invention is the image processing apparatus according to any one of aspects 1 to 9, wherein the image is displayed on the frame image output from the detail processing unit. A scaler processing unit that performs scaling processing according to the number of pixels of the unit, and a sharpness processing unit that performs contour enhancement processing on the frame image output from the scaler processing unit.

上記構成によると、スケーリング処理によって損なわれる前に、ディテイル感を向上しておくことができる。また、スケーリング処理後にシャープネス処理を行うことにより、輪郭を太らせることなく、鮮鋭度を向上させながら精細感を向上することができる。   According to the above configuration, it is possible to improve the feeling of detail before being damaged by the scaling process. Also, by performing the sharpness process after the scaling process, it is possible to improve the fineness while improving the sharpness without increasing the outline.

本発明の態様11に係る画像表示装置は、態様1から10の何れか1つの画像処理装置を備える。上記いずれかの態様の画像処理装置を備えているため、ノイズ成分を強調することなくディテイル感を向上させることができる。よって、高品質、高精細の映像を表示することができる。そのため、ユーザに高性能で快適な視認環境を提供することができる。   An image display device according to aspect 11 of the present invention includes any one of the image processing devices according to aspects 1 to 10. Since the image processing apparatus according to any one of the above aspects is provided, the feeling of detail can be improved without enhancing the noise component. Therefore, high-quality and high-definition video can be displayed. Therefore, a high-performance and comfortable visual environment can be provided to the user.

なお、本発明に係る画像処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各部として動作させることにより上記画像処理装置をコンピュータにて実現させるプログラム、及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The image processing apparatus according to the present invention may be realized by a computer. In this case, a program for realizing the image processing apparatus by the computer by causing the computer to operate as the respective units, and the program are recorded. Such computer-readable recording media also fall within the scope of the present invention.

本発明は、複数のフレームから構成される映像を処理する画像処理装置等に利用することができる。   The present invention can be used in an image processing apparatus or the like that processes video composed of a plurality of frames.

1 テレビ放送受信装置(画像表示装置)
4 制御部
6 表示部
8 操作部
13,13a,13b,13c ディテイル感向上処理部(ディテイル処理部)
17,17a 位置合わせ処理部(位置合わせ部)
18,18a 第2ノイズ低減処理部(ノイズ低減部)
19,19A,19B 最大値・最小値算出処理部(最大値・最小値算出部)
19a 第1最大値・最小値算出処理部(最大値・最小値算出部)
19b,19b’ 第2最大値・最小値算出処理部(最大値・最小値算出部)
19c 第3最大値・最小値算出処理部(最大値・最小値算出部)
20,20b 高周波成分生成処理部(高周波成分生成部)
21,21b 混合処理部(混合部)
42 映像信号処理部(画像処理装置)
100 マルチディスプレイ(画像表示装置)
110 モニタ(画像表示装置)
1 TV broadcast receiver (image display device)
4 Control section 6 Display section 8 Operation section 13, 13a, 13b, 13c Detail feeling improvement processing section (detail processing section)
17, 17a Positioning processing unit (positioning unit)
18, 18a Second noise reduction processing unit (noise reduction unit)
19, 19A, 19B Maximum value / minimum value calculation processing unit (maximum value / minimum value calculation unit)
19a First maximum value / minimum value calculation processing unit (maximum value / minimum value calculation unit)
19b, 19b 'second maximum value / minimum value calculation processing unit (maximum value / minimum value calculation unit)
19c Third maximum value / minimum value calculation processing unit (maximum value / minimum value calculation unit)
20, 20b High-frequency component generation processing unit (high-frequency component generation unit)
21, 21b Mixing processing unit (mixing unit)
42 Video signal processing unit (image processing device)
100 Multi-display (image display device)
110 Monitor (image display device)

Claims (13)

映像を構成するフレーム画像に精細感をもたらすディテイル処理部を備えた画像処理装置であって、上記ディテイル処理部は、
対象フレーム画像とその隣接フレーム画像とで各画素間の位置合わせを行う位置合わせ部と、
上記位置合わせされたフレーム画像を用いてフレーム間相関の小さいノイズとみなせる振幅を低減し、上記対象フレーム画像からノイズ低減画像を生成するノイズ低減部と、
上記対象フレーム画像の各画素について、注目画素とその周辺画素とを含む第1ブロック内の画素値の最大値及び最小値を算出する最大値・最小値算出部と、
上記対象フレーム画像の各画素について、注目画素の画素値と当該注目画素について算出された上記最大値及び上記最小値とを基に高周波成分を算出する高周波成分生成部と、
上記対象フレーム画像と上記ノイズ低減画像と上記高周波成分とを基に出力フレーム画像を生成する混合部と、を備えることを特徴とする画像処理装置。
An image processing apparatus including a detail processing unit that brings a sense of fineness to a frame image constituting an image, wherein the detail processing unit includes:
An alignment unit that performs alignment between each pixel in the target frame image and its adjacent frame image;
A noise reduction unit that reduces an amplitude that can be regarded as noise with small inter-frame correlation using the aligned frame image, and generates a noise reduced image from the target frame image;
For each pixel of the target frame image, a maximum value / minimum value calculation unit for calculating the maximum value and the minimum value of the pixel value in the first block including the target pixel and its surrounding pixels;
For each pixel of the target frame image, a high frequency component generation unit that calculates a high frequency component based on the pixel value of the target pixel and the maximum value and the minimum value calculated for the target pixel;
An image processing apparatus comprising: a mixing unit that generates an output frame image based on the target frame image, the noise-reduced image, and the high-frequency component.
上記ノイズ低減部は、上記隣接フレーム画像の各画素の画素値に対しては、上記対象フレーム画像との相関が小さい程小さい重み係数を、上記対象フレーム画像の各画素の画素値に対しては、予め定められた重み係数を設定し、これらを用いて加重平均を算出して、対象フレーム画像からノイズ低減画像を生成することを特徴とする請求項1に記載の画像処理装置。   For the pixel value of each pixel of the adjacent frame image, the noise reduction unit applies a smaller weighting factor to the pixel value of each pixel of the target frame image, as the correlation with the target frame image is smaller. 2. The image processing apparatus according to claim 1, wherein a predetermined weighting factor is set, a weighted average is calculated using these, and a noise reduced image is generated from the target frame image. 上記高周波成分生成部は、
(a)注目画素の画素値と当該注目画素について算出された上記最大値との差分絶対値が、当該注目画素の画素値と当該注目画素について算出された上記最小値との差分絶対値に定数を乗算した値よりも大きければ、当該注目画素の画素値から当該注目画素について算出された上記最大値を減算した値を、当該注目画素の上記高周波成分として、
(b)注目画素の画素値と当該注目画素について算出された上記最小値との差分絶対値が、当該注目画素の画素値と当該注目画素について算出された上記最大値との差分絶対値に定数を乗算した値よりも大きければ、当該注目画素の画素値から当該注目画素について算出された上記最小値を減算した値を、当該注目画素の上記高周波成分として、
算出することを特徴とする請求項1または2に記載の画像処理装置。
The high frequency component generator is
(A) The absolute difference value between the pixel value of the target pixel and the maximum value calculated for the target pixel is a constant difference absolute value between the pixel value of the target pixel and the minimum value calculated for the target pixel. Is larger than the value obtained by multiplying the pixel value of the target pixel by subtracting the maximum value calculated for the target pixel as the high frequency component of the target pixel.
(B) The difference absolute value between the pixel value of the target pixel and the minimum value calculated for the target pixel is a constant difference absolute value between the pixel value of the target pixel and the maximum value calculated for the target pixel. If the value is greater than the value obtained by multiplying the pixel of interest by subtracting the minimum value calculated for the pixel of interest from the pixel value of the pixel of interest as the high frequency component of the pixel of interest,
The image processing apparatus according to claim 1, wherein the image processing apparatus calculates the image processing apparatus.
上記混合部は、上記ノイズ低減画像の各画素の画素値と、上記高周波成分に基づく強調量と、上記対象フレーム画像と上記ノイズ低減画像とに基づく調整量と、を加算することにより、上記出力フレーム画像を生成することを特徴とする請求項1から3の何れか1項に記載の画像処理装置。   The mixing unit adds the pixel value of each pixel of the noise reduced image, the enhancement amount based on the high frequency component, and the adjustment amount based on the target frame image and the noise reduced image, thereby adding the output. The image processing apparatus according to claim 1, wherein a frame image is generated. 上記混合部は、
上記対象フレーム画像における注目画素とその周辺画素とを含む第2ブロック内の画素値の最大値と最小値との差に対して決定される第1の重み係数を、上記高周波成分に乗算することで、上記強調量を算出し、
上記第2ブロック内の画素値の最大値と最小値との差に対して決定される第2の重み係数を、上記対象フレーム画像の画素値と上記ノイズ低減画像の画素値との差に乗算することで、上記調整量を算出することを特徴とする請求項4に記載の画像処理装置。
The mixing part is
Multiplying the high-frequency component by a first weighting factor determined for a difference between a maximum value and a minimum value of pixel values in the second block including the target pixel and its peripheral pixels in the target frame image. To calculate the above emphasis amount,
Multiplying the difference between the pixel value of the target frame image and the pixel value of the noise-reduced image by a second weighting factor determined for the difference between the maximum value and the minimum value of the pixel values in the second block The image processing apparatus according to claim 4, wherein the adjustment amount is calculated.
上記ノイズ低減部は、上記隣接フレーム画像として、上記対象フレーム画像の1つ前のフレーム画像を上記ノイズ低減部にて処理した結果を用いることを特徴とする請求項1から5の何れか1項に記載の画像処理装置。   6. The noise reduction unit according to claim 1, wherein the noise reduction unit uses, as the adjacent frame image, a result of processing the frame image immediately before the target frame image by the noise reduction unit. An image processing apparatus according to 1. 上記最大値・最小値算出部は、さらに、上記位置合わせされた隣接フレーム画像の各画素について、注目画素とその周辺画素とを含む第1ブロック内の画素値の最大値及び最小値を算出し、
上記高周波成分生成部は、さらに、上記位置合わせされた隣接フレーム画像の各画素について、注目画素の画素値と当該注目画素について算出された上記最大値及び上記最小値とを基に高周波成分を算出し、かつ、上記対象フレーム画像の各画素の高周波成分と上記位置合わせされた隣接フレーム画像の各画素の高周波成分とを基に新たな高周波成分を算出し、
上記混合部は、上記対象フレーム画像と上記ノイズ低減画像と上記新たな高周波成分とを基に上記出力フレーム画像を生成することを特徴とする請求項1に記載の画像処理装置。
The maximum value / minimum value calculation unit further calculates a maximum value and a minimum value of pixel values in the first block including the target pixel and its surrounding pixels for each pixel of the aligned adjacent frame image. ,
The high frequency component generation unit further calculates a high frequency component for each pixel of the aligned adjacent frame image based on the pixel value of the target pixel and the maximum value and the minimum value calculated for the target pixel. And calculating a new high-frequency component based on the high-frequency component of each pixel of the target frame image and the high-frequency component of each pixel of the aligned adjacent frame image,
The image processing apparatus according to claim 1, wherein the mixing unit generates the output frame image based on the target frame image, the noise reduced image, and the new high frequency component.
上記高周波成分生成部は、
上記対象フレーム画像と上記位置合わせされた隣接フレーム画像とについて、(a)注目画素の画素値と当該注目画素について算出された上記最大値との差分絶対値が、当該注目画素の画素値と当該注目画素について算出された上記最小値との差分絶対値に定数を乗算した値よりも大きければ、当該注目画素の画素値から当該注目画素について算出された上記最大値を減算した値を、当該注目画素の第1高周波成分として、(b)注目画素の画素値と当該注目画素について算出された上記最小値との差分絶対値が、当該注目画素の画素値と当該注目画素について算出された上記最大値との差分絶対値に定数を乗算した値よりも大きければ、当該注目画素の画素値から当該注目画素について算出された上記最小値を減算した値を、当該注目画素の第1高周波成分として、算出し、
上記隣接フレーム画像の各画素について算出した上記第1高周波成分に対しては、上記対象フレーム画像との相関が小さい程小さい重み係数を、上記対象フレーム画像の各画素について算出した上記第1高周波成分に対しては、予め定められた重み係数を設定し、これらを用いて加重平均を算出することで第2高周波成分を生成し、
上記混合部は、上記新たな高周波成分として上記第2高周波成分を用いることを特徴とする請求項7に記載の画像処理装置。
The high frequency component generator is
For the target frame image and the aligned adjacent frame image, (a) the absolute difference between the pixel value of the target pixel and the maximum value calculated for the target pixel is the pixel value of the target pixel and the If the absolute value of the difference from the minimum value calculated for the pixel of interest is greater than a constant, a value obtained by subtracting the maximum value calculated for the pixel of interest from the pixel value of the pixel of interest As the first high-frequency component of the pixel, (b) the absolute difference between the pixel value of the target pixel and the minimum value calculated for the target pixel is the maximum value calculated for the pixel value of the target pixel and the target pixel. A value obtained by subtracting the minimum value calculated for the target pixel from the pixel value of the target pixel if the absolute value of the difference from the value is greater than a constant multiplied by a constant. As the first high-frequency component, calculated,
For the first high-frequency component calculated for each pixel of the adjacent frame image, a smaller weight coefficient is assigned to the first high-frequency component calculated for each pixel of the target frame image as the correlation with the target frame image is smaller. For the above, a predetermined weighting factor is set, and a weighted average is calculated using these to generate a second high frequency component,
The image processing apparatus according to claim 7, wherein the mixing unit uses the second high-frequency component as the new high-frequency component.
上記混合部は、
上記対象フレーム画像及び上記位置合わせされた隣接フレーム画像における、注目画素とその周辺画素とを含む第2ブロック内の画素値の最大値と最小値との差のうちの最大の差である最大差に対して決定される第1の重み係数を、上記第2高周波成分に乗算することで強調量を算出し、
上記最大差に対して決定される第2の重み係数を、上記対象フレーム画像と上記ノイズ低減画像との差に乗算することで調整量を算出し、
上記ノイズ低減画像の各画素の画素値と上記強調量と上記調整量とを加算することにより、上記出力フレーム画像を生成することを特徴とする請求項7または8に記載の画像処理装置。
The mixing part is
The maximum difference that is the maximum difference between the maximum value and the minimum value of the pixel values in the second block including the target pixel and its surrounding pixels in the target frame image and the aligned adjacent frame image The amount of enhancement is calculated by multiplying the second high frequency component by the first weighting factor determined for
An adjustment amount is calculated by multiplying the difference between the target frame image and the noise-reduced image by a second weighting factor determined for the maximum difference,
The image processing apparatus according to claim 7 or 8, wherein the output frame image is generated by adding a pixel value of each pixel of the noise reduced image, the enhancement amount, and the adjustment amount.
上記ディテイル処理部から出力されるフレーム画像に対して、上記映像を表示させる表示部の画素数に応じたスケーリング処理を施すスケーラ処理部と、
上記スケーラ処理部から出力されるフレーム画像に対して輪郭強調処理を施すシャープネス処理部と、を備えることを特徴とする請求項1から9の何れか1項に記載の画像処理装置。
A scaler processing unit that performs a scaling process according to the number of pixels of the display unit that displays the video on the frame image output from the detail processing unit;
The image processing apparatus according to claim 1, further comprising: a sharpness processing unit that performs an edge enhancement process on the frame image output from the scaler processing unit.
請求項1から10の何れか1項に記載の画像処理装置を備えることを特徴とする画像表示装置。   An image display device comprising the image processing device according to claim 1. 請求項1から10の何れか1項に記載の画像処理装置を動作させるプログラムであって、コンピュータを上記の各部として機能させるためのプログラム。   A program for operating the image processing apparatus according to any one of claims 1 to 10, wherein the program causes a computer to function as each unit described above. 請求項12に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 12 is recorded.
JP2013161798A 2013-08-02 2013-08-02 Image processing device, image display device, program, and recording medium Pending JP2015033019A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013161798A JP2015033019A (en) 2013-08-02 2013-08-02 Image processing device, image display device, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013161798A JP2015033019A (en) 2013-08-02 2013-08-02 Image processing device, image display device, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2015033019A true JP2015033019A (en) 2015-02-16

Family

ID=52517992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013161798A Pending JP2015033019A (en) 2013-08-02 2013-08-02 Image processing device, image display device, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2015033019A (en)

Similar Documents

Publication Publication Date Title
JP4191241B2 (en) Visual processing device, visual processing method, program, display device, and integrated circuit
JP6461165B2 (en) Method of inverse tone mapping of image
JP4523926B2 (en) Image processing apparatus, image processing program, and image processing method
TWI519151B (en) Image processing method and image processing apparatus
CN109345490B (en) Method and system for enhancing real-time video image quality of mobile playing terminal
KR20090068355A (en) Contour correcting method, image processing device and display device
JP5200788B2 (en) Video signal processing apparatus, video signal processing method, and video signal processing program
JP2013041565A (en) Image processor, image display device, image processing method, computer program, and recording medium
JP4783676B2 (en) Image processing apparatus and image processing program
JP5781370B2 (en) Image processing apparatus, image processing method, image display apparatus including image processing apparatus, program, and recording medium
JP2006228184A (en) Dynamic image contrast processor
WO2013151163A1 (en) Image processing device, image display device, image processing method, computer program, and recording medium
JP6190482B1 (en) Display control device, display device, television receiver, display control device control method, control program, and recording medium
JP2013235517A (en) Image processing device, image display device, computer program and recording medium
JP5279830B2 (en) Video signal processing device and video display device
JP4768510B2 (en) Image quality improving apparatus and image quality improving method
US8265419B2 (en) Image processing apparatus and image processing method
JP6035153B2 (en) Image processing apparatus, image display apparatus, program, and storage medium
JP2015088918A (en) Information processing device and information processing method
US20220188994A1 (en) Image processing apparatus and image processing method
JP2015033019A (en) Image processing device, image display device, program, and recording medium
JP2012227917A (en) Image processing circuit, semiconductor device, and image processing system
JP2016054459A (en) Image processing device, television receiver, image processing method, program, and recording medium
JP2010288040A (en) Method and device for correcting contour
JP2015061113A (en) Image processing system, image display device, program, and recording medium