JP2011166638A - Video processor and video display unit - Google Patents

Video processor and video display unit Download PDF

Info

Publication number
JP2011166638A
JP2011166638A JP2010029657A JP2010029657A JP2011166638A JP 2011166638 A JP2011166638 A JP 2011166638A JP 2010029657 A JP2010029657 A JP 2010029657A JP 2010029657 A JP2010029657 A JP 2010029657A JP 2011166638 A JP2011166638 A JP 2011166638A
Authority
JP
Japan
Prior art keywords
video
unit
correction
region
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010029657A
Other languages
Japanese (ja)
Inventor
Nobuhiro Fukuda
伸宏 福田
Mitsuo Nakajima
満雄 中嶋
Masahiro Ogino
昌宏 荻野
Hideharu Hattori
英春 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Consumer Electronics Co Ltd
Original Assignee
Hitachi Consumer Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Consumer Electronics Co Ltd filed Critical Hitachi Consumer Electronics Co Ltd
Priority to JP2010029657A priority Critical patent/JP2011166638A/en
Publication of JP2011166638A publication Critical patent/JP2011166638A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To perform image quality correction processing in each region of a video more appropriately. <P>SOLUTION: There are provided: an input signal processing section to which an input signal is input; a region classification section that classifies an input video included in an input signal input to the input signal processing section into a plurality of classified regions according to the feature amount of the video and calculates area ratios of the plurality of classified regions in a predetermined range on the periphery of a pixel to be corrected; and a video correction section that calculates a new pixel value of the pixel to be corrected by multiplying the plurality of corrected pixel values calculated by performing a plurality of image corrections at different levels for each classified region classified by the region classification section by the respective area ratios of the corresponding classified regions and adding the results to the target pixel value of the input video. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、映像処理装置に関し、映像を複数の領域に分類して好適に画質補正する技術
に関する。
The present invention relates to a video processing apparatus, and more particularly to a technique for classifying video into a plurality of regions and preferably correcting image quality.

一般に、テレビジョンやビデオカメラ等の映像処理装置へ入力される映像信号に対し、
コントラスト補正、エッジ強調、ノイズ低減等の画質補正を施す場合、画面全体を一定の
パラメータや閾値にて処理することが多い。この場合、補正効果が画面全体に渡るため、
一部の映像領域に補正効果を上げ、他の領域に副作用が生じないように設定することは困
難である。
In general, for video signals input to video processing devices such as televisions and video cameras,
When image quality correction such as contrast correction, edge enhancement, and noise reduction is performed, the entire screen is often processed with constant parameters and threshold values. In this case, the correction effect is applied to the entire screen.
It is difficult to set a correction effect in some video areas and no side effects in other areas.

画面全体に対する画質補正では、該副作用が生じないように補正効果を弱める必要があ
った。
In the image quality correction for the entire screen, it is necessary to weaken the correction effect so that the side effect does not occur.

そこで、前記の画面全体に対する画質補正による補正効果の低下を抑えるため、映像を
周波数や輝度や色情報などの特徴量に応じて複数の領域に分類し、領域毎に画質補正する
方法がある。例えば、特許文献1を参照。
Therefore, in order to suppress the deterioration of the correction effect due to the image quality correction on the entire screen, there is a method of classifying the video into a plurality of areas according to the feature quantities such as frequency, luminance, and color information, and correcting the image quality for each area. See, for example, US Pat.

特開2000−57335号公報JP 2000-57335 A

しかし、分類された領域毎の画質補正では、領域間の境界で補正効果に差が生じるため
、境界が断続した映像となって現れるという原理的な課題がある。そこで、領域間の補正
効果に大きな差が生じないように設定する必要があり、結果として補正効果の低下に繋が
る。
However, in the image quality correction for each classified region, there is a difference in correction effect at the boundary between the regions, so that there is a principle problem that the boundary appears as an intermittent image. Therefore, it is necessary to set so that a large difference does not occur in the correction effect between the regions, and as a result, the correction effect is reduced.

該課題を解決するために、領域境界近傍の画素値を平均化するという手法が考えられる
が、境界と映像中のオブジェクトのエッジが重なると、エッジがぼやけてしまう。また、
互いにテクスチャ領域同士の境界である場合には、平均化した境界近傍の領域が帯状に見
えてしまうといった問題も生じる。
In order to solve the problem, a method of averaging pixel values in the vicinity of the region boundary can be considered. However, when the boundary and the edge of the object in the video overlap, the edge becomes blurred. Also,
In the case of the boundary between the texture areas, there is a problem that the area in the vicinity of the averaged boundary looks like a band.

本発明は、前記画面全体の補正処理のような効果の低下を抑え、好適に画質補正をする
ことを目的とする。
It is an object of the present invention to suppress image deterioration such as the correction process for the entire screen and to perform image quality correction appropriately.

前記課題を解決するために、本発明の一実施の態様では、入力信号が入力される入力信
号処理部と、前記入力信号処理部に入力される入力信号に含まれる入力映像を、映像の特
徴量に応じて複数の分類領域に分類し、補正対象画素の周辺の所定の範囲内における前記
複数の分類領域の面積比率を算出する領域分類部と、前記入力映像の対象画素値に前記領
域分類部が分類する分類領域ごとに異なるレベルの複数の画像補正を行うにより算出した
複数の補正画素値に対して、対応する分類領域についての前記面積比率をそれぞれ乗じて
加算することにより、前記補正対象画素の画素についての新たな画素値を算出する映像補
正部とを備える。
In order to solve the above problems, according to an embodiment of the present invention, an input signal processing unit to which an input signal is input, and an input video included in the input signal input to the input signal processing unit are characterized by video. A region classification unit that classifies the plurality of classification regions according to the amount and calculates an area ratio of the plurality of classification regions within a predetermined range around the correction target pixel, and the region classification into the target pixel value of the input video The correction target is obtained by multiplying and adding a plurality of correction pixel values calculated by performing a plurality of image corrections at different levels for each classification region classified by the unit, by multiplying the area ratio for the corresponding classification region, respectively. A video correction unit that calculates a new pixel value for each pixel.

上記のように構成された本発明の画像処理装置によれば、映像の各領域における補正効
果の低下を抑え、より好適に画質補正することができる。
According to the image processing apparatus of the present invention configured as described above, it is possible to suppress the deterioration of the correction effect in each region of the video and correct image quality more suitably.

本発明の実施例1に係る画像処理装置の構成を説明するブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to Embodiment 1 of the present invention. 本発明の実施例に係る画像処理の効果を説明する図である。It is a figure explaining the effect of the image processing which concerns on the Example of this invention. コントラスト補正の入出力特性を説明する図である。It is a figure explaining the input / output characteristic of contrast correction. 本発明の実施例に係る輝度による領域分類部の構成を説明するブロック図である。It is a block diagram explaining the structure of the area | region classification part by the luminance which concerns on the Example of this invention. 本発明の実施例に係る周波数による領域分類部の構成を説明するブロック図である。It is a block diagram explaining the structure of the area | region classification | category part by the frequency which concerns on the Example of this invention. 本発明の実施例に係る輝度による領域判定方法を説明する図である。It is a figure explaining the area | region determination method by the luminance which concerns on the Example of this invention. 本発明の実施例に係る周波数による領域判定方法を説明する図である。It is a figure explaining the area | region determination method by the frequency which concerns on the Example of this invention. 本発明の実施例に係る面積比率算出方法を説明する図である。It is a figure explaining the area ratio calculation method which concerns on the Example of this invention. 本発明の実施例に係る面積比率算出方法を説明する図である。It is a figure explaining the area ratio calculation method which concerns on the Example of this invention. 本発明の実施例2に係る画像処理装置の構成の一部を説明するブロック図である。It is a block diagram explaining a part of structure of the image processing apparatus which concerns on Example 2 of this invention. 本発明の実施例3に係る画像処理装置の構成を説明するブロック図である。It is a block diagram explaining the structure of the image processing apparatus which concerns on Example 3 of this invention. 本発明の実施例に係る複数フレーム(3フレーム)に対応した周波数による領域検出方法を説明する図である。It is a figure explaining the area | region detection method by the frequency corresponding to the some flame | frame (3 frames) which concerns on the Example of this invention. 本発明の実施例に係る周波数による領域分類方法を説明する図である。It is a figure explaining the area | region classification method by the frequency which concerns on the Example of this invention. 本発明の実施例に係る周波数による領域検出方法を説明する図である。It is a figure explaining the area | region detection method by the frequency which concerns on the Example of this invention. 本発明の実施例に係る複数フレーム(3フレーム)に対応した面積比率算出方法を説明する図である。It is a figure explaining the area ratio calculation method corresponding to several frames (3 frames) which concerns on the Example of this invention. 本発明の実施例4に係る画像処理装置の構成を説明するブロック図である。It is a block diagram explaining the structure of the image processing apparatus which concerns on Example 4 of this invention. 本発明の実施例に係る動きベクトル検出方法を説明する図である。It is a figure explaining the motion vector detection method which concerns on the Example of this invention.

以下、本発明の実施の形態について図面に基づいて説明するが、本発明は必ずしもこれ
らの実施形態に限定されるものではない。なお、実施形態を説明するための図において、
同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not necessarily limited to these embodiments. In the figure for explaining the embodiment,
In principle, the same members are denoted by the same reference numerals, and repeated description thereof is omitted.

まず、本発明の実施例1に係る映像処理装置の一例を、図1の構成図を用いて説明する
First, an example of a video processing apparatus according to Embodiment 1 of the present invention will be described with reference to the configuration diagram of FIG.

本実施例の映像処理装置は、入力信号処理部1、コントラストa補正部3、コントラス
トb補正部4、コントラストc補正部5、領域分類部6、コントラスト・ブレンド部13
、タイミング制御部15、LCDパネル16などから構成される。ここで、コントラスト
a補正部3、コントラストb補正部4、コントラストc補正部5、コントラスト・ブレン
ド部13は、コントラスト補正部という1つの映像補正部を構成してもよい。
The video processing apparatus of this embodiment includes an input signal processing unit 1, a contrast a correction unit 3, a contrast b correction unit 4, a contrast c correction unit 5, a region classification unit 6, and a contrast / blend unit 13.
, A timing control unit 15, an LCD panel 16, and the like. Here, the contrast a correction unit 3, the contrast b correction unit 4, the contrast c correction unit 5, and the contrast / blend unit 13 may constitute one video correction unit called a contrast correction unit.

入力信号処理部1では、例えば、内蔵されるチューナで受信した放送信号を入力信号と
して、デコード処理を行い、映像信号2を出力する。
In the input signal processing unit 1, for example, a broadcast signal received by a built-in tuner is used as an input signal, a decoding process is performed, and a video signal 2 is output.

領域分類部6は、映像信号2を入力信号として、映像の特徴量に基づき複数の分類領域
(例えば、領域a、領域b、領域cの3つの分類領域)に分割し、領域aの面積比率7、
領域bの面積比率8、領域cの面積比率9を出力する。領域分類部6の処理の詳細は後述
する。
The area classification unit 6 uses the video signal 2 as an input signal and divides the video signal 2 into a plurality of classification areas (for example, three classification areas of area a, area b, and area c) based on the video feature amount, and the area ratio of the area a 7,
The area ratio 8 of the region b and the area ratio 9 of the region c are output. Details of the processing of the area classification unit 6 will be described later.

コントラストa補正部3は、映像信号2を入力信号として、領域aに対するコントラス
ト補正を行い、コントラストa補正後の映像信号10を出力する。コントラストb補正部
4は、映像信号2を入力信号として、領域bに対するコントラスト補正を行い、コントラ
ストb補正後の映像信号11を出力する。コントラストc補正部5は、映像信号2を入力
信号として、領域cに対するコントラスト補正を行い、コントラストc補正後の映像信号
12を出力する。
The contrast a correction unit 3 performs contrast correction on the region a using the video signal 2 as an input signal, and outputs the video signal 10 after the contrast a correction. The contrast b correction unit 4 performs the contrast correction on the region b using the video signal 2 as an input signal, and outputs the video signal 11 after the contrast b correction. The contrast c correction unit 5 performs the contrast correction on the region c using the video signal 2 as an input signal, and outputs the video signal 12 after the contrast c correction.

ここで、コントラストa補正部3、コントラストb補正部4、コントラストc補正部5
は、互いにコントラスト補正のレベルが異なるコントラスト補正を行うものである。
Here, the contrast a correction unit 3, the contrast b correction unit 4, and the contrast c correction unit 5
Performs contrast correction with different levels of contrast correction.

図3は、コントラスト補正の一例として、輝度信号の入出力特性を説明する図である。
図は横軸を入力輝度信号(IN)、縦軸を出力輝度信号とし、図中の折れ線は、輝度に対
する入出力特性を示す。即ち、該折れ線によって、輝度信号の入出力が決定される。例え
ば、図のように輝度値YINを入力するとYOUTが出力される。
FIG. 3 is a diagram for explaining input / output characteristics of a luminance signal as an example of contrast correction.
In the figure, the horizontal axis represents the input luminance signal (IN) and the vertical axis represents the output luminance signal, and the broken line in the figure represents the input / output characteristics with respect to the luminance. That is, the input / output of the luminance signal is determined by the broken line. For example, when a luminance value YIN is input as shown in the figure, YOUT is output.

図1に戻り、コントラスト・ブレンド部13は、領域aの面積比率7、領域bの面積比
率8、領域cの面積比率9、および、コントラストa補正後の映像信号10、コントラス
トb補正後の映像信号11、コントラストc補正後の映像信号12を入力信号として、所
定の演算処理を用いた加重平均により、コントラスト補正後の映像信号14を出力する。
Returning to FIG. 1, the contrast blending unit 13 includes an area ratio 7 for the region a, an area ratio 8 for the region b, an area ratio 9 for the region c, a video signal 10 after contrast a correction, and an image after contrast b correction. Using the signal 11 and the video signal 12 after the contrast c correction as an input signal, the video signal 14 after the contrast correction is output by weighted averaging using a predetermined arithmetic processing.

ここで、所定の演算処理を用いた加重平均とは、対象画素の周辺の所定の範囲における
各領域の面積比率を各領域のコントラスト補正された映像信号に乗じて加算するものであ
る。詳細は後述する。
Here, the weighted average using a predetermined calculation process is to multiply the area ratio of each region in a predetermined range around the target pixel by multiplying the video signal whose contrast is corrected in each region and add them. Details will be described later.

なお、コントラスト・ブレンド部13とはコントラスト補正の効果を合成する、画像処
理合成部であり、コントラスト補正後の映像信号14は、補正対象画素についてコントラ
スト・ブレンド部13により生成された補正後の新たな画素値を含むものである。
Note that the contrast / blending unit 13 is an image processing synthesis unit that combines the effects of contrast correction, and the video signal 14 after contrast correction is a new corrected signal generated by the contrast / blending unit 13 for the correction target pixel. Including a large pixel value.

出力されたコントラスト補正後の映像信号14はタイミング制御部を介し、LCDパネ
ル16に表示される。
The output video signal 14 after contrast correction is displayed on the LCD panel 16 via the timing control unit.

次に、領域分類部6について、図4a、図4b、図5a、図5b、図6a及び図6bを用い
て説明する。
Next, the region classification unit 6 will be described with reference to FIGS. 4A, 4B, 5A, 5B, 6A, and 6B.

図4aは特徴量の一例として輝度による領域分類部の構成を説明する図である。輝度に
よる領域分類部は、輝度判定部101、面積比a算出部103、面積比b算出部104、
面積比c算出部105によって構成される。
FIG. 4A is a diagram for explaining the configuration of a region classification unit based on luminance as an example of a feature amount. The area classification unit based on luminance includes a luminance determination unit 101, an area ratio a calculation unit 103, an area ratio b calculation unit 104,
The area ratio c calculation unit 105 is configured.

輝度判定部101は、映像信号2を入力信号とし、予め設定された低輝度および中間輝
度を分ける閾値YTH0と、中間輝度および高輝度を分ける閾値YTH1により、低輝度
領域、中間輝度領域、高輝度領域に分類し、領域信号102を出力する。ここで、以下の
例では低輝度領域を領域a、中間輝度領域を領域b、高輝度領域を領域cとする。
The luminance determination unit 101 receives the video signal 2 as an input signal, and sets a low luminance region, an intermediate luminance region, a threshold Y TH0 that divides preset low luminance and intermediate luminance, and a threshold Y TH1 that divides intermediate luminance and high luminance, The area signal 102 is output by classifying the area into a high luminance area. Here, in the following example, the low luminance area is defined as area a, the intermediate luminance area is defined as area b, and the high luminance area is defined as area c.

図5aは、輝度により分類された領域を示す図であり、横軸は輝度値、縦軸は画素数と
し、1画面中の輝度分布を示したヒストグラムである。領域信号102は、分類した領域
を識別するための信号であり、例えば、領域信号をαとすると、輝度Yの範囲により、
(数1)
領域a(0≦Y<YTH0)のとき、 α=0
領域b(YTH0≦Y<YTH1)のとき、 α=1
領域c(YTH1≦Y≦YMAX)のとき、 α=2
なる数値で表される。
FIG. 5A is a diagram showing regions classified by luminance, where the horizontal axis represents the luminance value, the vertical axis represents the number of pixels, and is a histogram showing the luminance distribution in one screen. The region signal 102 is a signal for identifying the classified region. For example, when the region signal is α,
(Equation 1)
When region a (0 ≦ Y <Y TH0 ), α = 0
When region b (Y TH0 ≦ Y <Y TH1 ), α = 1
When region c (Y TH1 ≦ Y ≦ Y MAX ), α = 2
It is represented by the numerical value.

図6a及び図6bは、面積比率算出方法を説明する図である。図6aの矩形は画素を表し
、太枠の画素は補正対象画素の位置を表す。点線で囲まれた範囲は、カウントする対象と
なる画素が含まれる範囲であり面積比率算出のための画素カウント対象範囲(以降、面積
比率算出対象領域)である。ここで、面積比率算出対象領域内の全画素数をN個とする。
図6bは、面積比率算出対象領域内の画素と上記分類された領域の関係を示す。ここで、
領域αに属する画素の数をNαとすると、
6A and 6B are diagrams for explaining an area ratio calculation method. The rectangle in FIG. 6a represents a pixel, and the thick framed pixel represents the position of the correction target pixel. A range surrounded by a dotted line is a range including pixels to be counted, and is a pixel count target range (hereinafter, area ratio calculation target region) for area ratio calculation. Here, the total number of pixels in the area ratio calculation target region is N.
FIG. 6 b shows the relationship between the pixels in the area ratio calculation target region and the classified regions. here,
If the number of pixels belonging to the region α is N α ,

Figure 2011166638
を満たす。この時、領域αと面積比率算出対象領域内の面積比が個数の比に等しいとする
と、Nα/Nが求める面積比率算出対象領域内の面積比となる。例えば、図6bの面積比
率算出対象領域は5×5画素で構成されており、全画素数N=15、領域aに属する画素
数N=10である。よって、面積比率算出対象領域内の領域aの面積比は10/15=
2/3となる。面積比率算出対象領域内の領域bの面積比、面積比率算出対象領域内の領
域cの面積比も同様の方法で算出できる。
Figure 2011166638
Meet. At this time, if the area ratio in the area α and the area ratio calculation target area is equal to the ratio of the number, N α / N is the area ratio in the area ratio calculation target area obtained. For example, the area ratio calculation target region in FIG. 6b is composed of 5 × 5 pixels, total pixel number N = 15, a pixel number N 0 = 10 belonging to the area a. Therefore, the area ratio of the area a in the area ratio calculation target area is 10/15 =
2/3. The area ratio of the region b in the area ratio calculation target region and the area ratio of the region c in the area ratio calculation target region can be calculated by the same method.

図4aに戻り、面積比a算出部103は、領域信号102を入力とし、面積比率算出対
象領域の領域信号が領域a、即ちα=0である画素の個数をカウントし、領域aの面積比
率7を出力する。面積比b算出部104は、領域信号102を入力とし、面積比率算出対
象領域の領域信号が領域b、即ちα=1である画素の個数をカウントし、領域bの面積比
率8を出力する。面積比c算出部105は、領域信号102を入力とし、面積比率算出対
象領域の領域信号が領域c、即ちα=2である画素の個数をカウントし、領域cの面積比
率8を出力する。
Returning to FIG. 4A, the area ratio a calculation unit 103 receives the area signal 102, counts the number of pixels in which the area signal of the area ratio calculation target area is the area a, that is, α = 0, and the area ratio of the area a. 7 is output. The area ratio b calculation unit 104 receives the area signal 102, counts the number of pixels in which the area signal of the area ratio calculation target area is the area b, that is, α = 1, and outputs the area ratio 8 of the area b. The area ratio c calculation unit 105 receives the area signal 102, counts the number of pixels in which the area signal of the area ratio calculation target area is the area c, that is, α = 2, and outputs the area ratio 8 of the area c.

次に、図4bは領域分類部6で用いる特徴量の変形例として、周波数を用いた場合の領
域分類部6の構成を説明する図である。この場合、領域分類部6は、周波数変換部201
、周波数判定部203、面積比a算出部205、面積比b算出部206、面積比c算出部
207を有する。
Next, FIG. 4B is a diagram for explaining the configuration of the region classification unit 6 in the case where a frequency is used as a modification of the feature amount used in the region classification unit 6. In this case, the area classifying unit 6 includes the frequency converting unit 201.
A frequency determination unit 203, an area ratio a calculation unit 205, an area ratio b calculation unit 206, and an area ratio c calculation unit 207.

周波数変換部は、映像信号2を入力信号とし、例えば、離散的フーリエ変換や離散的コ
サイン変換による周波数変換を行い、周波数成分202を出力する。周波数判定部203
は、周波数成分202を入力とし、予め設定した低周波数域および中間周波数域を分ける
閾値FTH0と、中間周波数域および高周波数域を分ける閾値FTH1に属する周波数分
布を調べ、低周波数領域、中間周波数領域、高周波数領域に分類し、領域信号204を出
力する。ここで、以下の例では低周波数領域を領域a、中間周波数領域を領域b、高周波
数領域を領域cとする。
The frequency conversion unit uses the video signal 2 as an input signal, performs frequency conversion by discrete Fourier transform or discrete cosine transform, for example, and outputs a frequency component 202. Frequency determination unit 203
The frequency component 202 is input, and a frequency distribution belonging to a preset threshold value F TH0 that divides a low frequency region and an intermediate frequency region and a threshold value F TH1 that divides an intermediate frequency region and a high frequency region are examined, The signal is classified into a frequency domain and a high frequency domain, and a domain signal 204 is output. Here, in the following example, a low frequency region is a region a, an intermediate frequency region is a region b, and a high frequency region is a region c.

図5bは、周波数により分類された領域を示す図である。実映像空間の横軸は水平画素
位置、縦軸は垂直画素位置を示し、矩形は画素位置の輝度値を表す。周波数空間の横軸は
水平周波数、縦軸は垂直周波数を示し、矩形は周波数成分を表す。点線で囲まれた8×8
の範囲は、周波数変換対象となる範囲(以降、変換対象領域と呼ぶ)である。例えば、領
域信号をαとし、周波数F=(F,F)の周波数成分fが、閾値fα以上の周波数成
分の数をカウントする。このとき、領域αの周波数が閾値nα以上の領域に対し、
FIG. 5b is a diagram showing regions classified by frequency. In the actual video space, the horizontal axis represents the horizontal pixel position, the vertical axis represents the vertical pixel position, and the rectangle represents the luminance value of the pixel position. The horizontal axis of the frequency space represents the horizontal frequency, the vertical axis represents the vertical frequency, and the rectangle represents the frequency component. 8 × 8 surrounded by dotted line
Is a range to be frequency converted (hereinafter referred to as a conversion target region). For example, the region signal is α, and the number of frequency components in which the frequency component f of the frequency F = (F u , F v ) is greater than or equal to the threshold value f α is counted. At this time, for the region where the frequency of the region α is equal to or higher than the threshold value n α ,

Figure 2011166638
なる数値にて領域を識別する。
Figure 2011166638
The area is identified by the numerical value.

ただし、周波数Fの絶対値は、   However, the absolute value of the frequency F is

Figure 2011166638
である。
Figure 2011166638
It is.

図4bに戻り、面積比a算出部205は、領域信号204を入力とし、面積比率算出対
象領域の領域信号が領域a、即ちα=0である画素の個数をカウントし、領域aの面積比
率7を出力する。面積比b算出部206は、領域信号204を入力とし、面積比率算出対
象領域の領域信号が領域b、即ちα=1である画素の個数をカウントし、領域bの面積比
率8を出力する。面積比c算出部207は、領域信号204を入力とし、面積比率算出対
象領域の領域信号が領域c、即ちα=2である画素の個数をカウントし、領域cの面積比
率8を出力する。
Returning to FIG. 4B, the area ratio a calculation unit 205 receives the area signal 204, counts the number of pixels in which the area signal of the area ratio calculation target area is the area a, that is, α = 0, and the area ratio of the area a. 7 is output. The area ratio b calculation unit 206 receives the area signal 204, counts the number of pixels in which the area signal of the area ratio calculation target area is the area b, that is, α = 1, and outputs the area ratio 8 of the area b. The area ratio c calculation unit 207 receives the area signal 204, counts the number of pixels in which the area signal of the area ratio calculation target area is the area c, that is, α = 2, and outputs the area ratio 8 of the area c.

次に、コントラスト・ブレンド部13は、領域分類部で算出した各領域の面積比率およ
びコントラスト補正値Yαをもちいて、補正対象画素の補正輝度値Yを以下の数式5によ
り算出する。
Then, the contrast-blending unit 13, by using the area ratio and contrast correction value Y alpha for each area calculated by the area classification unit, is calculated by Equation 5 below corrected luminance value Y of the correction target pixel.

Figure 2011166638
Figure 2011166638

数式5のように、補正対象画素の周辺の所定の範囲を対象として、各領域の面積比率で
各領域のコントラスト補正値を加重平均をして算出したコントラスト補正値を用いて補正
対象画素の補正輝度値とすることにより、ぼやけの少ないより好適な画質補正を行うこと
ができる。
As shown in Equation 5, the correction of the correction target pixel is performed using the contrast correction value calculated by performing the weighted average of the contrast correction value of each region with the area ratio of each region for a predetermined range around the correction target pixel. By setting the luminance value, it is possible to perform more suitable image quality correction with less blur.

なお、ここで一般的な平均化によるコントラスト補正技術の場合には、補正対象画素を
中心とした距離dの範囲における輝度平均Yα(i、j)は、重み係数Nij(平均値の
場合はNij=1)を用いて、以下の数式6のようにして補正輝度値を算出することが多
い。
Note that in the case of a general contrast correction technique using averaging, the luminance average Y α (i, j) in the range of the distance d with the correction target pixel as the center is the weight coefficient N ij (in the case of the average value). Often uses N ij = 1) to calculate the corrected luminance value as shown in Equation 6 below.

Figure 2011166638
この場合、周囲画素の輝度値を平均化してしまい、ぼやけを生じてしまう。
Figure 2011166638
In this case, the luminance values of surrounding pixels are averaged, resulting in blurring.

数式5を用いて説明した本実施例の補正輝度値の算出方法によれば、このようなぼやけ
を低減することができる。
According to the calculation method of the corrected luminance value of the present embodiment described using Expression 5, such blurring can be reduced.

以上説明した本発明の実施例1に係る映像処理装置の画像処理の効果を、図2を用いて
従来技術に比して説明する。
The effect of the image processing of the video processing apparatus according to the first embodiment of the present invention described above will be described using FIG.

例えば、図2のように、明るい屋外と暗い室内を写した映像や、逆光下の元で撮影され
た映像では、家屋全体の外観は綺麗でも、室内などの暗い低輝度の領域が視認できないほ
ど黒く潰れたり(以降、黒色潰れと呼ぶ)、青空や雲などの明るい高輝度の領域が白色に
飽和したり(以降、白色潰れと呼ぶ)することがある。
For example, as shown in FIG. 2, in an image of a bright outdoor and dark room, or an image taken under backlight, the entire house is beautiful, but a dark low-luminance area such as the room cannot be seen. In some cases, the image may be crushed black (hereinafter referred to as black crushed), or a bright area with high brightness such as a blue sky or a cloud may be saturated with white (hereinafter referred to as white crushed).

ここで、黒色潰れや白色潰れを低減するために、高輝度や低輝度の帯域を広げるように
コントラスト補正を行うと、木々などの風景の中間輝度の帯域が狭まり、階調劣化が生じ
てしまう。
Here, if contrast correction is performed so as to widen the high luminance and low luminance bands in order to reduce black crushing and white crushing, the intermediate luminance band of landscapes such as trees is narrowed, resulting in gradation degradation. .

従来技術では、この課題映像に対し、平坦な映像領域(低周波領域)とテクスチャ領域
(高周波領域)等に分割し、個々にコントラストの入出力特性を変えて補正するが、領域
境界で補正差が出てしまい、断続的な映像となってしまう。また、平均値により補正差を
ぼやかすと、木々などの枝や葉などのエッジにぼやけを生じまい、結果として映像を劣化
させてしまう。
In the conventional technology, this problem video is divided into a flat video area (low frequency area) and a texture area (high frequency area), and corrected by changing the contrast input / output characteristics individually. Will appear and the video will be intermittent. Further, if the correction difference is blurred by the average value, blurring does not occur at the edges of branches such as trees and leaves, and as a result, the video is deteriorated.

これに対し、既に説明した本発明の実施例1に係る映像処理装置の画像処理では、領域
の境界部分では、対象画素の周辺の所定の範囲における各領域の面積比率を各領域のコン
トラスト補正された映像信号に乗じて加算する加重平均処理により、コントラストの入出
力特性を補間するため、木々などの枝や葉などのエッジのボヤケの発生を防止しながら、
課題映像を連続的に補正することができる。
On the other hand, in the image processing of the video processing device according to the first embodiment of the present invention described above, the area ratio of each region in the predetermined range around the target pixel is subjected to contrast correction of each region at the boundary portion of the region. By interpolating the input / output characteristics of contrast by weighted average processing that multiplies and adds to the video signal, while preventing blurring of edges such as branches and leaves such as trees,
The problem video can be corrected continuously.

以上説明した本発明の実施例1に係る映像処理装置の画像処理によれば、映像の各領域
における補正効果の低下を抑え、より好適に画質補正することができる。
According to the above-described image processing of the video processing apparatus according to the first embodiment of the present invention, it is possible to suppress the reduction in the correction effect in each area of the video and correct image quality more suitably.

なお、以上説明した実施例1では特徴量として、輝度または周波数特性を用いた例を説
明したが、輝度の変わりに色度などの他の画素値を用いてもよい。
In the first embodiment described above, an example using the luminance or frequency characteristics as the feature amount has been described. However, other pixel values such as chromaticity may be used instead of the luminance.

実施例1では、分割した領域に対して一種類の画質補正を行った。実施例2では、分割
した領域に対して複数種類の画質補正を行う。
In the first embodiment, one type of image quality correction is performed on the divided areas. In the second embodiment, multiple types of image quality correction are performed on the divided areas.

本発明の実施例2に係る映像処理装置の一例を、図7の構成図を用いて説明する。   An example of a video processing apparatus according to the second embodiment of the present invention will be described with reference to the configuration diagram of FIG.

実施例2に係る映像処理装置は、実施例1に係る映像処理装置のうち、入力信号処理部
1、タイミング制御部15、LCDパネル16以外の構成を図7に示す構成に変更したも
のである。入力信号処理部1、タイミング制御部15、LCDパネル16の構成について
は実施例1に係る映像処理装置と同様であるため、図示及び説明を省略する。
The video processing apparatus according to the second embodiment is obtained by changing the configuration of the video processing apparatus according to the first embodiment other than the input signal processing unit 1, the timing control unit 15, and the LCD panel 16 to the configuration illustrated in FIG. . Since the configuration of the input signal processing unit 1, the timing control unit 15, and the LCD panel 16 is the same as that of the video processing apparatus according to the first embodiment, illustration and description thereof are omitted.

実施例2に係る映像処理装置は、図7に示すように、上記の構成以外にNRa処理部2
0(ここで、「NR」とは、Noise Reductionの略であり「ノイズ低減」
を意味する。ノイズ低減処理も画像補正処理の1つである。)、NRb処理部21、NR
c処理部22、NRブレンド部、コントラストa補正部3、コントラストb補正部4、コ
ントラストc補正部5、領域分類部6、コントラスト・ブレンド部13などの構成部を有
する。ここで、NRa処理部20、NRb処理部21、NRc処理部22、NRブレンド
部は、NR(ノイズ低減)部という第1の映像補正部を構成してもよく、コントラストa補
正部3、コントラストb補正部4、コントラストc補正部5、コントラスト・ブレンド部
13は、コントラスト補正部という第2の映像補正部を構成してもよい。
As shown in FIG. 7, the video processing apparatus according to the second embodiment has an NRa processing unit 2 other than the above configuration.
0 (Here, “NR” is an abbreviation for Noise Reduction, “noise reduction”.
Means. Noise reduction processing is also one of image correction processing. ), NRb processing unit 21, NR
It has components such as a c processing unit 22, an NR blend unit, a contrast a correction unit 3, a contrast b correction unit 4, a contrast c correction unit 5, a region classification unit 6, and a contrast / blend unit 13. Here, the NRa processing unit 20, the NRb processing unit 21, the NRc processing unit 22, and the NR blending unit may constitute a first video correction unit called an NR (noise reduction) unit. The b correction unit 4, the contrast c correction unit 5, and the contrast / blend unit 13 may constitute a second video correction unit called a contrast correction unit.

領域分類部6は、入力信号処理部1から出力された映像信号2を入力信号として、映像
の特徴量に基づき複数の領域、例えば領域a、領域b、領域cの3つの領域に分割し、領
域aの面積比率7、領域bの面積比率8、領域cの面積比率9を出力する。
The area classification unit 6 uses the video signal 2 output from the input signal processing unit 1 as an input signal, and divides it into a plurality of areas, for example, area a, area b, and area c, based on the video feature amount, The area ratio 7 of the area a, the area ratio 8 of the area b, and the area ratio 9 of the area c are output.

領域分類部6における、映像の特徴量に基づく領域分割処理及び面積比率の算出処理の
詳細は実施例1と同様であるため、詳細な説明は省略する。
The details of the region dividing process and the area ratio calculating process based on the video feature amount in the region classifying unit 6 are the same as those in the first embodiment, and thus detailed description thereof is omitted.

NRa処理部20は、映像信号2を入力信号として、領域aに対するノイズ低減処理を
施し、ノイズ低減a処理後の映像信号23を出力する。NRb処理部21は、映像信号2
を入力信号として、領域bに対するノイズ低減処理を施し、ノイズ低減b処理後の映像信
号24を出力する。NRc処理部22は、映像信号2を入力信号として、領域cに対する
ノイズ低減処理を施し、ノイズ低減c処理後の映像信号25を出力する。
The NRa processing unit 20 performs a noise reduction process on the region a using the video signal 2 as an input signal, and outputs a video signal 23 after the noise reduction a process. The NRb processing unit 21 receives the video signal 2
As an input signal, a noise reduction process is performed on the region b, and a video signal 24 after the noise reduction b process is output. The NRc processing unit 22 performs a noise reduction process on the region c using the video signal 2 as an input signal, and outputs a video signal 25 after the noise reduction c process.

ここで、ノイズ低減処理は、例えば、数式6の輝度平均式で表され、重み係数Nij
ガウス分布に従うものとする。
Here, the noise reduction processing is expressed by, for example, a luminance average expression of Expression 6, and the weight coefficient N ij is assumed to follow a Gaussian distribution.

また、NRa処理部20、NRb処理部21、NRc処理部22は、互いにノイズ低減
のレベルが異なるノイズ低減処理を行うものである。
The NRa processing unit 20, the NRb processing unit 21, and the NRc processing unit 22 perform noise reduction processing with different levels of noise reduction.

NRブレンド部26は、領域aの面積比率7、領域bの面積比率8、領域cの面積比率
9、および、ノイズ低減a処理後の映像信号23、ノイズ低減b処理後の映像信号24、
ノイズ低減c処理後の映像信号25を入力信号として、所定の演算処理を用いた加重平均
によりノイズ低減処理後の映像信号27を出力する。
The NR blend unit 26 includes an area ratio 7 for the area a, an area ratio 8 for the area b, an area ratio 9 for the area c, a video signal 23 after the noise reduction a process, a video signal 24 after the noise reduction b process,
Using the video signal 25 after the noise reduction c processing as an input signal, the video signal 27 after the noise reduction processing is output by weighted averaging using a predetermined arithmetic processing.

ここで、所定の演算処理を用いた加重平均とは、対象画素の周辺の所定の範囲における
各領域の面積比率を各領域のノイズ低減処理後の映像信号に乗じて加算するものである。
Here, the weighted average using a predetermined arithmetic process is to multiply and add the area ratio of each area in a predetermined range around the target pixel to the video signal after the noise reduction process of each area.

なお、NRブレンド部26とはノイズ低減の効果を合成する、画像処理合成部であり、
ノイズ低減処理後の映像信号27は、補正対象画素についてNRブレンド部26により生
成されたノイズ低減処理後の画素値を含むものである。
The NR blend unit 26 is an image processing synthesis unit that synthesizes the effect of noise reduction.
The video signal 27 after the noise reduction process includes the pixel value after the noise reduction process generated by the NR blend unit 26 for the correction target pixel.

コントラストa補正部3は、ノイズ低減処理後の映像信号27を入力信号として、領域
aに対するコントラスト補正を行い、コントラストa補正後の映像信号10を出力する。
コントラストb補正部4は、ノイズ低減処理後の映像信号27を入力信号として、領域b
に対するコントラスト補正を行い、コントラストb補正後の映像信号11を出力する。コ
ントラストc補正部5は、ノイズ低減処理後の映像信号27を入力信号として、領域cに
対するコントラスト補正を行い、コントラストc補正後の映像信号12を出力する。
The contrast a correction unit 3 performs the contrast correction on the region a using the video signal 27 after the noise reduction process as an input signal, and outputs the video signal 10 after the contrast a correction.
The contrast b correction unit 4 uses the video signal 27 after the noise reduction processing as an input signal, and outputs the region b
And the video signal 11 after the contrast b correction is output. The contrast c correction unit 5 performs the contrast correction on the region c using the video signal 27 after the noise reduction process as an input signal, and outputs the video signal 12 after the contrast c correction.

コントラスト・ブレンド部13は、領域aの面積比率7、領域bの面積比率8、領域c
の面積比率9、および、コントラストa補正後の映像信号10、コントラストb補正後の
映像信号11、コントラストc補正後の映像信号12を入力信号として、所定の演算処理
を用いた加重平均によりコントラスト補正後の映像信号14を出力する。コントラスト補
正後の映像信号14は、補正対象画素についてコントラスト・ブレンド部13により生成
された補正後の新たな画素値を含むものである。
The contrast / blending unit 13 includes an area ratio 7 for the region a, an area ratio 8 for the region b, and a region c.
And the video signal 10 after contrast a correction, the video signal 11 after contrast b correction, and the video signal 12 after contrast c correction are input signals, and the contrast correction is performed by weighted average using a predetermined arithmetic processing. The subsequent video signal 14 is output. The video signal 14 after the contrast correction includes a new pixel value after correction generated by the contrast / blending unit 13 for the correction target pixel.

ここで、所定の演算処理を用いた加重平均とは、対象画素の周辺の所定の範囲における
各領域の面積比率を各領域のコントラスト補正された映像信号に乗じて加算するものであ
る。
Here, the weighted average using a predetermined calculation process is to multiply the area ratio of each region in a predetermined range around the target pixel by multiplying the video signal whose contrast is corrected in each region and add them.

出力されたコントラスト補正後の映像信号14はタイミング制御部を介し、LCDパネ
ル16に表示される。出力されたコントラスト補正後の映像信号14はタイミング制御部
を介し、LCDパネル16に表示される。
The output video signal 14 after contrast correction is displayed on the LCD panel 16 via the timing control unit. The output video signal 14 after contrast correction is displayed on the LCD panel 16 via the timing control unit.

図7の構成では、3つに分割領域に対する2種類の画質補正処理の構成例を説明した。
当該画質補正処理本方式において、分割領域の数と、画質補正処理の種類の数を一般化し
た場合の補正信号の算出式は数式7のように示される。
In the configuration of FIG. 7, the configuration example of the two types of image quality correction processing for the divided areas has been described.
In this image quality correction processing method, the calculation formula of the correction signal when the number of divided areas and the number of types of image quality correction processing are generalized is shown as Equation 7.

Figure 2011166638
Figure 2011166638

すなわち、数式7において、n個の領域に分割されたi番目の画質補正処理Fα,i
おける、入力データ信号X(例えば輝度信号)と、出力データ信号Xi+1の関係を示
すものである。
In other words, Expression 7 shows the relationship between the input data signal X i (for example, luminance signal) and the output data signal X i + 1 in the i-th image quality correction process F α, i divided into n areas. .

図7の例では、例えば、NRブレンド部26では、上記数式7において、i=0とした場
合の演算式により、入力データと出力データの関係が規定される。
In the example of FIG. 7, for example, in the NR blend unit 26, the relationship between the input data and the output data is defined by an arithmetic expression in the case where i = 0 in Expression 7 above.

また、図7の例では、コントラスト・ブレンド部13では、上記数式7において、i=1
とした場合の演算式により、入力データと出力データの関係が規定される。
In the example of FIG. 7, the contrast / blending unit 13 uses i = 1 in Equation 7 above.
The relation between the input data and the output data is defined by the arithmetic expression in the case of

以上説明した本発明の実施例2に係る映像処理装置の画像処理によれば、映像の各領域
に複数の画質補正を行う場合にも、補正効果の低下を抑え、より好適に画質補正すること
ができる。
According to the image processing of the video processing apparatus according to the second embodiment of the present invention described above, even when a plurality of image quality corrections are performed on each area of the video, the reduction in the correction effect is suppressed and the image quality correction is performed more suitably. Can do.

実施例1および2では、1フレームの映像に対して、複数の領域に分類して好適に画質補正できることを示した。しかしながら、例えば自然画では、エッジ、周波数成分、輝度等は、時間方向に揺らぐことが多いため、現在フレーム中のオブジェクトが次のフレームで同じ領域として分類されない場合がある。   In the first and second embodiments, it has been shown that one frame of video can be classified into a plurality of regions and image quality can be suitably corrected. However, for example, in a natural image, edges, frequency components, luminance, and the like often fluctuate in the time direction, so that an object in the current frame may not be classified as the same region in the next frame.

特に静止した映像領域では、このようにフレーム間で領域の分類が変わる映像領域に対し、前記領域毎の個別の画質補正を行うと、フレーム間で輝度差が生じる為、ちらつきとなって現れる。   In particular, in a still video region, when an individual image quality correction for each region is performed on a video region in which the region classification changes between frames as described above, a luminance difference occurs between the frames, and thus flickers appear.

実施例3では、実施例1を基に時間軸上で連続した複数のフレームの領域信号を使用し、フレーム間の揺らぎによるちらつきを抑える画質補正を行う。   In the third embodiment, based on the first embodiment, an area signal of a plurality of frames continuous on the time axis is used to perform image quality correction that suppresses flicker due to fluctuation between frames.

本発明の実施例3に係る映像処理装置の一例を、図8の構成図を用いて説明する。   An example of a video processing apparatus according to Embodiment 3 of the present invention will be described with reference to the configuration diagram of FIG.

実施例3に係る映像処理装置は、実施例1に係る映像処理装置のうち、入力信号処理部1、タイミング制御部15、LCDパネル16以外の構成を図8に示す構成に変更したものである。入力信号処理部1、タイミング制御部15、LCDパネル16の構成については実施例1に係る映像処理装置と同様であるため、図示及び説明を省略する。   The video processing apparatus according to the third embodiment is obtained by changing the configuration of the video processing apparatus according to the first embodiment other than the input signal processing unit 1, the timing control unit 15, and the LCD panel 16 to the configuration illustrated in FIG. . Since the configuration of the input signal processing unit 1, the timing control unit 15, and the LCD panel 16 is the same as that of the video processing apparatus according to the first embodiment, illustration and description thereof are omitted.

また、コントラストa補正部3、コントラストb補正部4、コントラストc補正部5の構成については実施例1に係る映像処理装置と同様であるため、説明を省略する。   The configurations of the contrast a correction unit 3, the contrast b correction unit 4, and the contrast c correction unit 5 are the same as those of the video processing apparatus according to the first embodiment, and thus description thereof is omitted.

実施例3に係る映像処理装置は、図8に示すように、上記の構成以外に領域分類部30、コントラスト・ブレンド部40などの構成を有する。   As shown in FIG. 8, the video processing apparatus according to the third embodiment has a configuration such as a region classification unit 30 and a contrast / blend unit 40 in addition to the above configuration.

領域分類部30は、映像信号2を入力信号として、映像の特徴量に基づき複数の分類領域(例えば、領域a、領域b、領域cの3つの分類領域)に分割し、領域aの面積比率31、領域bの面積比率32、領域cの面積比率33を出力する。また、過去2フレームの分類領域、即ち、1垂直同期分(以降、1vと呼ぶ)遅延した領域aの面積比率34、領域bの面積比率35、領域cの面積比率36、および、2垂直同期分(以降、2vと呼ぶ)遅延した領域aの面積比率37、領域bの面積比率38、領域cの面積比率39を出力する。ここでは、過去フレーム数を2フレームとして例を挙げたが、これに限定するものではない。領域分類部30の処理の詳細は後述する。   The area classification unit 30 uses the video signal 2 as an input signal and divides the video signal 2 into a plurality of classification areas (for example, three classification areas of area a, area b, and area c) based on the feature amount of the video, 31, the area ratio 32 of the region b, and the area ratio 33 of the region c are output. Also, the classification ratio of the past two frames, that is, the area ratio 34 of the area a delayed by one vertical synchronization (hereinafter referred to as 1v), the area ratio 35 of the area b, the area ratio 36 of the area c, and two vertical synchronizations The area ratio 37 of the area “a”, the area ratio 38 of the area “b”, and the area ratio 39 of the area “c” which are delayed by the minute (hereinafter referred to as 2v) are output. Here, an example is given in which the number of past frames is two frames, but the present invention is not limited to this. Details of the processing of the area classification unit 30 will be described later.

コントラスト・ブレンド部40は、現在フレームの領域aの面積比率31、領域bの面積比率32、領域cの面積比率33、1v遅延フレームの領域aの面積比率34、領域bの面積比率35、領域cの面積比率36、2v遅延フレームの領域aの面積比率37、領域bの面積比率38、領域cの面積比率39、および、現在フレームのコントラストa補正後の映像信号10、現在フレームのコントラストb補正後の映像信号11、現在フレームのコントラストc補正後の映像信号12を入力信号として、所定の演算処理を用いた加重平均により、コントラスト補正後の映像信号14を出力する。本実施例では、現フレームが補正対象の画素を含む補正対象フレームである。   The contrast blend unit 40 includes an area ratio 31 of the area a of the current frame, an area ratio 32 of the area b, an area ratio 33 of the area c, an area ratio 34 of the area a of the 1v delay frame, an area ratio 35 of the area b, an area area ratio 36 of c, area ratio 37 of area a of 2v delay frame, area ratio 38 of area b, area ratio 39 of area c, video signal 10 after correction of contrast a of current frame, contrast b of current frame Using the corrected video signal 11 and the video signal 12 after the contrast c correction of the current frame as input signals, the video signal 14 after the contrast correction is output by weighted averaging using a predetermined arithmetic process. In the present embodiment, the current frame is a correction target frame including pixels to be corrected.

ここで、所定の演算処理を用いた加重平均とは、対象画素の周辺の所定の範囲における各領域の面積比率およびフレーム毎の予め定めた固定比率を各領域のコントラスト補正された映像信号に乗じて加算するものである。詳細は後述する。   Here, the weighted average using the predetermined arithmetic processing is to multiply the video signal whose contrast is corrected in each region by the area ratio of each region in a predetermined range around the target pixel and a predetermined fixed ratio for each frame. To add. Details will be described later.

次に、領域分類部30について、図9、図10、図11、図12を用いて説明する。   Next, the region classification unit 30 will be described with reference to FIGS. 9, 10, 11, and 12.

図9は複数フレーム(3フレーム)に対応した領域分類部の構成を説明する図である。領域分類部は、領域検出部300、領域信号格納用フレームメモリ304、面積比算出部305、面積比算出部306、面積比算出部307によって構成される。   FIG. 9 is a diagram for explaining the configuration of an area classification unit corresponding to a plurality of frames (3 frames). The region classification unit includes a region detection unit 300, a region signal storage frame memory 304, an area ratio calculation unit 305, an area ratio calculation unit 306, and an area ratio calculation unit 307.

領域検出部300は、映像信号2を入力信号とし、特徴量による領域の検出をした後、現在フレームの領域信号301を出力する。   The region detection unit 300 receives the video signal 2 as an input signal, detects a region based on the feature amount, and then outputs a region signal 301 of the current frame.

図10は特徴量の一例として周波数による領域検出部の構成を説明する図である。周波数による検出部は、周波数変換部201および周波数判定部203を有する。また、領域得検出部305を輝度判定部101に代えると、特徴量として輝度値を用いた判定となる。   FIG. 10 is a diagram for explaining the configuration of a region detection unit based on frequency as an example of a feature amount. The frequency detection unit includes a frequency conversion unit 201 and a frequency determination unit 203. In addition, when the area acquisition detection unit 305 is replaced with the luminance determination unit 101, the determination is performed using the luminance value as the feature amount.

面積比算出部305は、現在フレームの領域信号301を入力とし、各領域の面積比率を計算した後、現在フレームの領域aの面積比率31、領域bの面積比率32、領域cの面積比率33を出力する。   The area ratio calculation unit 305 receives the area signal 301 of the current frame as an input, calculates the area ratio of each area, then, the area ratio 31 of the area a of the current frame, the area ratio 32 of the area b, and the area ratio 33 of the area c. Is output.

図11は面積比算出部の構成を説明する図である。現在フレームに対する面積比算出部は、面積比a算出部205、面積比b算出部206、面積比c算出部207を有する。尚、領域検出部300および現在フレームの面積比算出部305のみで構成される領域分類部は 図4bで構成される領域分類部と同じである。   FIG. 11 is a diagram illustrating the configuration of the area ratio calculation unit. The area ratio calculation unit for the current frame includes an area ratio a calculation unit 205, an area ratio b calculation unit 206, and an area ratio c calculation unit 207. Note that the region classification unit including only the region detection unit 300 and the current frame area ratio calculation unit 305 is the same as the region classification unit configured in FIG. 4B.

領域信号格納用フレームメモリ304は、2フレーム分の領域信号を格納するメモリで、現在フレームの領域信号301を書込み信号、1v遅延フレームの領域信号302、2v遅延フレームの領域信号303を読出し信号とする。   The area signal storage frame memory 304 is a memory for storing area signals for two frames. The area signal 301 for the current frame is a write signal, the area signal 302 for a 1v delay frame, and the area signal 303 for a 2v delay frame is a read signal. To do.

面積比算出部306は、1v遅延フレームの領域信号302を入力とし、各領域の面積比率を計算した後、1v遅延フレームの領域aの面積比率34、領域bの面積比率35、領域cの面積比率36を出力する。   The area ratio calculation unit 306 receives the region signal 302 of the 1v delay frame, calculates the area ratio of each region, and then calculates the area ratio 34 of the region a of the 1v delay frame, the area ratio 35 of the region b, and the area of the region c. The ratio 36 is output.

面積比算出部307は、2v遅延フレームの領域信号303を入力とし、各領域の面積比率を計算した後、2v遅延フレームの領域aの面積比率37、領域bの面積比率38、領域cの面積比率39を出力する。   The area ratio calculation unit 307 receives the area signal 303 of the 2v delay frame, calculates the area ratio of each area, and then calculates the area ratio 37 of the area a, the area ratio 38 of the area b, and the area c of the area c. The ratio 39 is output.

尚、面積比算出部306および面積比算出部307の構成は、面積比算出部305と同様である。   The configuration of the area ratio calculation unit 306 and the area ratio calculation unit 307 is the same as that of the area ratio calculation unit 305.

図12は、面積比率算出方法を説明する図である。時間軸は左から右に向かって進み、左が2v遅延フレーム、中央が1v遅延フレーム、右が現在フレームの3フレーム分の領域分類例となっている。特に右の領域分類例は図6bと同等である。   FIG. 12 is a diagram illustrating an area ratio calculation method. The time axis advances from the left to the right, and the left is a 2v delay frame, the center is a 1v delay frame, and the right is an example of region classification for 3 frames. In particular, the region classification example on the right is equivalent to FIG.

3フレーム分の面積比率算出対象領域内の全画素数をN個とし、kv遅延フレームの領域αに属する画素の数をNk,αとすると、全画素数は、 When the total number of pixels in the area ratio calculation target region for three frames is N, and the number of pixels belonging to the region α of the kv delay frame is N k, α , the total number of pixels is

Figure 2011166638
となる。この時、kv遅延フレームの領域αの面積比率は、Nk,α/Nとなる。
Figure 2011166638
It becomes. At this time, the area ratio of the region α of the kv delay frame is N k, α / N.

次にコントラスト・ブレンド部40は、領域分類部で算出した各領域の面積比にフレーム毎の重みとして定めた固定比率βを加えた加重平均およびコントラスト補正値Yαをもちいて、補正対象画素の補正輝度値Yを以下の数式9により算出する。 Next, the contrast blend unit 40 uses a weighted average obtained by adding a fixed ratio β k determined as a weight for each frame to the area ratio of each region calculated by the region classification unit, and a contrast correction value Y α, thereby correcting pixels to be corrected The corrected luminance value Y is calculated by the following formula 9.

Figure 2011166638
固定比率βは、例えば各フレームの等価平均の場合はβ:β:β=1:1:1、また、現在フレームに重みを置く場合はβ:β:β=2:1:1の様に設定するとよい。
Figure 2011166638
Fixed ratio beta k, for example in the case of equivalent average of each frame β 0: β 1: β 2 = 1: 1: 1, In the case of placing the weight to the current frame β 0: β 1: β 2 = 2 It is good to set like 1: 1.

以上により、複数フレームの領域の面積比率を加重平均して生成したコントラスト補正値を用いてコントラスト補正を行うため、フレーム間のちらつきを抑え、ぼやけの少ないより好適なコントラスト補正を行うことができる。   As described above, the contrast correction is performed using the contrast correction value generated by weighted average of the area ratios of the areas of the plurality of frames, so that flicker between frames can be suppressed and more suitable contrast correction with less blur can be performed.

なお、以上説明した実施例3では画質補正として、コントラスト補正を用いた例を説明したが、コントラスト補正の替わりにエンハンサやNRなどの他の画質補正を複数連続して用いてもよい。この場合は、複数フレームの領域の面積比率を加重平均して生成した画質補正値を用いて画質補正を行うため、フレーム間のちらつきを抑え、ぼやけの少ないより好適な画質補正を行うことができる。   In the third embodiment described above, an example in which contrast correction is used as the image quality correction has been described. However, a plurality of other image quality corrections such as an enhancer and NR may be used in succession instead of contrast correction. In this case, since the image quality correction is performed using the image quality correction value generated by weighted averaging the area ratios of the areas of the plurality of frames, it is possible to suppress flicker between frames and perform more preferable image quality correction with less blur. .

実施例3では、時間軸上で連続した複数フレームの領域の面積比率を加重平均することにより、ちらつきを抑える方法を示した。この方法は、例えば図2のような映像で木々が揺れるといった小さな動きの自然画では有効であるが、大きな動きの映像では領域信号が異なる分類の領域と平均化されて領域毎の画質補正に差がなくなる、即ち、画面一律の画質補正と変わらなくなる場合がある。   In the third embodiment, a method of suppressing flickering is shown by performing weighted averaging of the area ratios of regions of a plurality of continuous frames on the time axis. This method is effective for a small-motion natural image such as a tree swinging in an image as shown in FIG. 2, for example, but in a large-motion image, the area signal is averaged with different classification areas to correct image quality for each area. There is a case where the difference disappears, that is, the same image quality correction as the screen does not change.

そこで、動きのある映像領域では現フレームと前フレームの領域分類は異なるため、現フレームの領域の面積比率を用いて領域毎の画質補正を行い、静止した映像領域では、複数フレームの面積比率の加重平均をもちいることで、ちらつきを抑える。   Therefore, since the region classification of the current frame and the previous frame is different in a moving video region, image quality correction is performed for each region using the area ratio of the current frame region. Flickering is suppressed by using a weighted average.

実施例4では、実施例3を基に、動き補償型フレームレート変換器等で用いられる動きベクトル検出器を使用し、静止画像領域と動画像領域を検出し、画質補正を行う。   In the fourth embodiment, based on the third embodiment, a motion vector detector used in a motion compensated frame rate converter or the like is used to detect a still image region and a moving image region and perform image quality correction.

本発明の実施例4に係る映像処理装置の一例を、図13の構成図を用いて説明する。   An example of a video processing apparatus according to Embodiment 4 of the present invention will be described with reference to the configuration diagram of FIG.

実施例4に係る映像処理装置は、実施例1に係る映像処理装置のうち、入力信号処理部1、タイミング制御部15、LCDパネル16以外の構成を図13に示す構成に変更したものである。入力信号処理部1、タイミング制御部15、LCDパネル16の構成については実施例1に係る映像処理装置と同様であるため、図示及び説明を省略する。   The video processing apparatus according to the fourth embodiment is obtained by changing the configuration of the video processing apparatus according to the first embodiment other than the input signal processing unit 1, the timing control unit 15, and the LCD panel 16 to the configuration illustrated in FIG. . Since the configuration of the input signal processing unit 1, the timing control unit 15, and the LCD panel 16 is the same as that of the video processing apparatus according to the first embodiment, illustration and description thereof are omitted.

また、コントラストa補正部3、コントラストb補正部4、コントラストc補正部5の構成については実施例1に係る映像処理装置と同様であるため、説明を省略する。   The configurations of the contrast a correction unit 3, the contrast b correction unit 4, and the contrast c correction unit 5 are the same as those of the video processing apparatus according to the first embodiment, and thus description thereof is omitted.

実施例4に係る映像処理装置は、図13に示すように、上記の構成以外に領域分類部50、コントラスト・ブレンド部51、映像信号格納用フレームメモリ52、動きベクトル検出部54などの構成を有する。   As shown in FIG. 13, the video processing apparatus according to the fourth embodiment has a configuration of an area classification unit 50, a contrast / blend unit 51, a video signal storage frame memory 52, a motion vector detection unit 54, and the like in addition to the above configuration. Have.

映像信号格納用フレームメモリ52は、1フレーム分の映像信号を格納するメモリで、映像信号2を書込み信号、1v遅延フレームの映像信号53を読出し信号とする。   The video signal storage frame memory 52 is a memory for storing a video signal for one frame. The video signal 2 is a write signal, and the video signal 53 of a 1v delay frame is a read signal.

動きベクトル検出部54は、現在フレーム映像信号2と、1v遅延フレームの映像信号53を入力信号として、2フレーム差分から動きベクトル検出し、ベクトル信号55を出力する。   The motion vector detection unit 54 detects a motion vector from the difference between the two frames using the current frame video signal 2 and the video signal 53 of the 1v delay frame as input signals, and outputs a vector signal 55.

図14は動きベクトル検出方法の一例として3×3画素のブロックマッチング法によるベクトル検出方法を説明する図である。   FIG. 14 is a diagram illustrating a vector detection method based on a 3 × 3 pixel block matching method as an example of a motion vector detection method.

本実施例では、1v遅延フレームが補正対象の画素を含む補正対象フレームである。 動きベクトルの検出は、1v遅延フレームに於ける補正対象の画素を中心とした3×3画素ブロックが、現在フレームに於ける補正対象の画素と同位置を中心とする、例えば21×21画素の検索範囲中のブロックに一致した場合に、一致ブロックの中心となる一致画素との相対位置が動きベクトルとして検出される。   In this embodiment, the 1v delay frame is a correction target frame including a correction target pixel. The detection of the motion vector is such that the 3 × 3 pixel block centered on the pixel to be corrected in the 1v delay frame is centered on the same position as the pixel to be corrected in the current frame, for example, 21 × 21 pixels. When matching with a block in the search range, the relative position with the matching pixel that is the center of the matching block is detected as a motion vector.

尚、ブロックの一致は、検索範囲で互いのブロックの輝度差分絶対値が最小となるか否かで決まる。また、補正対象の画素位置にある動きベクトル信号によって、動画像領域にあるか静止画像領域にあるかを決める。   Note that the block match is determined by whether or not the absolute value of the luminance difference between the blocks is minimized within the search range. In addition, the motion vector signal at the pixel position to be corrected determines whether it is in the moving image region or the still image region.

また、領域分類部50は、領域検出部300、領域検出部308、面積比算出部305、面積比算出部306によって構成される。   The region classification unit 50 includes a region detection unit 300, a region detection unit 308, an area ratio calculation unit 305, and an area ratio calculation unit 306.

面積比算出部305は、現在フレームの領域信号301を入力とし、各領域の面積比率を計算した後、現在フレームの領域aの面積比率31、領域bの面積比率32、領域cの面積比率33を出力する。   The area ratio calculation unit 305 receives the area signal 301 of the current frame as an input, calculates the area ratio of each area, then, the area ratio 31 of the area a of the current frame, the area ratio 32 of the area b, and the area ratio 33 of the area c. Is output.

面積比算出部306は、1v遅延フレームの領域信号309を入力とし、各領域の面積比率を計算した後、1v遅延フレームの領域aの面積比率34、領域bの面積比率35、領域cの面積比率36を出力する。   The area ratio calculation unit 306 receives the 1v delay frame region signal 309, calculates the area ratio of each region, and then calculates the area ratio 34 of the region a of the 1v delay frame, the area ratio 35 of the region b, and the area c of the region c. The ratio 36 is output.

上述のベクトル信号55はこの面積比率と同期した信号である。   The vector signal 55 described above is a signal synchronized with this area ratio.

コントラスト・ブレンド部51には、ベクトル信号55、現在フレームの領域aの面積比率31、領域bの面積比率32、領域cの面積比率33、1v遅延フレームの領域aの面積比率34、および、コントラストa補正後の映像信号10、コントラストb補正後の映像信号11、コントラストc補正後の映像信号12が入力される。   The contrast blend unit 51 includes a vector signal 55, an area ratio 31 of the area a of the current frame, an area ratio 32 of the area b, an area ratio 33 of the area c, an area ratio 34 of the area a of the 1v delay frame, and a contrast. The video signal 10 after a correction, the video signal 11 after contrast b correction, and the video signal 12 after contrast c correction are input.

ここで、コントラスト・ブレンド部51は、ベクトル信号55により得られるベクトルの大きさの絶対値が予め定められた閾値または外部より設定される閾値よりも小さい場合は、実施例3と同様にして、現在および1v遅延フレームの2フレームの重み及び面積比率による加重平均にてコントラスト補正を出力する。   Here, when the absolute value of the magnitude of the vector obtained from the vector signal 55 is smaller than a predetermined threshold value or a threshold value set from the outside, the contrast blending unit 51 performs the same as in the third embodiment. Contrast correction is output with a weighted average based on the weight and area ratio of the current and 1v delay frames.

また、コントラスト・ブレンド部51は、ベクトル信号55により得られるベクトルの大きさの絶対値が上記閾値以上の場合は、1v遅延フレームのみの面積比率による加重平均にてコントラスト補正を行った後、映像信号14を出力する。   In addition, when the absolute value of the magnitude of the vector obtained from the vector signal 55 is equal to or greater than the threshold value, the contrast / blending unit 51 performs the contrast correction by the weighted average based on the area ratio of only the 1v delay frame, and then the video. The signal 14 is output.

領域分類部50は、現在フレームの映像信号2と1v遅延フレームの映像信号53を入力信号として、映像の特徴量に基づき、現在フレームの領域aの面積比率31、領域bの面積比率32、領域cの面積比率33、1v遅延フレームの領域aの面積比率34、領域bの面積比率35、領域cの面積比率36を出力する。   The area classification unit 50 receives the video signal 2 of the current frame and the video signal 53 of the 1v delay frame as input signals, and based on the video feature quantity, the area ratio 31 of the area a, the area ratio 32 of the area b, The area ratio 33 of c, the area ratio 34 of the area a of the 1v delay frame, the area ratio 35 of the area b, and the area ratio 36 of the area c are output.

以上の説明では、フレームメモリに格納する遅延フレーム数を1フレームとして例を挙げたが、これに限定するものではない。ただし、格納するフレーム数を増やす場合、ベクトル格納メモリを設けて、動画領域か静止画像領域格納する領域信号に対応したベクトル信号をベクトル格納メモリに保持することが望ましい。   In the above description, the number of delay frames stored in the frame memory is exemplified as one frame, but the present invention is not limited to this. However, when increasing the number of frames to be stored, it is desirable to provide a vector storage memory and hold a vector signal corresponding to an area signal for storing a moving image area or a still image area in the vector storage memory.

以上説明した本発明の実施例4に係る映像処理装置の画像処理によれば、大きな動きの映像に於いても、ちらつきや補正効果の低下を抑え、より好適にコントラスト補正することができる。   According to the image processing of the video processing apparatus according to the fourth embodiment of the present invention described above, even in a video with a large movement, flicker and a reduction in correction effect can be suppressed, and contrast correction can be performed more suitably.

なお、以上説明した実施例4では画質補正として、コントラスト補正を用いた例を説明したが、コントラスト補正の替わりにエンハンサやNRなどの他の画質補正を用いてもよい。この場合は、大きな動きの映像に於いても、ちらつきや補正効果の低下を抑え、より好適に画質補正を行うことができる。   In the fourth embodiment described above, the example using the contrast correction as the image quality correction has been described. However, other image quality correction such as an enhancer or NR may be used instead of the contrast correction. In this case, even in a video with a large motion, it is possible to suppress flickering and a decrease in the correction effect and perform image quality correction more suitably.

また、以上説明した実施例4では、動きベクトル検出技術としてブロックマッチング法(図14)を用いて1v遅延フレームが補正対象フレームとなる場合を説明したが、実施例4は、動きベクトル検出技術および動きベクトル検出技術における補正対象フレームと前後のフレームの関係について図14の構成に限定されるものではない。実施例4の動きベクトルの検出においては、補正対象画素の動きと該画素の動きベクトルが求められればよく、上述した動きベクトル検出器以外の映像処理も、補正対象画素出力と位相が合えばよい。例えば図14において、図14の現フレームを1v遅延フレームとし、図14の1v遅延フレームを現フレームと置き換えてもよく、また、動きベクトル検出技術が位相限定相関法や勾配法、また例えば特開2006-165602号に開示されるようなフレーム数複数を使用する検出技術であってもよい。   In the fourth embodiment described above, the case where the 1v delay frame is the correction target frame using the block matching method (FIG. 14) as the motion vector detection technique has been described. The relationship between the correction target frame and the preceding and following frames in the motion vector detection technique is not limited to the configuration shown in FIG. In the detection of the motion vector of the fourth embodiment, it is only necessary to obtain the motion of the correction target pixel and the motion vector of the pixel, and video processing other than the motion vector detector described above may be in phase with the correction target pixel output. . For example, in FIG. 14, the current frame in FIG. 14 may be replaced with a 1v delay frame, and the 1v delay frame in FIG. 14 may be replaced with the current frame. It may be a detection technique using a plurality of frames as disclosed in 2006-165602.

1 入力信号処理部
2 映像信号
3 コントラストa補正部
4 コントラストb補正部
5 コントラストc補正部
6 領域分類部
7 領域aの面積比率
8 領域bの面積比率
9 領域cの面積比率
10 コントラストa補正後の映像信号
11 コントラストb補正後の映像信号
12 コントラストc補正後の映像信号
13 コントラスト・ブレンド部
14 コントラスト補正後の映像信号
15 タイミング制御部
16 LCDパネル
20 NRa処理部
21 NRb処理部
22 NRc処理部
23 ノイズ低減a処理後の映像信号
24 ノイズ低減b処理後の映像信号
25 ノイズ低減c処理後の映像信号
26 NRブレンド部
27 ノイズ低減処理後の映像信号
30 複数フレーム(3フレーム)に対応した領域分類部
31 現在フレームの領域aの面積比率
32 現在フレームの領域bの面積比率
33 現在フレームの領域cの面積比率
34 1v遅延フレームの領域aの面積比率
35 1v遅延フレームの領域bの面積比率
36 1v遅延フレームの領域cの面積比率
37 2v遅延フレームの領域aの面積比率
38 2v遅延フレームの領域bの面積比率
39 2v遅延フレームの領域cの面積比率
40 複数フレーム(3フレーム)に対応したコントラスト・ブレンド部
50 複数フレーム(2フレーム)に対応した領域分類部
51 動きベクトル検出を用いたコントラスト・ブレンド部
52 映像信号格納用フレームメモリ
53 1v遅延フレームの映像信号
54 動きベクトル検出部
55 ベクトル信号
101 輝度判定部
102 領域信号
103 面積比a算出部
104 面積比b算出部
105 面積比c算出部
201 周波数変換部
202 周波数成分
203 周波数判定部
204 領域信号
205 面積比a算出部
206 面積比b算出部
207 面積比c算出部
300 領域検出部
301 現在フレームの領域信号
302 1v遅延フレームの領域信号
303 2v遅延フレームの領域信号
304 領域信号格納用フレームメモリ
305 現在フレームの面積比算出部
306 1v遅延フレームの面積比算出部
307 2v遅延フレームの面積比算出部
308 1v遅延フレームの領域検出部
309 1v遅延フレームの領域信号
DESCRIPTION OF SYMBOLS 1 Input signal processing part 2 Video signal 3 Contrast a correction part 4 Contrast b correction part 5 Contrast c correction part 6 Area classification | category part 7 Area ratio 8 of area a Area ratio 9 of area b Area ratio 10 of area c After contrast a correction Video signal 11 after contrast b correction video signal 12 after contrast c correction 13 contrast / blend unit 14 video signal 15 after contrast correction timing control unit 16 LCD panel 20 NRa processing unit 21 NRb processing unit 22 NRc processing unit 23 Video signal 24 after noise reduction a process 24 Video signal after noise reduction b process Video signal 26 after noise reduction c process NR blend unit 27 Video signal 30 after noise reduction process Area corresponding to multiple frames (3 frames) Classification unit 31 Current frame area a area ratio 32 Current frame Area ratio 33 of the area b Area ratio 34 of the area c of the current frame Area ratio 35 of the area 1a of the 1v delay frame Area ratio 36 of the area b of the 1v delay frame 36 Area ratio of the area c of the 1v delay frame 37 Area of the 2v delay frame Area ratio of a 38 Area ratio of area 2b of 2v delay frame 39 Area ratio of area c of 2v delay frame 40 Contrast / blend unit 50 corresponding to multiple frames (3 frames) Area classification corresponding to multiple frames (2 frames) Unit 51 Contrast / Blend Unit 52 Using Motion Vector Detection 52 Video Signal Storage Frame Memory 53 1v Delay Frame Video Signal 54 Motion Vector Detection Unit 55 Vector Signal 101 Luminance Judgment Unit 102 Area Signal 103 Area Ratio a Calculation Unit 104 Area Ratio b calculation unit 105 area ratio c calculation unit 201 frequency conversion unit 202 Frequency component 203 Frequency determination unit 204 Area signal 205 Area ratio a calculation unit 206 Area ratio b calculation unit 207 Area ratio c calculation unit 300 Region detection unit 301 Region signal 302 of current frame Region signal 303 of 1v delay frame 2v of delay frame Area signal 304 Frame signal storage frame memory 305 Current frame area ratio calculation unit 306 1v delay frame area ratio calculation unit 307 2v delay frame area ratio calculation unit 308 1v delay frame area detection unit 309 1v delay frame area signal

Claims (20)

入力信号が入力される入力信号処理部と、
前記入力信号処理部に入力される入力信号に含まれる入力映像を、映像の特徴量に応じて複数の分類領域に分類し、補正対象画素の周辺の所定の範囲内における前記複数の分類領域の面積比率を算出する領域分類部と、
前記入力映像の前記補正対象画素の画素値に前記領域分類部が分類する分類領域ごとに異なるレベルの複数の画像補正を行うことにより算出した複数の補正画素値に対して、対応する分類領域についての前記面積比率をそれぞれ乗じて加算することにより、前記補正対象画素の画素についての新たな画素値を算出する映像補正部とを備えることを特徴とする映像処理装置。
An input signal processing unit to which an input signal is input;
The input video included in the input signal input to the input signal processing unit is classified into a plurality of classification regions according to the feature amount of the video, and the plurality of classification regions within a predetermined range around the correction target pixel. An area classification unit for calculating an area ratio;
A classification region corresponding to a plurality of correction pixel values calculated by performing a plurality of image corrections at different levels for each classification region classified by the region classification unit to the pixel value of the correction target pixel of the input video. And a video correction unit that calculates a new pixel value for the pixel of the correction target pixel by multiplying and adding each of the area ratios.
前記領域分類部が領域の分類処理で用いる映像の特徴量は、映像信号の輝度または周波数特性であることを特徴とする請求項1に記載の映像処理装置。   The video processing apparatus according to claim 1, wherein the feature amount of the video used in the region classification processing by the region classification unit is luminance or frequency characteristics of a video signal. 前記映像補正部における、前記異なるレベルの複数の画像補正は、異なるレベルのコントラスト補正であることを特徴とする請求項2に記載の映像処理装置。   The video processing apparatus according to claim 2, wherein the plurality of image corrections at different levels in the video correction unit are different levels of contrast correction. 入力信号が入力される入力信号処理部と、
前記入力信号処理部に入力される入力信号に含まれる入力映像を、映像の特徴量に応じて複数の分類領域に分類し、補正対象画素の周辺の所定の範囲内における前記複数の分類領域の面積比率を算出する領域分類部と、
前記入力映像の前記補正対象画素の画素値に前記領域分類部が分類する分類領域ごとに異なるレベルの複数の画像補正を行うことにより算出した複数の補正画素値に対して、対応する分類領域についての前記面積比率をそれぞれ乗じて加算することにより、第1の画素値を算出する第1の映像補正部と、
前記第1の映像補正部が算出した第1の画素値に、前記領域分類部が分類する分類領域ごとに異なるレベルの複数の画像補正であって、前記第1の映像補正部において行われる複数の画像補正とは異なる種類である複数の画像補正を行うことにより算出した複数の補正画素値に対して、対応する分類領域についての前記面積比率をそれぞれ乗じて加算することにより、前記補正対象画素の画素についての新たな画素値となる第2の画素値を算出する第2の映像補正部と
を備えることを特徴とする映像処理装置。
An input signal processing unit to which an input signal is input;
The input video included in the input signal input to the input signal processing unit is classified into a plurality of classification regions according to the feature amount of the video, and the plurality of classification regions within a predetermined range around the correction target pixel. An area classification unit for calculating an area ratio;
A classification region corresponding to a plurality of correction pixel values calculated by performing a plurality of image corrections at different levels for each classification region classified by the region classification unit to the pixel value of the correction target pixel of the input video. A first image correction unit that calculates a first pixel value by multiplying and adding each of the area ratios;
A plurality of image corrections at different levels for each of the classification regions classified by the region classification unit to the first pixel value calculated by the first video correction unit, the plurality of image corrections performed in the first video correction unit The correction target pixel is obtained by multiplying the plurality of correction pixel values calculated by performing a plurality of image corrections that are different from the image correction of the above by multiplying the corresponding area ratio by the respective area ratios. And a second video correction unit that calculates a second pixel value that is a new pixel value for the pixel.
前記領域分類部が領域の分類処理で用いる映像の特徴量は、映像信号の輝度または周波数特性であることを特徴とする請求項4に記載の映像処理装置。   The video processing apparatus according to claim 4, wherein the feature amount of the video used in the region classification processing by the region classification unit is luminance or frequency characteristics of a video signal. 前記第1の映像補正部における前記異なるレベルの複数の画像補正は、異なるレベルのノイズ低減処理であり、
前記第2の映像補正部における前記異なるレベルの複数の画像補正は、異なるレベルのコントラスト補正であることを特徴とする請求項5に記載の映像処理装置。
The plurality of different levels of image correction in the first video correction unit are different levels of noise reduction processing,
The video processing apparatus according to claim 5, wherein the plurality of image corrections at different levels in the second video correction unit are different levels of contrast correction.
入力信号が入力される入力信号処理部と、
前記入力信号処理部に入力される入力信号に含まれる入力映像を、映像の特徴量に応じて複数の分類領域に分類し、補正対象画素の周辺の所定の範囲内における前記複数の分類領域の面積比率を算出する領域分類部と、
前記入力映像の前記補正対象画素の画素値に前記領域分類部が分類する分類領域ごとに異なるレベルの複数の画像補正を行うにより算出した複数の補正画素値に対して、対応する分類領域についての前記面積比率をそれぞれ乗じて加算することにより、前記補正対象画素の画素についての新たな画素値を算出する映像補正部と、
前記映像補正部が算出した新たな画素値を含む映像を表示する映像表示部と
を備えることを特徴とする映像表示装置。
An input signal processing unit to which an input signal is input;
The input video included in the input signal input to the input signal processing unit is classified into a plurality of classification regions according to the feature amount of the video, and the plurality of classification regions within a predetermined range around the correction target pixel. An area classification unit for calculating an area ratio;
For a plurality of correction pixel values calculated by performing a plurality of image corrections at different levels for each classification region classified by the region classification unit to the pixel value of the correction target pixel of the input video, A video correction unit that calculates a new pixel value for the pixel of the correction target pixel by multiplying and adding each of the area ratios, and
An image display device comprising: an image display unit that displays an image including a new pixel value calculated by the image correction unit.
前記領域分類部が領域の分類処理で用いる映像の特徴量は、映像信号の輝度または周波数特性であることを特徴とする請求項7に記載の映像表示装置。   The video display device according to claim 7, wherein the feature amount of the video used in the region classification processing by the region classification unit is a luminance or frequency characteristic of a video signal. 前記映像補正部における、前記異なるレベルの複数の画像補正は、異なるレベルのコントラスト補正であることを特徴とする請求項8に記載の映像表示装置。   9. The video display apparatus according to claim 8, wherein the plurality of image corrections at different levels in the video correction unit are different levels of contrast correction. 入力信号が入力される入力信号処理部と、
前記入力信号処理部に入力される入力信号に含まれる入力映像を、映像の特徴量に応じて複数の分類領域に分類し、補正対象画素の周辺の所定の範囲内における前記複数の分類領域の面積比率を算出する領域分類部と、
前記入力映像の前記補正対象画素の画素値に前記領域分類部が分類する分類領域ごとに異なるレベルの複数の画像補正を行うことにより算出した複数の補正画素値に対して、対応する分類領域についての前記面積比率をそれぞれ乗じて加算することにより、第1の画素値を算出する第1の映像補正部と、
前記第1の映像補正部が算出した第1の画素値に、前記領域分類部が分類する分類領域ごとに異なるレベルの複数の画像補正であって、前記第1の映像補正部において行われる複数の画像補正とは異なる種類である複数の画像補正を行うことにより算出した複数の補正画素値に対して、対応する分類領域についての前記面積比率をそれぞれ乗じて加算することにより、前記補正対象画素の画素についての新たな画素値となる第2の画素値を算出する第2の映像補正部と、
前記第2の映像補正部が算出した第2の画素値を含む映像を表示する映像表示部と
を備えることを特徴とする映像表示装置。
An input signal processing unit to which an input signal is input;
The input video included in the input signal input to the input signal processing unit is classified into a plurality of classification regions according to the feature amount of the video, and the plurality of classification regions within a predetermined range around the correction target pixel. An area classification unit for calculating an area ratio;
A classification region corresponding to a plurality of correction pixel values calculated by performing a plurality of image corrections at different levels for each classification region classified by the region classification unit to the pixel value of the correction target pixel of the input video. A first image correction unit that calculates a first pixel value by multiplying and adding each of the area ratios;
A plurality of image corrections at different levels for each of the classification regions classified by the region classification unit to the first pixel value calculated by the first video correction unit, the plurality of image corrections performed in the first video correction unit The correction target pixel is obtained by multiplying the plurality of correction pixel values calculated by performing a plurality of image corrections that are different from the image correction of the above by multiplying the corresponding area ratio by the respective area ratios. A second video correction unit that calculates a second pixel value to be a new pixel value for the pixel of
An image display device comprising: an image display unit that displays an image including the second pixel value calculated by the second image correction unit.
前記領域分類部が領域の分類処理で用いる映像の特徴量は、映像信号の輝度または周波数特性であることを特徴とする請求項10に記載の映像表示装置。   The video display device according to claim 10, wherein the feature amount of the video used in the region classification processing by the region classification unit is a luminance or frequency characteristic of a video signal. 前記第1の映像補正部における前記異なるレベルの複数の画像補正は、異なるレベルのノイズ低減処理であり、
前記第2の映像補正部における前記異なるレベルの複数の画像補正は、異なるレベルのコントラスト補正であることを特徴とする請求項11に記載の映像表示装置。
The plurality of different levels of image correction in the first video correction unit are different levels of noise reduction processing,
12. The video display apparatus according to claim 11, wherein the plurality of image corrections at different levels in the second video correction unit are different levels of contrast correction.
複数のフレームが含まれる入力映像が入力される入力部と、
前記入力部に入力される入力映像の複数のフレームのそれぞれについて、映像の特徴量に応じた複数の分類領域へ分類処理および、補正対象画素の周辺の所定の範囲内における前記複数の分類領域の面積比率を算出する面積比率算出処理を行うことにより、前記複数のフレームの各フレーム毎に各領域毎の面積比率を算出する領域分類部と、
前記入力映像の補正対象フレームの前記補正対象画素の画素値に前記領域分類部が分類する分類領域ごとに異なるレベルの複数の画像補正を行って複数の補正画素値を生成し、前記補正対象画素についての該複数の補正画素値に対して、前記複数のフレームにおける各領域毎の面積比率と、前記複数のフレームの重み付け係数とを用いた加重平均を行うことにより、前記補正対象画素の画素についての新たな画素値を算出する映像補正部と
を備えることを特徴とする映像処理装置。
An input unit for inputting an input video including a plurality of frames;
For each of the plurality of frames of the input video input to the input unit, classification processing into a plurality of classification regions according to the feature amount of the video, and the plurality of classification regions within a predetermined range around the correction target pixel A region classification unit that calculates an area ratio for each region for each frame of the plurality of frames by performing an area ratio calculation process for calculating an area ratio;
A plurality of corrected pixel values are generated by performing a plurality of image corrections at different levels for each classification region classified by the region classification unit on the pixel value of the correction target pixel of the correction target frame of the input video, and the correction target pixel By performing a weighted average using the area ratio for each region in the plurality of frames and the weighting coefficient of the plurality of frames, the pixel of the correction target pixel And a video correction unit that calculates a new pixel value.
前記映像補正部における、前記異なるレベルの複数の画像補正は、異なるレベルのコントラスト補正であることを特徴とする請求項13に記載の映像処理装置。   The video processing apparatus according to claim 13, wherein the plurality of image corrections at different levels in the video correction unit are contrast corrections at different levels. 複数のフレームが含まれる入力映像が入力される入力部と、
前記入力部に入力される入力映像の複数のフレームのそれぞれについて、映像の特徴量に応じた複数の分類領域へ分類処理および、補正対象画素の周辺の所定の範囲内における前記複数の分類領域の面積比率を算出する面積比率算出処理を行うことにより、前記複数のフレームの各フレーム毎に各領域毎の面積比率を算出する領域分類部と、
前記入力映像の補正対象フレームの前記補正対象画素の画素値に前記領域分類部が分類する分類領域ごとに異なるレベルの複数の画像補正を行って複数の補正画素値を生成し、前記補正対象画素値についての該複数の補正画素値について、前記複数のフレームにおける各領域毎の面積比率と、前記複数のフレームの重み付け係数とを用いた加重平均を行うことにより、前記補正対象画素の画素についての新たな画素値を算出する映像補正部と、
前記映像補正部が算出した新たな画素値を含む映像を表示する映像表示部と
を備えることを特徴とする映像表示装置。
An input unit for inputting an input video including a plurality of frames;
For each of the plurality of frames of the input video input to the input unit, classification processing into a plurality of classification regions according to the feature amount of the video, and the plurality of classification regions within a predetermined range around the correction target pixel A region classification unit that calculates an area ratio for each region for each frame of the plurality of frames by performing an area ratio calculation process for calculating an area ratio;
A plurality of corrected pixel values are generated by performing a plurality of image corrections at different levels for each classification region classified by the region classification unit on the pixel value of the correction target pixel of the correction target frame of the input video, and the correction target pixel By performing a weighted average using the area ratio for each region in the plurality of frames and the weighting coefficient of the plurality of frames for the plurality of correction pixel values for the value, A video correction unit for calculating a new pixel value;
An image display device comprising: an image display unit that displays an image including a new pixel value calculated by the image correction unit.
前記領域分類部が領域の分類処理で用いる映像の特徴量は、映像信号の輝度または周波数特性であることを特徴とする請求項15に記載の映像表示装置。   16. The video display device according to claim 15, wherein the video feature amount used by the region classification unit in the region classification process is a luminance or frequency characteristic of a video signal. 複数のフレームが含まれる入力映像が入力される入力部と、
前記入力部に入力される入力映像の複数のフレームのそれぞれについて、映像の特徴量に応じた複数の分類領域へ分類処理および、補正対象画素の周辺の所定の範囲内における前記複数の分類領域の面積比率を算出する面積比率算出処理を行うことにより、前記複数のフレームの各フレーム毎に各領域毎の面積比率を算出する領域分類部と、
前記複数のフレーム間の動きベクトルを算出する動きベクトル検出部と、
前記入力映像の補正対象フレームの前記補正対象画素の画素値に前記領域分類部が分類する分類領域ごとに異なるレベルの複数の画像補正を行って複数の補正画素値を生成し、前記動きベクトル検出部が検出した動きベクトルに応じて、前記複数の補正画素値に対する処理を切り替えることにより、前記補正対象画素の画素についての新たな画素値を算出する映像補正部とを備え、
前記映像補正部は、前記補正対象画素についての該複数の補正画素値に対して、前記複数のフレームにおける各領域毎の面積比率と、前記複数のフレームの重み付け係数とを用いた加重平均を行うことにより前記補正対象画素の画素についての新たな画素値を算出する第1の画素値算出処理と、前記補正対象画素についての該複数の補正画素値に対して、前記複数のフレームのうちの1つのフレームのみにおける各領域毎の面積比率を用いた加重平均を行うことにより前記補正対象画素の画素についての新たな画素値を算出する第2の画素値算出処理とを、前記動きベクトル検出部が検出した動きベクトルに応じて切り替えることを特徴とする映像処理装置。
An input unit for inputting an input video including a plurality of frames;
For each of the plurality of frames of the input video input to the input unit, classification processing into a plurality of classification regions according to the feature amount of the video, and the plurality of classification regions within a predetermined range around the correction target pixel A region classification unit that calculates an area ratio for each region for each frame of the plurality of frames by performing an area ratio calculation process for calculating an area ratio;
A motion vector detector for calculating a motion vector between the plurality of frames;
The motion vector detection is performed by generating a plurality of corrected pixel values by performing a plurality of image corrections at different levels for each classification region classified by the region classification unit on the pixel value of the correction target pixel of the correction target frame of the input video. A video correction unit that calculates a new pixel value for a pixel of the correction target pixel by switching processing for the plurality of correction pixel values according to a motion vector detected by the unit,
The video correction unit performs a weighted average using an area ratio of each region in the plurality of frames and a weighting coefficient of the plurality of frames for the plurality of correction pixel values for the correction target pixel. Accordingly, a first pixel value calculation process for calculating a new pixel value for the pixel of the correction target pixel, and one of the plurality of frames for the plurality of correction pixel values for the correction target pixel. The motion vector detection unit performs a second pixel value calculation process for calculating a new pixel value for the pixel of the correction target pixel by performing a weighted average using an area ratio for each region in only one frame. A video processing apparatus characterized by switching according to a detected motion vector.
前記映像補正部は、前記動きベクトル検出が検出する動きベクトルの大きさが所定の閾値よりも小さい場合には前記第1の画素値算出処理を行い、前記動きベクトル検出が検出する動きベクトルの大きさが所定の閾値以上の場合には前記第2の画素値算出処理を行うことを特徴とする請求項17に記載の映像処理装置。   The video correction unit performs the first pixel value calculation process when the magnitude of the motion vector detected by the motion vector detection is smaller than a predetermined threshold, and the magnitude of the motion vector detected by the motion vector detection The video processing apparatus according to claim 17, wherein the second pixel value calculation process is performed when the threshold value is equal to or greater than a predetermined threshold value. 複数のフレームが含まれる入力映像が入力される入力部と、
前記入力部に入力される入力映像の複数のフレームのそれぞれについて、映像の特徴量に応じた複数の分類領域へ分類処理および、補正対象画素の周辺の所定の範囲内における前記複数の分類領域の面積比率を算出する面積比率算出処理を行うことにより、前記複数のフレームの各フレーム毎に各領域毎の面積比率を算出する領域分類部と、
前記複数のフレーム間の動きベクトルを算出する動きベクトル検出部と、
前記入力映像の補正対象フレームの前記補正対象画素の画素値に前記領域分類部が分類する分類領域ごとに異なるレベルの複数の画像補正を行って複数の補正画素値を生成し、前記動きベクトル検出部が検出した動きベクトルに応じて、前記複数の補正画素値に対する処理を切り替えることにより、前記補正対象画素の画素についての新たな画素値を算出する映像補正部と、
前記映像補正部が算出した新たな画素値を含む映像を表示する映像表示部とを備え、
前記映像補正部は、前記補正対象画素についての該複数の補正画素値に対して、前記複数のフレームにおける各領域毎の面積比率と、前記複数のフレームの重み付け係数とを用いた加重平均を行うことにより前記補正対象画素の画素についての新たな画素値を算出する第1の画素値算出処理と、前記補正対象画素についての該複数の補正画素値に対して、前記複数のフレームのうちの1つのフレームのみにおける各領域毎の面積比率を用いた加重平均を行うことにより前記補正対象画素の画素についての新たな画素値を算出する第2の画素値算出処理とを、前記動きベクトル検出部が検出した動きベクトルに応じて切り替えることを特徴とする映像表示装置。
An input unit for inputting an input video including a plurality of frames;
For each of the plurality of frames of the input video input to the input unit, classification processing into a plurality of classification regions according to the feature amount of the video, and the plurality of classification regions within a predetermined range around the correction target pixel A region classification unit that calculates an area ratio for each region for each frame of the plurality of frames by performing an area ratio calculation process for calculating an area ratio;
A motion vector detector for calculating a motion vector between the plurality of frames;
The motion vector detection is performed by generating a plurality of corrected pixel values by performing a plurality of image corrections at different levels for each classification region classified by the region classification unit on the pixel value of the correction target pixel of the correction target frame of the input video. A video correction unit that calculates a new pixel value for the pixel of the correction target pixel by switching processing for the plurality of correction pixel values according to a motion vector detected by the unit;
A video display unit for displaying a video including a new pixel value calculated by the video correction unit,
The video correction unit performs a weighted average using an area ratio of each region in the plurality of frames and a weighting coefficient of the plurality of frames for the plurality of correction pixel values for the correction target pixel. Accordingly, a first pixel value calculation process for calculating a new pixel value for the pixel of the correction target pixel, and one of the plurality of frames for the plurality of correction pixel values for the correction target pixel. The motion vector detection unit performs a second pixel value calculation process for calculating a new pixel value for the pixel of the correction target pixel by performing a weighted average using an area ratio for each region in only one frame. A video display device characterized by switching according to a detected motion vector.
前記映像補正部は、前記動きベクトル検出が検出する動きベクトルの大きさが所定の閾値よりも小さい場合には前記第1の画素値算出処理を行い、前記動きベクトル検出が検出する動きベクトルの大きさが所定の閾値以上の場合には前記第2の画素値算出処理を行うことを特徴とする請求項19に記載の映像表示装置。     The video correction unit performs the first pixel value calculation process when the magnitude of the motion vector detected by the motion vector detection is smaller than a predetermined threshold, and the magnitude of the motion vector detected by the motion vector detection The video display device according to claim 19, wherein the second pixel value calculation process is performed when the threshold value is equal to or greater than a predetermined threshold value.
JP2010029657A 2010-02-15 2010-02-15 Video processor and video display unit Pending JP2011166638A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010029657A JP2011166638A (en) 2010-02-15 2010-02-15 Video processor and video display unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010029657A JP2011166638A (en) 2010-02-15 2010-02-15 Video processor and video display unit

Publications (1)

Publication Number Publication Date
JP2011166638A true JP2011166638A (en) 2011-08-25

Family

ID=44596760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010029657A Pending JP2011166638A (en) 2010-02-15 2010-02-15 Video processor and video display unit

Country Status (1)

Country Link
JP (1) JP2011166638A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013172101A1 (en) * 2012-05-16 2013-11-21 シャープ株式会社 Display device, display device control method, television receiver control program, and recording medium
JP2017092699A (en) * 2015-11-10 2017-05-25 株式会社メガチップス Image processing apparatus and image processing method
CN113115109A (en) * 2021-04-16 2021-07-13 深圳市帧彩影视科技有限公司 Video processing method and device, electronic equipment and storage medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013172101A1 (en) * 2012-05-16 2013-11-21 シャープ株式会社 Display device, display device control method, television receiver control program, and recording medium
JP2013258684A (en) * 2012-05-16 2013-12-26 Sharp Corp Display device, display device control method, television receiver, control program, and recording medium
JP2017092699A (en) * 2015-11-10 2017-05-25 株式会社メガチップス Image processing apparatus and image processing method
CN113115109A (en) * 2021-04-16 2021-07-13 深圳市帧彩影视科技有限公司 Video processing method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
EP2141655B1 (en) Color enhancement for graphic images
US20100238356A1 (en) Video signal processing method and apparatus
JP5047344B2 (en) Image processing apparatus and image processing method
JP5089783B2 (en) Image processing apparatus and control method thereof
US8345070B2 (en) Apparatus and method for frame rate up conversion
US20130257887A1 (en) System for improved image enhancement
JP6485068B2 (en) Image processing method and image processing apparatus
US8401291B2 (en) Image processing that improves contrast in light and dark portions of an image
JP5014274B2 (en) Image processing apparatus, image processing method, image processing system, program, recording medium, and integrated circuit
US10380725B2 (en) Image processing apparatus, image processing method, and storage medium
JP6351377B2 (en) Image processing system, imaging apparatus, and recording apparatus
US20050001935A1 (en) Image processing device, image display device, and image processing method
US20080043145A1 (en) Image Processing Apparatus, Image Processing Method, and Image Display Apparatus
US8265419B2 (en) Image processing apparatus and image processing method
JP2011166638A (en) Video processor and video display unit
JP2006165828A (en) Gradation correcting device
CN108122216B (en) system and method for dynamic range extension of digital images
JP2008139828A (en) Image processing apparatus, image processing method, electro-optical device and electronic device
JP5193976B2 (en) Video processing apparatus and video display apparatus
US20100104212A1 (en) Contour correcting device, contour correcting method and video display device
US10354370B2 (en) Image processor, image processing method, and program
TWI390958B (en) Video filter and video processor and processing method using thereof
US20140307169A1 (en) Noise reduction apparatus, display apparatus, noise reduction method, and noise reduction program
JP6693269B2 (en) Video processing device, video processing method and program
WO2011162124A1 (en) Signal processing device, signal processing program, and display device