JP2007158992A - Device, method and program for video signal correction - Google Patents

Device, method and program for video signal correction Download PDF

Info

Publication number
JP2007158992A
JP2007158992A JP2005354448A JP2005354448A JP2007158992A JP 2007158992 A JP2007158992 A JP 2007158992A JP 2005354448 A JP2005354448 A JP 2005354448A JP 2005354448 A JP2005354448 A JP 2005354448A JP 2007158992 A JP2007158992 A JP 2007158992A
Authority
JP
Japan
Prior art keywords
video signal
amplification factor
edge component
signal correction
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005354448A
Other languages
Japanese (ja)
Inventor
Koichi Yajima
浩一 矢島
Masayuki Otawara
大田原 正幸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to JP2005354448A priority Critical patent/JP2007158992A/en
Publication of JP2007158992A publication Critical patent/JP2007158992A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Picture Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain images with moderate enhancement correction added by suppressing excessive correction and reducing a signal-to-noise ratio in image correction such as edge enhancement. <P>SOLUTION: A video signal correction device enhances edges of video signals and has an edge filter 12 for extracting an edge component of a video signal, an amplifier 18 for amplifying the extracted edge component, and an adder 20 for adding the amplified edge component to the original video signal. The device further has a feature quantity extracting part 14 for extracting feature quantity of the video signal, and an amplifying rate deriving part 16 for deriving an amplifying rate corresponding to the feature quantity. In this case, the amplifier amplifies the edge component at an amplifying rate derived from the amplifying rate deriving part. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は,映像信号補正装置,方法およびプログラムに関する。   The present invention relates to a video signal correction apparatus, method, and program.

一般に,映像装置において,ぼやけた画像を鮮明化するために,映像信号補正の一例として輪郭部分を強調する輪郭補正が行われている。例えば輪郭補正は,映像信号の高周波成分(エッジ成分)を抽出し,これを増幅して上記映像信号に付加することにより実現される。すなわち,画像の明暗に変化がある部分には付加的な補正をして,該変化を強調することができる。   In general, in a video apparatus, contour correction for enhancing a contour portion is performed as an example of video signal correction in order to sharpen a blurred image. For example, contour correction is realized by extracting a high frequency component (edge component) of a video signal, amplifying it, and adding it to the video signal. That is, it is possible to emphasize the change by performing additional correction on a portion where the brightness of the image changes.

一方,一様に輪郭部分を強調すると,もともと明暗がはっきりしているテロップの端部などではリンギングなどが生じ,かえって画質を損なう場合がある。そのため,テロップや字幕などの付加的な情報が重畳される部分(例えば画面下部)では輪郭補正を制限する輪郭補正装置が提案されている(例えば特許文献1)
特許第3078918号
On the other hand, if the contour portion is emphasized uniformly, ringing or the like may occur at the edge of the telop where the contrast is originally clear, which may impair the image quality. Therefore, a contour correction device that restricts contour correction in a portion where additional information such as telop or caption is superimposed (for example, at the bottom of the screen) has been proposed (for example, Patent Document 1).
Japanese Patent No. 3078918

しかし,上述のようなテロップの端部などに限らず,輪郭部分を強調すると上記リンギングなどが生じてしまうほど明暗の変化が急峻であり,輪郭補正が制限されるべき部分は全画面領域内に存在する。また,輪郭補正をするために高周波成分を増幅する際,該高周波成分と共に雑音が増幅され,信号対雑音比が悪化してしまう部分も存在した。   However, not only at the edge of the telop as described above, but also when the outline portion is emphasized, the change in brightness is so steep that the ringing or the like occurs, and the portion where the outline correction should be restricted is within the entire screen area. Exists. Further, when a high frequency component is amplified for contour correction, noise is amplified together with the high frequency component, and there is a portion where the signal-to-noise ratio deteriorates.

そこで,本発明は,上記問題に鑑みてなされたものであり,本発明の目的とするところは,映像信号の補正をする際,過度な補正を抑え,信号対雑音比を減少させることが可能な,新規かつ改良された映像信号補正装置,方法およびプログラムを提供することにある。   Accordingly, the present invention has been made in view of the above problems, and an object of the present invention is to suppress excessive correction and reduce the signal-to-noise ratio when correcting a video signal. Another object of the present invention is to provide a new and improved video signal correction apparatus, method and program.

上記課題を解決するために,本発明のある観点によれば,映像信号のエッジ成分を抽出するエッジフィルタと,該抽出したエッジ成分を増幅する増幅器と,該増幅されたエッジ成分を元の映像信号に加算する加算器と,を備え,映像信号のエッジを強調する映像信号補正装置であって:上記映像信号の特徴量を抽出する特徴量抽出部と;上記特徴量に対応した増幅率を導出する増幅率導出部と;をさらに備え,上記増幅器は,上記増幅率導出部からの増幅率でエッジ成分を増幅することを特徴とする,映像信号補正装置が提供される。係る構成により,画像の雰囲気(特徴量)に応じて適度な強調補正が加わった画像を得ることができる。   In order to solve the above problems, according to an aspect of the present invention, an edge filter that extracts an edge component of a video signal, an amplifier that amplifies the extracted edge component, and the amplified edge component as an original video An adder for adding to a signal, and a video signal correction device for enhancing an edge of a video signal, comprising: a feature quantity extraction unit for extracting a feature quantity of the video signal; and an amplification factor corresponding to the feature quantity And an amplification factor deriving unit for deriving the image signal correction device, wherein the amplifier amplifies an edge component with the amplification factor from the amplification factor deriving unit. With such a configuration, it is possible to obtain an image with appropriate enhancement correction according to the atmosphere (feature value) of the image.

上記特徴量抽出部は,同一フレームの所定領域における映像信号に基づいて,上記特徴量を検出するとしてもよい。係る構成において,上記特徴量抽出部は,画像特徴を把握するために必要十分な程度に計算量を抑えつつ,上記特徴量を検出することができるよう作用する。   The feature amount extraction unit may detect the feature amount based on a video signal in a predetermined region of the same frame. In such a configuration, the feature amount extraction unit acts to detect the feature amount while suppressing the amount of calculation to a level necessary and sufficient for grasping the image feature.

上記特徴量は,同一フレームの上記所定領域を構成する画素間の,輝度の変化の程度を表すとしてもよい。係る構成において,上記特徴量は,上記所定領域内に,例えば輝度の変化が急峻な輪郭部分などが包含されているかを検知するための判断材料として作用する。   The feature amount may represent a degree of change in luminance between pixels constituting the predetermined area of the same frame. In such a configuration, the feature amount acts as a judgment material for detecting whether, for example, a contour portion having a sharp change in luminance is included in the predetermined region.

上記特徴量は,同一フレームの上記所定領域を構成する画素の,輝度の絶対偏差であるとしてもよい。係る構成において,上記特徴量は,画素間の輝度の変化の程度を定量的に表すことが可能となる。   The feature amount may be an absolute deviation of luminance of pixels constituting the predetermined area of the same frame. In such a configuration, the feature amount can quantitatively represent the degree of change in luminance between pixels.

上記増幅率導出部は,上記特徴量に基づいて,画素を所定数の区分のいずれかに分類するとしてもよい。係る構成により,広範な値をとり得る特徴量ではなく,前記所定数の区分に基づく処理が可能となる。   The amplification factor deriving unit may classify the pixels into any of a predetermined number of categories based on the feature amount. With such a configuration, it is possible to perform processing based on the predetermined number of categories instead of feature values that can take a wide range of values.

上記増幅率導出部は,上記画素の増幅率を,該画素の属する区分に基づいて導出するとしてもよい。係る構成により,上記増幅率導出部は,上記区分と増幅率とが1対1に対応したテーブルを参照して,画素の属する区分に応じた適切な増幅率を導出することができる。   The amplification factor deriving unit may derive the amplification factor of the pixel based on a classification to which the pixel belongs. With this configuration, the amplification factor deriving unit can derive an appropriate amplification factor according to the segment to which the pixel belongs by referring to a table in which the segment and the amplification factor correspond one-to-one.

上記所定数の区分は,上記周辺画素の輝度の起伏が平坦であるとする区分,周辺画素に強調すべき上記エッジ成分があるとする区分,周辺画素に雑音成分が多く含まれるとする区分および周辺画素の輝度差が激しいとする区分の群から選択された1または2以上の区分であるとしてもよい。   The predetermined number of classifications includes a classification in which the undulation of luminance of the peripheral pixels is flat, a classification in which the peripheral pixels have the edge component to be emphasized, a classification in which the peripheral pixels include a lot of noise components, and It may be one or more sections selected from a group of sections in which the luminance difference between peripheral pixels is significant.

上記周辺画素の輝度の起伏が平坦であるとする区分の増幅率は,1であるとしてもよい。係る構成において,上記増幅率導出部は,画素間の輝度差を強調すると却って本来の特徴が損なわれる平坦な部分においては,画像が有する本来の特徴の同一性を維持するよう作用する。   The amplification factor of the section in which the luminance unevenness of the peripheral pixels is flat may be 1. In such a configuration, the amplification factor deriving unit operates to maintain the identity of the original feature of the image in a flat portion where the original feature is impaired when the luminance difference between pixels is emphasized.

上記周辺画素に強調すべき上記エッジ成分があるとする区分の増幅率は,上記周辺画素の輝度の起伏が平坦であるとする区分の増幅率より高いとしてもよい。係る構成において,上記増幅率導出部は,一フレームを構成する画像の境界部分を明確化するよう作用する。   The amplification factor of the segment in which the peripheral pixel has the edge component to be emphasized may be higher than the amplification factor of the segment in which the undulation of the luminance of the peripheral pixel is flat. In such a configuration, the amplification factor deriving unit acts to clarify the boundary portion of the image constituting one frame.

上記周辺画素に雑音成分が多く含まれるとする区分の増幅率は,上記周辺画素の輝度の起伏が平坦であるとする区分の増幅率より高く,上記周辺画素に強調すべき上記エッジ成分があるとする区分の増幅率より低いとしてもよい。係る構成において,上記増幅率導出部は,映像信号の高周波成分と共に雑音成分が増幅することを抑制し,映像対雑音比の悪化を防止するよう作用する。   The amplification factor of the segment in which the surrounding pixel includes a lot of noise components is higher than the amplification factor of the segment in which the luminance unevenness of the peripheral pixel is flat, and the peripheral pixel has the edge component to be emphasized It may be lower than the amplification factor of the section. In such a configuration, the amplification factor deriving unit functions to suppress the amplification of the noise component together with the high frequency component of the video signal, and to prevent the deterioration of the video to noise ratio.

上記周辺画素の輝度差が激しいとする区分の増幅率は,上記周辺画素の輝度の起伏が平坦であるとする区分の増幅率より高く,上記周辺画素に強調すべき上記エッジ成分があるとする区分の増幅率より低いとしてもよい。係る構成において,上記増幅率導出部は,画像内の過度な輝度差およびリンギングの発生を防止する。   The amplification factor of the segment in which the luminance difference between the peripheral pixels is severe is higher than the amplification factor of the segment in which the undulation of the luminance of the peripheral pixel is flat, and the peripheral pixel has the edge component to be emphasized. It may be lower than the amplification factor of the section. In such a configuration, the amplification factor deriving unit prevents an excessive luminance difference and ringing in the image.

上記増幅率導出部は,上記特徴量を正規化した後に,正規化された特徴量に基づいて画素を上記所定数の区分に分類するとしてもよい。係る構成により,上記増幅率導出部は,画一的に画素の分類をすることが可能となる。   The amplification factor deriving unit may classify the pixels into the predetermined number of categories based on the normalized feature value after normalizing the feature value. With this configuration, the amplification factor deriving unit can classify pixels uniformly.

また,上記課題を解決するために,本発明の別の観点によれば,映像信号のエッジを強調する映像信号補正装置によって映像信号を補正する映像信号補正方法であって:前記映像信号補正装置が,映像信号のエッジ成分を抽出するステップと;前記映像信号の特徴量を抽出するステップと;前記特徴量に対応した増幅率を導出するステップと;前記抽出したエッジ成分を前記増幅率で増幅するステップと;前記増幅されたエッジ成分を元の映像信号に加算するステップと;を含むことを特徴とする,映像信号補正方法が提供される。係る構成により,上記映像信号補正装置と同様に,上記特徴量に応じて適度な強調補正が加わった画像を得ることができる。   In order to solve the above problems, according to another aspect of the present invention, there is provided a video signal correction method for correcting a video signal by a video signal correction device that emphasizes an edge of the video signal: Extracting an edge component of the video signal; extracting a feature amount of the video signal; deriving an amplification factor corresponding to the feature amount; amplifying the extracted edge component by the amplification factor And a step of adding the amplified edge component to the original video signal. A video signal correction method is provided. With such a configuration, similarly to the video signal correction apparatus, it is possible to obtain an image with appropriate enhancement correction according to the feature amount.

また,上記課題を解決するために,本発明の別の観点によれば,映像信号のエッジの強調を実現させる映像信号補正プログラムであって:コンピュータに,映像信号のエッジ成分を抽出するステップと;前記映像信号の特徴量を抽出するステップと;前記特徴量に対応した増幅率を導出するステップと;前記抽出したエッジ成分を前記増幅率で増幅するステップと;前記増幅されたエッジ成分を元の映像信号に加算するステップと;を実行させることを特徴とする,映像信号補正方法プログラムが提供される。係る構成により,上記映像信号補正装置と同様に,上記特徴量に応じて適度な強調補正が加わった画像を得ることができる。   In order to solve the above problems, according to another aspect of the present invention, there is provided a video signal correction program for realizing edge enhancement of a video signal: a step of extracting an edge component of the video signal into a computer; Extracting a feature amount of the video signal; deriving an amplification factor corresponding to the feature amount; amplifying the extracted edge component by the amplification factor; and based on the amplified edge component And a step of adding to the video signal. A video signal correction method program is provided. With such a configuration, similarly to the video signal correction apparatus, it is possible to obtain an image with appropriate enhancement correction according to the feature amount.

以上説明したように本発明によれば,映像信号の補正をする際,過度な補正を抑え,信号対雑音比を減少させることが可能な,映像信号補正装置,方法およびプログラムを提供することにある。   As described above, according to the present invention, it is possible to provide a video signal correction apparatus, method, and program capable of suppressing excessive correction and reducing a signal-to-noise ratio when correcting a video signal. is there.

以下に添付図面を参照しながら,本発明の好適な実施の形態について詳細に説明する。なお,本明細書及び図面において,実質的に同一の機能構成を有する構成要素については,同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

図9Aは,映像信号に含まれる周波数成分の一例を示した説明図である。横軸は周波数を,縦軸は振幅を表している。図9Aに示されたように,映像信号には低周波成分から高周波成分まで様々な周波数成分から構成され,当該輪郭成分(エッジ成分)は主に高周波成分として含まれている。このような映像信号を単純に伝送または処理した場合,輪郭成分を表す高周波成分が減衰し,画像に含まれる輪郭部分がぼけてしまう場合がある。   FIG. 9A is an explanatory diagram showing an example of frequency components included in the video signal. The horizontal axis represents frequency and the vertical axis represents amplitude. As shown in FIG. 9A, the video signal is composed of various frequency components from a low frequency component to a high frequency component, and the contour component (edge component) is mainly included as a high frequency component. When such a video signal is simply transmitted or processed, the high-frequency component representing the contour component is attenuated, and the contour portion included in the image may be blurred.

図9Bは,上記映像信号から意図的に高周波成分を抽出した様子を示す説明図である。横軸は周波数を,縦軸は振幅を表している。上述のように輪郭部分がぼやけてしまう場合,図9Bのように映像信号の高周波成分(例えば2M〜3MHz)付近の信号をハイパスフィルタやバンドパスフィルタを用いて抽出し,これを増幅して元の映像信号に加算する。こうして,画像の境界部分が明確化(強調)され,クリアな画像を得ることが可能となる。   FIG. 9B is an explanatory diagram showing a state in which high frequency components are intentionally extracted from the video signal. The horizontal axis represents frequency and the vertical axis represents amplitude. When the contour portion is blurred as described above, a signal in the vicinity of a high frequency component (for example, 2M to 3 MHz) of the video signal is extracted using a high pass filter or a band pass filter as shown in FIG. To the video signal. In this way, the boundary portion of the image is clarified (emphasized), and a clear image can be obtained.

図10は,上述のような画像を補正するために用いられる画像補正回路の構成を示したブロック図である。画像補正回路には,エッジフィルタ62と,増幅器68と,加算器70とが含まれる。   FIG. 10 is a block diagram showing a configuration of an image correction circuit used for correcting the image as described above. The image correction circuit includes an edge filter 62, an amplifier 68, and an adder 70.

エッジフィルタ62は,例えばハイパスフィルタを用いてエッジを抽出し,増幅器68は,エッジフィルタ62からの出力を増減し,加算器70がこれを元の信号に加算する。上記の具体的な構成により,確実かつ一貫した輪郭補正が行われていた。   The edge filter 62 extracts edges using, for example, a high-pass filter, the amplifier 68 increases or decreases the output from the edge filter 62, and the adder 70 adds this to the original signal. With the above specific configuration, reliable and consistent contour correction has been performed.

しかし,実際の画像においては一様な補正をしたのでは補正が小さすぎ,または大きすぎ,さらにはリンギングを生じるという場合もあった。ここで,図10を用いてリンギングについて簡単に説明する。   However, in an actual image, if the correction was made uniformly, the correction was too small or too large, and ringing might occur. Here, ringing will be briefly described with reference to FIG.

図11は,リンギングの発生についての説明図である。図11(a)は,画像の一部であって,中央が暗く,左右が明るい様子を示している。図11(b)は,上記画像を輝度信号で表したものであり,暗い部分のレベルは低く,明るい部分のレベルは高くなっている。図11(c)は,輝度の境界部をより明確にするために上記輝度信号に付加されるプレシュート80と,アンダーシュート82を表している。図11(d)は,上記輝度信号にプレシュート80と,アンダーシュート82が付加された信号を示している。   FIG. 11 is an explanatory diagram regarding the occurrence of ringing. FIG. 11A shows a part of the image, where the center is dark and the left and right are bright. FIG. 11B shows the above-described image as a luminance signal, where the level of the dark part is low and the level of the bright part is high. FIG. 11C shows a preshoot 80 and an undershoot 82 added to the luminance signal in order to clarify the luminance boundary. FIG. 11D shows a signal obtained by adding a preshoot 80 and an undershoot 82 to the luminance signal.

このような信号のエッジ成分をさらに増幅しようとすると,上述のように信号がエッジフィルタを介する必要がある。しかし,上記エッジフィルタには遅延特性があり,また信号の伝送途中にひずみなどが生じることがある。すると,上記遅延特性などにより,映像信号補正回路からの出力は図11(e)に示したように,プレシュート80と,アンダーシュート82が波を打ったようになり,これがリンギングと呼ばれている。本発明は,映像の輪郭補正をする際,強調する輪郭成分の大きさを適切に調整し,上述のような問題を解消するものである。   In order to further amplify the edge component of such a signal, the signal needs to pass through an edge filter as described above. However, the edge filter has a delay characteristic, and distortion may occur during signal transmission. Then, due to the delay characteristics and the like, the output from the video signal correction circuit appears as if the preshoot 80 and the undershoot 82 swell as shown in FIG. 11E, and this is called ringing. Yes. The present invention solves the above-described problems by appropriately adjusting the size of the contour component to be emphasized when correcting the contour of an image.

まず,本発明の一実施形態にかかる映像信号補正装置について説明する。   First, a video signal correction apparatus according to an embodiment of the present invention will be described.

図1は,本実施形態による輪郭補正回路の構成を示したブロック図である。本実施形態による輪郭補正回路は,エッジフィルタ12,特徴量抽出部14,増幅率導出部16,増幅器18および加算器20を含む。   FIG. 1 is a block diagram showing a configuration of a contour correction circuit according to the present embodiment. The contour correction circuit according to the present embodiment includes an edge filter 12, a feature amount extraction unit 14, an amplification factor derivation unit 16, an amplifier 18, and an adder 20.

エッジフィルタ12は映像信号の入力を受け,エッジ成分を抽出し,増幅器18に出力する。エッジフィルタ12は,上記機能を遂行するために二次微分フィルタで構成してもよい。   The edge filter 12 receives the video signal, extracts an edge component, and outputs it to the amplifier 18. The edge filter 12 may be composed of a second order differential filter in order to perform the above function.

図2は,エッジフィルタ12に用いられる二次微分フィルタの一例を示した説明図である。上記二次微分フィルタについて以下に説明する。   FIG. 2 is an explanatory diagram showing an example of a secondary differential filter used for the edge filter 12. The second-order differential filter will be described below.

上記二次微分フィルタは,画像内に含まれる全てのエッジ成分をその方向に関わらず抽出する。図2(a)のように,3×3画素内の中央の6,各辺中央の−1,各頂点の−0.5の係数から構成されても,図2(b)のように,中央の8,各辺中央および各頂点の−1の係数から構成されてもよい。   The second-order differential filter extracts all edge components included in the image regardless of their directions. As shown in FIG. 2 (a), even if it is composed of the center 6 in the 3 × 3 pixel, the coefficient −1 at the center of each side, and the coefficient −0.5 at each vertex, It may be composed of the center 8, the center of each side, and the -1 coefficient of each vertex.

上記係数に各画素の輝度値を乗算し,得られた結果の和を算出することりエッジ成分が検出される。例えば,輝度勾配の少ない部分では上記算出結果はほぼ0となり,輝度勾配の多い部分では上記算出結果は大きな絶対値を有する値となる。   An edge component is detected by multiplying the coefficient by the luminance value of each pixel and calculating the sum of the obtained results. For example, the calculation result is almost 0 in a portion where the luminance gradient is small, and the calculation result is a value having a large absolute value in a portion where the luminance gradient is large.

上記エッジ検出を全ての画素に対して行うことで,画素間の輝度勾配の正負に関わらず,画像全体から輝度勾配の大きいエッジ成分を抽出することができる。なお,画像の最外周部を構成する画素について上記検出を行おうとしても,上下左右の少なくとも一方向の画素が存在せず,正しくエッジ成分が検出されない。したがって,そのような場合は,上記二次微分フィルタの中央の値を,使用する画素領域における二次微分フィルタの係数の和が0となるよう可変させるとしてもよい。   By performing the edge detection for all the pixels, an edge component having a large luminance gradient can be extracted from the entire image regardless of whether the luminance gradient between the pixels is positive or negative. Even if the above-described detection is performed on the pixels constituting the outermost peripheral portion of the image, pixels in at least one direction (up, down, left, and right) do not exist, and edge components are not correctly detected. Therefore, in such a case, the center value of the secondary differential filter may be varied so that the sum of the coefficients of the secondary differential filter in the pixel region to be used becomes zero.

特徴量抽出部14は,上記エッジフィルタ12の処理と並行して画像の特徴を表す特徴量を検出する。上記特徴量は,例えば同一フレームの所定領域に含まれる画素が有する輝度値の絶対偏差としてもよい。   The feature amount extraction unit 14 detects a feature amount representing the feature of the image in parallel with the processing of the edge filter 12. The feature amount may be, for example, an absolute deviation of luminance values of pixels included in a predetermined area of the same frame.

図3は,本実施形態による上記絶対偏差の検出方法の説明図である。正方形1つは一画素を意味し,横が7画素,縦が3画素の長方形領域を示している。   FIG. 3 is an explanatory diagram of the absolute deviation detection method according to the present embodiment. One square means one pixel, and shows a rectangular region having 7 pixels in the horizontal direction and 3 pixels in the vertical direction.

Figure 2007158992
数式1は,上記絶対偏差を算出するための計算式である。Vは絶対偏差,nは横方向の画素数,nは縦方向の画素数,Xi,jは特定の画素,Xaveは上記長方形領域に含まれる画素の輝度の平均値を示している。
Figure 2007158992
Formula 1 is a calculation formula for calculating the absolute deviation. V is an absolute deviation, n is the number of pixels in the horizontal direction, n is the number of pixels in the vertical direction, X i, j are specific pixels, and X ave is an average value of the luminance of the pixels included in the rectangular area.

数式1のように,上記長方形領域の中心画素の特徴量を求めるため,7×3画素全ての輝度の平均値と,各画素の差分の絶対値を加算する。したがって,上記特徴量は周辺画素の起伏が多いほど大きくなり,起伏が少ないほど小さくなる。すなわち,上記特徴量は所定領域を構成する画素間の,輝度の変化の程度を表すこととなる。   As shown in Equation 1, in order to obtain the feature amount of the central pixel of the rectangular area, the average value of the luminance of all 7 × 3 pixels and the absolute value of the difference between the pixels are added. Therefore, the feature amount increases as the undulations of the surrounding pixels increase, and decreases as the undulations decrease. In other words, the feature amount represents the degree of change in luminance between pixels constituting the predetermined area.

以上7×3画素の長方形領域を用いて特徴量を検出する例について示した。しかし,上記領域は,画像特徴を把握するために必要十分な程度に計算量を抑えつつ,上記特徴量を検出することができるよう,表示する映像の1フレームの画素数や表示目的に応じて変化させられるとしてもよい。例えば,3×5,5×7,5×37×5さらには19×9などの長方形領域や,5×5,7×7さらには23×23などの正方形領域であってもよい。   The example in which the feature amount is detected using the rectangular area of 7 × 3 pixels has been described. However, the above-mentioned area is in accordance with the number of pixels of one frame of the video to be displayed and the display purpose so that the above-mentioned feature amount can be detected while suppressing the calculation amount to a degree necessary and sufficient for grasping the image feature. It may be changed. For example, it may be a rectangular region such as 3 × 5, 5 × 7, 5 × 37 × 5, or 19 × 9, or a square region such as 5 × 5, 7 × 7, or 23 × 23.

また,着目画素の特徴量を検出するために,該着目画素が中心に位置するような所定領域を例にとって説明したが,これに限られず,任意の位置としてもよい。仮に,上記着目画素を右下の頂点部分に位置するよう所定領域を構成すると,表示画素は左上から右下に流れるため,それまでに読み込んだデータのみから特徴量を検出することができる。   Further, in order to detect the feature amount of the pixel of interest, a description has been given by taking a predetermined region where the pixel of interest is located at the center as an example. If the predetermined region is configured so that the pixel of interest is positioned at the lower right vertex portion, the display pixel flows from the upper left to the lower right, so that the feature amount can be detected only from the data read so far.

増幅率導出部16は,上記特徴量に対応した増幅率を導出するために,画素の特徴量に基づいて,画素を所定数,例えば4つの区分のいずれかに分類する。そして,上記画素の増幅率を,上記画素の属する区分に応じて導出する。   The amplification factor deriving unit 16 classifies the pixels into a predetermined number, for example, one of four categories, based on the feature amount of the pixel, in order to derive the amplification factor corresponding to the feature amount. Then, the amplification factor of the pixel is derived according to the division to which the pixel belongs.

上記分類には,特徴量としての上記絶対偏差を用いてもよい。上記絶対偏差は,周辺画素の特徴を定量的に示しているため分類は容易である。具体的には,例えば以下のように分類するとことができる。   In the classification, the absolute deviation as a feature amount may be used. The absolute deviation is easy to classify because it quantitatively shows the characteristics of the surrounding pixels. Specifically, it can be classified as follows, for example.

図4は,絶対偏差に基づく各画素の分類方法を示した度数分布図である。横軸は各画素の正規化された絶対偏差を,縦軸は度数を表している。   FIG. 4 is a frequency distribution diagram showing a method of classifying each pixel based on the absolute deviation. The horizontal axis represents the normalized absolute deviation of each pixel, and the vertical axis represents the frequency.

上記正規化とは,データを一定の規則に従って変形し,利用しやすくすることをいうが,例えば具体的には,同一フレームを構成する全画素の絶対偏差のうち最大の絶対偏差を100とし,かつ画素同士の絶対偏差の比率が維持されるように全画素の絶対偏差を変形することで実現される。上記正規化により,一フレームを構成する正規化された絶対偏差の最大値はすべて100となり,画一的に処理をすることが可能となる。   The normalization means that the data is transformed according to a certain rule for easy use. For example, specifically, the maximum absolute deviation among the absolute deviations of all pixels constituting the same frame is set to 100, In addition, this is realized by modifying the absolute deviation of all the pixels so that the absolute deviation ratio between the pixels is maintained. As a result of the normalization, the maximum values of the normalized absolute deviation constituting one frame are all 100, and the processing can be performed uniformly.

上記区分はL0,L1,L2およびL3の4つの区分としてもよい。例えば,1フレームを構成する全画素を正規化された絶対偏差の値の小さい方から大きい方へと順次並べ,L0には小さい方から0〜5%に含まれる画素を,L1には5〜40%に含まれる画素を,L2には40〜85%に含まれる画素を,L3には85〜100%に含まれる画素を分類する区分とすることができる。このようなL0〜L3の区分は,正規化された絶対偏差の度数分布上で,図4のように表される。   The above sections may be four sections L0, L1, L2, and L3. For example, all the pixels constituting one frame are sequentially arranged from the normalized absolute deviation value from the smallest value to the larger value, L0 is a pixel included in 0 to 5% from the smallest value, and L1 is 5 to 5. A pixel included in 40%, a pixel included in 40 to 85% in L2, and a pixel included in 85 to 100% in L3 can be classified. Such a division of L0 to L3 is expressed as shown in FIG. 4 on the normalized absolute deviation frequency distribution.

上記L0区分に分類された画素は,絶対偏差がほとんど無いため,周辺画素の輝度の起伏は平坦であると考えられる。したがって,上記増幅率導出部16は,上記L0区分に分類された各画素から上記エッジフィルタ12が抽出したエッジ成分を増幅しないよう,増幅率を導出するとしてもよい。上記増幅しない場合は,上記エッジフィルタ12が抽出したエッジ成分を,増幅器はそのまま(増幅率=1で)加算器20に出力することとなる。ただし,当該エッジ成分は平坦であると判断される画像部分から抽出されたものであるので,ほとんど値を有さない可能性が高い。したがって,加算器20が元の映像信号に上記エッジ成分を加算しても,画像に与える影響は少なく,画像の雰囲気を維持することができる。   Since the pixels classified in the L0 section have almost no absolute deviation, it is considered that the undulation of the brightness of the peripheral pixels is flat. Therefore, the amplification factor deriving unit 16 may derive the amplification factor so as not to amplify the edge component extracted by the edge filter 12 from each pixel classified into the L0 section. When the amplification is not performed, the amplifier outputs the edge component extracted by the edge filter 12 to the adder 20 as it is (with amplification factor = 1). However, since the edge component is extracted from the image portion determined to be flat, there is a high possibility that the edge component has almost no value. Therefore, even if the adder 20 adds the edge component to the original video signal, the influence on the image is small and the atmosphere of the image can be maintained.

上記L1区分に分類された画素は,絶対偏差が少ないため,周辺画素に雑音成分が多く含まれていると考えられる。したがって,上記増幅率導出部16は,上記L1区分において,上記L0区分の増幅率より高く,後述するL2区分の増幅率より低い増幅率を導出するとしてもよい。係る構成により,雑音成分の増幅を抑制し,信号対雑音比の悪化を防止することができる。   Since the pixels classified in the L1 section have a small absolute deviation, it is considered that a lot of noise components are included in the surrounding pixels. Therefore, the amplification factor deriving unit 16 may derive an amplification factor higher than the amplification factor of the L0 segment and lower than the amplification factor of the L2 segment, which will be described later, in the L1 segment. With such a configuration, amplification of the noise component can be suppressed and deterioration of the signal-to-noise ratio can be prevented.

上記L2区分に分類された画素は,絶対偏差が大きいため,周辺画素に強調すべき上記エッジ成分があると考えられる。したがって,上記増幅率導出部16は,上記L2区分において,上記L0区分の増幅率より高い増幅率を導出するとしてもよい。   Since the pixels classified into the L2 section have a large absolute deviation, it is considered that the peripheral components have the edge component to be emphasized. Therefore, the amplification factor deriving unit 16 may derive a higher amplification factor in the L2 segment than the amplification factor of the L0 segment.

上記L3区分に分類された画素は,絶対偏差がかなり大きいため,周辺画素の輝度差が激しいと考えられる。したがって,上記増幅率導出部16は,上記L3区分において,上記L0区分の増幅率より高く,上記L2区分の増幅率より低い増幅率を導出するとしてもよい。係る構成により,過度な輝度差の発生およびリンギングを抑制することができる。   Since the pixels classified into the L3 section have a considerably large absolute deviation, it is considered that the luminance difference between peripheral pixels is severe. Therefore, the amplification factor deriving unit 16 may derive an amplification factor higher than the amplification factor of the L0 segment and lower than the amplification factor of the L2 segment in the L3 segment. With such a configuration, generation of excessive luminance difference and ringing can be suppressed.

上記増幅器18は,エッジフィルタ12から画像のエッジ成分が入力され,該エッジ成分を増幅率導出部16が導出した増幅率で増幅し,加算器20に増幅されたエッジ成分を出力する。上記増幅は,エッジフィルタ12としての二次微分フィルタの出力と,増幅率導出部16が各画素の属する区分に基づいて導出した増幅率(例えば1倍,1.2倍,1.5倍,2倍)を単純に乗算してもよい。   The amplifier 18 receives the edge component of the image from the edge filter 12, amplifies the edge component with the amplification factor derived by the amplification factor deriving unit 16, and outputs the amplified edge component to the adder 20. The amplification is performed by using the output of the secondary differential filter as the edge filter 12 and the amplification factor derived by the amplification factor deriving unit 16 based on the classification to which each pixel belongs (for example, 1 ×, 1.2 ×, 1.5 ×, 2 times) may be simply multiplied.

上記加算器20は,映像信号と,上記増幅器からのエッジ成分との入力を受けて,これらを加算し,補正された映像信号を出力する。こうして,映像信号の高周波成分のみを調整して出力することができる。   The adder 20 receives the video signal and the edge component from the amplifier, adds them, and outputs a corrected video signal. In this way, only the high frequency component of the video signal can be adjusted and output.

図5は,実際の画像の一例を示した説明図である。画像には,被写体として,空30と,家32と,草地34と,人36と,車38と,木40とが含まれる。   FIG. 5 is an explanatory diagram showing an example of an actual image. The image includes a sky 30, a house 32, a grassland 34, a person 36, a car 38, and a tree 40 as subjects.

上記空30は,平坦であり,輝度変化および上記絶対偏差はほとんど無いため,L0に分類される。上記家32と草地34は,画質が粗く,輝度変化および上記絶対偏差は少ないためL1に分類される。上記人36および車38と,空30との境界部分の輝度変化および上記絶対偏差は大きいためL2に分類される。上記木40と空30との境界部分の輝度変化および上記絶対偏差はかなり大きいためL3に分類される。   Since the sky 30 is flat and has almost no luminance change and no absolute deviation, it is classified as L0. The house 32 and the grassland 34 are classified as L1 because the image quality is rough, the luminance change and the absolute deviation are small. Since the luminance change at the boundary between the person 36 and the car 38 and the sky 30 and the absolute deviation are large, it is classified as L2. Since the luminance change and the absolute deviation at the boundary portion between the tree 40 and the sky 30 are quite large, it is classified as L3.

図4のような正規化された絶対偏差の分布は一例に過ぎないが,フレームが変わって該分布が異なる形態で導かれても,画素の分類は度数分布に基づくため各区分の画素数は同一であり,フレーム毎に適正な補正をすることができる。すなわち,仮に,絶対偏差が一部突出して大きい画素がフレームに含まれたとすると,上記度数分布が全体的に図面左に偏ってしまうが,それぞれの画素が有する正規化された絶対偏差の値に基づき,上記区分のいずれかに相対的に分類されるので,大部分の画素がL0に分類されるということはない。   The normalized absolute deviation distribution as shown in FIG. 4 is merely an example, but even if the frame is changed and the distribution is derived in a different form, the pixel classification is based on the frequency distribution, so the number of pixels in each division is The same correction can be made for each frame. That is, if the absolute deviation partly protrudes and a large pixel is included in the frame, the frequency distribution is entirely biased to the left of the drawing, but the normalized absolute deviation value of each pixel is Based on the relative classification, any pixel is not classified as L0.

また,以上所定数の区分を4つの区分とし,区分に応じた増幅度を具体的に示したが,これらは使用する装置の特性や表示する映像によって自動的または人為的に変えるとしてもよい。上記表示する映像としては,地上波,HD(High Definition),PC(Personal Computer)映像などがある。例えばHDに本実施形態を適用する場合,HDは高精細な映像を再現可能であるため,上記L1区分を広く設定してしまうとその特性を活かすことができない。逆に,雑音成分が含まれやすい地上波においてはL1区分を広く設定してもよい。   In addition, the predetermined number of divisions is four divisions, and the amplification degree according to the divisions is specifically shown. However, these may be automatically or artificially changed according to the characteristics of the device used and the video to be displayed. Examples of the video to be displayed include terrestrial, HD (High Definition), and PC (Personal Computer) video. For example, when the present embodiment is applied to HD, HD can reproduce high-definition video. Therefore, if the L1 section is set widely, the characteristics cannot be utilized. On the other hand, the L1 section may be set widely for terrestrial waves that easily contain noise components.

上記のような映像信号補正装置では,補正対象となる元の画像を,エッジフィルタ12や特徴量抽出部14で画像解析するため,その結果は元の画像より少し遅延して得られる。従って,任意のフレーム画像の増幅率(補正量)は,その次のフレーム画像に適応されることとなる。以下,このような補正対象のずれについて詳述する。   In the video signal correction apparatus as described above, since the original image to be corrected is subjected to image analysis by the edge filter 12 and the feature amount extraction unit 14, the result is obtained with a slight delay from the original image. Therefore, the amplification factor (correction amount) of an arbitrary frame image is applied to the next frame image. Hereinafter, such deviation of the correction target will be described in detail.

図6は,本実施形態による増幅率導出部が導出した増幅率が適用されるタイミングを示した説明図である。図6(a)は,あるフレームの円形の画像であり,図6(b),は図6(a)のワンフレーム後の三角形のフレームの画像である。すなわち,図6(a)から図6(b)へのシーンの切り替えがあったことを意味している。図6(c)は,図6(a)の画像から上記エッジフィルタ12により抽出されたエッジ成分を示している。   FIG. 6 is an explanatory diagram showing timing at which the amplification factor derived by the amplification factor deriving unit according to the present embodiment is applied. 6A is a circular image of a certain frame, and FIG. 6B is an image of a triangular frame after one frame of FIG. 6A. In other words, this means that there has been a scene change from FIG. 6 (a) to FIG. 6 (b). FIG. 6C shows edge components extracted by the edge filter 12 from the image of FIG.

一方,上記増幅率導出部16は,上記絶対偏差を正規化するためにワンフレーム分のデータを蓄積しなければならず,実際に導出した増幅率を適用するフレームは,上記増幅率を導出するために用いたフレームのワンフレーム後のものとなる。   On the other hand, the amplification factor deriving unit 16 must accumulate data for one frame in order to normalize the absolute deviation, and a frame to which the amplification factor actually derived derives the amplification factor. This is the one frame after the frame used for the purpose.

その様子を表しているのが図6(d)であり,図6(d)は,図6(b)の画像から上記エッジフィルタ12により抽出された三角形エッジ成分50と,上記増幅率導出部16がエッジ成分を増幅するような増幅率を導出した増幅画素領域52の位置関係を示している。すなわち,上記三角形エッジ成分50は,円形の画像と三角形の画像とが接する各頂点部分しか強調されないこととなる。   FIG. 6D shows the state, and FIG. 6D shows the triangular edge component 50 extracted by the edge filter 12 from the image of FIG. 6B and the amplification factor deriving unit. 16 shows the positional relationship of the amplification pixel region 52 from which the amplification factor that amplifies the edge component is derived. That is, the triangular edge component 50 emphasizes only the vertex portions where the circular image and the triangular image are in contact with each other.

しかし,上記のような弊害が生じるのはシーンの切り替えがあったワンフレームにすぎない。さらにフレームバッファを設けて上記弊害を完全に解消することもできる。すなわち,図1のエッジフィルタ12および増幅器18の間,および/または加算器20の入力側にエッジフィルタ12と並列してフレームバッファを設けることができる。係る構成により,出力すべき元の画像を一旦フレームバッファに保持し,その元の映像と,上記増幅率導出部16が導出した増幅率を適用するフレームとを加算器20で加算することができ,上記のような補正対象がずれてしまう問題を回避することができる。   However, the above-mentioned adverse effects are caused only by one frame where the scene is switched. Furthermore, a frame buffer can be provided to completely eliminate the above-mentioned adverse effects. That is, a frame buffer can be provided in parallel with the edge filter 12 between the edge filter 12 and the amplifier 18 of FIG. 1 and / or on the input side of the adder 20. With this configuration, the original image to be output is temporarily held in the frame buffer, and the original video and the frame to which the amplification factor derived by the amplification factor deriving unit 16 is applied can be added by the adder 20. Thus, it is possible to avoid the problem that the correction target is shifted as described above.

次に,上述した映像信号補正装置を利用した映像信号補正方法を説明する。   Next, a video signal correction method using the above-described video signal correction apparatus will be described.

図7は,本実施形態による映像信号正方法の流れを示したフローチャートである。係る映像信号正方法において,映像信号補正装置のエッジフィルタ12は,まず入力された映像信号に含まれるエッジ成分を抽出する(S62)   FIG. 7 is a flowchart showing the flow of the video signal correct method according to the present embodiment. In the video signal correcting method, the edge filter 12 of the video signal correction apparatus first extracts an edge component contained in the input video signal (S62).

続いて,映像信号補正装置の特徴量抽出部14は,入力された映像信号から該映像信号の特徴量を抽出する(S64)。そして,増幅率導出部16は,上記特徴量から,上記エッジ成分の増幅率を導出する(S66)。次に,増幅器18は,上記増幅率を用いて上記エッジ成分を増幅し(S68),最後に,加算器20が該増幅されたエッジ成分を元の映像信号に加算して出力する(S70)。なお,上記エッジ成分を検出するステップ(S62)は,図7に示した処理の順番に限られず,エッジ成分を増幅するステップ(S68)の前であればよい。   Subsequently, the feature quantity extraction unit 14 of the video signal correction apparatus extracts the feature quantity of the video signal from the input video signal (S64). Then, the amplification factor deriving unit 16 derives the amplification factor of the edge component from the feature amount (S66). Next, the amplifier 18 amplifies the edge component using the amplification factor (S68), and finally, the adder 20 adds the amplified edge component to the original video signal and outputs it (S70). . Note that the step of detecting the edge component (S62) is not limited to the order of processing shown in FIG. 7, and may be before the step of amplifying the edge component (S68).

また,上述のような映像信号補正方法を映像信号補正装置に行わせるプログラムおよびそのプログラムを記憶した記憶媒体も提供される。   Also provided are a program for causing a video signal correction apparatus to perform the video signal correction method as described above, and a storage medium storing the program.

以上,添付図面を参照しながら本発明の好適な実施形態について説明したが,本発明は係る例に限定されないことは言うまでもない。当業者であれば,特許請求の範囲に記載された範疇内において,各種の変更例または修正例に想到し得ることは明らかであり,それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

例えば,上記特徴量は,同一フレームの所定領域に含まれる画素が有する輝度値の絶対偏差に限られず,周波数分布から求めてもよい。図8は,他の本実施形態による特徴量を抽出する方法を示す説明図である。横軸は周波数を,縦軸は度数を表している。   For example, the feature amount is not limited to the absolute deviation of the luminance values of pixels included in a predetermined area of the same frame, and may be obtained from a frequency distribution. FIG. 8 is an explanatory diagram showing a method of extracting feature amounts according to another embodiment. The horizontal axis represents frequency and the vertical axis represents frequency.

図8の周波数度数分布によると,この映像信号は,低周波成分に加え,高周波成分も多く含まれ,度数分布図上に2つの隆起部を有している。すなわち,高周波成分はエッジ成分を構成するので,輝度勾配が高い信号ということである。したがって,このような隆起部の程度に基づいて特徴量を求めることもできる。同様に,輝度度数分布に基づいて特徴量を求めることができる。   According to the frequency frequency distribution of FIG. 8, this video signal contains many high frequency components in addition to low frequency components, and has two raised portions on the frequency distribution diagram. That is, since the high frequency component constitutes an edge component, the signal has a high luminance gradient. Therefore, it is possible to obtain the feature amount based on the degree of such a raised portion. Similarly, the feature amount can be obtained based on the luminance frequency distribution.

なお,本明細書の映像信号補正方法における各ステップは,必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく,並列的あるいは個別に実行される処理(例えば,並列処理あるいはオブジェクトによる処理)も含むとしても良い。   Note that each step in the video signal correction method of the present specification does not necessarily have to be processed in time series in the order described in the flowchart, but is performed in parallel or individually (for example, parallel processing or object processing). May be included.

本発明は,映像信号補正装置,方法およびプログラムに適用可能である。   The present invention is applicable to a video signal correction apparatus, method, and program.

本実施形態による輪郭補正回路の構成を示したブロック図である。It is the block diagram which showed the structure of the outline correction circuit by this embodiment. エッジフィルタとして用いられるフィルタの一例を示した説明図である。It is explanatory drawing which showed an example of the filter used as an edge filter. 本実施形態による上記絶対偏差の検出方法の説明図である。It is explanatory drawing of the detection method of the said absolute deviation by this embodiment. 絶対偏差に基づく各画素の分類方法を示した度数分布図である。It is a frequency distribution diagram showing a classification method of each pixel based on absolute deviation. 実際の画像の一例を示した説明図である。It is explanatory drawing which showed an example of the actual image. 本実施形態による増幅率導出部が導出した増幅率が適用されるタイミングを示した説明図である。It is explanatory drawing which showed the timing when the amplification factor derived | led-out by the amplification factor deriving part by this embodiment is applied. 本実施形態による映像信号補正方法の流れを示したフローチャートである。5 is a flowchart showing a flow of a video signal correction method according to the present embodiment. 他の本実施形態による特徴量を抽出する方法を示す説明図である。It is explanatory drawing which shows the method of extracting the feature-value by other this embodiment. 映像信号に含まれる周波数成分の一例を示した説明図である。It is explanatory drawing which showed an example of the frequency component contained in a video signal. 映像信号から高周波成分を抽出した様子を示す説明図である。It is explanatory drawing which shows a mode that the high frequency component was extracted from the video signal. 従来の画像を補正するために用いられる画像補正回路の構成を示したブロック図である。It is the block diagram which showed the structure of the image correction circuit used in order to correct | amend the conventional image. リンギングの発生についての説明図である。It is explanatory drawing about generation | occurrence | production of ringing.

符号の説明Explanation of symbols

12,62 エッジフィルタ
14 特徴量抽出部
16 増幅率導出部
18,68 増幅器
20,70 加算器
30 空
32 家
34 草地
36 人
38 車
40 木
50 三角形エッジ成分
52 増幅画素領域
80 プレシュート
82 アンダーシュート
12, 62 Edge filter 14 Feature amount extraction unit 16 Amplification factor derivation unit 18, 68 Amplifier 20, 70 Adder 30 Sky 32 House 34 Grassland 36 People 38 Car 40 Tree 50 Triangle edge component 52 Amplification pixel area 80 Preshoot 82 Undershoot

Claims (14)

映像信号のエッジ成分を抽出するエッジフィルタと,該抽出したエッジ成分を増幅する増幅器と,該増幅されたエッジ成分を元の映像信号に加算する加算器と,を備え,映像信号のエッジを強調する映像信号補正装置であって:
前記映像信号の特徴量を抽出する特徴量抽出部と;
前記特徴量に対応した増幅率を導出する増幅率導出部と;
をさらに備え,
前記増幅器は,前記増幅率導出部からの増幅率でエッジ成分を増幅することを特徴とする,映像信号補正装置。
An edge filter that extracts an edge component of a video signal, an amplifier that amplifies the extracted edge component, and an adder that adds the amplified edge component to the original video signal, and enhances the edge of the video signal A video signal correction device that:
A feature quantity extraction unit for extracting a feature quantity of the video signal;
An amplification factor deriving unit for deriving an amplification factor corresponding to the feature amount;
Further comprising
The video signal correction apparatus according to claim 1, wherein the amplifier amplifies an edge component with an amplification factor from the amplification factor deriving unit.
前記特徴量抽出部は,同一フレームの所定領域における映像信号に基づいて,前記特徴量を検出することを特徴とする,請求項1に記載の映像信号補正装置。   The video signal correction apparatus according to claim 1, wherein the feature amount extraction unit detects the feature amount based on a video signal in a predetermined region of the same frame. 前記特徴量は,同一フレームの前記所定領域を構成する画素間の,輝度の変化の程度を表すことを特徴とする,請求項2に記載の映像信号補正装置。   The video signal correction apparatus according to claim 2, wherein the feature amount represents a degree of change in luminance between pixels constituting the predetermined area of the same frame. 前記特徴量は,同一フレームの前記所定領域を構成する画素の,輝度の絶対偏差であることを特徴とする,請求項3に記載の映像信号補正装置。   4. The video signal correction apparatus according to claim 3, wherein the feature amount is an absolute luminance deviation of pixels constituting the predetermined area of the same frame. 前記増幅率導出部は,前記特徴量に基づいて,画素を所定数の区分のいずれかに分類することを特徴とする,請求項1に記載の映像信号補正装置。   The video signal correction apparatus according to claim 1, wherein the amplification factor deriving unit classifies the pixels into any of a predetermined number of sections based on the feature amount. 前記増幅率導出部は,前記画素の増幅率を,該画素の属する区分に基づいて導出することを特徴とする,請求項5に記載の映像信号補正装置。   6. The video signal correction apparatus according to claim 5, wherein the amplification factor deriving unit derives the amplification factor of the pixel based on a classification to which the pixel belongs. 前記所定数の区分は,前記周辺画素の輝度の起伏が平坦であるとする区分,周辺画素に強調すべき前記エッジ成分があるとする区分,周辺画素に雑音成分が多く含まれるとする区分および周辺画素の輝度差が激しいとする区分の群から選択された1または2以上の区分であることを特徴とする,請求項6に記載の映像信号補正装置。   The predetermined number of sections includes a section in which the undulation of luminance of the peripheral pixels is flat, a section in which the peripheral pixels include the edge component to be emphasized, a section in which the peripheral pixels include a lot of noise components, and 7. The video signal correction apparatus according to claim 6, wherein the video signal correction apparatus is one or more sections selected from a group of sections in which a luminance difference between peripheral pixels is significant. 前記周辺画素の輝度の起伏が平坦であるとする区分の増幅率は,1であることを特徴とする,請求項7に記載の映像信号補正装置。   The video signal correction apparatus according to claim 7, wherein the amplification factor of the section in which the undulation of the brightness of the peripheral pixels is flat is 1. 9. 前記周辺画素に強調すべき前記エッジ成分があるとする区分の増幅率は,前記周辺画素の輝度の起伏が平坦であるとする区分の増幅率より高いことを特徴とする,請求項7に記載の映像信号補正装置。   The amplification factor of the section in which the edge component to be emphasized is present in the peripheral pixels is higher than the amplification ratio of the section in which the undulation of the luminance of the peripheral pixels is flat. Video signal correction device. 前記周辺画素に雑音成分が多く含まれるとする区分の増幅率は,前記周辺画素の輝度の起伏が平坦であるとする区分の増幅率より高く,前記周辺画素に強調すべき前記エッジ成分があるとする区分の増幅率より低いことを特徴とする,請求項7に記載の映像信号補正装置。   The amplification factor of the segment in which the surrounding pixel includes a lot of noise components is higher than the amplification factor of the segment in which the luminance unevenness of the peripheral pixel is flat, and the peripheral pixel has the edge component to be emphasized The video signal correction device according to claim 7, wherein the video signal correction device is lower than an amplification factor of the section. 前記周辺画素の輝度差が激しいとする区分の増幅率は,前記周辺画素の輝度の起伏が平坦であるとする区分の増幅率より高く,前記周辺画素に強調すべき前記エッジ成分があるとする区分の増幅率より低いことを特徴とする,請求項7に記載の映像信号補正装置。   The amplification factor of the section in which the luminance difference between the peripheral pixels is severe is higher than the amplification factor of the section in which the undulation of the luminance of the peripheral pixels is flat, and the peripheral pixel has the edge component to be emphasized. 8. The video signal correcting apparatus according to claim 7, wherein the video signal correcting apparatus is lower than the amplification factor of the section. 前記増幅率導出部は,前記特徴量を正規化した後に,正規化された特徴量に基づいて画素を前記所定数の区分に分類することを特徴とする,請求項5に記載の映像信号補正装置。   6. The video signal correction according to claim 5, wherein the amplification factor deriving unit classifies the pixels into the predetermined number of categories based on the normalized feature value after normalizing the feature value. apparatus. 映像信号のエッジを強調する映像信号補正装置によって映像信号を補正する映像信号補正方法であって:
前記映像信号補正装置が,
映像信号のエッジ成分を抽出するステップと;
前記映像信号の特徴量を抽出するステップと;
前記特徴量に対応した増幅率を導出するステップと;
前記抽出したエッジ成分を前記増幅率で増幅するステップと;
前記増幅されたエッジ成分を元の映像信号に加算するステップと;
を含むことを特徴とする,映像信号補正方法。
A video signal correction method for correcting a video signal by a video signal correction device that emphasizes edges of the video signal:
The video signal correction device comprises:
Extracting an edge component of the video signal;
Extracting a feature amount of the video signal;
Deriving an amplification factor corresponding to the feature amount;
Amplifying the extracted edge component with the amplification factor;
Adding the amplified edge component to the original video signal;
A video signal correction method comprising:
映像信号のエッジの強調を実現させる映像信号補正プログラムであって:
コンピュータに,
映像信号のエッジ成分を抽出するステップと;
前記映像信号の特徴量を抽出するステップと;
前記特徴量に対応した増幅率を導出するステップと;
前記抽出したエッジ成分を前記増幅率で増幅するステップと;
前記増幅されたエッジ成分を元の映像信号に加算するステップと;
を実行させることを特徴とする,映像信号補正方法プログラム。







A video signal correction program for emphasizing edges of a video signal:
Computer
Extracting an edge component of the video signal;
Extracting a feature amount of the video signal;
Deriving an amplification factor corresponding to the feature amount;
Amplifying the extracted edge component with the amplification factor;
Adding the amplified edge component to the original video signal;
A video signal correction method program, characterized in that







JP2005354448A 2005-12-08 2005-12-08 Device, method and program for video signal correction Withdrawn JP2007158992A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005354448A JP2007158992A (en) 2005-12-08 2005-12-08 Device, method and program for video signal correction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005354448A JP2007158992A (en) 2005-12-08 2005-12-08 Device, method and program for video signal correction

Publications (1)

Publication Number Publication Date
JP2007158992A true JP2007158992A (en) 2007-06-21

Family

ID=38242729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005354448A Withdrawn JP2007158992A (en) 2005-12-08 2005-12-08 Device, method and program for video signal correction

Country Status (1)

Country Link
JP (1) JP2007158992A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010029649A1 (en) * 2008-09-10 2010-03-18 ミツミ電機株式会社 Video display device
JP2013500625A (en) * 2009-07-21 2013-01-07 クゥアルコム・インコーポレイテッド Method and system for video image detection and enhancement

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010029649A1 (en) * 2008-09-10 2010-03-18 ミツミ電機株式会社 Video display device
JP4435843B1 (en) * 2008-09-10 2010-03-24 ミツミ電機株式会社 Video display device
JP2010068254A (en) * 2008-09-10 2010-03-25 Mitsumi Electric Co Ltd Video display
CN102150420A (en) * 2008-09-10 2011-08-10 三美电机株式会社 Video display device
US8670079B2 (en) 2008-09-10 2014-03-11 Mitsumi Electric Co., Ltd. Video display device
JP2013500625A (en) * 2009-07-21 2013-01-07 クゥアルコム・インコーポレイテッド Method and system for video image detection and enhancement

Similar Documents

Publication Publication Date Title
US9177363B1 (en) Method and image processing apparatus for image visibility restoration
KR102146560B1 (en) Method and apparatus for adjusting image
US9230304B2 (en) Apparatus and method for enhancing image using color channel
US7468759B2 (en) Method, apparatus and recording medium for image processing
DE112011101066B4 (en) IMAGE PROCESSING DEVICE AND CONTROL METHOD FOR AN IMAGE PROCESSING DEVICE
US8818126B2 (en) Method and apparatus for block-based image denoising
KR101327789B1 (en) Method and apparatus for reducing various noises of image simultaneously
US8532428B2 (en) Noise reducing apparatus, noise reducing method, and noise reducing program for improving image quality
US20070165947A1 (en) Image processing method and system using gain controllable clipped histogram equalization
US20100066874A1 (en) Image processing method
US8351735B2 (en) Image processing system, method and computer program for contrast enhancement of images
US9153015B2 (en) Image processing device and method
US8335396B2 (en) Image output apparatus, edge enhancement method, and recording medium
US20090087092A1 (en) Histogram stretching apparatus and histogram stretching method for enhancing contrast of image
KR101311613B1 (en) Contour correction apparatus
US9621766B2 (en) Image processing apparatus, image processing method, and program capable of performing high quality mist/fog correction
CN107784637B (en) Infrared image enhancement method
US20110243472A1 (en) Image processing device and spatial noise reducing method
US20090185757A1 (en) Apparatus and method for immersion generation
JP5914843B2 (en) Image processing apparatus and image processing method
US7970228B2 (en) Image enhancement methods with consideration of the smooth region of the image and image processing apparatuses utilizing the same
US6323855B1 (en) Sharpening edge features in digital image providing high frequency edge enhancement
US6781625B2 (en) Noise reducing apparatus
JP2007158992A (en) Device, method and program for video signal correction
JP5110161B2 (en) Image correction apparatus, image correction program, and image correction method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090303