JP2008066942A - Image processor and processing method - Google Patents

Image processor and processing method Download PDF

Info

Publication number
JP2008066942A
JP2008066942A JP2006241280A JP2006241280A JP2008066942A JP 2008066942 A JP2008066942 A JP 2008066942A JP 2006241280 A JP2006241280 A JP 2006241280A JP 2006241280 A JP2006241280 A JP 2006241280A JP 2008066942 A JP2008066942 A JP 2008066942A
Authority
JP
Japan
Prior art keywords
image
output
edge
nonlinear function
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006241280A
Other languages
Japanese (ja)
Inventor
Hyuk-Jae Jang
ヒョクゼ ジャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2006241280A priority Critical patent/JP2008066942A/en
Publication of JP2008066942A publication Critical patent/JP2008066942A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To detect an edge element included in input image data with high precision and to determine coefficients of weighted sum of an input image and a filtered image in response to the edge element. <P>SOLUTION: The image processor is provided with: a parameter determining means for obtaining a parameter to be used for weighting when the input image and an image filtered with respect to the input image are synthesized by using a non-linear function in accordance with information on the edge element detected from the input image; and an image synthesizing means for performing weighted sum to the input image and the filtered image in response to the obtained parameter. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は動画像符号化の分野における画像処理装置、および処理方法に関する。   The present invention relates to an image processing apparatus and a processing method in the field of moving picture coding.

画像信号処理部分野では、画像データから冗長部分を取り除き、また画像に含まれる雑音による画質の劣化を改善するための画像の変換や、画像の特徴を抽出する画像解析などのために画像処理装置が広く用いられている。そのような画像処理の1つとして、画像の輪郭(エッジ)をぼかしたり、逆に強調するための輪郭補正処理が行われる。   In the field of image signal processing units, image processing devices are used for image conversion to remove redundant portions from image data, improve image quality degradation due to noise contained in images, and to analyze image characteristics to extract image features. Is widely used. As one of such image processing, contour correction processing for blurring or conversely enhancing the contour (edge) of the image is performed.

2003年にITU−T(国際電気通信連合−電気通信標準化部門)によって標準化されたH.264動画像圧縮符号化方式では、符号化対象の入力画像に対する前処理として、入力画像データに対する空間フィルタリング処理を行う場合が多い。この空間フィルタリング処理の目的は、画像データに含まれる白色雑音などの除去、符号化処理効率向上のための高周波成分の低減などであり、フィルタとしてローパスフィルタが用いられ、空間フィルタリング処理が行われる。   Standardized by ITU-T (International Telecommunication Union-Telecommunication Standardization Sector) in 2003. In the H.264 moving image compression encoding method, spatial filtering processing for input image data is often performed as preprocessing for an input image to be encoded. The purpose of this spatial filtering process is to remove white noise contained in the image data, to reduce high frequency components for improving the encoding processing efficiency, etc., and a low-pass filter is used as a filter, and the spatial filtering process is performed.

しかしながらこのような空間フィルタリング処理において、ローパスフィルタを通過した画像データには低周波成分だけが残っており、フィルタのカットオフ周波数以上の高周波領域の周波数成分が除去される。このため高周波成分によって表わされる画像内のエッジ成分(輪郭)がほとんどなくなり、出力画像の輪郭がぼやけ、画像がぼけて見えるという問題点があった。   However, in such spatial filtering processing, only low frequency components remain in the image data that has passed through the low-pass filter, and frequency components in a high frequency region that is equal to or higher than the cutoff frequency of the filter are removed. For this reason, there are almost no edge components (contours) in the image represented by the high-frequency components, and there is a problem that the contour of the output image is blurred and the image looks blurred.

このような問題点を解決するための従来技術としての特許文献1では、周波数帯域が異なる様々な画像信号の入力に対応して、その周波数帯域に適合する高精度の輪郭補正信号を適切なタイミングで生成し、この輪郭補正信号と入力画像信号とを同期をとって加算し、入力画像の輪郭を補正する信号処理装置が開示されている。
特開2005−176060 「信号処理装置、画像表示装置および信号処理方法」
In Patent Document 1 as a prior art for solving such a problem, a high-accuracy contour correction signal suitable for the input of various image signals having different frequency bands is supplied at an appropriate timing. And a signal processing device that corrects the contour of the input image by synchronizing and adding the contour correction signal and the input image signal.
JP-A-2005-176060 “Signal processing device, image display device, and signal processing method”

しかしながら、この従来技術では、エッジ検出が隣接、または数画素隔てた画素対の輝度差の1次元データ列を用いて行われており、例えば2次元的な処理によってエッジ情報を検出する場合に比べて、その検出精度が低いという問題点と、輪郭補正信号と入力画像信号とを加算するにあたって、重み付け加算のための重み付けの係数を適切に設定することが難しいという問題点があった。   However, in this prior art, edge detection is performed using a one-dimensional data string of luminance differences between pixel pairs adjacent to each other or separated by several pixels. Compared to the case where edge information is detected by two-dimensional processing, for example. Thus, there are problems that the detection accuracy is low and that it is difficult to appropriately set a weighting coefficient for weighted addition when adding the contour correction signal and the input image signal.

本発明の課題は、上述の問題点に鑑み、例えばローパスフィルタを通過した画像データのエッジ成分を効果的に保存するために、入力画像データに含まれるエッジ成分の検出精度を向上させるとともに、このエッジ成分に対応したパラメータを用いて、フィルタリング処理後の画像と入力画像とを加算するための重み付け係数を適切に設定することを可能とし、入力画像データのエッジ成分保存を効率化することである。   In view of the above-described problems, the problem of the present invention is to improve the detection accuracy of the edge component included in the input image data in order to effectively store the edge component of the image data that has passed through the low-pass filter, for example. It is possible to appropriately set a weighting coefficient for adding an image after filtering processing and an input image using parameters corresponding to the edge component, and to efficiently save the edge component of the input image data. .

本発明の画像処理装置は、入力原画像に対するフィルタリング処理を行うフィルタ手段と、前記入力原画像のエッジ成分の情報を検出するエッジ検出手段と、該検出されたエッジ成分の情報に対応して、前記フィルタ手段の出力としてのフィルタリング後画像と入力原画像との合成時の重み付けに用いるパラメータを、非線形関数を用いて求めるパラメータ決定手段と、該求められたパラメータに対応して、前記入力原画像と前記フィルタリング後画像との重み付け加算を行う画像合成手段とを備えることを特徴とする。   The image processing apparatus of the present invention corresponds to the filter means for performing filtering processing on the input original image, the edge detection means for detecting edge component information of the input original image, and the detected edge component information, Parameter determining means for obtaining a parameter used for weighting when combining the filtered image and the input original image as the output of the filter means using a non-linear function, and the input original image corresponding to the obtained parameter And image synthesizing means for performing weighted addition of the filtered image and the filtered image.

本発明によれば、2次元的に検出されるエッジ成分の情報を用いることによって、エッジ抽出の精度が向上し、またフィルタリング処理後の画像と、入力原画像との重み付け加算のためのパラメータを決定するために用いられる非線形関数の形状を決める定数がオペレータから設定可能となることによって、重み付け加算係数の適切な決定が可能となる。   According to the present invention, by using the information of edge components detected two-dimensionally, the accuracy of edge extraction is improved, and parameters for weighted addition between the filtered image and the input original image are set. Since the constant that determines the shape of the nonlinear function used for determination can be set by the operator, the weighted addition coefficient can be appropriately determined.

図1は、本発明の画像処理装置の原理構成ブロック図である。同図は、入力画像のエッジ成分を保存するための画像処理装置1の原理構成を示し、装置1は少なくともフィルタ手段2、エッジ検出手段3、パラメータ決定手段4、および画像合成手段5を備える。   FIG. 1 is a block diagram showing the principle configuration of an image processing apparatus according to the present invention. FIG. 1 shows a principle configuration of an image processing apparatus 1 for storing an edge component of an input image. The apparatus 1 includes at least a filter unit 2, an edge detection unit 3, a parameter determination unit 4, and an image synthesis unit 5.

フィルタ手段2は入力画像、例えばH.264方式などの動画像符号化装置への入力画像に対する前処理としてのフィルタリング処理を行うものであり、エッジ検出手段3は入力画像からそのエッジ成分の情報を検出するものであり、パラメータ決定手段4は検出されたエッジ成分の情報に対応して、フィルタ手段3の出力と入力画像との重み付け合成時のパラメータを非線形関数を用いて求めるものであり、画像合成手段5は決定されたパラメータに対応して、フィルタ手段2の出力と入力画像との合成を行うものである。   The filter means 2 receives an input image such as H.264. A filtering process is performed as a preprocessing for an input image to a moving image encoding apparatus such as the H.264 system, and the edge detection unit 3 detects information on the edge component from the input image. Corresponds to the information of the detected edge component, and a parameter at the time of weighted synthesis between the output of the filter means 3 and the input image is obtained using a nonlinear function, and the image synthesis means 5 corresponds to the determined parameter. Thus, the output of the filter means 2 and the input image are combined.

発明の実施の形態においては、エッジ検出手段3はエッジ情報検出対象画素の2次元周辺画素の画素データに対応して画素毎にエッジ情報を求めるものであり、またパラメータ決定手段4によって用いられる非線形関数の関数形を決める定数を外部、例えばシステムのオペレータから設定可能とすることもできる。   In the embodiment of the invention, the edge detection means 3 obtains edge information for each pixel corresponding to the pixel data of the two-dimensional peripheral pixels of the edge information detection target pixel, and is also a nonlinear used by the parameter determination means 4. A constant that determines the function form of the function can be set externally, for example, by an operator of the system.

このように本発明においては、入力画像のエッジ成分の情報がエッジ情報検出対象画素の2次元周辺画素の画素データに対応して求められ、また入力画像と入力画像のフィルタリング処理後の画像との重み付け合成時のパラメータが非線形関数を用いて求められ、さらにその非線形関数の関数形を決める定数が、例えばオペレータによって設定可能となる。   As described above, in the present invention, the edge component information of the input image is obtained corresponding to the pixel data of the two-dimensional peripheral pixels of the edge information detection target pixel, and the input image and the input image after filtering processing are obtained. Parameters for weighting synthesis are obtained using a nonlinear function, and a constant that determines the function form of the nonlinear function can be set by an operator, for example.

図2は、本発明のエッジ成分保存のための画像処理装置の基本構成ブロック図である。同図において入力画像データX(k)は、外部の画像入力ブロックから送られてくる原入力画像であり、そのデータはラインメモリ10に与えられ、2次元フィルタリングやエッジ成分情報抽出のために複数の垂直ライン、または水平ラインのデータがラインメモリ10に蓄えられる。ここでkは入力画像データにおける画素の番号に相当する。   FIG. 2 is a block diagram showing the basic configuration of an image processing apparatus for storing edge components according to the present invention. In the figure, input image data X (k) is an original input image sent from an external image input block, and the data is given to the line memory 10 and is used for two-dimensional filtering and edge component information extraction. The vertical line or horizontal line data is stored in the line memory 10. Here, k corresponds to the pixel number in the input image data.

ラインメモリ10に必要なデータが格納された時点で、そのデータはエッジ抽出フィルタ11と、空間フィルタ(ローパスフィルタ)13とに与えられる。エッジ抽出フィルタ11は、例えばSobelフィルタであり、エッジ情報検出対象画素、および周辺の2次元の画素の画素値を用いて、検出対象画素に対するエッジ強度の絶対値と角度を出力するものであり、本実施形態ではその絶対値として、検出対象画素kに対するエッジ強度E(k)がエッジ抽出フィルタ11から出力されるものとする。一方、空間フィルタ13からはフィルタリング後の画像データF(k)が出力される。このフィルタリング処理では、雑音除去などのために、ローパスフィルタが用いられる。   When necessary data is stored in the line memory 10, the data is given to the edge extraction filter 11 and the spatial filter (low-pass filter) 13. The edge extraction filter 11 is, for example, a Sobel filter, and outputs the absolute value and angle of the edge intensity with respect to the detection target pixel using the pixel values of the edge information detection target pixel and the surrounding two-dimensional pixels, In this embodiment, the edge intensity E (k) for the detection target pixel k is output from the edge extraction filter 11 as the absolute value. On the other hand, the filtered image data F (k) is output from the spatial filter 13. In this filtering process, a low-pass filter is used for noise removal and the like.

エッジ抽出フィルタ11によって出力されるエッジ強度E(k)は非線形関数処理部12に与えられる。非線形関数処理部12は、外部、例えばシステムのオペレータによって図示しないレジスタに設定される非線形関数の形状決定用定数を用いて、ラインメモリ10から出力される入力画像データX(k)と、空間フィルタ13から出力されるフィルタリング後の画像データF(k)との加算、すなわちブレンド処理における重み付け加算のためのパラメータY(k)を出力するものであり、このパラメータに対応して、画像ブレンド処理部14によって入力画像データとフィルタリング後の画像データが重み付け加算され、出力画像データP(k)が出力される。   The edge strength E (k) output by the edge extraction filter 11 is given to the nonlinear function processing unit 12. The non-linear function processing unit 12 uses input image data X (k) output from the line memory 10 and a spatial filter using a non-linear function shape determination constant set in a register (not shown) by, for example, a system operator. 13 outputs a parameter Y (k) for addition to the filtered image data F (k) output from 13, that is, weighted addition in the blending process, and an image blending processing unit corresponding to this parameter 14, the input image data and the filtered image data are weighted and added, and output image data P (k) is output.

このような構成によって、入力画像データに対するエッジ情報の抽出、およびパラメータY(k)の出力と、空間フィルタリング処理とを並列に実行することができ、画像ブレンド処理部14で行われるブレンド処理としての画像エッジ成分保存処理に対して、画素単位でY(k)とF(k)とを同期させてデータを出力することが可能となる。   With such a configuration, the extraction of edge information from the input image data, the output of the parameter Y (k), and the spatial filtering process can be executed in parallel. As a blend process performed by the image blend processing unit 14 With respect to the image edge component storage processing, Y (k) and F (k) can be synchronized in pixel units and data can be output.

図3は、本実施形態におけるエッジ保存処理の基本フローチャートである。同図において処理が開始されると、まずステップS1で画像データが入力され、入力データはステップS2のエッジ情報生成処理と、ステップS4の空間フィルタリング処理とに与えられる。ステップS2に続くステップS3では、非線形関数処理としてパラメータY(k)の生成が行われ、ステップS4における空間フィルタリング処理の結果、および入力画像とともにステップS5のブレンド処理に与えられ、空間フィルタリング処理後の画像と入力原画像とが、パラメータY(k)に対応する重み付け係数を用いて重み付け加算されて、処理を終了する。   FIG. 3 is a basic flowchart of edge storage processing in the present embodiment. When the process is started in the figure, first, image data is input in step S1, and the input data is given to the edge information generation process in step S2 and the spatial filtering process in step S4. In step S3 following step S2, the parameter Y (k) is generated as a nonlinear function process, and is given to the blend process in step S5 together with the result of the spatial filtering process in step S4 and the input image. The image and the input original image are weighted and added using a weighting coefficient corresponding to the parameter Y (k), and the process ends.

図4は、図2の非線形関数処理部12によって用いられる非線形関数の例である。図2において、エッジ抽出フィルタ11の出力するエッジ強度E(k)は“0”から“255”の範囲の値を有するものとし、また非線形関数処理部12の出力としてのY(k)の値は“0”から“256”の範囲をとるものとする。   FIG. 4 is an example of a nonlinear function used by the nonlinear function processing unit 12 of FIG. In FIG. 2, the edge intensity E (k) output from the edge extraction filter 11 has a value in the range of “0” to “255”, and the value of Y (k) as the output of the nonlinear function processing unit 12. Is in the range of “0” to “256”.

図4において非線形関数は最大4つの区間を持つものとして定義される。第1区間と第4区間における非線形関数の出力はそれぞれ“0”と“256”に固定されており、第2区間では傾きがβ/32、第3区間では傾きがβ/32の直線(線分)によって表わされる。 In FIG. 4, the nonlinear function is defined as having a maximum of four sections. The output of the nonlinear function in the first section and the fourth section is fixed to "0" and "256", the second slope in the interval is beta 0/32, the linear slope of the beta 1/32 in the third section It is represented by (line segment).

図2において、図示しないレジスタに設定され、非線形関数処理部12に与えられる非線形関数の関数形を決定する定数としては、まず第1区間と第2区間の境界となるエッジ強度E、第2区間と第3区間の境界となるエッジ強度E、第2区間における直線の傾きを決めるβ、第3区間における直線の傾きを決めるβ、および第3区間の始点における非線形関数処理部12の出力としてのYの5つがある。このうち、パラメータYは、第2区間と第3区間が図4におけるように不連続でない場合には、3つの定数E、E、およびβを用いて算出することが可能である。 In FIG. 2, constants that are set in a register (not shown) and determine the function form of the nonlinear function given to the nonlinear function processing unit 12 are first edge strengths E 0 and 2 that are boundaries between the first section and the second section. Edge strength E 1 that becomes the boundary between the section and the third section, β 0 that determines the slope of the straight line in the second section, β 1 that determines the slope of the straight line in the third section, and the nonlinear function processing unit 12 at the start point of the third section 5 Tsugaaru of Y 1 as the output of. Of these, the parameter Y 1 can be calculated using three constants E 0 , E 1 , and β 0 when the second and third sections are not discontinuous as in FIG. .

図5は、第2区間、および第3区間における直線の傾きを設定するためにレジスタに与えられるβ、βの値に対応する直線の傾きの値の説明図である。βの値が与えられるレジスタと、βの値が与えられるレジスタとは基本的に独立であり、例えばこれらのレジスタに与えられるβ、βの値がともに“1”であれば、第2区間、および第3区間における直線の傾きの値は“1/32”となる。このように非線形関数の関数形を決める定数をレジスタを介して外部から、例えばオペレータによって自由に設定可能とすることによって、非線形関数の値とそれに対応する重み付け係数の値を適切に決定することができる。 FIG. 5 is an explanatory diagram of the slope values of the straight lines corresponding to the values of β 0 and β 1 given to the register in order to set the slopes of the straight lines in the second section and the third section. The register to which the value of β 0 is given and the register to which the value of β 1 are given are basically independent. For example, if both the values of β 0 and β 1 given to these registers are “1”, The value of the slope of the straight line in the second section and the third section is “1/32”. In this way, by allowing constants that determine the function form of the nonlinear function to be freely set from the outside, for example, by an operator via a register, it is possible to appropriately determine the value of the nonlinear function and the corresponding weighting coefficient. it can.

図6から図8は具体的な非線形関数の設定例である。図6では、図4におけると同様に非線形関数に4つの区間が存在するが、第2区間の終点と第3区間の始点とは不連続となっており、第3区間の始点における非線形関数処理部の出力Yの値はE、E、およびβの値によって算出することはできない。なお、同図においてE’は非線形関数処理部12に入力されるエッジ強度E(k)の任意の値、Y’は入力E’に対応する非線形関数処理部12の出力を示している。 FIG. 6 to FIG. 8 are examples of setting specific nonlinear functions. In FIG. 6, there are four sections in the nonlinear function as in FIG. 4, but the end point of the second section and the start point of the third section are discontinuous, and the nonlinear function processing at the start point of the third section The value of the part output Y 1 cannot be calculated by the values of E 0 , E 1 , and β 0 . In the figure, E ′ represents an arbitrary value of the edge strength E (k) input to the nonlinear function processing unit 12, and Y ′ represents an output of the nonlinear function processing unit 12 corresponding to the input E ′.

図7は、第2区間が存在しない場合の非線形関数の例である。第2区間が存在しない場合には、E(k)の値としてのEとEとは等しくなり、直線の傾きは第3区間における傾きβ/32によって与えられる。図8は、図7と同様に第2区間が存在しない非線形関数の例であるが、第3区間における直線の傾きβ/32が小さいために、エッジ強度入力E(k)が“255”に達しても非線形関数処理部12の出力Y(k)は“256”に達せず、結果として第4区間も存在しない非線形関数の例である。 FIG. 7 is an example of a non-linear function when the second interval does not exist. If the second section does not exist is equal to the E 0 and E 1 as the value of E (k), the slope of the straight line is given by the slope beta 1/32 in the third section. Figure 8 is an example of a non-linear function is a second section does not exist as in FIG. 7, for the slope of the line beta 1/32 is small in the third section, the edge intensity input E (k) is "255" This is an example of a nonlinear function in which the output Y (k) of the nonlinear function processing unit 12 does not reach “256” even if the value reaches, and as a result there is no fourth section.

本発明の画像エッジ成分保存方式について図9、図10を用いてさらに詳細に説明する。図9は、図2の非線形関数処理部12の詳細構成ブロック図である。同図において非線形関数処理部12は、図4で説明した非線形関数の第1区間と第2区間の境界となるエッジ強度の値Eと、第2区間と第3区間の境界のエッジ強度の値Eのレジスタ設定値が入力されるセレクタ20、図4の第2区間と第3区間との境界における非線形関数処理部12の出力Yと、“0”が入力されるセレクタ21、第2区間、第3区間における直線の傾きを決定する傾きレジスタ設定値β、βと、“0”が入力されるセレクタ22、エッジ抽出フィルタ11から出力されるエッジ強度E’が入力され、2つのセレクタ20、22に対する選択制御信号を与える大小比較器23、同じくEと、フリップ・フロップ(FF)29を介したE’との値が与えられ、セレクタ21に対する選択制御信号を出力する大小比較器24、セレクタ20の出力が与えられる2の補数変換部25、2の補数変換部25の出力とエッジ強度E’とを加算する加算器26、加算器26の出力値を保持するFF(フリップ・フロップ)27の出力と、セレクタ22の出力を保持するFF28の出力とを乗算する乗算器31、乗算器31の出力を“32”で割る演算に相当する処理を行う5ビット右シフト処理部32、5ビット右シフト処理部32の出力とセレクタ21の出力とを加算する加算器33、非線形関数処理部12の出力Y(k)を、図4で説明したように“256”で飽和させる飽和処理部34によって構成されている。 The image edge component storage method of the present invention will be described in more detail with reference to FIGS. FIG. 9 is a detailed block diagram of the nonlinear function processing unit 12 of FIG. In the figure, the non-linear function processing unit 12 determines the edge intensity value E 0 that is the boundary between the first and second sections of the non-linear function described in FIG. 4 and the edge intensity at the boundary between the second and third sections. the selector 21 register setting value E 1 is the output Y 1 of the nonlinear function processing section 12 by the selector 20, the boundary between the second interval and the third interval of 4 input, "0" is input, the The slope register set values β 0 and β 1 for determining the slope of the straight line in the second and third sections, the selector 22 to which “0” is input, and the edge strength E ′ output from the edge extraction filter 11 are input. The magnitude comparator 23 that gives selection control signals for the two selectors 20 and 22 is also given the values of E 1 and E ′ via the flip-flop (FF) 29 and outputs the selection control signal for the selector 21. Big and small The comparator 24, the two's complement conversion unit 25 to which the output of the selector 20 is given, the adder 26 for adding the output of the two's complement conversion unit 25 and the edge strength E ′, and the FF holding the output value of the adder 26 ( Flip-flop) 27 and the output of the FF 28 holding the output of the selector 22 are multiplied by a multiplier 31, and a 5-bit right shift process for performing a process corresponding to an operation of dividing the output of the multiplier 31 by "32" 4, the adder 33 that adds the output of the 5-bit right shift processing unit 32 and the output of the selector 21, and the output Y (k) of the nonlinear function processing unit 12 is saturated with “256” as described in FIG. 4. It is comprised by the saturation process part 34 to be made.

図4で説明したように、エッジ強度E’の値が“0”からEまでの間では非線形関数処理部12の出力Y(k)は“0”となる。この時、大小比較器24がエッジ強度E’がEより小さいことを検出した結果として、セレクタ21は“0”を出力する。また大小比較器23がE’がEより小さいことを検出した結果として、セレクタ22は“0”を出力し、その値はFF28を介して乗算器31に与えられる。その結果、加算器26がどのような値を出力していても乗算器31の出力は“0”となり、結果的に非線形関数処理部12の出力Y(k)は“0”となる。 As described with reference to FIG. 4, the output Y (k) of the nonlinear function processing unit 12 is “0” when the value of the edge strength E ′ is “0” to E 0 . At this time, the selector 21 outputs “0” as a result of the magnitude comparator 24 detecting that the edge strength E ′ is smaller than E 1 . As a result of detecting that E ′ is smaller than E 0 by the magnitude comparator 23, the selector 22 outputs “0”, and the value is given to the multiplier 31 via the FF 28. As a result, whatever value the adder 26 outputs, the output of the multiplier 31 becomes “0”, and as a result, the output Y (k) of the nonlinear function processing unit 12 becomes “0”.

エッジ強度E’がEより大きくなっても、セレクタ21は“0”を出力し続ける。これに対してセレクタ22は3つの入力のうちβを出力し、その値がFF28を介して乗算器31に与えられる。一方、セレクタ20は、エッジ強度E’がEとEとの間にあることから、出力としてEを2の補数変換部25に与える。その結果、加算器26はエッジ強度E’からEを減算し、その結果はFF27を介して乗算器31に与えられ、FF28の出力としてのβと乗算される。乗算器31の出力に対して、5ビット右シフト処理部32によって“32”で割る演算が施され、加算器33、飽和処理部34を介してY(k)として出力される。その結果、非線形関数処理部12の出力は次式で与えられる。 Even if the edge strength E ′ becomes larger than E 0 , the selector 21 continues to output “0”. On the other hand, the selector 22 outputs β 0 out of the three inputs, and the value is given to the multiplier 31 via the FF 28. On the other hand, since the edge strength E ′ is between E 0 and E 1 , the selector 20 gives E 0 to the 2's complement conversion unit 25 as an output. As a result, the adder 26 subtracts E 0 from the edge strength E ′, and the result is supplied to the multiplier 31 via the FF 27 and is multiplied by β 0 as the output of the FF 28. The 5-bit right shift processing unit 32 performs an operation of dividing the output of the multiplier 31 by “32”, and outputs the result as Y (k) through the adder 33 and the saturation processing unit 34. As a result, the output of the nonlinear function processing unit 12 is given by the following equation.

Y(k)=β{E’(k)−E}/32
エッジ強度E’がEより大きくなると、セレクタ20はEを出力し、その結果加算器26の出力はエッジ強度E’からEを減算した結果となる。セレクタ22はβを出力し、そのβは加算器26の出力と乗算器31によって乗算され、5ビット右シフト処理部32を介して加算器33に与えられる。セレクタ21は、大小比較器24の制御によって2つの入力のうちYを出力し、5ビット右シフト処理部32の出力とYとが加算器33によって加算され、飽和処理部34を介して非線形関数処理部12から出力される。その結果、図4のように第2区間と第3区間とが連続である場合には、出力Y(k)は次式で与えられる。なお、この値が“256”を超える場合には“256”でクリップされる。
Y (k) = β 0 {E ′ (k) −E 0 } / 32
When the edge strength E ′ becomes larger than E 1 , the selector 20 outputs E 1, and as a result, the output of the adder 26 is a result of subtracting E 1 from the edge strength E ′. The selector 22 outputs β 1, and β 1 is multiplied by the output of the adder 26 by the multiplier 31 and is given to the adder 33 via the 5-bit right shift processing unit 32. The selector 21 outputs Y 1 out of the two inputs under the control of the magnitude comparator 24, and the output of the 5-bit right shift processing unit 32 and Y 1 are added by the adder 33, via the saturation processing unit 34. Output from the nonlinear function processing unit 12. As a result, when the second section and the third section are continuous as shown in FIG. 4, the output Y (k) is given by the following equation. If this value exceeds “256”, it is clipped at “256”.

Y(k)=β{E’(k)−E}/32+Y=β{E’(k)−E}/32+β{E−E}/32
図10は、図2の画像ブレンド処理部14の詳細構成ブロック図である。同図において画像ブレンド処理部14は、原画像、すなわち入力画像データX(k)と空間フィルタ13の出力、すなわちフィルタリング後の画像データF(k)とを入力として受け取るセレクタ40、セレクタ40の後段に位置する2つのFF41、42、FF42の出力が入力される2の補数変換部43、非線形関数処理部12の出力Y(k)を受け取るFF45、FF41の出力と2の補数変換部43の出力とを加算する加算器44、加算器44の出力とFF45の出力とを乗算する乗算器46、乗算器46の出力を“256”で割る除算に相当する処理を行う8ビット右シフト処理部47、8ビット右シフト処理部47の出力とFF48を介したFF42の出力とを加算する加算器49、加算器49の出力に対する飽和処理を行う飽和処理部50を備えている。なお、ここでブレンド画像の階調値は“0”から“255”までの8ビットであるものとし、飽和処理部50は加算器49の出力が“255”を越えてもその値を“255”でクリップするものとする。
Y (k) = β 1 {E ′ (k) −E 1 } / 32 + Y 1 = β 1 {E ′ (k) −E 1 } / 32 + β 0 {E 1 −E 0 } / 32
FIG. 10 is a detailed configuration block diagram of the image blend processing unit 14 of FIG. In the figure, an image blend processing unit 14 receives an original image, that is, input image data X (k) and an output of the spatial filter 13, that is, filtered image data F (k) as inputs, and a subsequent stage of the selector 40. 2 FFs 41 and 42, the outputs of two FFs 42 are input, the output of Y (k) of the nonlinear function processing unit 12 is received, the outputs of FF 45 and FF 41, and the output of the twos complement conversion unit 43 Are added to each other, an adder 44 that multiplies the output of the adder 44 and the output of the FF 45, and an 8-bit right shift processing unit 47 that performs a process equivalent to division by dividing the output of the multiplier 46 by “256”. , An adder 49 for adding the output of the 8-bit right shift processing unit 47 and the output of the FF 42 via the FF 48, and saturation processing for the output of the adder 49. And a processing unit 50. Here, the gradation value of the blend image is assumed to be 8 bits from “0” to “255”, and the saturation processing unit 50 sets the value to “255” even if the output of the adder 49 exceeds “255”. "".

本発明において非線形関数処理部12の出力Y(k)を、原画像(入力画像データ)X(k)と空間フィルタ13の出力としてのフィルタリング後画像データF(k)の加算における重み付け加算のために使用するとき、第1のケースとして原画像X(k)に重み付け係数αを乗算し、フィルタリング後画像データF(k)に(1−α)を乗算して加算する処理を考える。この時、セレクタレジスタ設定値(INPUTSEL)によって、セレクタ40の入力端子1が出力端子1に、入力端子2が出力端子2に接続されるものとする。なお、αとY(k)の間には次の関係があるものとする。   In the present invention, the output Y (k) of the nonlinear function processing unit 12 is used for weighted addition in the addition of the original image (input image data) X (k) and the filtered image data F (k) as the output of the spatial filter 13. In the first case, a process of multiplying the original image X (k) by the weighting coefficient α and multiplying the filtered image data F (k) by (1−α) and adding them will be considered. At this time, it is assumed that the input terminal 1 of the selector 40 is connected to the output terminal 1 and the input terminal 2 is connected to the output terminal 2 according to the selector register setting value (INPUTSSEL). It is assumed that α and Y (k) have the following relationship.

α=Y(k)/256
原画像X(k)はセレクタ40、FF41を介して加算器44に与えられる。また、フィルタリング後画像データF(k)はセレクタ40、FF42を介して、2の補数変換部43とFF48に与えられる。そして加算器44によってX(k)とF(k)との差が計算され、その結果は乗算器46に与えられる。乗算器46に対しては、非線形関数処理部12の出力としてY(k)がFF45を介して入力されており、乗算器46の出力はX(k)とF(k)との差と、Y(k)との積となる。
α = Y (k) / 256
The original image X (k) is given to the adder 44 via the selector 40 and FF41. Further, the filtered image data F (k) is supplied to the two's complement conversion unit 43 and the FF 48 via the selector 40 and the FF 42. The adder 44 calculates the difference between X (k) and F (k), and the result is given to the multiplier 46. Y (k) is input to the multiplier 46 via the FF 45 as the output of the nonlinear function processing unit 12, and the output of the multiplier 46 is the difference between X (k) and F (k), This is the product of Y (k).

この乗算器46の出力に対しては、8ビット右シフト処理部47によって“256”での除算に相当する8ビット右シフト処理が行われ、その結果は加算器49に出力される。加算器49は、FF42の出力するF(k)をFF48を介して受け取り、8ビット右シフト処理部47の出力と加算して、飽和処理部50を介し、ブレンド画像P(k)として出力する。その結果、ブレンド画像P(k)は次式によって与えられる。なお、この式における記号“/”は切り捨て除算を示すものとする。   The output of the multiplier 46 is subjected to 8-bit right shift processing corresponding to division by “256” by the 8-bit right shift processing unit 47, and the result is output to the adder 49. The adder 49 receives F (k) output from the FF 42 via the FF 48, adds it to the output of the 8-bit right shift processing unit 47, and outputs it as a blend image P (k) via the saturation processing unit 50. . As a result, the blend image P (k) is given by: Note that the symbol “/” in this expression indicates a round-down division.

P(k)=F(k)+[Y(k){X(k)−F(k)}]/256
=F(k)+α{X(k)−F(k)}
=αX(k)+(1−α)F(k)
次に第2のケースとして、非線形関数処理部12の出力Y(k)に対応する重み付け係数αをフィルタリング後画像データF(k)に乗算し、原画像データX(k)には(1−α)を乗算し、両者を加算した結果として、ブレンド画像P(k)を出力する処理について説明する。この時、セレクタ40の入力端子1は出力端子2に、入力端子2は出力端子1に接続されるものとする。したがって、加算器44はフィルタリング後画像データF(k)と原画像データX(k)との差を乗算器46に出力し、加算器44の出力に対して乗算器46によってY(k)が乗算され、8ビット右シフト処理部47によって“256”で割る演算に相当する処理が行われ、8ビット右シフト処理部47の出力にFF48の出力する原画像X(k)が加算され、飽和処理部50を介してブレンド画像P(k)が出力される。その結果、ブレンド画像P(k)は次式によって表わされる。
P (k) = F (k) + [Y (k) {X (k) -F (k)}] / 256
= F (k) + α {X (k) −F (k)}
= ΑX (k) + (1-α) F (k)
Next, as a second case, the filtered image data F (k) is multiplied by the weighting coefficient α corresponding to the output Y (k) of the nonlinear function processing unit 12, and the original image data X (k) has (1- A process of outputting the blend image P (k) as a result of multiplying α) and adding both will be described. At this time, the input terminal 1 of the selector 40 is connected to the output terminal 2, and the input terminal 2 is connected to the output terminal 1. Therefore, the adder 44 outputs the difference between the filtered image data F (k) and the original image data X (k) to the multiplier 46, and Y (k) is output from the adder 44 by the multiplier 46. Multiplication is performed by the 8-bit right shift processing unit 47 to perform a process corresponding to the operation of dividing by “256”, and the original image X (k) output from the FF 48 is added to the output of the 8-bit right shift processing unit 47 to saturate A blend image P (k) is output via the processing unit 50. As a result, the blend image P (k) is expressed by the following equation.

P(k)=X(k)+[Y(k){F(k)−X(k)}]/256
=X(k)+α{F(k)−X(k)}
=αF(k)+(1−α)X(k)
以上において、ブレンド画像P(k)の生成処理について2つのケースを説明したが、エッジベクトル強度を求めるためのSobelフィルタの出力の絶対値が大きく、原画像に含まれる高周波成分が大きい場合には、ブレンド画像としては原画像データX(k)の重みを大きくし、フィルタリング後画像データF(k)の重みを小さくすることによって、空間フィルタリング処理によって失われた画像エッジ成分の保存が効果的に行われるものと期待される。この重み付けの係数として用いられるαの値は非線形関数処理部12の出力Y(k)と直接的に対応するものであり、エッジ強度が大きく、非線形関数処理部12の出力Y(k)、すなわち重み付け係数αが大きい場合には、前述の第1のケースを適用して画像ブレンド処理を行うことによって画像エッジ成分の保存が効果的に行われる。この第1のケースでは、エッジ強度が小さく、したがって重み付け係数αが小さくなる場合には、原画像データX(k)の重みは小さく、フィルタリング後画像F(k)の重みが大きくなることによって、高周波成分の少ない原画像に対する画像ブレンド処理が行われることになる。
P (k) = X (k) + [Y (k) {F (k) -X (k)}] / 256
= X (k) + α {F (k) −X (k)}
= ΑF (k) + (1-α) X (k)
In the above, two cases have been described for the generation processing of the blend image P (k). However, when the absolute value of the output of the Sobel filter for obtaining the edge vector strength is large and the high-frequency component included in the original image is large. As a blended image, the weight of the original image data X (k) is increased and the weight of the filtered image data F (k) is decreased, so that the image edge component lost by the spatial filtering process can be effectively saved. Expected to be done. The value of α used as the weighting coefficient directly corresponds to the output Y (k) of the nonlinear function processing unit 12, has a large edge strength, and outputs Y (k) of the nonlinear function processing unit 12, that is, When the weighting coefficient α is large, the image edge component is effectively stored by performing the image blending process by applying the first case described above. In this first case, when the edge strength is small and thus the weighting coefficient α is small, the weight of the original image data X (k) is small and the weight of the filtered image F (k) is large, An image blending process is performed on an original image with a small number of high frequency components.

図11は、本発明の画像エッジ成分保存方式を用いる動画像圧縮符号化処理装置の構成ブロック図である。同図において動画像圧縮符号化処理装置52は、図2で説明した画像処理装置53の後段に符号化部55を備え、画像ブレンド処理部14によって出力された画像データP(k)を符号化部55によって圧縮符号化し、画像圧縮データを出力するものである。   FIG. 11 is a block diagram showing the configuration of a moving image compression coding processing apparatus using the image edge component storage method of the present invention. In the figure, a moving image compression coding processing device 52 includes a coding unit 55 subsequent to the image processing device 53 described in FIG. 2, and codes the image data P (k) output by the image blend processing unit 14. The data is compressed and encoded by the unit 55 and the compressed image data is output.

以上においては、エッジ強度から重み付け加算のための重み付け係数に対応する非線形関数処理部12の出力を得るための非線形関数として、図4の非線形関数を例として実施例を説明したが、非線形関数の形は図4に限定されず、曲線を含んでもよく、また任意の不連続点を含んでも良いことは当然である。特に傾きレジスタ設定値として非常に大きな値を格納し、例えば第2区間の傾きβ/32の値を非常に大きく取ることによって、エッジ強度Eのときに、非線形関数の値が“0”から“256”にほぼ不連続的に変化するような非線形関数を用いることも当然可能である。 In the above, the embodiment has been described using the nonlinear function of FIG. 4 as an example of the nonlinear function for obtaining the output of the nonlinear function processing unit 12 corresponding to the weighting coefficient for weighted addition from the edge strength. The shape is not limited to FIG. 4 and may include a curve and may include any discontinuity. Especially storing very large values as the slope register setting value, for example, by taking a very large value of inclination beta 0/32 of the second section, when the edge intensity E 0, the value of the nonlinear function "0" Of course, it is also possible to use a non-linear function that changes almost discontinuously from “256” to “256”.

本発明の画像処理装置の原理構成ブロック図である。1 is a block diagram illustrating a principle configuration of an image processing apparatus according to the present invention. 本発明の画像処理装置の基本構成ブロック図である。1 is a basic configuration block diagram of an image processing apparatus of the present invention. 本発明の画像エッジ成分保存処理の基本フローチャートである。It is a basic flowchart of the image edge component preservation | save process of this invention. 4つの区間を持つ非線形関数の例である。It is an example of a nonlinear function having four sections. 図4の非線形関数に対する傾きレジスタ設定値の説明図である。It is explanatory drawing of the inclination register setting value with respect to the nonlinear function of FIG. 非線形関数の具体例(その1)である。It is a specific example (part 1) of the nonlinear function. 非線形関数の具体例(その2)である。It is a specific example (part 2) of the nonlinear function. 非線形関数の具体例(その3)である。It is a specific example (part 3) of the nonlinear function. 非線形関数処理部の詳細構成ブロック図である。It is a detailed block diagram of a nonlinear function processing unit. 画像ブレンド処理部の詳細構成ブロック図である。It is a detailed block diagram of an image blend processing unit. 動画像圧縮符号化処理装置の構成例である。It is an example of a structure of a moving image compression encoding processing apparatus.

符号の説明Explanation of symbols

1、53 画像処理装置
2 フィルタ手段
3 エッジ検出手段
4 パラメータ決定手段
5 画像合成手段
10 ラインメモリ
11 エッジ抽出フィルタ
12 非線形関数処理部
13 空間フィルタ
14 画像ブレンド処理部
20〜22、40 セレクタ
23、24 大小比較器
25、43 2の補数変換部
26、33、44、49 加算器
31、46 乗算器
32 5ビット右シフト処理部
34、50 飽和処理部
47 8ビット右シフト処理部
52 動画像圧縮符号化処理装置
55 符号化部
DESCRIPTION OF SYMBOLS 1,53 Image processing apparatus 2 Filter means 3 Edge detection means 4 Parameter determination means 5 Image composition means 10 Line memory 11 Edge extraction filter 12 Nonlinear function processing section 13 Spatial filter 14 Image blend processing sections 20 to 22, 40 Selectors 23, 24 Complement conversion units 26, 33, 44, 49 of size comparators 25, 432 Adder 31, 46 Multiplier 32 5-bit right shift processing unit 34, 50 Saturation processing unit 47 8-bit right shift processing unit 52 Video compression code Processing device 55 encoding unit

Claims (5)

画像のエッジ成分を保存する画像処理装置であって、
入力原画像に対するフィルタリング処理を行うフィルタ手段と、
前記入力原画像のエッジ成分の情報を検出するエッジ検出手段と、
該検出されたエッジ成分の情報に対応して、前記フィルタ手段の出力としてのフィルタリング後画像と入力原画像との合成時の重み付けに用いるパラメータを、非線形関数を用いて求めるパラメータ決定手段と、
該求められたパラメータに対応して、前記入力原画像と前記フィルタリング後画像との重み付け加算を行う画像合成手段とを備えることを特徴とする画像処理装置。
An image processing apparatus for storing edge components of an image,
Filter means for performing filtering on the input original image;
Edge detection means for detecting edge component information of the input original image;
Parameter determination means for obtaining, using a nonlinear function, a parameter used for weighting when combining the filtered image as the output of the filter means and the input original image corresponding to the detected edge component information;
An image processing apparatus comprising: an image synthesizing unit that performs weighted addition of the input original image and the filtered image corresponding to the obtained parameter.
前記エッジ検出手段が、検出対象画素と、該検出対象画素の2次元周辺画素の画素データに対応して画素毎にエッジ成分の情報を求めることを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the edge detection unit obtains edge component information for each pixel corresponding to pixel data of a detection target pixel and two-dimensional peripheral pixels of the detection target pixel. 前記パラメータ決定手段によって用いられる非線形関数の関数形を決める定数が外部から設定可能であることを特徴とする請求項1記載の画像処理装置。   2. The image processing apparatus according to claim 1, wherein a constant for determining a function form of the nonlinear function used by the parameter determining means can be set from outside. 前記フィルタ手段が、ローパスフィルタによって構成されることを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the filter unit includes a low-pass filter. 画像のエッジ成分を保存する画像処理方法であって、
入力原画像から検出されたエッジ成分の情報に対応して、該入力原画像に対するフィルタリング処理の結果としてのフィルタリング後画像と入力原画像との合成時の重み付けに用いるパラメータを、非線形関数を用いて求め、
該求められたパラメータに対応して、前記入力原画像と前記フィルタリング後画像との重み付け加算を行うことを特徴とする画像処理方法。
An image processing method for storing edge components of an image,
Corresponding to the edge component information detected from the input original image, a parameter used for weighting at the time of synthesizing the filtered image and the input original image as a result of the filtering process on the input original image is obtained using a nonlinear function. Seeking
An image processing method comprising performing weighted addition of the input original image and the filtered image in accordance with the determined parameter.
JP2006241280A 2006-09-06 2006-09-06 Image processor and processing method Withdrawn JP2008066942A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006241280A JP2008066942A (en) 2006-09-06 2006-09-06 Image processor and processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006241280A JP2008066942A (en) 2006-09-06 2006-09-06 Image processor and processing method

Publications (1)

Publication Number Publication Date
JP2008066942A true JP2008066942A (en) 2008-03-21

Family

ID=39289273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006241280A Withdrawn JP2008066942A (en) 2006-09-06 2006-09-06 Image processor and processing method

Country Status (1)

Country Link
JP (1) JP2008066942A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010239513A (en) * 2009-03-31 2010-10-21 Olympus Corp Image processing device and method, program, and imaging system
JP2011035776A (en) * 2009-08-04 2011-02-17 Sanyo Electric Co Ltd Video information processing apparatus, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010239513A (en) * 2009-03-31 2010-10-21 Olympus Corp Image processing device and method, program, and imaging system
JP2011035776A (en) * 2009-08-04 2011-02-17 Sanyo Electric Co Ltd Video information processing apparatus, and program

Similar Documents

Publication Publication Date Title
JP2005332130A (en) Image processor, image processing method, program for image processing method and recording medium with its program recorded thereon
JP2010041064A (en) Image processing unit, image processing method, and program
US7859552B2 (en) Image processing apparatus
US8737762B2 (en) Method for enhancing image edge
KR20060095960A (en) Block noise reduction device and image display device
US20100026888A1 (en) Image processing method and system with repetitive pattern detection
JP2005167399A (en) Image noise eliminating method
WO2005004057A1 (en) Image processor, image processing method, program and recording medium
JP2005167393A (en) Image noise eliminating method
CN109118436A (en) Picture tone adaptation method and corresponding electronic equipment and storage medium
WO2014008329A1 (en) System and method to enhance and process a digital image
US6876778B2 (en) Edge enhancement method and apparatus in digital image scalar-up circuit
JPH1117954A (en) Video signal processing unit
JP2008500757A (en) Method and system for enhancing the sharpness of a video signal
JP2007096431A (en) Digital video format down-conversion apparatus and method with optional conversion ratio
JP6800090B2 (en) Image processing equipment, image processing methods, programs and recording media
JP2005150903A (en) Image processing apparatus, noise elimination method, and noise elimination program
US9619864B2 (en) Image processing apparatus and method for increasing sharpness of images
WO2017175452A1 (en) Image processing device, image pickup device, image processing method, and program
JP2008066942A (en) Image processor and processing method
US20110129160A1 (en) Image processing apparatus and image processing method in the image processing apparatus
US9007494B2 (en) Image processing apparatus, method for controlling the same and storage medium
KR20100088282A (en) Method and apparatus of inpainting for video data
US8180169B2 (en) System and method for multi-scale sigma filtering using quadrature mirror filters
JP2007179211A (en) Image processing device, image processing method, and program for it

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20091110