JP2969921B2 - Edge feature extraction device - Google Patents

Edge feature extraction device

Info

Publication number
JP2969921B2
JP2969921B2 JP2307381A JP30738190A JP2969921B2 JP 2969921 B2 JP2969921 B2 JP 2969921B2 JP 2307381 A JP2307381 A JP 2307381A JP 30738190 A JP30738190 A JP 30738190A JP 2969921 B2 JP2969921 B2 JP 2969921B2
Authority
JP
Japan
Prior art keywords
unit
value
input
edge
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2307381A
Other languages
Japanese (ja)
Other versions
JPH04178782A (en
Inventor
浩司 山本
進 丸野
茂生 阪上
敏行 香田
泰治 〆木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2307381A priority Critical patent/JP2969921B2/en
Publication of JPH04178782A publication Critical patent/JPH04178782A/en
Application granted granted Critical
Publication of JP2969921B2 publication Critical patent/JP2969921B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 産業上の利用分野 本発明は、画像のエッジ抽出処理において、劣化した
画像から、ノイズの影響を受け難く、更に連結性が良い
エッジ線を抽出でき、かつ高速に処理できるエッジ特徴
抽出装置に関するものである。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an edge extraction process for an image, which is capable of extracting an edge line which is less affected by noise and has better connectivity from a degraded image, and which can process the image at high speed. The present invention relates to a possible edge feature extraction device.

従来の技術 従来のエッジ特徴抽出装置としては、例えば「C.コッ
ホ(C.Koch),J.マロクイン(J.Marroquin)and A.ユー
リ(A.Yuille):アナログ“ニューロナル”ネットワー
クス イン アーリー ビジョン(Analog“Neuronal"N
etworks in early vision),Proc.Natl.Acad.Sci.USA,8
3,pp.4263−4267(1986)」に示されているものがあ
る。
2. Description of the Related Art Conventional edge feature extraction devices include, for example, "C. Koch, J. Marroquin and A. Yuille: Analog" Neuronal "Networks in Early Vision (Analog “Neuronal” N
etworks in early vision), Proc. Natl. Acad. Sci. USA, 8
3, pp. 4263-4267 (1986) ".

第8図はこの従来のエッジ特徴抽出装置の構成図を示
すものであり、1は入力画像、2はコンボリューション
マトリクスデータ、81はエッジエネルギー最小化部、82
は画素エネルギー最小化部、6はエッジ出力部である。
FIG. 8 shows a configuration diagram of this conventional edge feature extraction apparatus, wherein 1 is an input image, 2 is convolution matrix data, 81 is an edge energy minimizing section, 82
Denotes a pixel energy minimizing unit, and 6 denotes an edge output unit.

以上のように構成された従来のエッジ特徴抽出装置の
動作を図に従って説明する。
The operation of the conventional edge feature extraction device configured as described above will be described with reference to the drawings.

正しいエッジ線を劣化画像から得る場合には、劣化画
像の復元処理を行いながらエッジを抽出しなければなら
ない。一般に画像の劣化過程は、まず原画像がぼやかさ
れ次に雑音が加法的に加わるという形で表現される。し
たがって劣化画像をg(x,y)、原画像をf(x,y)、前
記原画像が関数h(x,y)によってぼかされたものと
し、さらにノイズをn(x,y)とすると画像の劣化過程
を次式のように表すことができる。
In order to obtain a correct edge line from a deteriorated image, it is necessary to extract an edge while performing restoration processing of the deteriorated image. Generally, an image degradation process is expressed in such a manner that an original image is first blurred and then noise is added. Therefore, it is assumed that the degraded image is g (x, y), the original image is f (x, y), the original image is blurred by the function h (x, y), and the noise is n (x, y). Then, the degradation process of the image can be expressed as the following equation.

g(x,y)=∬h(x−a,y−b)f(a,b)dadb+n(x,y) ・・・(1) (1)式を離散的な画像の場合に置き直すと(2)式
のように表すことができる。
g (x, y) = ∬h (x−a, y−b) f (a, b) dadb + n (x, y) (1) Equation (1) is replaced with a discrete image. And (2).

ここで、座標(i,j)における劣化画像の画素値をG
(i,j)、原画像の画素値をF(i,j)、ノイズ値をN
(i,j)、前記関数h(x,y)を表すコンボリューション
マトリクスの(i,j)成分をH(i,j)とする。但し、前
記コンボリューションマトリクスは(k,l)成分がf
(i,j)に対応する。
Here, the pixel value of the deteriorated image at the coordinates (i, j) is represented by G
(I, j), the pixel value of the original image is F (i, j), and the noise value is N
(I, j), the component (i, j) of the convolution matrix representing the function h (x, y) is H (i, j). However, in the convolution matrix, the (k, l) component is f
(I, j).

G(i,j)、H(i,j)が既知である場合にF(i,j)
を推定することを考える。いま(2)式を次式のように
変形する。
F (i, j) when G (i, j) and H (i, j) are known
Consider estimating. Now, the equation (2) is transformed into the following equation.

N(i,j)が未知であるのでG(i,j)を平滑化しなが
ら(3)式の右辺を最小にするF(i,j)を求めなけれ
ばならない。したがって、平滑化を行なう制約条件とし
て、次式で表されるような各画素間の画素値の差分が0
になる時に最小となる式Econ(i,j)を(3)式に付け
加える。
Since N (i, j) is unknown, it is necessary to find F (i, j) that minimizes the right side of equation (3) while smoothing G (i, j). Therefore, as a constraint condition for performing smoothing, a difference in pixel value between pixels as expressed by the following equation is 0.
The minimum expression Econ (i, j) is added to the expression (3) when

Econ(i,j)={F(i,j+1)−F(i,j))} +{F(i+1,j)−F(i,j)} ・・・(4) いまエッジは画素と画素の間に存在すると仮定する。
そこでエッジがあるかないかを表す指標として第9図に
示すような線過程と呼ばれる、画素と画素の間に存在す
る仮想の値、A(i,j)及び、B(i,j)を導入し、Econ
(i,j)を次式のように書き換える。但し、A(i,j)、
B(i,j)は、エッジがたっていれば1、たっていなけ
れば0を値として持つとする。
Econ (i, j) = {F (i, j + 1) -F (i, j))} 2 + {F (i + 1, j) -F (i, j)} 2 (4) Assume that it exists between pixels.
Therefore, virtual values A (i, j) and B (i, j) existing between pixels, which are called line processes as shown in FIG. 9, are introduced as indices indicating whether or not there is an edge. And Econ
(I, j) is rewritten as the following equation. Where A (i, j),
It is assumed that B (i, j) has a value of 1 if the edge is hit and 0 if it is not.

Econ(i,j)={F(i,j+1)− F(i,j)}{1−A(i,j)} +{F(i+1,j)− F(i,j)}{1−B(i,j)} ・・・(5) (5)式は、線過程A、Bから見れば「画素間の画素値
の差が大きいほど線過程の値を1に近づける」というこ
とを表わしており、画素値Fから見れば「エッジが立っ
ていない画素間では平滑化を行い、エッジが立っている
画素間では平滑化を行なわない」ということを表してい
る。
Econ (i, j) = {F (i, j + 1) -F (i, j)} 2 {1-A (i, j)} + {F (i + 1, j) -F (i, j)} 2 {1−B (i, j)} (5) Equation (5) shows that, as viewed from the line processes A and B, “the greater the difference in pixel value between pixels, the closer the value of the line process to 1”. In view of the pixel value F, it indicates that "smoothing is performed between pixels having no standing edges, and smoothing is not performed between pixels having standing edges".

さらにA(i,j)、B(i,j)も入力画像から推定しな
ければならない。そこで次式で表されるEedgを最小にす
る時のA(i,j)、B(i,j)の組が画像のエッジとして
一番もっともらしいと仮定する。
Further, A (i, j) and B (i, j) must be estimated from the input image. Therefore, it is assumed that a set of A (i, j) and B (i, j) when Eedg expressed by the following equation is minimized is most likely to be an edge of an image.

ここで、第1項目は「線仮定は、1または0のどちら
かの値をとる」、第2項目は「同じ方向の線仮定は平行
に並ぶことはまずない」、第3項目は「エッジは余り多
くは立たない」、そして最後の項は「エッジはたいてい
続いているかまたは、曲がっており、分枝することは余
りない」という過程を各々表している。但し、Ca、Cb、
Ccは各項の全体に対する重みを表すパラメータである。
Here, the first item is “the line assumption assumes a value of 1 or 0”, the second item is “line assumptions in the same direction are unlikely to be arranged in parallel”, and the third item is “edge Do not stand too much, "and the last term describes the process," the edges are usually continuous or bent, and do not branch too much. " However, Ca, Cb,
Cc is a parameter representing a weight for the entirety of each term.

結局、次式で表されるEを最小にするF(i,j)が求
めたい復元画像の座標(i,j)における画素値というこ
とになる。
Eventually, F (i, j) that minimizes E expressed by the following equation is the pixel value at the coordinates (i, j) of the restored image to be obtained.

但し、C1、C2、C3、C4、C5は全体に対する各項の重み
を表すパラメータである。
Here, C1, C2, C3, C4, and C5 are parameters representing the weight of each term with respect to the whole.

従来のエッジ特徴抽出装置においては第8図に示すよ
うにエッジエネルギー最小化部81は、入力画像1、コン
ボリューションマトリクスデータ2及び、画素エネルギ
ー最小化部82から入力を受ける。
In the conventional edge feature extraction device, as shown in FIG. 8, the edge energy minimizing section 81 receives inputs from the input image 1, the convolution matrix data 2, and the pixel energy minimizing section.

第10図は、エッジエネルギー最小部81及び、画素エネ
ルギー最小化部82の具体的な構成図であり、101はエッ
ジ偏微分部、104はエッジメモリ、105は画素偏微分部、
108は画素メモリ、102及び、106は乗算部、103及び、10
7は加算部を表す。
FIG. 10 is a specific configuration diagram of the edge energy minimizing unit 81 and the pixel energy minimizing unit 82, 101 is an edge partial differentiating unit, 104 is an edge memory, 105 is a pixel partial differentiating unit,
108 is a pixel memory, 102 and 106 are multiplication units, 103 and 10
7 represents an addition unit.

復元画像の画素値を表す画素メモリの内容は、最初に
入力画像1の各画素値に初期設定される。また線過程の
値を表すエッジメモリ104の内容は、すべて0〜1の適
当な値に初期設定される。
First, the contents of the pixel memory representing the pixel values of the restored image are initially set to the pixel values of the input image 1. The contents of the edge memory 104 representing the values of the line process are all initialized to appropriate values of 0 to 1.

第10図に示すように画素偏微分部105は入力画像1、
コンボリューションマトリクスデータ2、加算部103及
び、エッジメモリ104から入力を受ける。
As shown in FIG. 10, the pixel partial differentiator 105
The input is received from the convolution matrix data 2, the adder 103, and the edge memory 104.

いま(7)式をF(i,j)に関して偏微分した関数をE
fとおくと、画素偏微分部105は入力値をもとに各画素ご
とのEfの値を算出し、乗算部106及び、それに続く加算
部107を介して自分自身にフィードバックさせる。但
し、(7)式における係数C1〜C5は、あらかじめ適当な
値に固定されている。
Now, a function obtained by partially differentiating equation (7) with respect to F (i, j) is expressed as E
If f is set, the pixel partial differentiator 105 calculates the value of E f for each pixel based on the input value, and feeds it back to itself via the multiplier 106 and the subsequent adder 107. However, the coefficients C1 to C5 in the equation (7) are fixed to appropriate values in advance.

乗算部106は、入力の値に十分に0に近い負の数(−
ε)をかけて出力する。
The multiplication unit 106 calculates a negative number (−−) sufficiently close to 0 to the input value.
ε f ) and output.

加算部107は乗算部106と画素メモリ108からの入力を
足し合わせた値を画素偏微分部105及び、エッジ偏微分
部101に対して出力する一方、画素メモリ108の内容を出
力した値に書き変える。結局、画素メモリ108の内容は
一時刻前のF(i,j)の値であり、次式に従って内容が
更新されることになる。
The addition unit 107 outputs a value obtained by adding the inputs from the multiplication unit 106 and the pixel memory 108 to the pixel partial differentiation unit 105 and the edge partial differentiation unit 101, and writes the content of the pixel memory 108 into the output value. Change. As a result, the content of the pixel memory 108 is the value of F (i, j) one time before, and the content is updated according to the following equation.

Ft+1(i,j)=Ft(i,j)−εfEf(Ft(i,j)) ・・・(8) 但し、Ft+1(i,j)及び、Ft(i,j)は各々、座標(i,
j)の時刻t+1における画素値、時刻tにおける画素
値を表し、εは十分に小さな正数とする。
F t + 1 (i, j) = F t (i, j) −ε f E f (F t (i, j)) (8) where F t + 1 (i, j) and F t (i, j) are coordinates (i,
j) represents the pixel value at time t + 1 and the pixel value at time t, and ε f is a sufficiently small positive number.

ここでEはF(i,j)について微分可能であるので次
のことが成り立つ。
Here, since E is differentiable with respect to F (i, j), the following holds.

△F(i,j)→0ならば {E(△F(i,j)+F(i,j))− E(F(i,j))}/△F(i,j) =∂E/∂F(i,j) ・・・(9) ここで、 △F(i,j)=−ε∂E/∂F(i,j)とおくと E(△F(i,j)+F(i,j))−E(F(i,j)) =−ε{∂E/∂F(i,j)}≦0 ・・・(10) (10)式から、(8)式に従ってF(i,j)を更新する
ことによってEを最小にするF(i,j)を求められるこ
とがわかる。
If ΔF (i, j) → 0, then {E (△ F (i, j) + F (i, j)) − E (F (i, j))} / △ F (i, j) = ∂E / ∂F (i, j) (9) where ΔF (i, j) = − ε f ∂E / ∂F (i, j) where E (△ F (i, j) + F (i, j)) − E (F (i, j)) = − ε f {E / {F (i, j)} 2 ≦ 0 (10) From equation (10), (8) ), F (i, j) that minimizes E can be obtained by updating F (i, j).

エッジ偏微分部101は加算部107及び、画素メモリ108
から入力を受ける。
The edge partial differentiator 101 includes an adder 107 and a pixel memory 108.
Receives input from

いま(7)式をA(i,j)、B(i,j)に関して偏微分
した関数をEeとおくと画素偏微分部105は、入力値をも
とに各線過程ごとのEeの値を算出し、乗算部106及び、
それに続く加算部107を介して自分自身にフィードバッ
クさせる。但し、(7)式における係数C1〜C5は、あら
かじめ適当な値に固定されている。
Now equation (7) to A (i, j), B (i, j) partially differentiating function E e far To pixel partial differential unit 105 with respect to the the E e of each line process based on the input value Calculate the value, multiplying unit 106,
The feedback is provided to itself via the subsequent addition unit 107. However, the coefficients C1 to C5 in the equation (7) are fixed to appropriate values in advance.

乗算部102は、入力の値に十分に0に近い負の数(−
ε)をかけて出力する。
The multiplication unit 102 generates a negative number (−−) sufficiently close to the value of the input.
ε l ) and output.

加算部103は乗算部102とエッジメモリ104からの入力
を足し合わせた値をエッジ偏微分部101及び、画素偏微
分部105に対して出力する一方、エッジメモリ104の内容
を出力した値に書き変える。結局、エッジメモリ104の
内容は一時刻前のA(i,j)、B(i,j)の値でり、
(8)〜(10)式で示した内容と同様の理由により、E
を最小にするA(i,j)、B(i,j)を求めることが出来
る。
The adder 103 outputs a value obtained by adding the inputs from the multiplier 102 and the edge memory 104 to the edge partial differentiator 101 and the pixel partial differentiator 105, and writes the content of the edge memory 104 into the output value. Change. After all, the contents of the edge memory 104 are the values of A (i, j) and B (i, j) one time before,
For the same reason as shown in the expressions (8) to (10), E
A (i, j) and B (i, j) that minimize the following can be obtained.

次にエッジ出力部6がエッジメモリ104の内容をエッ
ジ画像として出力する。
Next, the edge output unit 6 outputs the contents of the edge memory 104 as an edge image.

発明が解決しようとする課題 しかしながら上記のような構成では、画素値の変動幅
が極端に大きい画素間では、線過程を推定する際に、
「画素間の画素値の差が大きいほど線過程の値を1に近
づける」という仮定を表わしている(7)式の第2項
((5)式)による引き込みが生じ、他の仮定((7)
式の第3項以降)に関係なく、いっきに線過程の値を1
に近づけてしまうことになる。従って、変動幅が極端に
大きいノイズがのった画素間では、非常に早く線過程の
値が1に近づくために、エッジ画像にノイズによる誤っ
たエッジが残ってしまう。さらに他のエッジ線の連結性
の仮定(7)式の第3項以降)の影響が減少するうえ
に、誤ったエッジが残るためにエッジ線の連結性も悪く
なる。また変動幅が極端に大きいノイズが多い場合は、
多くの不要な線過程が1に近い値を持つために、画像全
体の平滑化が進まず、処理速度が遅くなるという課題を
有していた。
Problems to be Solved by the Invention However, in the above-described configuration, between pixels in which the fluctuation range of the pixel value is extremely large, when estimating the line process,
The pull-in by the second term (Equation (5)) of Equation (7), which expresses the assumption that the value of the line process approaches 1 as the pixel value difference between the pixels is larger, occurs. 7)
Regardless of the third term in the equation), the value of the line process is
Will be approached. Therefore, between pixels on which noise having an extremely large variation width is loaded, the value of the line process approaches 1 very quickly, so that an erroneous edge due to noise remains in the edge image. Further, the influence of the other assumption of the connectivity of the edge lines (from the third term of the equation (7)) is reduced, and the connectivity of the edge lines is also deteriorated because erroneous edges remain. If there is a lot of noise with extremely large fluctuation range,
Since many unnecessary line processes have a value close to 1, smoothing of the entire image does not proceed, and there is a problem that the processing speed is reduced.

本発明はかかる点に鑑み、画素値の変動幅が大きいノ
イズがある場合でも、ノイズの影響を受けにくく、さら
に連結性が良いエッジ線を抽出でき、かつ処理速度も速
いエッジ特徴抽出装置を提供することを目的とする。
In view of the above, the present invention provides an edge feature extraction device which is less susceptible to noise even when there is noise having a large fluctuation range of pixel values, can extract an edge line having good connectivity, and has a high processing speed. The purpose is to do.

課題を解決するための手段 入力される画像の隣合う画素間の差分に応じて、画像
の各画素に付随するパラメータを設定するパラメータ設
定部と、画素間にエッジが存在している確率を表わす値
をもつ線過程を変数とし、入力される画像と前記パラメ
ータ設定部からの入力で決まる関数を最小化することに
よって線過程を推定するエッジエネルギー最小化部と、
画素値を変数とし、入力される画像と前記エッジエネル
ギー最小化部からの入力と画像の劣化過程を表わすコン
ボリューションマトリクスデータとで決まる関数を最小
化することによって画素値を推定する画素エネルギー最
小化部と、前記エッジエネルギー最小化部によって推定
された線過程の値から得られる画像をエッジ画像として
出力するエッジ出力部を備えたエッジ特徴抽出装置を構
成する。
Means for Solving the Problems A parameter setting unit that sets parameters associated with each pixel of an image according to a difference between adjacent pixels of an input image, and represents a probability that an edge exists between pixels. A line process having a value as a variable, an edge energy minimizing unit that estimates a line process by minimizing a function determined by an input image and an input from the parameter setting unit,
Pixel energy minimization for estimating a pixel value by minimizing a function determined by an input image, an input from the edge energy minimizing unit, and convolution matrix data representing a deterioration process of the image, using a pixel value as a variable. And an edge feature extraction device comprising: an edge output unit that outputs an image obtained from the value of the line process estimated by the edge energy minimization unit as an edge image.

作用 本発明は前記の構成により、「画素間の画素値の差が
極端に大きい場合はノイズである確率が高い」という仮
定に基づき、パラメータ設定部によって画素間の画素値
の差分が大きい場合には、(7)式の係数を変化させ
る。このような(7)式の係数の制御によって、(7)
式の第2項((5)式)による引き込みを抑えることが
でき、ノイズによる誤ったエッジが残らないエッジ画像
を得ることができる。それにともなってエッジ線の連結
性も良くなる。また不要な線過程の活性化速度も抑える
ことができ、それにともなって処理速度が速くなる。
Effect of the Invention With the above configuration, the present invention is based on the assumption that “when the difference between pixel values between pixels is extremely large, the probability of noise is high”. Changes the coefficient of equation (7). By controlling the coefficient of the equation (7), (7)
The pull-in by the second term of the equation (equation (5)) can be suppressed, and an edge image free from erroneous edges due to noise can be obtained. Accordingly, the connectivity of the edge lines is improved. In addition, the activation speed of an unnecessary line process can be suppressed, and accordingly, the processing speed increases.

実施例 第1図は本発明の実施例におけるエッジ特徴抽出装置
の構成図を示すものである。第1図において、1は入力
画像、2はパラメータ設定部、3はコンボリューション
マトリクスデータ、4はエッジエネルギー最小化部、5
は画素エネルギー最小化部、6はエッジ出力部である。
Embodiment FIG. 1 shows a configuration diagram of an edge feature extraction device according to an embodiment of the present invention. In FIG. 1, 1 is an input image, 2 is a parameter setting unit, 3 is convolution matrix data, 4 is an edge energy minimizing unit, 5
Denotes a pixel energy minimizing unit, and 6 denotes an edge output unit.

以上のように構成された本実施例のエッジ特徴抽出装
置について、以下にその動作を説明する。
The operation of the edge feature extraction device of the present embodiment configured as described above will be described below.

まず入力画像1はパラメータ設定部2と画素エネルギ
ー最小化部5に入力される。但し、パラメータ設定部2
には、処理の最初では入力画像1が、それ以降では画素
エネルギー最小化部5からの出力が入力される。
First, the input image 1 is input to the parameter setting unit 2 and the pixel energy minimizing unit 5. However, the parameter setting unit 2
, The input image 1 is input at the beginning of the process, and the output from the pixel energy minimizing unit 5 is input thereafter.

第2図はパラメータ設定部2の構成図であり、21は関
数パラメータ決定部、22は画素差分部、23は係数制御
部、24は係数メモリである。係数メモリ24は線過程の座
標位置で区別されるメモリから成る。各メモリの内容は
すべて同じ値で初期化される。
FIG. 2 is a configuration diagram of the parameter setting unit 2, in which 21 is a function parameter determination unit, 22 is a pixel difference unit, 23 is a coefficient control unit, and 24 is a coefficient memory. The coefficient memory 24 is a memory that is distinguished by the coordinate position of the line process. The contents of each memory are all initialized with the same value.

パラメータ設定部2に入力された画像は、まず関数パ
ラメータ決定部21と画素差分部22に入力される。関数パ
ラメータ決定部21は、入力された画像に対し、例えば空
間周波数分析を行なうことによって、高周波成分が大き
いならば、不連続性の強い画像、低周波成分が大きいな
らば、不連続性が弱い画像と判断し、不連続性の強い画
像ならば大きい値を、不連続性の弱い画像ならば小さい
値を係数制御部23に出力する。
The image input to the parameter setting unit 2 is first input to the function parameter determination unit 21 and the pixel difference unit 22. The function parameter determination unit 21 performs, for example, a spatial frequency analysis on the input image, and when the high frequency component is large, the image with a strong discontinuity is obtained, and when the low frequency component is large, the discontinuity is weak. The image is determined to be an image, and a large value is output to the coefficient control unit 23 if the image has a strong discontinuity, and a small value is output if the image has a weak discontinuity.

画素差分部21は、隣合う画素間の差分値を算出し、計
算した画素間の線過程の座標位置ごとに、その結果を係
数制御部23へ出力する。
The pixel difference unit 21 calculates a difference value between adjacent pixels, and outputs the result to the coefficient control unit 23 for each calculated coordinate position of a line process between pixels.

係数制御部23は、関数パラメータ決定部21からの入力
をもとに(7)式の係数を制御する関数(係数制御関
数)を決定し、さらに画素差分部22からの入力に対する
係数制御関数の出力を、画素差分部22からの入力を計算
した画素間の線過程の座標位置に対応する係数メモリ24
内のメモリに出力する。係数メモリ24は各メモリの内容
を入力値に書換え、保持する。
The coefficient control unit 23 determines a function (coefficient control function) for controlling the coefficient of Expression (7) based on the input from the function parameter determination unit 21, and further determines the function of the coefficient control function with respect to the input from the pixel difference unit 22. The output is stored in a coefficient memory 24 corresponding to the coordinate position of the linear process between pixels for which the input from the pixel difference unit 22 has been calculated.
Output to the memory inside. The coefficient memory 24 rewrites the contents of each memory to input values and holds them.

第3図は係数制御部23の具体的な構成図を表わす図で
あり、31は時間関数部、32は係数制御関数部である。
FIG. 3 is a diagram showing a specific configuration diagram of the coefficient control unit 23, where 31 is a time function unit, and 32 is a coefficient control function unit.

関数パラメータ決定部21の出力は、時間関数部31に入
力される。時間関数部31の出力値θは、関数パラメータ
決定部21からの入力値θに対して、例えば第4図
(a)に示すような線形関数、第4図(b)に示すよう
な線形関数の組合せ、あるいは第4図(c)に示すよう
な非線形関数等によって決まる値をもつ。
The output of the function parameter determination unit 21 is input to the time function unit 31. The output value θ of the time function unit 31 is, for example, a linear function as shown in FIG. 4 (a) or a linear function as shown in FIG. 4 (b) with respect to the input value θ 0 from the function parameter determination unit 21. It has a value determined by a combination of functions or a non-linear function as shown in FIG. 4 (c).

係数制御関数部32は、時間関数部31と画素差分部22か
らの入力を受け、各画素間ごとに値を出力する。例えば
(7)式の係数C2を制御する場合、係数制御関数部32の
出力値C2(x,i,j)は、画素差分部22からの入力値△F
(x,i,j)が、時間関数部31からの入力値θまでは一定
値をもち、前記入力値θを越える前記入力△F(x,i,
j)に対しては、第5図(a)に示すような線形関数、
第5図(b)に示すような線形関数の組合せ、あるいは
第5図(c)に示すような非線形関数等によって決まる
値をもつ。但し、C2(x,i,j)は、適当な初期値C20に初
期設定されている。ここでC2及び、△Fの添え字のxは
差分をとる画素の方向(水平方向か、垂直方向か)を表
わしている。
The coefficient control function unit 32 receives inputs from the time function unit 31 and the pixel difference unit 22, and outputs a value for each pixel. For example, when controlling the coefficient C2 in the equation (7), the output value C2 (x, i, j) of the coefficient control function unit 32 is calculated based on the input value ΔF from the pixel difference unit 22.
(X, i, j) has a constant value up to the input value θ from the time function unit 31, and the input ΔF (x, i,
For j), a linear function as shown in FIG.
It has a value determined by a combination of linear functions as shown in FIG. 5 (b) or a nonlinear function as shown in FIG. 5 (c). However, C2 (x, i, j ) is initially set to appropriate initial values C2 0. Here, the subscript x of C2 and ΔF indicates the direction (horizontal direction or vertical direction) of the pixel from which the difference is obtained.

C2は、「エッジは余り多くは立たない」という仮定を
考慮する割合を表わしており、C2の値が大きい場合は、
線過程の活性化を抑制する効果も増大し、線過程の値を
0に近づけることになる。従って、第5図に示すような
係数C2の制御は、「画素間の差分がある値よりも大きい
場合は、線過程の活性化をその差分値に比例して抑制す
る」ことに相当する。
C2 represents a ratio that takes into account the assumption that "edges do not stand too much". If the value of C2 is large,
The effect of suppressing the activation of the line process also increases, and the value of the line process approaches zero. Therefore, the control of the coefficient C2 as shown in FIG. 5 corresponds to "if the difference between the pixels is larger than a certain value, the activation of the line process is suppressed in proportion to the difference value".

第6図は、エッジエネルギー最小化部4及び、画素エ
ネルギー最小化部5の具体的な構成図であり、61はエッ
ジ偏微分部、62及び、66は乗算部、63及び、67は加算
部、64はエッジメモリ、65は画素偏微分部、68は画素メ
モリを表す。
FIG. 6 is a specific configuration diagram of the edge energy minimizing section 4 and the pixel energy minimizing section 5, where 61 is an edge partial differentiating section, 62 and 66 are multiplying sections, and 63 and 67 are adding sections. , 64 are edge memories, 65 is a pixel partial differentiator, and 68 is a pixel memory.

線過程の値を表すエッジメモリ64の内容はすべて0〜
1の適当な値に初期設定される。また復元画像の画素値
を表す画素メモリ68の内容は最初に、入力画像1の各画
素値に初期設定される。
The contents of the edge memory 64 representing the value of the line process are all 0 to
Initialized to an appropriate value of 1. First, the contents of the pixel memory 68 representing the pixel values of the restored image are initially set to the respective pixel values of the input image 1.

エッジ偏微分部61は加算部67、画素メモリ68及び、パ
ラメータメモリ64から入力を受ける。
The edge partial differentiator 61 receives inputs from the adder 67, the pixel memory 68, and the parameter memory 64.

いま(7)式をA(i,j)、B(i,j)に関して偏微分
した関数をEeとおくと画素偏微分部45は、入力値をもと
に各線過程ごとのEeの値を算出し、乗算部46及び、それ
に続く加算部47を介して自分自身にフィードバックさせ
る。但し、各線過程ごとにEeの値を算出する際、パラメ
ータメモリ24の内の対応するメモリに保持されている内
容が読み出され、(7)式の係数の値は、読み出された
値に変えられる。
Assuming that a function obtained by partially differentiating equation (7) with respect to A (i, j) and B (i, j) is E e , the pixel partial differentiator 45 calculates the value of E e for each line process based on the input value. The value is calculated and fed back to itself via the multiplication unit 46 and the subsequent addition unit 47. However, when calculating the value of E e in each line process, the corresponding contents stored in the memory of the parameter memory 24 is read out, the values of the coefficients of equation (7), the read value Can be changed to

乗算部62は、入力の値に十分に0に近い負の数をかけ
て出力する。
The multiplier 62 multiplies the input value by a negative number sufficiently close to 0 and outputs the result.

加算部63は乗算部62とエッジメモリ64からの入力を足
し合わせた値をエッジ偏微分部61及び、画素偏微分部65
に対して出力する一方、エッジメモリ64の内容を出力し
た値に書き変える。結局、エッジメモリ64の内容は一時
刻前のA(i,j)、B(i,j)の値であり、(8)〜(1
0)式で示した内容と同様の理由により、Eを最小にす
るA(i,j)、B(i,j)を求めることが出来る。
The adder 63 calculates a value obtained by adding the inputs from the multiplier 62 and the edge memory 64 to the edge partial differentiator 61 and the pixel partial differentiator 65.
While the contents of the edge memory 64 are rewritten to the output values. Eventually, the contents of the edge memory 64 are the values of A (i, j) and B (i, j) one time before, and (8) to (1)
A (i, j) and B (i, j) that minimize E can be obtained for the same reason as the content shown in equation (0).

この時、パラメータ設定部2による係数制御によっ
て、(7)式の第2項((5)式)による引き込みを抑
え、他の条件((7)式の第3項以降の項)によって連
結性を加味することができる。したがって、変動幅の大
きいノイズがある場合でも、線過程A(i,j)、B(i,
j)の値は急激に1に近づくことがなく、連結性の良い
線過程を得ることができる。
At this time, the coefficient control by the parameter setting unit 2 suppresses the pull-in by the second term of the equation (7) (equation (5)), and the connectivity is determined by another condition (the third and subsequent terms of the equation (7)). Can be added. Therefore, even when there is noise having a large fluctuation range, the linear processes A (i, j) and B (i,
The value of j) does not suddenly approach 1, and a line process with good connectivity can be obtained.

第6図に示すように画素偏微分部65は入力画像1、コ
ンボリューションマトリクスデータ2、加算部63及び、
エッジメモリ64から入力を受ける。
As shown in FIG. 6, the pixel partial differentiator 65 includes an input image 1, convolution matrix data 2, an adder 63,
An input is received from the edge memory 64.

いま(7)式をF(i,j)に関して偏微分した関数をE
fとおくと画素偏微分部65は、入力値をもとに各画素ご
とのEfの値を算出し、乗算部66及び、それに続く加算部
67を介して自分自身にフィードバックさせる。
Now, a function obtained by partially differentiating equation (7) with respect to F (i, j) is expressed as E
f , the pixel partial differentiator 65 calculates the value of E f for each pixel based on the input value, and calculates a multiplier 66 and a subsequent adder.
Give yourself feedback via 67.

乗算部66は、入力の値に十分に0に近い負の数をかけ
て出力する。
The multiplier 66 multiplies the input value by a negative number sufficiently close to 0 and outputs the result.

加算部67は乗算部66と画素メモリ68からの入力を足し
合わせた値を画素偏微分部65及び、エッジ偏微分部61に
対して出力する一方、画素メモリ68の内容を出力した値
に書き変える。結局、画素メモリ68の内容は一時刻前の
F(i,j)の値であり、(8)〜(10)式で示した内容
と同様の理由により、Eを最小にするF(i,j)を求め
ることが出来る。
The adder 67 outputs a value obtained by adding the inputs from the multiplier 66 and the pixel memory 68 to the pixel partial differentiator 65 and the edge partial differentiator 61, and writes the content of the pixel memory 68 into the output value. Change. After all, the content of the pixel memory 68 is the value of F (i, j) one time before, and for the same reason as the content shown in the equations (8) to (10), F (i, j) can be obtained.

この時、エッジメモリ64に保持されている線過程は、
パラメータ設定部2による係数の制御により、ノイズの
影響がなく、連結性の良い状態になっているので、それ
にともなって画素メモリ68に保持されている画素値は、
変動幅の大きいノイズがなく、エッジ部分が明瞭な状態
になる。
At this time, the line process held in the edge memory 64 is
The control of the coefficient by the parameter setting unit 2 has no influence of noise and is in a state of good connectivity, and accordingly, the pixel value held in the pixel memory 68 is:
There is no noise with a large fluctuation range, and the edge portion is in a clear state.

さらに、変動幅の大きいノイズが多い場合でも、その
ノイズの影響で多くの不要な線過程の値が1に近づくこ
とがない。したがって平滑化が速く進むことになり、処
理の高速化も図ることができる。
Furthermore, even when there is a large amount of noise having a large fluctuation range, the value of many unnecessary line processes does not approach 1 due to the influence of the noise. Therefore, the smoothing proceeds quickly, and the processing speed can be increased.

次にエッジ出力部6がエッジメモリ64の内容をエッジ
画像として出力する。
Next, the edge output unit 6 outputs the contents of the edge memory 64 as an edge image.

なお(7)式の係数C1を制御する場合には、係数制御
関数部32の出力関数を第7図(a)に示すような線形関
数、第7図(b)に示すような線形関数の組合せ、ある
いは第7図(c)に示すような非線形関数等にする。
When controlling the coefficient C1 in the equation (7), the output function of the coefficient control function unit 32 may be a linear function as shown in FIG. 7 (a) or a linear function as shown in FIG. 7 (b). A non-linear function or the like as shown in FIG.

発明の効果 本発明によれば、変動幅の大きいノイズによる誤った
エッジが残らず、連結性の良いエッジ線を得ることがで
きる。さらに、それにともなって処理速度が速くなる。
Advantageous Effects of the Invention According to the present invention, it is possible to obtain an edge line having good connectivity without leaving erroneous edges due to noise having a large fluctuation width. Further, the processing speed increases accordingly.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本実施例におけるエッジ特徴抽出装置の構成を
示すブロック図、第2図は第1図のパラメータ設定部の
構成を示すブロック図、第3図は第2図の係数制御部の
構成を示すブロック図、第4図は第3図の時間関数部の
出力関数の図、第5図は(7)式の係数C2を制御する場
合の係数制御関数の図、第6図は第1図のエッジエネル
ギー最小化部と画素エネルギー最小化部の具体的な構成
を示すブロック図、第7図は(7)式の係数C1を制御す
る場合の係数制御関数の図、第8図は従来例の実施例に
おけるエッジ特徴抽出装置の構成を示すブロック図、第
9図は線過程の説明図、第10図は第8図におけるエッジ
エネルギー最小化部と画素エネルギー最小化部の構成を
示すブロック図である。 1……入力画像、2……パラメータ設定部、3……コン
ボリューションマトリクスデータ、4、81……エッジエ
ネルギー最小化部、5、82……画素エネルギー最小化
部、6……エッジ出力部、21……関数パラメータ決定
部、22……画素差分部、23……係数制御部、24……係数
メモリ、31……時間関数部、32……係数制御関数部、6
1、101……エッジ偏微分部、62、66、102、106……乗算
部、63、67、103、107……加算部、64、104……エッジ
メモリ、65、105……画素偏微分部、68、108……画素メ
モリ。
FIG. 1 is a block diagram showing a configuration of an edge feature extraction device in the present embodiment, FIG. 2 is a block diagram showing a configuration of a parameter setting unit in FIG. 1, and FIG. 3 is a configuration of a coefficient control unit in FIG. FIG. 4 is a diagram of the output function of the time function unit of FIG. 3, FIG. 5 is a diagram of a coefficient control function when controlling the coefficient C2 of the equation (7), and FIG. FIG. 7 is a block diagram showing a specific configuration of an edge energy minimizing unit and a pixel energy minimizing unit shown in FIG. 7; FIG. 7 is a diagram of a coefficient control function for controlling a coefficient C1 in equation (7); FIG. 9 is a block diagram showing a configuration of an edge feature extraction device in an embodiment of the example, FIG. 9 is an explanatory diagram of a line process, and FIG. 10 is a block diagram showing a configuration of an edge energy minimizing unit and a pixel energy minimizing unit in FIG. FIG. 1 ... input image, 2 ... parameter setting unit, 3 ... convolution matrix data, 4, 81 ... edge energy minimizing unit, 5, 82 ... pixel energy minimizing unit, 6 ... edge output unit, 21 ... function parameter determination unit, 22 ... pixel difference unit, 23 ... coefficient control unit, 24 ... coefficient memory, 31 ... time function unit, 32 ... coefficient control function unit, 6
1, 101: Edge partial differentiator, 62, 66, 102, 106 Multiplier, 63, 67, 103, 107 Adder, 64, 104 Edge memory, 65, 105 Pixel partial differential , 68, 108 ... Pixel memory.

フロントページの続き (72)発明者 香田 敏行 大阪府門真市大字門真1006番地 松下電 器産業株式会社内 (72)発明者 〆木 泰治 大阪府門真市大字門真1006番地 松下電 器産業株式会社内 (56)参考文献 特開 昭62−211780(JP,A) 特開 平1−113879(JP,A) 特開 昭63−261479(JP,A) 特開 平1−145783(JP,A) 特開 平1−224883(JP,A) 画像電子学会研究会講演予稿 Vo l.119th 1990.4.5「エネルギ ー最小化原理に基づく自然画像の復元適 応的 バイアス入力法の検討」山本 他 (58)調査した分野(Int.Cl.6,DB名) G06T 9/20 Continuing on the front page (72) Inventor Toshiyuki Koda 1006 Kazuma Kadoma, Osaka Prefecture Matsushita Electric Industrial Co., Ltd. 56) References JP-A-62-111780 (JP, A) JP-A-1-113879 (JP, A) JP-A-63-261479 (JP, A) JP-A-1-145578 (JP, A) JP Hei 1-2224883 (JP, A) Proceedings of the Conference of the Institute of Image Electronics Engineers of Japan Vol. 119th 1990.4.5 "Study of bias input method for restoration of natural images based on energy minimization principle" Yamamoto et al. (58) Fields studied (Int. Cl. 6 , DB name) G06T 9/20

Claims (10)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】入力される画像の隣合う画素間の差分に応
じて、画像の各画素に付随するパラメータを設定するパ
ラメータ設定部と、画素間にエッジが存在している確率
を表わす値をもつ線過程を変数とし、入力される画像と
前記パラメータ設定部からの入力で決まる関数を最小化
することによって線過程を推定するエッジエネルギー最
小化部と、画素値を変数とし、入力される画像と前記エ
ッジエネルギー最小化部からの入力と画像の劣化過程を
表わすコンボリューションマトリクスデータとで決まる
関数を最小化することによって画素値を推定する画素エ
ネルギー最小化部と、前記エッジエネルギー最小化部に
よって推定された線過程の値から得られる画像をエッジ
画像として出力するエッジ出力部とを備えたことを特徴
とするエッジ特徴抽出装置。
A parameter setting unit for setting a parameter associated with each pixel of an image according to a difference between adjacent pixels of an input image, and a parameter indicating a probability that an edge exists between the pixels. An edge energy minimizing unit that estimates a line process by minimizing a function determined by an input image and an input from the parameter setting unit, and a pixel value as a variable. A pixel energy minimizing unit for estimating a pixel value by minimizing a function determined by an input from the edge energy minimizing unit and convolution matrix data representing a deterioration process of an image, and the edge energy minimizing unit. An edge output unit for outputting an image obtained from the estimated value of the line process as an edge image. Detection device.
【請求項2】パラメータ設定部を入力画像が連続性の強
い画像か弱い画像かを判断し、その結果に応じた出力を
出す関数パラメータ決定部と、入力される画像の隣合う
画素間の差分値を算出する画素差分部と、前記関数パラ
メータ決定部からの入力によって決まる関数を係数制御
関数として持ち、前記画素差分部からの入力によって、
前記係数制御関数がエッジエネルギー最小化部のパラメ
ータを制御する係数制御部と、前記係数制御部からの出
力を保持する係数メモリで構成したことを特徴とする請
求項1に記載のエッジ特徴抽出装置。
2. A parameter setting unit for determining whether an input image is an image having high continuity or an image having low continuity, and a function parameter determining unit for outputting an output according to the result, and a difference value between adjacent pixels of the input image. And a function determined by the input from the function parameter determination unit as a coefficient control function, by the input from the pixel difference unit,
2. The edge feature extraction device according to claim 1, wherein the coefficient control function includes a coefficient control unit that controls a parameter of an edge energy minimizing unit, and a coefficient memory that holds an output from the coefficient control unit. .
【請求項3】係数制御部を関数パラメータ決定部からの
入力を初期値とし、処理時間とともに出力値が変化する
時間関数部と、前記時間関数部からの入力と画素差分部
からの入力によって出力が決まる係数制御関数部で構成
したことを特徴とする請求項2に記載のエッジ特徴抽出
装置。
3. A coefficient control unit, wherein an input from a function parameter determination unit is used as an initial value, a time function unit whose output value changes with processing time, and an output from the time function unit and an input from a pixel difference unit. 3. The edge feature extraction device according to claim 2, wherein the edge feature extraction device is configured by a coefficient control function unit that determines the following.
【請求項4】時間関数部は、関数パラメータ決定部から
の入力値をそのまま出力値とすることを特徴とする請求
項3に記載のエッジ特徴抽出装置。
4. The edge feature extraction device according to claim 3, wherein the time function unit uses an input value from the function parameter determination unit as an output value as it is.
【請求項5】時間関数部は、処理時間とともに一定の割
合で出力値が変化することを特徴とする請求項3に記載
のエッジ特徴抽出装置。
5. The edge feature extraction device according to claim 3, wherein the output value of the time function section changes at a constant rate with the processing time.
【請求項6】時間関数部は、処理時間で区別される区間
において、各々異なる割合で出力値が変化することを特
徴とする請求項3に記載のエッジ特徴抽出装置。
6. The edge feature extraction device according to claim 3, wherein the time function unit changes output values at different rates in sections distinguished by processing time.
【請求項7】時間関数部は、処理時間とともに非線形に
出力値が変化することを特徴とする請求項3に記載のエ
ッジ特徴抽出装置。
7. The edge feature extraction device according to claim 3, wherein the output value of the time function section changes nonlinearly with the processing time.
【請求項8】係数制御関数部は、画素差分部からの入力
値が時間関数部からの入力値より小さい場合は変化せ
ず、前記時間関数部からの入力値以上になると、前記画
素差分部からの入力値に対して一定の割合で変化する出
力値をとることを特徴とする請求項3に記載のエッジ特
徴抽出装置。
8. The coefficient control function section does not change when the input value from the pixel difference section is smaller than the input value from the time function section, and when the input value from the time function section is equal to or greater than the input value from the time function section, 4. The edge feature extraction device according to claim 3, wherein an output value that changes at a fixed rate with respect to an input value from the input device is obtained.
【請求項9】係数制御関数部は、画素差分部からの入力
値が時間関数部からの入力値より小さい場合は変化せ
ず、前記時間関数部からの入力値以上になると、前記画
素差分部からの入力値で区別される各区間に対して、各
々異なる割合で変化する出力値をとることを特徴とする
請求項3に記載のエッジ特徴抽出装置。
9. The coefficient control function section does not change when the input value from the pixel difference section is smaller than the input value from the time function section, and when the input value from the time function section is equal to or larger than the input value from the time function section, The edge feature extraction device according to claim 3, wherein output values that change at different rates are taken for each section distinguished by an input value from the edge feature.
【請求項10】係数制御関数部は、画素差分部からの入
力値が時間関数部からの入力値より小さい場合は変化せ
ず、前記時間関数部からの入力値以上になると、前記画
素差分部からの入力値に対して、非線形に変化する出力
値をとることを特徴とする請求項3に記載のエッジ特徴
抽出装置。
10. The coefficient control function section does not change when the input value from the pixel difference section is smaller than the input value from the time function section, and when the input value from the time function section is greater than the input value from the time function section, the coefficient control function section does not change. The edge feature extraction device according to claim 3, wherein an output value that changes nonlinearly is taken for an input value from the edge feature.
JP2307381A 1990-11-13 1990-11-13 Edge feature extraction device Expired - Fee Related JP2969921B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2307381A JP2969921B2 (en) 1990-11-13 1990-11-13 Edge feature extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2307381A JP2969921B2 (en) 1990-11-13 1990-11-13 Edge feature extraction device

Publications (2)

Publication Number Publication Date
JPH04178782A JPH04178782A (en) 1992-06-25
JP2969921B2 true JP2969921B2 (en) 1999-11-02

Family

ID=17968373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2307381A Expired - Fee Related JP2969921B2 (en) 1990-11-13 1990-11-13 Edge feature extraction device

Country Status (1)

Country Link
JP (1) JP2969921B2 (en)

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
画像電子学会研究会講演予稿 Vol.119th 1990.4.5「エネルギー最小化原理に基づく自然画像の復元適応的 バイアス入力法の検討」山本 他

Also Published As

Publication number Publication date
JPH04178782A (en) 1992-06-25

Similar Documents

Publication Publication Date Title
JP4344964B2 (en) Image processing apparatus and image processing method
US5748231A (en) Adaptive motion vector decision method and device for digital image stabilizer system
EP0348207B1 (en) Image motion vector detecting apparatus
KR930010028B1 (en) Dynamic vector detecting device
EP2164040B1 (en) System and method for high quality image and video upscaling
EP3944603A1 (en) Video denoising method and apparatus, and computer-readable storage medium
JPH1051661A (en) Image quality improvement using low pass band filtering and histogram equalization and its circuit
JP3877015B2 (en) Method and apparatus for temporal filtering of noise in an image of a sequence of digital images
US20060013503A1 (en) Methods of preventing noise boost in image contrast enhancement
KR100303107B1 (en) Motion vector detection apparatus and method
US6223194B1 (en) Adaptive filter, step size control method thereof, and record medium therefor
JP2509174B2 (en) Image sequence displacement calculation method and calculation device
JP2000232384A (en) Data processor and data processing method
JP2002033942A (en) Method for suppressing noise in image signal, and image signal processor using the noise-suppressing method
JP2969921B2 (en) Edge feature extraction device
JPH1079024A (en) Method and device for time-filtering noise in image in sequence of digital picture
JP2841842B2 (en) Image restoration device
US20230316463A1 (en) Filter for temporal noise reduction
US5905533A (en) Image processing apparatus
JP2966141B2 (en) Edge feature extraction device and image restoration device
US20130286289A1 (en) Image processing apparatus, image display apparatus, and image processing method
JP3948616B2 (en) Image matching device
JP3123341B2 (en) Image motion compensation device
KR100243299B1 (en) Recursive histogram equalizing apparatus and method for image sequence
KR20090027505A (en) Apparatus for treatment of animation and method for improvement of animation quality

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees