JPH04178782A - Edge feature extracting device - Google Patents

Edge feature extracting device

Info

Publication number
JPH04178782A
JPH04178782A JP2307381A JP30738190A JPH04178782A JP H04178782 A JPH04178782 A JP H04178782A JP 2307381 A JP2307381 A JP 2307381A JP 30738190 A JP30738190 A JP 30738190A JP H04178782 A JPH04178782 A JP H04178782A
Authority
JP
Japan
Prior art keywords
section
edge
value
input
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2307381A
Other languages
Japanese (ja)
Other versions
JP2969921B2 (en
Inventor
Koji Yamamoto
浩司 山本
Susumu Maruno
進 丸野
Shigeo Sakagami
茂生 阪上
Toshiyuki Koda
敏行 香田
〆木 泰治
Taiji Shimeki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2307381A priority Critical patent/JP2969921B2/en
Publication of JPH04178782A publication Critical patent/JPH04178782A/en
Application granted granted Critical
Publication of JP2969921B2 publication Critical patent/JP2969921B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To reduce an influence of noise to extract edge lines of high connectivity and to increase the processing speed by providing a picture element energy minimizing part and an edge output part which outputs a picture, which is obtained from values of an estimated line process, as an edge picture. CONSTITUTION:A picture element energy minimizing part 5 and an edge output part 6 which outputs the picture, which is obtained from values of the line process estimated by an edge energy minimizing part 4, as the edge picture are provided. Based on the assumption that a probability of noise is high if the difference between values of picture elements is extremely large, a coefficient is changed by a parameter setting part 2 if this difference is large. The coefficient is controlled in this manner to suppress leading-in. Thus, erroneous edges due to noise having a wide variance width do not remain to obtain edges of high connectivity, and the processing speed is increased.

Description

【発明の詳細な説明】 産業上の利用分野 本発明は 画像のエツジ抽出処理において、劣化した画
像か収 ノイズの影響を受は難く、更に連結性が良いエ
ツジ線を抽出でき、かつ高速に処理できるエツジ特徴抽
出装置に関するものであム従来の技術 従来のエツジ特徴抽出装置としてζよ 例えば「C,:
17本(C,Koch)、  J、voクイン(J、M
arroquin)  and  A、ユーリ(A、Y
uille):  アナaり゛ニューaナル”ネアトワ
ークス イン アーリー ビシーン(Analog’N
euronal″Networks  in  ear
ly  visi。
[Detailed Description of the Invention] Industrial Application Field The present invention is capable of extracting edge lines from degraded images in image edge extraction processing. This is related to an edge feature extraction device that can perform the conventional edge feature extraction device.
17 (C, Koch), J, vo Quinn (J, M
arroquin) and A, Yuri (A, Y
uille): Analog'N
euronal”Networks in ear
ly visi.

n)、Proc、Natl、Acad、Sci、USA
、83.pp、4263−4267 (1986)Jに
示されているものがあム第8図はこの従来のエツジ特徴
抽出装置の構成図を示すものであり、 1は入力画像 
2はコンボリューションマトリクスデー久 81はエツ
ジエネルギー最小化部 82は画素エネルギー最小化仏
 6はエツジ出力部であも 以上のように構成された従来のエツジ特徴抽出装置の動
作を図に従って説明すも 正しいエツジ線を劣化画像から得る場合には劣化画像の
復元処理を行いながらエツジを抽出しなければならな(
t 一般に画像の劣化過程は、 まず原画像がぼやかさ
れ次に雑音が加法的に加わるという形で表現されも し
たがって劣化画像をg(x、y)、原画像をf(x、 
y)、前記原画像が関数h(x、y)によってぼかされ
たものとし さらにノイズをn(x、 y)とすると画
像の劣化過程を次式のように表すことができも g(x、y) −ffh(x−a、y−b)f(a、b
)dadb + n(x、y)・・・ (1) (1)式を離散的な画像の場合に置き直すと(2)式の
ように表すことができる。
n), Proc, Natl, Acad, Sci, USA
, 83. pp. 4263-4267 (1986) J. Figure 8 shows a block diagram of this conventional edge feature extraction device, and 1 is an input image.
2 is a convolution matrix data block; 81 is an edge energy minimization unit; 82 is a pixel energy minimization block; 6 is an edge output unit; In order to obtain correct edge lines from a degraded image, edges must be extracted while restoring the degraded image (
t Generally, the image deterioration process is expressed in the form that the original image is first blurred and then noise is added additively. Therefore, the degraded image is g(x, y), the original image is f(x,
y), and the original image is blurred by the function h(x, y), and if the noise is n(x, y), the image deterioration process can be expressed as g(x, y). ,y) -ffh(x-a,y-b)f(a,b
)dadb+n(x,y)... (1) If equation (1) is replaced with the case of a discrete image, it can be expressed as equation (2).

G(i、j)  −ΣH(m、n)F(i−に+m、j
−1+n)  十 N(i、j)・・・ (2) ここで、座標(i、j)における劣化画像の画素値をG
(i、 j)、原画像の画素値をF(i、 j)、ノイ
ズ値をN(1、J)、前記関数h(x、 y)を表すコ
ンボリューションマトリクスの(i、j)成分をH(i
、j)とする。但し 前記コンボリューションマトリク
スは(k、l)成分がf(i、 j)に対応すも G(i、j)、H(i、j)が既知である場合にF(i
、j)を推定することを考えa いま(2)式を次式の
ように変形すム N2(i、j)  =  [0(i、D  −ΣH(m
、n)F(i−に+m、j−1+n)]”・・・ (3
) N(i、j)が未知であるので、G(i、j)を平滑化
しながら(3)式の右辺を最小にするF(i、j)を求
めなければならなLy  したがって、平滑化を行なう
制約条件として、次式で表されるような各画素間の画素
値の差分が0になる時に最小となる式Econ(i、j
)を(3)式に付は加えも Econ(i、j)=  (F(i、j+1)  −F
(i、j)  )”+  [F(i+1.j)  −F
(i、j)  )”・・・ (4) いまエツジは画素と画素の間に存在すると仮定すa そ
こでエツジがあるかないかを表す指標として第9図に示
すような線過程と呼ばれ黴 画素と画素の間に存在する
仮想の籠A(i、j)及び、B(11J)を導入LEc
on(i、j)を次式のように書き換えム 但L  A
(i、j)、B(i、j)!よ エツジがたっていれば
1、たっていなければ0を値として持つとすム Econ(i、j) = (F(i、j+1)−F(i
、j) )”(1−A(i、j) )+ (F(i+1
.j)−F(i、j) )”(1−B(i、j) )・
・・ (5) (5)式は、 線過程A、Bから見れば「画素間の画素
値の差が大きいほど線過程の値を1に近づける」という
ことを表わしており、画素値Fから見れば「エツジが立
っていない画素間では平滑化を行t、Lエツジが立って
いる画素間では平滑化を行なわない」ということを表し
ていも さらにA(i、j)、B(i、j)も入力画像から推定
しなければならなしも そこで次式で表されるEedg
を最小にする時のA(i、 j)、B(i、j)の組が
画像のエツジとして一番もっともらしいと仮定すム + B(i、j)((1−B(i、j+1)−A(i、
j)−A(i+1.j) )2十  (1−B(i、j
−1)−A(i、j−1)−A(i+1.j−1)  
 )2  )   ]・・・ (6) ここて 第1項目は「線過程ば 1または0のどちらか
の値をとる」、第2項目は「同じ方向の線過程は平行に
並ぶことはまずない」、第3項目は「エツジは余り多く
は立たない」、そして最後の項は「エツジはたいてい続
いているかまた41曲がっており、分枝することは余り
ない」という仮定を各々表していも 但LACa、 C
h、 Ccは各項の全体に対する重みを表すパラメータ
であム結思 次式で表されるEを最小にするF(i、j
)が求めたい復元画像の座標(i、j)における画素値
ということになa +  (1−A(i−1,j)−B(i−1,j)−B
(i〜1.j+1)   )2  )+ B(i、j)
((1−B(i、j+1)−A(i、j)−A(i+1
.j) )”+ (1−B(i、j−1)−A(i、j
−1)−ACi+1.j−1)  )”  )  コ・
・・ (7) 但り、  C1、C2,C3,C4,C5は全体に対す
る各項の重みを表すパラメータであ也 従来のエツジ特徴抽出装置においては第8図に示すよう
にエツジエネルギー最小化部81は 入力画像1、コン
ボリューションマトリクスデータ2及び、画素エネルギ
ー最小化部82から入力を受けも 第1O図は エツジエネルギー最小化部81及べ 画素
エネルギー最小化部82の具体的な構成図であり、 1
01はエツジ偏微分訊 104はエツジメモリ、 10
5は画素偏微分i  108は画素メモリ、 102及
び、 106は乗算訊 103及賦 107は加算部を
表す。
G(i, j) −ΣH(m, n)F(i−+m, j
-1+n) 10 N(i, j)... (2) Here, the pixel value of the degraded image at the coordinates (i, j) is G
(i, j), the pixel value of the original image is F(i, j), the noise value is N(1, J), and the (i, j) component of the convolution matrix representing the function h(x, y) is H(i
, j). However, in the convolution matrix, the (k, l) component corresponds to f(i, j), but when G(i, j) and H(i, j) are known, F(i
, j). Now, we transform equation (2) as follows:
, n)F(i-+m, j-1+n)]"... (3
) Since N(i, j) is unknown, we must find F(i, j) that minimizes the right-hand side of equation (3) while smoothing G(i, j).Ly Therefore, smoothing As a constraint condition for performing Econ(i, j
) to equation (3), Econ(i, j) = (F(i, j+1) −F
(i, j) )”+ [F(i+1.j) −F
(i, j) )”... (4) Now assume that edges exist between pixels a. Therefore, as an indicator of whether an edge exists or not, we use a line process as shown in Figure 9. Introducing virtual cages A (i, j) and B (11J) that exist between pixels LEc
Rewrite on(i, j) as the following formula: However, L A
(i, j), B(i, j)! If the edge is up, it has a value of 1, and if it is not, it has a value of 0. Econ (i, j) = (F (i, j + 1) - F (i
,j))”(1-A(i,j))+(F(i+1
.. j)-F(i,j))”(1-B(i,j))・
(5) From the perspective of line processes A and B, equation (5) expresses that ``the larger the difference in pixel values between pixels, the closer the line process value is to 1'', and from the pixel value F If you look at it, even if it expresses that ``smoothing is performed between pixels where edges do not stand, and smoothing is not performed between pixels where L edges are standing,'' A(i, j), B(i, j) must also be estimated from the input image. Therefore, Eedg expressed by the following equation
Assuming that the pair of A(i, j) and B(i, j) is the most plausible edge of the image when minimizing )-A(i,
j)-A(i+1.j) )20 (1-B(i,j
-1) -A(i,j-1)-A(i+1.j-1)
)2 ) ]... (6) Here, the first item is ``Line processes take a value of either 1 or 0'', and the second item is ``Line processes in the same direction are rarely lined up in parallel. ”, the third item is ``Edges do not stand very often,'' and the last item is ``Edges are usually continuous or curved, and rarely branch.'' LACa, C
h, Cc are parameters expressing the weight of each term relative to the whole.The idea is that F(i, j
) is the pixel value at the coordinates (i, j) of the restored image that you want to find.a + (1-A(i-1,j)-B(i-1,j)-B
(i~1.j+1) )2 )+ B(i,j)
((1-B(i,j+1)-A(i,j)-A(i+1
.. j) )”+ (1-B(i, j-1)-A(i, j
-1) -ACi+1. j-1))”) Co.
(7) However, C1, C2, C3, C4, and C5 are parameters that represent the weight of each term with respect to the whole.In the conventional edge feature extraction device, the edge energy minimization unit is used as shown in FIG. 81 receives the input image 1, convolution matrix data 2, and input from the pixel energy minimization section 82. FIG. , 1
01 is the edge partial differential, 104 is the edge memory, 10
5 represents a pixel partial differential i, 108 represents a pixel memory, 102 and 106 represent a multiplication unit, 103 and 107 represent an addition unit.

復元画像の画素値を表す画素メモリの内容は、最初に入
力画像1の各画素値に初期設定されもまた線過程の値を
表すエツジメモリ104の内容L  すべて0〜1の適
当な値に初期設定されも第10図に示すように画素偏微
分部105は入力画像1、コンボリューションマトリク
スデータ2、加算部103及び、エツジメモリ104か
ら入力を受けも、 いま(7)式をF(i、j)に関して偏微分した関数を
Erとおくと、画素偏微分部105は入力値をもとに各
画素ごとのErの値を算出し 乗算部106及匡 それ
に続く加算部107を介して自分自身にフィードバック
させa 但L  (7)式における係数C1〜C5L;
L  あらかじめ適当な値に固定されていも 乗算部106 U  入力の値に十分に0に近い負の数
(−εf)をかけて出力すも 加算部107は乗算部106と画素メモリ108からの
入力を足し合わせた値を画素偏微分部105及び、エツ
ジ偏微分部101に対して出力する一人 画素メモリ1
08の内容を出力した値に書き変えも 結恩 画素メモ
リ108の内容は一時刻前のF(i、 j)の値であり
、次式に従って内容が更新されることになも Ft・+(i、j) −Ft(i、j)−εrEr (
Fs(i、j))・・・ (8) 但LFt・+(i、j)及び、Ft(i、j)は各々、
座標(i、j)の時刻t+iにおける画素礁 時刻tに
おける画素値を表し εfは十分に小さな正数とする。
The contents of the pixel memory representing the pixel values of the restored image are first initialized to each pixel value of the input image 1, and the contents of the edge memory 104 representing the line process values are all initialized to appropriate values between 0 and 1. However, as shown in FIG. 10, even though the pixel partial differentiator 105 receives input from the input image 1, the convolution matrix data 2, the adder 103, and the edge memory 104, it now converts equation (7) into F(i, j). Letting Er be a function partially differentiated with respect to , the pixel partial differentiation section 105 calculates the value of Er for each pixel based on the input value, and feeds it back to itself via the multiplication section 106 and the subsequent addition section 107. Leta HoweverL Coefficients C1 to C5L in equation (7);
L The multiplier 106 multiplies the input value by a negative number (-εf) that is sufficiently close to 0 even if it is fixed to an appropriate value. Pixel memory 1 outputs the sum of the values to the pixel partial differentiation section 105 and the edge partial differentiation section 101.
The contents of pixel memory 108 are the values of F(i, j) one time ago, and the contents are updated according to the following formula. i, j) −Ft(i, j)−εrEr (
Fs (i, j))... (8) However, LFt + (i, j) and Ft (i, j) are each,
The pixel value at time t+i of coordinates (i, j) represents the pixel value at time t, and εf is a sufficiently small positive number.

ここでEはF(i、 j)について微分可能であるので
次のことが成り立1 △F(i、 j)−〇ならば [E(ΔF(i、 j )+F(i、 j))−E (
F(i、 j) ))/ΔF(i、j)=  &E/c
?F(i、j)               ・−・
(9)ここで、 ΔF(i、j)= −era E/aF(ij)とおく
とE(ΔF(i、j)+F(i、j)  )−E(F(
i、j)  )−−εt(θE/aF(i、j) l’
 ≦ 0 ・・・ (10)(10)式か収 (8)式
に従ってF(i、 j)を更新することによってEを最
小にするF(ij)を求められることがわかa エツジ偏微分部101は加算部107及び、画素メモリ
108から入力を受けも いま(7)式をA(i、 j)、B(i、 j)に関し
て偏微分した関数をE、とおくと画素偏微分部105は
 入力値をもとに各線過程ごとのE、の値を算出し 乗
算部106及賦 それに続く加算部107を介して自分
自身にフィードバックさせ4 但り、  (7)式にお
ける係数C1〜C5G;L  あらかじめ適当な値に固
定されていも 乗算部102は 入力の値に十分に0に近い負の数(−
εI)をかけて出力すム 加算部103は乗算部102とエツジメモリ104から
の入力を足し合わせた値をエツジ偏微分部101及び、
画素偏微分部105に対して出力する一人 エツジメモ
リ104の内容を出力した値に書き変え4 結患 エツ
ジメモリ104の内容は一時刻前のA(i、j)、B(
i、 j)の値であり、 (8)〜(10)式で示した
内容と同様の理由により、Eを最小にするA(i、j)
、B(i、 j)を求めることが出来も 次にエツジ出力部6がエツジメモリ104の内容をエツ
ジ画像として出力すム 発明が解決しようとする課題 しかしながら上記のような構成でG上  画素値の変動
幅が極端に大きい画素間では 線過程を推定する際へ 
「画素間の画素値の差が大きいほど線過程の値を1に近
づける」という仮定を表わしている(7)式の第2項(
(5)式)による引き込みが生U 他の仮定((7)式
の第3項以降)に関係なく、いつきに線過程の値を1に
近づけてしまうことになも 従って、変動幅が極端に大
きいノイズがのった画素間では、 非常に早く線過程の
値が1に近づくため番ミ  エツジ画像にノイズによる
誤ったエツジが残ってしまう。さらに他のエツジ線の連
結性の仮定((7)式の第3項以降)の影響が減少する
うえへ 誤ったエツジが残るためにエツジ線の連結性も
悪くなム また変動幅が極端に大きいノイズが多い場合
は、 多くの不要な線過程が1に近い値を持つため〈 
画像全体の平滑化が進まず、処理速度が遅くなるという
課題を有してい丸 本発明はかかる点に鑑へ 画素値の変動幅が大きいノイ
ズがある場合で耘 ノイズの影響を受けに(く、さらに
連結性が良いエツジ線を抽出でき、かつ処理速度も速い
エツジ特徴抽出装置を提供することを目的とすム 課題を解決するための手段 入力される画像の隣合う画素間の差分に応じて、画像の
各画素に付随するパラメータを設定するパラメータ設定
部と、画素間にエツジが存在している確率を表わす値を
もつ線過程を変数とし 入力される画像と前記パラメー
タ設定部からの入力で決まる関数を最小化することによ
って線過程を推定するエツジエネルギー最小化部と、画
素値を変数とし 入力される画像と前記エツジエネルギ
ー最小化部からの入力と画像の劣化過程を表わすコンボ
リューションマトリクスデータとで決まる関数を最小化
することによって画素値を推定する画素エネルギー最小
化部と、前記エツジエネルギー最小化部によって推定さ
れた線過程の値から得られる画像をエツジ画像として出
力するエツジ出力部を備えたエツジ特徴抽出装置を構成
すも作用 本発明は前記の構成により、 「画素間の画素値の差が
極端に大きい場合はノイズである確率が高い」という仮
定に基づき、パラメータ設定部によって画素間の画素値
の差分が大きい場合に番ヨ(7)式の係数を変化させも
 このような(7)式の係数の制御によって、 (7)
式の第2項((5)式)による引き込みを抑えることが
でき、ノイズによる誤ったエツジが残らないエツジ画像
を得ることができも それにともなってエツジ線の連結
性も良くなも また不要な線過程の活性化速度も抑える
ことができ、それにともなって処理速度が速くなa 実施例 第1図は本発明の実施例におけるエツジ特徴抽出装置の
構成図を示すものであも 第1図において、 1は入力
画像 2はパラメータ設定数 3はコンボリューション
マトリクスデー久 4はエツジエネルギー最小化部 5
は画素エネルギー最小化部 6はエツジ出力部であも 以上のように構成された本実施例のエツジ特徴抽出装置
について、以下にその動作を説明すもまず入力画像1は
パラメータ設定部2と画素エネルギー最小化部5に入力
されも 但し パラメータ設定部2には 処理の最初で
は入力画像1力丈それ以降では画素エネルギー最小化部
5からの出力が入力されも 第2図はパラメータ設定部2の構成図であり、21は関
数パラメータ決定臥 22は画素差分部23は係数制御
部 24は係数メモリであム 係数メモリ24は線過程
の座標位置で区別されるメモリから成も 各メモリの内
容はすべて同じ値で初期化されも パラメータ設定部2に入力された画像は、 まず関数パ
ラメータ決定部21と画素差分部22に入力されも 関
数パラメータ決定部21は 入力された画像に対し 例
えば空間周波数分析を行なうことによって、高周波成分
が大きいならば 不連続性の強い画像 低周波成分が大
きいならば 不連続性が弱い画像と判断し 不連続性の
強い画像ならば大きい値を、不連続性の弱い画像ならば
小さい値を係数制御部23に出力す4 画素差分部21 tit、、  隣合う画素間の差分値
を算出し 計算した画素間の線過程の座標位置ごとくそ
の結果を係数制御部23へ出力すa 係数制御部23番よ 関数パラメータ決定部21からの
入力をもとに(7)式の係数を制御する関数(係数制御
関数)を決定し さらに画素差分部22からの入力に対
する係数制御関数の出力を、画素差分部22からの入力
を計算した画素間の線過程の座標位置に対応する係数メ
モリ24内のメモリに出力すム 係数メモリ24は各メ
モリの内容を入力値に書換え 保持すa 第3図は係数制御部23の具体的な構成図を表わす図で
あり、 31は時間関数部 32は係数制御関数部であ
4 関数パラメータ決定部21の出力は、 時間関数部31
に入力されも 時間関数部31の出力値θは、 関数パ
ラメータ決定部21からの入力値θ−に対して、例えば
第4図(a)に示すような線形関数 第4図(b)に示
すような線形関数の組合せ、あるいは第4図(c)に示
すような非線形関数等によって決まる値をもち 係数制御関数部32 G&  時間関数部31と画素差
分部22からの入力を受(す、各画素間ごとに値を出力
すム 例えば(7)式の係数02を制御する場合 係数
制御関数部32の出力値C2(x、 i、 j)i;t
、。
Here, since E is differentiable with respect to F(i, j), the following holds true1 If △F(i, j) − 〇 then [E(ΔF(i, j) + F(i, j)) -E (
F(i, j) ))/ΔF(i, j)= &E/c
? F(i,j) ・−・
(9) Here, if we set ΔF(i, j) = −era E/aF(ij), we get E(ΔF(i, j)+F(i, j) )−E(F(
i, j) )−−εt(θE/aF(i, j) l'
≦ 0 ... (10) It can be seen that F(ij) that minimizes E can be found by updating F(i, j) according to Equation (10) or Equation (8). 101 receives input from the addition unit 107 and the pixel memory 108, and now, let E be a function obtained by partially differentiating equation (7) with respect to A(i, j) and B(i, j), then the pixel partial differentiation unit 105 calculates the value of E for each line process based on the input value, and feeds it back to itself via the multiplication section 106 and the subsequent addition section 107.4 However, the coefficients C1 to C5G in equation (7); Even if L is fixed to an appropriate value in advance, the multiplier 102 adds a negative number (−) sufficiently close to 0 to the input value.
The adder 103 multiplies the inputs from the multiplier 102 and the edge memory 104 and outputs the sum by the edge partial differentiator 101 and the edge partial differentiator 101.
The contents of the edge memory 104 output to the pixel partial differentiation section 105 are rewritten to the output values 4. The contents of the edge memory 104 are A(i, j), B(
i, j), and for the same reasons as shown in equations (8) to (10), A(i, j) that minimizes E
, B(i, j), the edge output section 6 then outputs the contents of the edge memory 104 as an edge image.However, with the above configuration, it is possible to obtain the pixel values on G. When estimating line processes between pixels with extremely large fluctuation ranges,
The second term (
Regardless of other assumptions (from the third term of equation (7)), the value of the line process will eventually approach 1. Therefore, the range of fluctuation will be extreme. Between pixels with large noise, the value of the line process approaches 1 very quickly, leaving erroneous edges due to noise in the edge image. Furthermore, the influence of other edge line connectivity assumptions (from the third term onwards in equation (7)) is reduced, and the connectivity of edge lines is also poor because erroneous edges remain. When there is a lot of loud noise, many unnecessary line processes have values close to 1, so 〈
The problem is that the smoothing of the entire image does not progress and the processing speed slows down.The present invention takes this into consideration. The purpose of the present invention is to provide an edge feature extraction device that can extract edge lines with good connectivity and has a high processing speed. A parameter setting unit sets parameters associated with each pixel of the image, and a line process having a value representing the probability that an edge exists between pixels is used as a variable.The input image and the input from the parameter setting unit are an edge energy minimization unit that estimates a line process by minimizing a function determined by , and a convolution matrix that uses pixel values as variables to represent the input image, the input from the edge energy minimization unit, and the image deterioration process. a pixel energy minimization unit that estimates a pixel value by minimizing a function determined by the data; and an edge output unit that outputs an image obtained from the line process values estimated by the edge energy minimization unit as an edge image. According to the present invention, with the above-described configuration, based on the assumption that "when the difference in pixel values between pixels is extremely large, there is a high probability that it is noise", the parameter setting section Even if the coefficients of equation (7) are changed when the difference in pixel values between pixels is large, (7)
It is possible to suppress the entrainment caused by the second term of the equation (Equation (5)), and it is possible to obtain an edge image that does not leave false edges due to noise. The activation speed of the line process can also be suppressed, and the processing speed can be increased accordingly.A Embodiment FIG. 1 shows a configuration diagram of an edge feature extraction device in an embodiment of the present invention. , 1 is the input image 2 is the number of parameter settings 3 is the convolution matrix data 4 is the edge energy minimization unit 5
6 is a pixel energy minimization unit. 6 is an edge output unit. The operation of the edge feature extraction device of this embodiment configured as described above will be explained below. However, the output from the pixel energy minimization section 5 is input to the parameter setting section 2 at the beginning of the process. 21 is a function parameter determination section 22 is a pixel difference section 23 is a coefficient control section 24 is a coefficient memory The coefficient memory 24 consists of memories distinguished by coordinate positions of line processes.The contents of each memory are as follows. Even if all the images are initialized with the same values, the image input to the parameter setting section 2 is first input to the function parameter determination section 21 and the pixel difference section 22.The function parameter determination section 21 performs, for example, spatial frequency analysis on the input image. By doing this, if the high frequency component is large, the image is judged to have strong discontinuity, and if the low frequency component is large, it is judged to be an image with weak discontinuity. If it is an image, a small value is output to the coefficient control unit 23.4 Pixel difference unit 21 tit, calculates the difference value between adjacent pixels and sends the result to the coefficient control unit 23 along with the coordinate position of the line process between the calculated pixels. Output a Coefficient control unit 23 Determines a function (coefficient control function) that controls the coefficients of equation (7) based on the input from the function parameter determination unit 21, and further controls coefficients for the input from the pixel difference unit 22. The output of the function is output to the memory in the coefficient memory 24 that corresponds to the coordinate position of the line process between pixels where the input from the pixel difference unit 22 was calculated.The coefficient memory 24 rewrites and holds the contents of each memory into the input value. 3 is a diagram showing a specific configuration diagram of the coefficient control section 23, where 31 is a time function section, 32 is a coefficient control function section 4, and the output of the function parameter determination section 21 is as follows:
The output value θ of the time function section 31 is a linear function as shown in FIG. 4(a), for example, as shown in FIG. The coefficient control function section 32 has a value determined by a combination of linear functions, such as a combination of linear functions, or a nonlinear function as shown in FIG. A value is output for each pixel. For example, when controlling coefficient 02 in equation (7), the output value of the coefficient control function section 32 is C2 (x, i, j) i; t.
,.

画素差分部22からの入力値ΔF(X、1lJ)力丈 
時間関数部31からの入力値θまでは一定値をも板前記
入力値θを越える前記入力値ΔF(x、xg)に対して
は 第5図(a)に示すような線形関数、第5図(b)
に示すような線形関数の組合せ、あるいは第5図(c)
に示すような非線形関数等によって決まる値をもつ。但
L  C2(x、 i、 j)g;L  適当な初期値
C2mに初期設定されていも ここで02及び、ΔFの
添え字のXは差分をとる画素の方向(水平方向力\ 垂
直方向か)を表わしていも C2j;L  rエツジは余り多くは立たない」という
仮定を考慮する割合を表わしており、C2の値が大きい
場合は、 線過程の活性化を抑制する効果も増大L 線
過程の値を0に近づけることになる。従って、第5図に
示すような係数02の制御番よ 「画素間の差分がある
値よりも大きい場合は 線過程の活性化をその差分値に
比例して抑制する」ことに相当すム 第6図は エツジエネルギー最小化部4及び、画素エネ
ルギー最小化部5の具体的な構成図であり、 6Iはエ
ツジ偏微分訊 62及訳 66は乗算部 63及び、 
67は加算部 64はエツジメモリ、 65は画素偏微
分部 68は画素メモリを表す。
Input value ΔF (X, 1lJ) from pixel difference section 22
Although the input value θ from the time function unit 31 is a constant value, for the input value ΔF (x, xg) exceeding the input value θ, a linear function as shown in FIG. Figure (b)
A combination of linear functions as shown in Figure 5(c)
It has a value determined by a nonlinear function, etc. as shown in . However, L C2 (x, i, j) g; L Even if it is initially set to an appropriate initial value C2m, here 02 and the subscript X of ΔF are the directions of the pixels where the difference is taken (horizontal force \ vertical direction? ) represents the ratio that takes into consideration the assumption that "C2j; L r edges do not stand up very much", and when the value of C2 is large, the effect of suppressing the activation of the L line process also increases. The value of will be brought closer to 0. Therefore, the control number of coefficient 02 as shown in Fig. 5 is the control number corresponding to ``If the difference between pixels is larger than a certain value, the activation of the line process is suppressed in proportion to the difference value.'' 6 is a specific configuration diagram of the edge energy minimization unit 4 and the pixel energy minimization unit 5, 6I is an edge partial differential interpolation unit 62, 66 is a multiplication unit 63, and
Reference numeral 67 represents an adder, 64 represents an edge memory, 65 represents a pixel partial differentiation portion, and 68 represents a pixel memory.

線過程の値を表すエツジメモリ64の内容はすべてO〜
1の適当な値に初期設定されも また復元画像の画素値
を表す画素メモリ68の内容は最初へ 入力画像1の各
画素値に初期設定されもエツジ偏微分部61は加算部6
7、画素メモリ68及び、パラメータメモリ64から入
力を受けも いま(7)式をA(i、 D、B(i、j)に関して偏
微分した関数をE、とおくと画素偏微分部45は、 入
力値をもとに各線過程ごとのE、の値を算出し 乗算部
46及べ それに続く加算部47を介して自分自身にフ
ィードバックさせも 但し 各線過程ごとにE、の値を
算出する際 パラメータメモリ24の内の対応するメモ
リに保持されている内容が読み出され (7)式の係数
の値ζよ 読み出された値に変えられも 乗算部62は 入力の値に十分にOに近い負の数をかけ
て出力すも 加算部63は乗算部62とエツジメモリ64からの入力
を足し合わせた値をエツジ偏微分部61及訳 画素偏微
分部65に対して出力する一人工ッジメモリ64の内容
を出力した値に書き変えム 総見 エツジメモリ64の
内容は一時刻前のA(i、j)、B(i、j)の値であ
り、 (8)〜(10)式で示した内容と同様の理由に
より、Eを最小にするA(i、 j)、B(i、j)を
求めることが出来もこの時、パラメータ設定部2による
係数制御によって、 (7)式の第2項((5)式)に
よる引き込みを抑え 他の条件((7)式の第3項以降
の項)によって連結性を加味することができもしたがっ
て、変動幅の大きいノイズがある場合でL 線過程A(
i、j)、B(i、j)の値は急激に1に近づくことが
なく、連結性の良い線過程を得ることができも 第6図に示すように画素偏微分部65は入力画像11 
 コンボリューションマトリクスデータ2、加算部63
及び、エツジメモリ64から入力を受けも いま(7)式をF(i、j)に関して偏微分した関数を
Efとおくと画素偏微分部656よ 入力値をもとに各
画素ごとのErの値を算出し 乗算部66及び、それに
続く加算部67を介して自分自身にフィードバックさせ
も 乗算部66は 入力の値に十分にOに近い負の数をかけ
て出力すも 加算部67は乗算部66と画素メモリ68からの入力を
足し合わせた値を画素偏微分部65及び、エツジ偏微分
部61に対して出力する一人 画素メモリ68の内容を
出力した値に書き変えも 総見 画素メモリ68の内容
は一時刻前のF(i、 j)の値であり、 (8)〜(
10)式で示した内容と同様の理由により、Eを最小に
するF(i、j)を求めることが出来も この線 エツジメモリ64に保持されている線過程は、
 パラメータ設定部2による係数の制御により、ノイズ
の影響がなく、連結性の良い状態になっているので、そ
れにともなって画素メモリ68に保持されている画素値
1表 変動幅の大きいノイズがなく、エツジ部分が明瞭
な状態になもさらへ 変動幅の大きいノイズが多い場合
でLそのノイズの影響で多くの不要な線過程の値が1に
近づくことがな(も したがって平滑化が速く進むこと
になり、処理の高速化も図ることができも次にエツジ出
力部6がエツジメモリ64の内容をエツジ画像として出
力すも なお(7)式の係数01を制御する場合には 係数制御
関数部32の出力関数を第7図(a)に示すような線形
関数 第7図(b)に示すような線形関数の組合せ、あ
るいは第7図(c)に示すような非線形関数等にすム 発明の効果 本発明によれば 変動幅の大きいノイズによる誤ったエ
ツジが残らず、連結性の良いエツジ線を得ることができ
ム さら番ミ  それにともなって処理速度が遠くなム
The contents of the edge memory 64 representing the line process values are all O~
Even if the contents of the pixel memory 68 representing the pixel values of the restored image are initially set to an appropriate value of 1, the contents of the pixel memory 68 representing the pixel values of the restored image are initialized to the beginning.
7. Upon receiving input from the pixel memory 68 and the parameter memory 64, let E be the function obtained by partially differentiating equation (7) with respect to A(i, D, B(i, j)), then the pixel partial differentiator 45 , calculates the value of E for each line process based on the input value, and feeds it back to itself via the multiplier 46 and the subsequent adder 47. However, when calculating the value of E for each line process, Even if the content held in the corresponding memory in the parameter memory 24 is read out and changed to the read value by the value ζ of the coefficient in equation (7), the multiplier 62 multiplies the input value sufficiently The sum addition unit 63 outputs a value by adding together the inputs from the multiplication unit 62 and the edge memory 64 to the edge partial differentiation unit 61 and the pixel partial differentiation unit 65. The contents of the edge memory 64 are the values of A(i, j) and B(i, j) one time ago, and are expressed by equations (8) to (10). For the same reason as above, it is possible to find A(i, j) and B(i, j) that minimize E. At this time, by controlling the coefficients by the parameter setting section 2, the second of equation (7) It is possible to suppress the pull-in by the term (Equation (5)) and take connectivity into account by other conditions (the third and subsequent terms of Equation (7)). Therefore, when there is noise with a large fluctuation range, the L line Process A (
The values of i, j) and B(i, j) do not rapidly approach 1, and a line process with good connectivity can be obtained.As shown in FIG. 11
Convolution matrix data 2, addition section 63
Then, after receiving input from the edge memory 64, let Ef be the function obtained by partially differentiating equation (7) with respect to F(i, j), then the pixel partial differentiation section 656 calculates the value of Er for each pixel based on the input value. The multiplier 66 multiplies the input value by a negative number sufficiently close to O and outputs the result. 66 and the input from the pixel memory 68, and outputs the value to the pixel partial differentiation section 65 and the edge partial differentiation section 61. Also rewrites the contents of the pixel memory 68 to the output value.Overview Pixel memory 68 The content of is the value of F(i, j) one time ago, and (8) ~ (
For the same reason as shown in equation 10), it is possible to find F(i, j) that minimizes E. The line process held in the edge memory 64 is
Due to the control of the coefficients by the parameter setting unit 2, there is no influence of noise and the state of connectivity is good, so that the pixel values held in the pixel memory 68 are free from noise with a large fluctuation range. If there is a lot of noise with a large fluctuation range, even if the edge part is clear, the values of many unnecessary line processes will not approach 1 due to the influence of the noise (therefore, smoothing will proceed quickly). Although the edge output unit 6 outputs the contents of the edge memory 64 as an edge image, the coefficient control function unit 32 The output function of the invention is a combination of a linear function as shown in FIG. 7(a), a linear function as shown in FIG. 7(b), or a nonlinear function as shown in FIG. 7(c). Effects According to the present invention, it is possible to obtain edge lines with good connectivity without leaving erroneous edges due to noise with a large fluctuation range.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本実施例におけるエツジ特徴抽出装置の構成を
示すブロック図 第2図は第1図のパラメータ設定部の
構成を示すブロック図 第3図は第2図の係数制御部の
構成を示すブロック図 第4図は第3図の時間関数部の
出力関数の皿 第5図は(7)式の係数C2を制御する
場合の係数制御関数の医 第6図は第1図のエツジエネ
ルギー最小化部と画素エネルギー最小化部の具体的な構
成を示すブロック図 第7図は(7)式の係数C1を制
御する場合の係数制御関数の思 第8図は従来例の実施
例におけるエツジ特徴抽出装置の構成を示すブロック図
 第9図は線過程の説明医 第1O図は第8図における
エツジエネルギー最小化部と画素エネルギー最小化部の
構成を示すブロック図であム ト・・入力画& 2・・・パラメータ設定数 3・・・
コンボリューションマトリクスデー久 4、81・・・
エツジエネルギー最小化孔 5、82・・・画素エネル
ギー最小化部 6・・・エツジ出力部 21・・・関数
パラメータ決定広 22・・・画素差分訊 23・・・
係数制御部 24・・・係数メモリ、 31・・・時間
関数部32・・・係数制御関数部61、101・・・エ
ツジ偏微分訊 62、66、102、106・・・乗算
訊63、67、103、107・・・加算a 64、1
04・・・エツジメモリ、 65、105・・・画素偏
微分服 68、108・・・画素メモ1九 代理人の氏名 弁理士 小鍜治 明 ほか2名第1図 出力 第2図 第3図 俤叡メモソZ4へ 第5図(f41ン +1> θ  ΔF(X、i、j) tb) 第 5 図(千の2) (C) フンボソユーン璽ン I 6 図               マトリクス
テ゛−タ!+1つ第7図ft4/) Q−1 θ    ΔF(X、1.J) (b) 御1 7  図(和Zン (C〕 第8図 出力 第9図
FIG. 1 is a block diagram showing the configuration of the edge feature extraction device in this embodiment. FIG. 2 is a block diagram showing the configuration of the parameter setting section in FIG. 1. FIG. 3 is a block diagram showing the configuration of the coefficient control section in FIG. 2. Block diagram Figure 4 shows the output function of the time function part in Figure 3. Figure 5 shows the coefficient control function when controlling the coefficient C2 in equation (7). Figure 6 shows the edge energy minimum in Figure 1. A block diagram showing the specific configuration of the pixel energy minimization unit and the pixel energy minimization unit. Fig. 7 shows the concept of the coefficient control function when controlling the coefficient C1 in equation (7). Fig. 8 shows the edge characteristics in the conventional example. Figure 9 is a block diagram showing the configuration of the extraction device; Figure 10 is a block diagram showing the configuration of the edge energy minimization unit and pixel energy minimization unit in Figure 8; 2...Number of parameter settings 3...
Convolution matrix day 4, 81...
Edge energy minimization hole 5, 82...Pixel energy minimization section 6...Edge output section 21...Function parameter determination wide 22...Pixel difference tester 23...
Coefficient control unit 24...Coefficient memory, 31...Time function unit 32...Coefficient control function unit 61, 101...Edge partial differential function 62, 66, 102, 106...Multiplication function 63, 67 , 103, 107... addition a 64, 1
04... Edge memory, 65, 105... Pixel partial differential clothing 68, 108... Pixel memo 19 Name of agent Patent attorney Akira Okaji and 2 others Figure 1 Output Figure 2 Figure 3 Toei To Memoso Z4 Figure 5 (f41 + 1 > θ ΔF (X, i, j) tb) Figure 5 (2 of 1,000) (C) Funbo Soyun I 6 Figure Matrix Stage! +1 Fig. 7 ft4/) Q-1 θ ΔF (X, 1.J) (b) Control 1 7 Fig. (sum Zn (C)) Fig. 8 Output Fig. 9

Claims (10)

【特許請求の範囲】[Claims] (1)入力される画像の隣合う画素間の差分に応じて、
画像の各画素に付随するパラメータを設定するパラメー
タ設定部と、画素間にエッジが存在している確率を表わ
す値をもつ線過程を変数とし、入力される画像と前記パ
ラメータ設定部からの入力で決まる関数を最小化するこ
とによって線過程を推定するエッジエネルギー最小化部
と、画素値を変数とし、入力される画像と前記エッジエ
ネルギー最小化部からの入力と画像の劣化過程を表わす
コンボリューションマトリクスデータとで決まる関数を
最小化することによって画素値を推定する画素エネルギ
ー最小化部と、前記エッジエネルギー最小化部によって
推定された線過程の値から得られる面像をエッジ画像と
して出力するエッジ出力部とを備えたことを特徴とする
エッジ特徴抽出装置。
(1) Depending on the difference between adjacent pixels of the input image,
A parameter setting section sets parameters associated with each pixel of the image, and a line process having a value representing the probability that an edge exists between pixels is used as a variable. an edge energy minimization unit that estimates a line process by minimizing a determined function; and a convolution matrix that uses pixel values as variables and represents an input image, input from the edge energy minimization unit, and image deterioration process. a pixel energy minimization unit that estimates a pixel value by minimizing a function determined by the data; and an edge output that outputs a surface image obtained from the line process values estimated by the edge energy minimization unit as an edge image. An edge feature extraction device comprising:
(2)パラメータ設定部を入力画像が連続性の強い画像
か弱い画像かを判断し、その結果に応じた出力を出す関
数パラメータ決定部と、入力される画像の隣合う画素間
の差分値を算出する画素差分部と、前記関数パラメータ
決定部からの入力によって決まる関数を係数制御関数と
して持ち、前記画素差分部からの入力によって、前記係
数制御関数がエッジエネルギー最小化部のパラメータを
制御する係数制御部と、前記係数制御部からの出力を保
持する係数メモリで構成したことを特徴とする請求項1
に記載のエッジ特徴抽出装置。
(2) The parameter setting section is a function that determines whether the input image has strong or weak continuity and outputs an output according to the result.The parameter determination section calculates the difference value between adjacent pixels of the input image. and a function determined by the input from the function parameter determination unit as a coefficient control function, and the coefficient control function controls parameters of the edge energy minimization unit according to the input from the pixel difference unit. and a coefficient memory that holds the output from the coefficient control unit.
The edge feature extraction device described in .
(3)係数制御部を関数パラメータ決定部からの入力を
初期値とし、処理時間とともに出力値が変化する時間関
数部と、前記時間関数部からの入力と画素差分部からの
入力によって出力が決まる係数制御関数部で構成したこ
とを特徴とする請求項2に記載のエッジ特徴抽出装置。
(3) A coefficient control section whose initial value is the input from the function parameter determination section, and a time function section whose output value changes with processing time, and whose output is determined by the input from the time function section and the input from the pixel difference section. 3. The edge feature extracting device according to claim 2, wherein the edge feature extracting device includes a coefficient control function section.
(4)時間関数部は、関数パラメータ決定部からの入力
値をそのまま出力値とすることを特徴とする請求項3に
記載のエッジ特徴抽出装置。
(4) The edge feature extraction device according to claim 3, wherein the time function section directly uses the input value from the function parameter determination section as an output value.
(5)時間関数部は、処理時間とともに一定の割合で出
力値が変化することを特徴とする請求項3に記載のエッ
ジ特徴抽出装置。
(5) The edge feature extraction device according to claim 3, wherein the output value of the time function section changes at a constant rate with processing time.
(6)時間関数部は、処理時間で区別される区間におい
て、各々異なる割合で出力値が変化することを特徴とす
る請求項3に記載のエッジ特徴抽出装置。
(6) The edge feature extraction device according to claim 3, wherein the time function section has an output value that changes at a different rate in each section distinguished by processing time.
(7)時間関数部は、処理時間とともに非線形に出力値
が変化することを特徴とする請求項3に記載のエッジ特
徴抽出装置。
(7) The edge feature extraction device according to claim 3, wherein the time function section has an output value that changes nonlinearly with processing time.
(8)係数制御関数部は、画素差分部からの入力値が時
間関数部からの入力値より小さい場合は変化せず、前記
時間関数部からの入力値以上になると、前記画素差分部
からの入力値に対して一定の割合で変化する出力値をと
ることを特徴とする請求項3に記載のエッジ特徴抽出装
置。
(8) The coefficient control function section does not change when the input value from the pixel difference section is smaller than the input value from the time function section, and when it exceeds the input value from the time function section, the coefficient control function section changes the input value from the pixel difference section. 4. The edge feature extraction device according to claim 3, wherein the edge feature extraction device takes an output value that changes at a constant rate with respect to an input value.
(9)係数制御関数部は、画素差分部からの入力値が時
間関数部からの入力値より小さい場合は変化せず、前記
時間関数部からの入力値以上になると、前記画素差分部
からの入力値で区別される各区間に対して、各々異なる
割合で変化する出力値をとることを特徴とする請求項3
に記載のエッジ特徴抽出装置。
(9) The coefficient control function section does not change when the input value from the pixel difference section is smaller than the input value from the time function section, and when it exceeds the input value from the time function section, the coefficient control function section changes the input value from the pixel difference section. Claim 3 characterized in that the output value changes at a different rate for each interval distinguished by the input value.
The edge feature extraction device described in .
(10)係数制御関数部は、画素差分部からの入力値が
時間関数部からの入力値より小さい場合は変化せず、前
記時間関数部からの入力値以上になると、前記画素差分
部からの入力値に対して、非線形に変化する出力値をと
ることを特徴とする請求項3に記載のエッジ特徴抽出装
置。
(10) The coefficient control function section does not change when the input value from the pixel difference section is smaller than the input value from the time function section, and when it exceeds the input value from the time function section, the coefficient control function section changes the input value from the pixel difference section. 4. The edge feature extraction device according to claim 3, wherein the edge feature extraction device takes an output value that changes non-linearly with respect to an input value.
JP2307381A 1990-11-13 1990-11-13 Edge feature extraction device Expired - Fee Related JP2969921B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2307381A JP2969921B2 (en) 1990-11-13 1990-11-13 Edge feature extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2307381A JP2969921B2 (en) 1990-11-13 1990-11-13 Edge feature extraction device

Publications (2)

Publication Number Publication Date
JPH04178782A true JPH04178782A (en) 1992-06-25
JP2969921B2 JP2969921B2 (en) 1999-11-02

Family

ID=17968373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2307381A Expired - Fee Related JP2969921B2 (en) 1990-11-13 1990-11-13 Edge feature extraction device

Country Status (1)

Country Link
JP (1) JP2969921B2 (en)

Also Published As

Publication number Publication date
JP2969921B2 (en) 1999-11-02

Similar Documents

Publication Publication Date Title
JP4527152B2 (en) Digital image acquisition system having means for determining camera motion blur function
KR100710965B1 (en) Image processing device, image display device, image processing method, and record media for recording image processing program
US8107750B2 (en) Method of generating motion vectors of images of a video sequence
US20030090593A1 (en) Video stabilizer
EP3944603A1 (en) Video denoising method and apparatus, and computer-readable storage medium
JP4454657B2 (en) Blur correction apparatus and method, and imaging apparatus
US8358878B2 (en) Method and apparatus for interpolating an image
JP4210954B2 (en) Image processing method, image processing method program, recording medium storing image processing method program, and image processing apparatus
JPH02261280A (en) Moving vector detector
CN103310430A (en) Method and apparatus for deblurring non-uniform motion blur
CN101489035A (en) Image shooting apparatus and blur correction method
CN111340732B (en) Low-illumination video image enhancement method and device
WO2023273868A1 (en) Image denoising method and apparatus, terminal, and storage medium
US20050213840A1 (en) Method for image stabilization by adaptive filtering
US7903901B2 (en) Recursive filter system for a video signal
US20040179602A1 (en) Device and process for estimating noise level, noise reduction system and coding system comprising such a device
Rav-Acha et al. Lucas-Kanade without iterative warping
JP2012032739A (en) Image processing device, method and image display device
JPH04178782A (en) Edge feature extracting device
CN109389624B (en) Model drift suppression method and device based on similarity measurement
JP2018022287A (en) Image processing device, method, image processing program and projection apparatus
US9538179B2 (en) Method and apparatus for processing occlusions in motion estimation
WO2010029476A1 (en) Bilateral filter
US11201989B2 (en) Processing of impulse noise in a video sequence
US20230316463A1 (en) Filter for temporal noise reduction

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees