JP2858530B2 - Edge enhancement device - Google Patents

Edge enhancement device

Info

Publication number
JP2858530B2
JP2858530B2 JP5329344A JP32934493A JP2858530B2 JP 2858530 B2 JP2858530 B2 JP 2858530B2 JP 5329344 A JP5329344 A JP 5329344A JP 32934493 A JP32934493 A JP 32934493A JP 2858530 B2 JP2858530 B2 JP 2858530B2
Authority
JP
Japan
Prior art keywords
image
window
coordinates
similarity
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP5329344A
Other languages
Japanese (ja)
Other versions
JPH07193716A (en
Inventor
尚志 斯波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP5329344A priority Critical patent/JP2858530B2/en
Publication of JPH07193716A publication Critical patent/JPH07193716A/en
Application granted granted Critical
Publication of JP2858530B2 publication Critical patent/JP2858530B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は画像におけるエッジ強調
装置に関し、特に低品質な画像において位置・形状・本
数があらかじめ分かっておらず画素毎に方向の異なるエ
ッジを強調する装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an edge enhancing apparatus for an image, and more particularly to an apparatus for enhancing an edge in a low-quality image whose position, shape, and number are not known in advance and whose direction differs for each pixel.

【0002】[0002]

【従来の技術】従来画像処理によってエッジを強調する
手法として、ラプラシアン・ガウシアン等の局所オペレ
ーターによるフィルタリング処理を行い、エッジを検出
し原画像においてこの検出されたエッジの部分を強調す
る方法(「高木、下田 監修”画像解析ハンドブック”
pp.550−560,pp.564−567,199
1.」)、と、ハフ変換によりエッジを検出して強調す
る方法(「バラード、D.H.(Ballard,D.
H.)、パターン・レコグニション(Pattern
Recognition)、13、No2、pp.11
1−112、1981.、デューダ、R.O.、ハー
ト、P.E.(Duda,R.O.andHart,
P.E.)コミュニケーション・オブ・ACM(Com
m.ACM)、15、No、1、pp.11−15,1
972.、デューダ、R.O、ハート、P.E.(Du
da,R.O.and Hart,P.E.)、”パタ
ーン・クラシフィケーション・アンド・シーン・アナリ
シス(Pattern Classification
and Scene Analysis)”、ジョン
・ウィリー・アンド・サンズ(John Wiley
& Sons)、1973.」)、弛緩法を用いる方法
(「ザッカー、S.W.、ハンメル、R.A.、ローゼ
ンフェルト、A(Zucker,S.W.,Humme
l,R.A.,and Rosenfeld,A.)、
IEEEトランザクション(IEEE Tran
s.)、vol.C−26,、pp.394−403、
1977.、ペレグ、S.、ローゼンフェルト、A.
(Peleg,S.and Rosenfeld,
A.)、IEEEトランザクション(IEEE Tra
ns.)、vol.SMC−8、pp.548−55
4、1978.、シャハター、B.J.、レフ、A.、
ザッカー,S.W.ローゼンフェルト、A.(Scha
chter,B.J.,Lev,A.,Zucker,
S.W.,and Rosenfeld,A.)、ib
id. vol.SMC−7、pp.813−816、
1977.」)等がある。局所オペレータを使う方法
は、ノイズに弱いためあらかじめ平滑化する必要がある
が、平滑化によりエッジの細かい構造が失われてしま
う、という問題点が存在する。ハフ変換を用いる方法
は、比較的ノイズに強いものの、あらかじめエッジの形
状と本数が分かっていなければならない。弛緩法を用い
る場合も、前もってエッジの関数形が分かっている必要
がある。
2. Description of the Related Art Conventionally, as a method of enhancing an edge by image processing, a method of performing a filtering process by a local operator such as Laplacian / Gaussian to detect an edge and enhancing the detected edge portion in an original image (“Takagi , Supervised by Shimoda “Image Analysis Handbook”
pp. 550-560, pp. 564-567,199
1. ") And a method of detecting and enhancing edges by Hough transform (" Ballard, DH (Ballard, D.E.
H. ), Pattern Recognition (Pattern)
Recognition), 13, No2, pp. 11
1-112, 1981. , Duda, R.A. O. , Heart, p. E. FIG. (Duda, RO and Hart,
P. E. FIG. ) Communication of ACM (Com
m. ACM), 15, No, 1, pp. 11-15, 1
972. , Duda, R.A. O, heart, P. E. FIG. (Du
da, R .; O. and Hart, P.M. E. FIG. ), "Pattern Classification and Scene Analysis (Pattern Classification and Scene Analysis)
and Scene Analysis) ", John Wiley and Sons
& Sons), 1973. "), A method using the relaxation method (" Zucker, SW, Humme, A., Hammer, RA, Rosenfeld, A ").
l, R. A. , And Rosenfeld, A .; ),
IEEE Transaction (IEEE Tran
s. ), Vol. C-26, pp. 394-403,
1977. Pereg, S.M. Rosenfeld, A .;
(Peleg, S. and Rosenfeld,
A. ), IEEE Transactions (IEEE Tra)
ns. ), Vol. SMC-8, pp. 548-55
4, 1978. Shahater, B.S. J. , Lev, A. ,
Zucker, S.M. W. Rosenfeld, A.S. (Scha
chter, B .; J. Lev, A .; , Zucker,
S. W. , And Rosenfeld, A .; ), Ib
id. vol. SMC-7, pp. 813-816,
1977. "). The method using a local operator is susceptible to noise and needs to be smoothed in advance. However, there is a problem that the structure with fine edges is lost by the smoothing. The method using the Hough transform is relatively resistant to noise, but the shape and number of edges must be known in advance. Even when using the relaxation method, it is necessary to know the function form of the edge in advance.

【0003】比較的S/Nの低い状況で画素毎に方向が
異なり、しかもそ形状や本数があらかじめ分っていない
エッジを強調する手法として平滑化の後、画像上各点に
おいて輝度曲面の勾配を計算するか、ラプラシアン・ガ
ウシアン等の局所オペレータを作用させる事によりエッ
ジの方向を得て、稜線方向には平滑化し、それと垂直な
方向には2次微分を行ない、それを重み画像として原画
像に足し合わせる手法(高木、下田 監修”画像解析ハ
ンドブック”p.549,1991.8)が有効である
事が知られている。しかし局所オペレータを使う手法で
は、先程述べたような問題点が存在する。最も有効なの
は輝度曲面の勾配を使う方法だが、該手法では、エッジ
の方向を得る段階で以下の問題点がある。
[0003] In a situation where the S / N ratio is relatively low, the direction of each pixel is different, and the shape and the number of edges are not known in advance. , Or by applying a local operator such as Laplacian / Gaussian to obtain the direction of the edge, smooth it in the direction of the ridge line, perform the second derivative in the direction perpendicular to it, and use it as the weight image. (Supervised by Takagi and Shimoda, "Image Analysis Handbook", p.549, 1991.8) is known to be effective. However, the method using a local operator has the above-mentioned problems. The most effective method is to use the gradient of a luminance surface. However, this method has the following problems at the stage of obtaining the edge direction.

【0004】[0004]

【発明が解決しようとする課題】[Problems to be solved by the invention]

(1)低S/Nの状況では、平滑化のためのウィンドウ
を大きくしなければならず、形状が大きく変動するエッ
ジ、例えば鋸状エッジの場合、その変動に正確に追従で
きない。
(1) In the situation of low S / N, the window for smoothing must be enlarged, and in the case of an edge whose shape fluctuates greatly, for example, a saw-like edge, the fluctuation cannot be accurately followed.

【0005】(2)平滑化のウィンドウを大きくした場
合、近接して並走する複数のエッジを分解できない。
(2) When the smoothing window is enlarged, a plurality of edges running side by side cannot be resolved.

【0006】(3)画素毎の稜線方向の接続関係を見て
いないので、ノイズ除去が不十分な状況では、隣合った
画素同士の指し示すエッジ方向がまちまちになり、有効
に強調されない場合がある。
(3) Since the connection relationship in the ridge line direction for each pixel is not observed, in situations where noise removal is insufficient, the edge directions pointed to by adjacent pixels may be different and may not be effectively emphasized. .

【0007】(4)強調処理が1回しかなされず、結果
が不十分の場合がある。
(4) There is a case where the emphasis processing is performed only once and the result is insufficient.

【0008】以上の問題点のため、従来は低S/Nの画
像においては、エッジは有効に強調されていなかった。
Due to the above problems, edges have not been effectively emphasized in low S / N images.

【0009】[0009]

【課題を解決するための手段】本発明のエッジ強調装置
は、入力画像切り替え手段と方向画像生成手段とエッジ
検出手段と画像合成手段と画像記憶・選択手段とから構
成されるエッジ強調装置において、前記入力画像切り替
え手段は、外部の画像入力装置に入力された画像である
原画像を前記方向画像生成手段に渡し、該原画像を送っ
た後は前記画像合成手段から来る強調画像を、前記方向
画像生成手段に渡し、前記方向画像生成手段は、前記入
力画像切り替え手段から与えられた画像から、局所的な
エッジの方向を示す方向画像を求め、前記エッジ検出手
段は、前記方向画像を基に、前記画像入力手段から来る
前記原画像に対してエッジと平行な方向には平滑化、エ
ッジと垂直な方向には微分を施したエッジ画像を求め、
前記画像合成手段は、得られたエッジ画像をあらかじめ
設定した重みに応じて前記原画像に足し合わせ、その結
果を前記画像記憶・選択手段と前記画像入力切り替え手
段に送り、前記画像記憶・選択手段は、前記画像合成手
段により得られた強調画像を入力とし、前記得られた強
調画像を新しい強調画像としてあらかじめ設定した評価
基準で評価することにより、前記新しい強調画像の得点
を算出し、前記新しい強調画像の得点が既に評価が済み
保持している古い強調画像の得点より高い場合は、前記
古い強調画像の代わりに前記新しい強調画像を保持し、
前記新しい強調画像の得点が低い場合又は強調の繰り返
し回数があらかじめ外部より与えられた回数に達した場
合は、前記古い強調画像を外部の画像表示装置に出力す
るとともに、繰り返し終了制御信号を前記入力画像切り
替え手段に出力することを特徴とする。
According to the present invention, there is provided an edge enhancing apparatus comprising: an input image switching unit; a direction image generating unit;
It comprises a detecting means, an image synthesizing means, and an image storing / selecting means.
In the edge enhancement device to be formed, the input image switching means passes an original image, which is an image input to an external image input device, to the direction image generation means, and after sending the original image, the image synthesis means Is passed to the direction image generating means, and the direction image generating means obtains a direction image indicating a local edge direction from the image given from the input image switching means, Based on the directional image, the original image coming from the image input means smoothed in the direction parallel to the edge, to find an edge image subjected to differentiation in the direction perpendicular to the edge,
The image synthesizing unit adds the obtained edge image to the original image according to a preset weight, sends the result to the image storage / selection unit and the image input switching unit, and outputs the image storage / selection unit. Receives the enhanced image obtained by the image synthesizing means as an input,
By evaluating the toned image as a new emphasized image according to an evaluation criterion set in advance , the score of the new emphasized image is evaluated.
And the score of the new enhanced image has already been evaluated.
If higher than the score of the old-enhanced image that holds, the
Retain the new enhanced image instead of the old enhanced image ,
If the score of the new enhanced image is low or the enhancement is repeated
If the number of times has reached the number given from outside in advance
Output the old emphasized image to an external image display device.
And the repetition end control signal is
It is characterized in that it is outputted to the changing means .

【0010】又、本発明のエッジ強調装置は、前記方向
画像生成手段は、ウィンドウパラメーター設定部と基点
ウィンドウ設定部と候補ウィンドウ設定部と類似度計算
部と類似度保存・比較部と履歴画像記憶部と方向画像記
憶部と相関画像記憶部と基点ウィンドウ設定制御部とか
ら構成され、前記ウィンドウパラメーター設定部は、部
分画像を切り出す際に設定が必要なウィンドウの大きさ
及び形状とウィンドウ内の重みを外部から与えられた値
に従い決定し、前記基点ウィンドウ設定部は、前記入力
画像切り替え手段より受け取る画像上の、前記基点ウィ
ンドウ設定制御部により指示された座標に、前記ウィン
ドウパラメーター設定部で決定された大きさ・形状の基
点ウィンドウを設定し、該基点ウィンドウ内の画像を基
点ウィンドウ部分画像として切り出し保存し、該基点ウ
ィンドウ部分画像とその原画像における座標値を前記類
似度計算部に送り、前記候補ウィンドウ設定部は、前記
基点ウィンドウ設定部の設定を受け取り、前記入力画像
切り替え手段より受け取る画像上に、基点となるウィン
ドウの近傍で当該ウィンドウと類似度の高いウィンドウ
の候補を複数設定し、全ての候補ウィンドウについて、
ウィンドウで区切られた部分画像を候補ウィンドウ部分
画像とし、その候補ウィンドウ部分画像とその原画像に
おける座標値を前記類似度計算部に送り、前記類似度計
算部は、全ての候補ウィンドウ内の部分画像について、
前記基点ウィンドウ部分画像との間で外部より与えられ
た計算手法に従って類似度を計算し、計算結果と各候補
ウィンドウの座標値を前記類似度保存・比較部に渡し、
前記類似度保存・比較部は、前記類似度計算部によって
得られた各候補ウィンドウに対する類似度及び各候補ウ
ィンドウの座標値を保存し、最も類似度の高い候補ウィ
ンドウを次期基点ウィンドウ候補とし、前記相関画像記
憶部に保持されている相関画像において、該次期基点ウ
ィンドウ候補の座標に、該次期基点ウィンドウ候補と、
現在基点ウィンドウとしている基点ウィンドウとは全く
別の基点ウィンドウとの間で過去に計算された類似度が
存在するならば、その過去の類似度と現在計算された類
似度を比較し、過去の類似度の方が大きければ基点ウィ
ンドウ更新信号を前記基点ウィンドウ設定制御部に送
り、反対に現在の類似度の方が 大きければ、現在の類似
度と前記次期基点ウィンドウ候補の座標を前記相関画像
記憶部に送り、更に前記次期基点ウィンドウ候補の座標
と前記基点ウィンドウの座標を前記方向画像記憶部に送
り、同時に次期基点ウィンドウ候補の座標を前記履歴画
像機億部に送り、前記基点ウィンドウ設定制御部は、前
記類似度保存・比較部から前記基点ウィンドウ更新信号
を受け取ったら、前記履歴画像記憶部に保持される履歴
画像において、探索済み指標が記入されていない座標を
選び出し、そこを新たな基点ウィンドウの座標とし、該
座標を前記基点ウィンドウ設定部に送り、前記類似度保
存・比較部から前記基点ウィンドウ更新信号を受け取っ
ても、前記履歴画像において全画素に探索済み指標が記
入されているならば、処理終了信号を前記方向画像記憶
部に送り、前記類似度保存・比較部から前記基点ウィン
ドウ更新信号の代わりに、前記次期基点ウィンドウ候補
の座標とその現在の基点ウィンドウとの間の類似度を受
け取ったならば、該座標を次期の基点ウィンドウの座標
と確定し、該座標を前記基点ウィンドウ設定部に送り、
前記履歴画像記憶部は、前記入力画像と同じサイズの前
記履歴画像を生成、保持し、前記類似度保存・比較部か
ら、前記次期基点ウィンドウ候補の座標を受け取ったな
らば、前記履歴画像上の該座標に探索済み終了を示す指
標を記入し、前記相関画像記憶部は、前記入力画像と同
じサイズの前記相関画像を生成、保持し、前記類似度保
存・比較部から、前記次期基点ウィンドウ候補の座標と
現在の類似度を受け取ったならば、前記相関画像上の該
座標に該類似度を記入し、前記方向画像記憶部は、前記
入力画像と同じサイズの前記方向画像を生成、保持し、
前記類似度保存・比較部から、前記次期基点ウィンドウ
候補の座標と前記基点ウィンドウの座標を受け取ったな
らば、前記方向画像上、両座標間を直線で結び、該直線
が前記方向画像上の外部より与えられた軸と成す角度を
求め、該角度を前記方向画像上、前記次期基点ウィンド
ウ候補の座標に記入し、前記基点ウィンドウ設定制御部
から前記処理終了信号を受け取ったならば、該方向画像
を出力画
[0010] Also, the edge enhancement device of the present invention, the direction
The image generating means includes a window parameter setting unit and a base point.
Window setting part and candidate window setting part and similarity calculation
Section and similarity storage / comparison section, history image storage section and direction image recording
Storage unit, correlated image storage unit, base window setting control unit
And the window parameter setting unit comprises:
The size of the window that needs to be set when cutting out the minute image
And values given externally for the shape and weight in the window
And the base window setting unit determines the input
The base point window on the image received from the image switching means.
The window specified by the window setting control unit
Based on the size and shape determined by the dough parameter setting section
Set a point window and use the image in the
Cut out and save as a point window partial image, and
The coordinate values of the window partial image and its original image are
Sent to the similarity calculation unit, and the candidate window setting unit
Receiving the settings of the base window setting section, the input image
On the image received from the switching means,
A window with high similarity to the window near the dough
Are set, and for all candidate windows,
Window-partitioned partial image as candidate window part
Image and the candidate window partial image and its original image
The coordinate value in the similarity calculator is sent to the similarity calculator.
The arithmetic unit calculates the partial images in all candidate windows,
Externally given between the base window part image
The similarity is calculated according to the calculation method
Pass the window coordinate values to the similarity storage / comparison unit,
The similarity storage / comparison unit is configured by the similarity calculation unit
The degree of similarity to each obtained candidate window and each candidate window
The window coordinates are saved, and the candidate window with the highest similarity is saved.
Window as the next base window candidate, and
In the correlation image held in the storage unit, the next base point c
In the coordinates of the window candidate, the next base window candidate,
What is the base window that is currently the base window?
The previously calculated similarity with another base window is
If present, its past similarities and currently calculated classes
Compare the similarities, and if the past similarity is greater,
Window update signal to the base window setting control unit.
Conversely, if the current similarity is greater,
The degree and the coordinates of the next base window candidate are represented by the correlation image
Sent to the storage unit and further coordinates of the next base window candidate
And the coordinates of the base window are sent to the direction image storage unit.
At the same time, the coordinates of the next base window candidate are
Image base unit, and the base window setting control unit
The base window update signal from the similarity storage / comparison unit
Received, the history stored in the history image storage unit
In the image, the coordinates where the searched index is not
And set it as the coordinates of the new base window.
The coordinates are sent to the base window setting unit, and the similarity
Receiving the base window update signal from the storage / comparison unit
However, the searched index is recorded in all the pixels in the history image.
If it is input, the processing end signal is stored in the direction image storage.
To the base point window from the similarity storage / comparison unit.
Instead of the dow update signal, the next base window candidate
Receives the similarity between the coordinates of the
If it is removed, change the coordinates to the coordinates of the next base window.
And send the coordinates to the base point window setting unit,
The history image storage unit stores a history image having the same size as the input image.
Generates and stores a history image, and stores it in the similarity storage / comparison unit.
Received the coordinates of the next base point window candidate.
The finger indicating the searched end is displayed at the coordinates on the history image.
Mark, and the correlation image storage unit stores the same mark as the input image.
Generate and store the correlation image of the same size, and maintain the similarity
From the existence / comparison unit, the coordinates of the next base window candidate are
If the current similarity is received, the
The similarity is written in coordinates, and the direction image storage unit stores
Generate and hold the direction image of the same size as the input image,
From the similarity storage / comparison unit, the next base window
Received the coordinates of the candidate and the coordinates of the base window.
If the two coordinates are connected by a straight line on the direction image,
Is the angle formed by an externally given axis on the direction image
Calculating the angle on the direction image, the next base point window
C) Fill in the coordinates of the candidate, and set the base window setting controller
If the processing end signal is received from
Output picture

【0011】[0011]

【実施例】次に本発明について図面を参照して説明す
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, the present invention will be described with reference to the drawings.

【0012】図1は第1の発明の一実施例を示す。図1
において、第1の発明の実施例はテレビカメラ等で構成
される外部の画像入力手段100と、方向画像生成手段
102に送る画像を切り替える 入力画像切り替え手段1
01と、入力された画像の局所的なエッジの方向を検出
し、該方向を示す画像を生成する方向画像生成手段10
2と、方向画像に基づいて原画像よりエッジを検出する
エッジ検出手段103と、検出されたエッジに基づいて
原画像のエッジ部分を強調する画像合成手段104と、
強調された画像を保存し、過去に生成された強調画像と
比較する画像記憶・比較手段105と、最終的に選択さ
れた最も好ましく強調された画像を外部に表示するCR
T等の画像表示手段106とを有する。
FIG. 1 shows an embodiment of the first invention. FIG.
In the embodiment of the first invention, a television camera or the like is used.
External image input means 100 and directional image generating means
Input image switching means 1 for switching an image to be sent to 102
01, a direction image generating means 10 for detecting the direction of a local edge of the input image and generating an image indicating the direction
2, an edge detecting unit 103 for detecting an edge from the original image based on the direction image, an image combining unit 104 for enhancing an edge portion of the original image based on the detected edge,
Save the enhanced image, an image storage compare unit 105 for comparison with the generated enhanced images in the past, finally chosen is
CR that displays the most preferably highlighted image externally
T and other image display means 106 .

【0013】画像入力手段100はカメラで入力された
画像をデジタル画像信号として画像入力切り替手段10
1、エッジ検出手段103、画像合成手段104に送出
する。入力画像切り替え手段101は画像入力手段10
0から画像信号列が送られてきたら、まず最初は画像
信号列を方向画像生成手段102に送出し、以後は画像
合成手段104より送られた強調画像を方向画像生成手
段102に送出する切り替えを行うものであり、画像記
憶・比較手段105より繰り返し終了制御信号を受け取
ったら方向画像生成手段102への画像の送出を停止す
る。方向画像生成手段102は例えば第2の発明の説明
で詳しく述べる方法を用いることにより、図4(a)に
示す様なエッジをもつ画像に対して図4(b)に示す様
に、原画像の任意の座標におけるエッジの方向を例えば
エッジと画像の垂直な方向との成す角度と定義し該角度
を、方向画像上前記座標と同じ座標に記入する。前記方
向画像生成手段は方向画像の生成が終了した後、該方向
画像をエッジ検出手段103に送出する。前記エッジ検
出手段103は前記方向画像を基に原画像をエッジと平
行な方向にも垂直な方向にも、例えばxを画素単位、σ
=3としたexp(−x2 /2σ2 )というガウシア
ンの重みを付けた移動平均で平滑化し、エッジと垂直な
方向には例えば2次微分を行い、以上操作を行ったエッ
ジ画像の画像合成手段104に送出する。画像合成手段
104は前記エッジ画像と原画像を例えば単純に足し合
わせる事で強調画像を生成し、前記入力手段101と画
像記憶・選択手段105に送出する。該画像記憶・選択
手段105は強調画像を保存し、過去の強調画像と比較
し、今処理して得た強調画像の方がより強調されてる場
合は該強調画像の方を保存し、過去に処理した方の強調
画像は消去する。ただし、強調の処理があらかじめ設定
した回数に達したならば、過去に処理した方の強調画像
は消去せず、該強調画像を画像表示手段106に送出す
ると同時に、入力画像切り替え手段101に繰り返し終
了信号を送出する。一方、過去に処理した強調画像の方
がより強調されているならば、該強調画像を画像表示手
段106に送出すると同時に、今処理して得た強調画像
は消去し、入力画像切り替え手段101に繰り返し終了
信号を送出する。画像表示手段106は受け取った強調
画像を表示する。
The image input means 100 converts the image input by the camera into a digital image signal as an image input switching means 10
1. Send to the edge detecting means 103 and the image synthesizing means 104. The input image switching means 101 is the image input means 10
0 When the image signal sequence is sent from the, first switch initially sends the image signal sequence in the direction the image generation unit 102, thereafter sending the enhanced image sent from the image synthesis unit 104 in the direction the image generating means 102 And the image
When repeatedly receiving the end control signal from the storage / comparison unit 105 , the transmission of the image to the direction image generation unit 102 is stopped. The direction image generating means 102 uses, for example, a method described in detail in the description of the second invention to convert an image having an edge as shown in FIG. 4A into an original image as shown in FIG. Is defined as, for example, the angle between the edge and the direction perpendicular to the image, and the angle is written in the direction image at the same coordinate as the coordinate. The directional image generating means sends the directional image to the edge detecting means 103 after the generation of the directional image is completed. The edge detecting means 103 converts the original image based on the directional image into a direction parallel to the edge and a direction perpendicular to the edge, for example, x in pixel units, σ
= 3 and smoothed by a moving average weighted by Gaussian exp (-x2 / 2.sigma.2), for example, by performing a second derivative in the direction perpendicular to the edge, and performing the above operation on the edge image image combining means 104. To send to. The image synthesizing unit 104 generates an emphasized image by, for example, simply adding the edge image and the original image, and sends the emphasized image to the input unit 101 and the image storage / selection unit 105. The image storage / selection unit 105 stores the emphasized image, compares it with the past emphasized image, and stores the emphasized image if the emphasized image obtained by the current processing is more emphasized. The processed enhanced image is deleted. However, when the emphasis processing reaches the preset number of times, the emphasis image processed in the past is not erased, and the emphasis image is transmitted to the image display means 106 and the input image switching means 101 repeatedly terminates. Send a signal. On the other hand, if the emphasized image processed in the past is more emphasized, the emphasized image is displayed on the image display means.
At the same time as sending to the stage 106 , the emphasized image obtained by the current processing is deleted, and an end signal is repeatedly sent to the input image switching means 101 . The image display means 106 receives the enhancement.
Display an image.

【0014】図2は第2の発明の一実施例を示すので、
図1に示す第1の発明における方向画像生成手段102
に相当する。図2において、第2の発明の実施例は入力
画像200上において部分画像を切り出すウィンドウの
大きさと形状を設定するウィンドウパラメータ設定手段
201と、該ウィンドウパラメータに従って前記入力画
像上に基点ウィンドウを設定し、該ウィンドウ内の画像
を切り出し基点ウィンドウ部分画像として保持する基点
ウィンドウ設定手段202と、基点ウィンドウの近傍に
前記ウィンドウパラメータに従って複数の候補ウィンド
ウを設定し、該ウィンドウ内の画像を切りだし候補ウィ
ンドウ部分画像群として保持する候補ウィンドウ設定手
段203と、各候補ウィンドウ部分画像群と前記基点ウ
ィンドウとの間で類似度を計算する類似度計算手段20
4と、最も類似度の高い候補ウィンドウを選択する類似
度保存・比較手段205と、最も類似度の高い候補ウィ
ンドウを新しい基点ウィンドウとする基点ウィンドウ設
定制御手段206と、類似度の計算が終了しているかど
うかをチェックするための履歴画像を生成し保存する履
歴画像記憶手段207と、前記最も類似度の高い候補ウ
ィンドウの類似度を該候補ウィンドウの座標に記入した
相関画像を生成し保存する相関画像記憶手段209と、
入力画像上の局所的なエッジの方向を示す方向画像を生
成し保存し全入力画像につき局所的なエッジの方向が求
まったら方向画像を出力画像210として出力する方向
画像記憶手段208とを有する。
FIG. 2 shows an embodiment of the second invention.
Directional image generating means 102 in the first invention shown in FIG.
Is equivalent to In FIG. 2, a second embodiment of the present invention sets a window parameter setting means 201 for setting the size and shape of a window from which a partial image is cut out on an input image 200, and sets a base window on the input image according to the window parameters. A base window setting means 202 for extracting an image in the window as a base window partial image and setting a plurality of candidate windows in the vicinity of the base window in accordance with the window parameters, and extracting the image in the window to a candidate window part Candidate window setting means 203 for holding as a group of images, and similarity calculating means 20 for calculating the similarity between each candidate window partial image group and the base point window
4, a similarity storage / comparison unit 205 for selecting the candidate window with the highest similarity, a base window setting control unit 206 for setting the candidate window with the highest similarity as a new base window, and the calculation of the similarity is completed. A history image storage unit 207 for generating and storing a history image for checking whether or not a correlation image is generated, and a correlation image for generating and storing a correlation image in which the similarity of the candidate window having the highest similarity is entered in the coordinates of the candidate window. Image storage means 209;
Direction image storage means 208 for generating and storing a direction image indicating the direction of a local edge on the input image, and outputting the direction image as an output image 210 when the local edge direction is obtained for all input images.

【0015】図2においてウィンドウパラメータ設定手
段201は、例えばコンピュータの記憶装置上に置か
れ、ウィンドウの大きさと形状、例えば縦4画素横16
画素の長方形である事が記述されているファイルを読み
込む事によりウィンドウパラメータを決定する。基点ウ
ィンドウ設定手段202は図5(a)に示す様なエッジ
を持つ入力画像に対して、図5(b)に示す様に基点ウ
ィンドウ設定制御手段206により指示された座標に、
前記ウィンドウパラメータ設定手段201で決定された
大きさ・形状の基点ウィンドウを設定し、該基点ウィン
ドウ内の画像を基点ウィンドウ部分画像として切り出し
保存する。候補ウィンドウ設定手段203は図5(c)
に示す様に基点ウィンドウの近傍、例えば基点ウィンド
ウの中心座標の4画素下方で基点ウィンドウの中心座標
の左側24画素から右側24画素内に8画素おきに候補
ウィンドウを5個設定し、該ウィンドウ内の画像を候補
ウィンドウ部分画像群として切り出し保存する。類似度
計算手段204は例えば基点ウィンドウ部分画像を左か
ら右、上から下へとラスタースキャンして、部分画像の
画素値を1次元に並べ、それをベクトルAとし、候補ウ
ィンドウも同様にラスタースキャンし、それをベクトル
Bとした時、例えばA・B/|A||B|を類似度とし
て、該類似度を前記各候補ウィンドウ部分画像と前記基
点ウィンドウ部分画像とで計算する。類似度保存・比較
手段205は前記類似度計算手段204で得られた全類
似度を保存し、その中から最も高い値を示す類似度を選
び出し、その類似度を与えた候補ウィンドウを次期基点
ウィンドウ候補として、相関画像記憶手段209に保持
されている相関画像において、該次期基点ウィンドウ候
補の中心座標に、該次期基点ウィンドウ候補と別の基点
ウィンドウとの間で過去に計算された、類似度が存在す
るならば、該過去の類似度と現在計算された類似とでそ
の値を比較し、過去の類似度の方が大きければ基点ウィ
ンドウ更新信号を基点ウィンドウ設定制御手段206に
送出し、一方現在の類似度の方が大きければ、現在の類
似度と次期基点ウィンドウ候補の座標を相関画像記憶手
段209に送出し、更に次期基点ウィンドウ候補の座標
と前記基点ウィンドウの座標を方向画像記憶手段208
に送出し、次期基点ウィンドウ候補の座標を履歴画像記
憶手段207と基点ウィンドウ設定制御手段206に送
出する。基点ウィンドウ設定制御手段206は基点ウィ
ンドウ更新信号を受け取ったら履歴画像記憶手段207
に保持される履歴画像において、探索済み指標が記入さ
れていない座標に中心の座標が来る様に基点ウィンドウ
の座標を確定し、該座標を前記基点ウィンドウ設定手段
202に送出し、前記履歴画像において全画素に探索済
み指標が記入されているならば、処理終了信号を方向画
像記憶手段208に送出し、次期基点ウィンドウ候補の
座標を受け取ったならば該座標を次期の基点ウィンドウ
の座標と確定し、該座標を前記基点ウィンドウ設定手段
202に送出する。履歴画像記憶手段207は履歴画像
を生成、保持し、次期基点ウィンドウ候補の座標を受け
取ったならば履歴画像上の該座標に探索済み終了指標を
記入する。相関画像記憶手段209は相関画像を生成、
保持し、次期基点ウィンドウ候補の座標と現在の類似度
とを受け取ったらなば、相関画像上の該座標に該類似度
を記入する。方向画像記憶手段208は方向画像を生成
し、保持し、前記基点ウィンドウの座標と前記次期基点
ウィンドウ候補の座標を受け取ったならば、前記方向画
像上、両座標間を直線で結び、該直線と前記方向画像の
垂直方向との成す角度を計算し、該角度を前記方向画像
上、前記次期基点ウィンドウ候補の座標に記入し、処理
終了信号を受け取ったならば、該方向画像を出力画像2
10として出力する。
In FIG. 2, a window parameter setting means 201 is placed, for example, on a storage device of a computer, and has a size and a shape of a window, for example, 4 pixels by 16 pixels.
The window parameter is determined by reading a file describing that the pixel is a rectangle. The base window setting unit 202 sets the coordinates specified by the base window setting control unit 206 as shown in FIG. 5B with respect to the input image having the edge as shown in FIG.
A base window having the size and shape determined by the window parameter setting means 201 is set, and an image in the base window is cut out and stored as a base window partial image. FIG. 5C shows the candidate window setting unit 203.
As shown in (5), five candidate windows are set every eight pixels in the vicinity of the base window, for example, 4 pixels below the center coordinates of the base window and 24 pixels on the right side from the left 24 pixels of the center coordinates of the base window. Is cut out and saved as a candidate window partial image group. The similarity calculating means 204 raster-scans, for example, the root window partial image from left to right and from top to bottom, arranges the pixel values of the partial image one-dimensionally, sets it as a vector A, and similarly raster scans the candidate window. Then, when the vector is set as a vector B, the similarity is calculated using the respective candidate window partial images and the base window partial image, for example, assuming that AB · | A || B | The similarity storing / comparing means 205 stores all the similarities obtained by the similarity calculating means 204, selects a similarity having the highest value from the similarities, and sets a candidate window given the similarity to a next base window. As a candidate, in the correlation image held in the correlation image storage unit 209, the similarity calculated in the past between the next base window candidate and another base window is set at the center coordinate of the next base window candidate. If there is, the value is compared between the past similarity and the currently calculated similarity, and if the past similarity is larger, a base window update signal is sent to the base window setting control means 206, while If the similarity is larger, the current similarity and the coordinates of the next base window candidate are sent to the correlation image storage means 209, and the coordinates of the next base window candidate are further added. The base window coordinate orientation image storage unit 208
And sends the coordinates of the next base window candidate to the history image storage unit 207 and the base window setting control unit 206. Upon receiving the base window update signal, the base window setting control unit 206
In the history image held in the base image, the coordinates of the base window are determined so that the center coordinates come to the coordinates where the searched index is not entered, and the coordinates are sent to the base window setting means 202. If the searched index is written in all the pixels, a process end signal is sent to the direction image storage means 208. If the coordinates of the next base window candidate are received, the coordinates are determined as the coordinates of the next base window. The coordinates are sent to the base window setting means 202. The history image storage unit 207 generates and holds a history image, and upon receiving the coordinates of the next base window candidate, writes a searched end index at the coordinates on the history image. Correlation image storage means 209 generates a correlation image,
If the coordinates are held and the coordinates of the next base point window candidate and the current similarity are received, the similarity is entered at the coordinates on the correlation image. The direction image storage unit 208 generates and holds a direction image, and when receiving the coordinates of the base window and the coordinates of the next base window candidate, connects the two coordinates with a straight line on the direction image, and Calculate the angle between the direction image and the vertical direction, write the angle in the coordinates of the next base point window candidate on the direction image, and, when a processing end signal is received, convert the direction image to the output image 2.
Output as 10.

【0016】図3は第1の発明の一実施例を示す図1に
おける画像記憶・選択手段105の一実施例を示す。図
3において画像記憶・選択手段は入力画像300を2値
化しエッジ候補断片群を検出する画像2値化手段301
と、各エッジ候補断片にラベルを貼るラベリング手段3
02と、位置情報を基にエッジ候補断片を接続してエッ
ジ候補を形成するエッジ候補接続手段303と、エッジ
候補の内基準に満たない候補を消去するエッジ確定手段
304と、今得られたエッジ画像からある基準に基づい
て得点を計算し、過去に得られたエッジ画像の得点と比
較し、その結果を強調画像記憶手段306に送出し、そ
の結果に従って繰り返し制御に関する信号を発信する得
点算出・比較手段305と、強調画像とその得点を保持
し、前記得点算出・比較手段305で行った得点の比較
に従って強調画像を出力画像307として出力する強調
画像記憶手段306から構成される。
FIG. 3 shows an embodiment of the image storage / selection means 105 in FIG. 1 showing an embodiment of the first invention. In FIG. 3, an image storage / selection unit binarizes an input image 300 and detects an edge candidate fragment group.
And labeling means 3 for labeling each edge candidate fragment
02, an edge candidate connecting means 303 for connecting edge candidate fragments based on the position information to form an edge candidate, an edge determining means 304 for erasing candidates that do not meet the criteria among the edge candidates, and an edge obtained just now. A score is calculated from the image based on a certain criterion, compared with the score of the edge image obtained in the past, the result is sent to the emphasized image storage means 306, and a score calculation / signal for transmitting a signal regarding repetitive control according to the result is obtained. Comparing means 305 and an emphasized image storing means 306 which holds the emphasized image and its score and outputs the emphasized image as an output image 307 in accordance with the score comparison performed by the score calculating / comparing means 305.

【0017】図3において画像2値化手段301は、入
力画像300を例えば画像データにおける各画素の輝度
の最大値をmax、最小値をminとした場合、(ma
x−min)×0.1をしきい値として、該しきい値よ
り輝度の高いものは1、低いものは0という様に2値化
する。ラベリング手段302は2値化された画像におい
て、エッジ候補部分と呼ばれる、1という値を与えられ
た全ての画素、に各々別の数値を与えるという具合にラ
ベルを貼る。エッジ候補接続手段303は例えば画像上
水平軸方向にプラスマイナス1ピクセル以内、画像上垂
直軸方向には1ピクセル以内の近傍にある2つのエッジ
候補部分は1つのエッジを成すと見なし、2つのエッジ
候補部分のラベルを貼替え、エッジ候補部分を接続して
いき、エッジ候補を形成せしめる。エッジ確定手段30
4は各エッジ候補の長さを計測し、例えば80画素をし
きい値とし、該しきい値より短いエッジ候補はノイズと
みなして消去し、長いエッジ候補はエッジとみなしてエ
ッジと確定する。得点算出・比較手段305は前記エッ
ジ確定手段により得られたエッジ画像において、例えば
検出された全エッジの長さを合計し、その結果を得点と
し、強調画像記憶手段306に保存されている過去の得
点と比較し、今得られた得点の方が高ければ強調画像更
新信号を前記強調画像記憶手段306に送出し、低けれ
ば繰り返し終了信号を前記強調画像記憶手段306と
力画像切り替え手段101に送出する。なお、図3では
入力画像切り替え手段101への送出については図示し
ていない。強調画像記憶手段306は強調画像更新信号
を受け取った場合には過去に記憶された入力画像を消去
し、新しく入力された入力画像を記憶し、繰り返し終了
信号を受け取った場合には現在記憶されている入力画像
を出力画像307として出力する。
In FIG. 3, when the maximum value of the luminance of each pixel in the image data is max and the minimum value is min, the image binarizing means 301
(x-min) × 0.1 is set as a threshold value, and a value higher than the threshold value is binarized to 1, and a value lower than the threshold value is set to 0. In the binarized image, the labeling means 302 applies a label to each pixel, which is called an edge candidate portion, to which a value of 1 is given, and a different numerical value is given to each pixel. The edge candidate connection means 303 regards two edge candidate portions that are within ± 1 pixel in the horizontal axis direction on the image and 1 pixel in the vertical axis direction on the image as one edge, and considers two edges as two edges. The labels of the candidate portions are replaced, and the edge candidate portions are connected to form edge candidates. Edge determination means 30
Numeral 4 measures the length of each edge candidate. For example, a threshold value is set to 80 pixels. Edge candidates shorter than the threshold value are regarded as noise and erased, and long edge candidates are regarded as edges and determined as edges. The score calculation / comparison means 305 sums up, for example, the lengths of all detected edges in the edge image obtained by the edge determination means, and obtains the result as a score. Compared to the score, if the obtained score is higher, an enhanced image update signal is sent to the enhanced image storage means 306, and if it is lower, a repetition end signal is input to the enhanced image storage means 306.
This is sent to the force image switching means 101. In FIG. 3,
The transmission to the input image switching means 101 is illustrated.
Not. The enhanced image storage unit 306 deletes the previously stored input image when receiving the enhanced image update signal, stores the newly input image, and stores the currently stored input image when repeatedly receiving the end signal. The output input image is output as an output image 307.

【0018】[0018]

【発明の効果】【The invention's effect】

(1)1回の平滑化処理だけではノイズ除去が不十分な
ため、得られる局所的なエッジ方向の真のエッジ方向と
の不一致が非常に大きく、エッジが有効に強調されない
可能性がある場合でも、繰り返し処理をすることによ
り、平滑化の度合が大きくなり、該不一致を小さくする
ことが出来る。しかし、繰り返し回数を多くすると平滑
化過多になり、エッジの形状の細かい構造が失われるだ
けでなく、S/Nが低く、長さの短いエッジはノイズに
埋もれてしまい検出出来なくなる。第1の発明では強調
処理を繰り返し、例えば前記画像記憶・選択手段105
の実施例で説明した基準で強調画像を選ぶ事が出来る様
にする事により、その基準の下で最も好ましく強調され
ている画像が出力される様になる効果がある。
(1) When noise is not sufficiently removed by only one smoothing process, the obtained local edge direction largely differs from the true edge direction, and the edge may not be effectively emphasized. However, by performing the repetitive processing, the degree of smoothing increases, and the mismatch can be reduced. However, when the number of repetitions is increased, the smoothing becomes excessive, so that not only a fine structure of the edge shape is lost, but also an edge having a low S / N and a short length is buried in noise and cannot be detected. In the first invention, the emphasis process is repeated, for example, the image storage / selection unit 105
By making it possible to select an emphasized image based on the criterion described in the embodiment, there is an effect that an image which is most preferably emphasized under the criterion is output.

【0019】(2)画像の局所的な輝度曲面の勾配を計
算して局所的なエッジの方向を求める場合は、ノイズ過
多の場合図6(a)で示す様なエッジを持つ画像に対し
て、例えば図6(b)の様に隣接する画素でエッジの方
向が全く違うという事が起こる場合があり、エッジが有
効に強調されなかった。本発明ではエッジは連続してい
るという条件が入っているため、エッジの方向が図6
(c)で示す様に得られ、隣接した画素間でエッジの方
向が大きく異ならない効果がある。
(2) When calculating the gradient of the local brightness curved surface of the image to determine the direction of the local edge, in the case of excessive noise, an image having an edge as shown in FIG. For example, as shown in FIG. 6B, the direction of the edge may be completely different between adjacent pixels, and the edge is not effectively emphasized. In the present invention, since the condition that the edge is continuous is included, the direction of the edge is changed as shown in FIG.
(C) is obtained, and there is an effect that the direction of the edge does not largely differ between adjacent pixels.

【0020】(3)エッジの方向を見つけるとき、類似
度を計算してエッジの断面の形状を見て、2点間を接続
しているので、例えばA,B2つのエッジが交差してい
る図7(a)の場合、図7(b)の様に交差の前後で接
続すべきエッジを取り違えたり、図7(c)の様に交差
した点でAが途切れていると誤った判断をしたりし難く
なる効果がある。
(3) When finding the direction of the edge, the similarity is calculated and the cross-sectional shape of the edge is checked to connect the two points. For example, a diagram in which two edges A and B intersect In the case of FIG. 7 (a), the edge to be connected before and after the intersection is mistaken as shown in FIG. 7 (b), or it is erroneously determined that A is interrupted at the intersection as shown in FIG. 7 (c). This has the effect of making it harder.

【0021】(4)図8(a)に示す様な上下に続くサ
イン波状エッジの場合、輝度曲面の勾配によりエッジの
方向を求める方法では、精度を上げるために平滑化のウ
ィンドウを図8(b)におけるAの様に大きく取るとエ
ッジの構造が失われ、一方、エッジの構造を保つためB
の様に横長にすると、勾配の縦方向成分の精度が低くな
る欠点があるが、本発明では類似度の精度はウィンドウ
の面積のみに依存しその形状は問わないため、図8
(c)におけるC,Dの様にウィンドウを横長にするこ
とによりエッジの構造を失わずに精度を上げることが出
来る。
(4) In the case of a sine wave-like edge that continues up and down as shown in FIG. 8A, in the method of finding the direction of the edge by the gradient of the luminance surface, a smoothing window is set in FIG. If a large value is taken like A in b), the edge structure is lost, while B is used to maintain the edge structure.
However, the accuracy of the similarity degree depends only on the area of the window, and the shape thereof does not matter.
By making the window horizontally long like C and D in (c), the accuracy can be improved without losing the edge structure.

【0022】(5)図9(a)に示す様に複数のエッジ
が近接して上下方向に並走する場合、輝度曲面の勾配に
よりエッジの方向を求める方法では、精度を上げるため
に平滑化のウィンドウを図9(b)におけるAの様に大
きく取ると3本のエッジが分解されず、空間分解能を保
つためBの様に縦長にすると、勾配の横方向成分の精度
が低くなるが、本発明では、図9(c)におけるC,D
の様にウィンドウを縦長にすることによりエッジの構造
を失わずに精度を上げることが出来る。
(5) As shown in FIG. 9 (a), when a plurality of edges run close to each other in the vertical direction, the edge direction is determined by the gradient of the luminance curved surface. If the window of FIG. 9B is made large as in A in FIG. 9B, the three edges are not decomposed. If the window is vertically elongated as in B in order to maintain the spatial resolution, the accuracy of the horizontal component of the gradient decreases. In the present invention, C, D in FIG.
By making the window vertically long as in the above, the accuracy can be improved without losing the edge structure.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の発明の一実施例を示すブロック図であ
る。
FIG. 1 is a block diagram showing an embodiment of the first invention.

【図2】第2の発明の一実施例を示すブロック図であ
る。
FIG. 2 is a block diagram showing an embodiment of the second invention.

【図3】上記の発明における画像記憶・選択手段の一実
施例である。
FIG. 3 is an embodiment of an image storage / selection means in the above invention.

【図4】上記の発明におけるエッジ画像、方向画像の具
体例を示す図である。
FIG. 4 is a diagram showing a specific example of an edge image and a direction image in the above invention.

【図5】上記の発明における入力画像及び、ウィンドウ
の設定の例を示す図である。
FIG. 5 is a diagram showing an example of an input image and a window setting in the above invention.

【図6】従来手法と比較し上記発明の効果を示す図であ
る。
FIG. 6 is a diagram showing the effect of the present invention as compared with a conventional method.

【図7】従来手法と比較し上記発明の効果を示す図であ
る。
FIG. 7 is a diagram showing the effect of the present invention as compared with the conventional method.

【図8】従来手法と比較し上記発明の効果を示す図であ
る。
FIG. 8 is a diagram showing the effect of the present invention as compared with the conventional method.

【図9】従来手法と比較し上記発明の効果を示す図であ
る。
FIG. 9 is a diagram showing the effect of the present invention as compared with a conventional method.

【符号の説明】[Explanation of symbols]

100 画像入力手段 101 入力画像切り替え手段 102 方向画像生成手段 103 エッジ検出手段 104 画像合成手段 105 画像記憶・選択手段106 画像表示手段 200 入力画像 201 ウィンドウパラメータ設定手段 202 基点ウィンドウ設定手段 203 候補ウィンドウ設定手段 204 類似度計算手段 205 類似度保存・比較手段 206 基点ウィンドウ設定制御手段 207 履歴画像記憶手段 208 方向画像記憶手段 209 相関画像記憶手段 210 出力画像 300 入力画像 301 画像2値化手段 302 ラベリング手段 303 エッジ候補接続手段 304 エッジ確定手段 305 得点算出・比較手段 306 強調画像記憶手段 307 出力画像REFERENCE SIGNS LIST 100 image input means 101 input image switching means 102 directional image generation means 103 edge detection means 104 image synthesis means 105 image storage / selection means 106 image display means 200 input image 201 window parameter setting means 202 base window setting means 203 candidate window setting means 204 Similarity calculation means 205 Similarity storage / comparison means 206 Base window setting control means 207 History image storage means 208 Direction image storage means 209 Correlation image storage means 210 Output image 300 Input image 301 Image binarization means 302 Labeling means 303 Edge Candidate connection means 304 edge determination means 305 score calculation / comparison means 306 enhanced image storage means 307 output image

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力画像切り替え手段と方向画像生成手
段とエッジ検出手段と画像合成手段と画像記憶・選択手
段とから構成されるエッジ強調装置において、前記入力
画像切り替え手段は、外部の画像入力装置に入力された
画像である原画像を前記方向画像生成手段に渡し、該原
画像を送った後は前記画像合成手段から来る強調画像
を、前記方向画像生成手段に渡し、 前記方向画像生成手段は、前記入力画像切り替え手段か
ら与えられた画像から、局所的なエッジの方向を示す方
向画像を求め、 前記エッジ検出手段は、前記方向画像を基に、前記画像
入力手段から来る前記原画像に対してエッジと平行な方
向には平滑化、エッジと垂直な方向には微分を施したエ
ッジ画像を求め、前記画像合成手段は、得られたエッジ
画像をあらかじめ設定した重みに応じて前記原画像に足
し合わせ、その結果を前記画像記憶・選択手段と前記画
像入力切り替え手段に送り、 前記画像記憶・選択手段は、前記画像合成手段により得
られた強調画像を入力とし、前記得られた強調画像を新
しい強調画像としてあらかじめ設定した評価基準で評価
することにより、前記新しい強調画像の得点を算出し、
前記新しい強調画像の得点が既に評価が済み保持してい
る古い強調画像の得点より高い場合は、前記古い強調画
像の代わりに前記新しい強調画像を保持し、前記新しい
強調画像の得点が低い場合又は強調の繰り返し回数があ
らかじめ外部より与えられた回数に達した場合は、前記
古い強調画像を外部の画像表示装置に出力するととも
に、繰り返し終了制御信号を前記入力画像切り替え手段
に出力することを特徴とするエッジ強調装置。
An input image switching means and a direction image generating means are provided.
Step, edge detecting means, image synthesizing means, image storage / selection means
And the input image switching means passes an original image, which is an image input to an external image input device, to the direction image generating means, and after transmitting the original image, Passing the enhanced image coming from the image synthesizing unit to the directional image generating unit, wherein the directional image generating unit obtains a directional image indicating a local edge direction from the image given from the input image switching unit, Edge detection means, based on the direction image, for the original image coming from the image input means smoothing in the direction parallel to the edge, to obtain an edge image subjected to differentiation in the direction perpendicular to the edge, The image synthesizing unit adds the obtained edge image to the original image according to a preset weight, and outputs the result to the image storage / selection unit and the image input switching unit. Ri, the image storage and selection means inputs the enhanced image obtained by the image synthesizing means, the enhanced image in which the resulting new
Evaluate according to preset evaluation criteria as a new emphasized image
By calculating the score of the new enhanced image,
The score of the new enhanced image has already been evaluated and held
Old is higher than the score of the enhanced image, the old emphasis image that
The new enhanced image held in place of the image, the new
If the score of the emphasized image is low or the number of
If the number of times given from outside is reached beforehand,
Outputting old emphasized images to an external image display device
The repetition end control signal is supplied to the input image switching means.
An edge enhancement device for outputting to an edge.
【請求項2】前記方向画像生成手段は、ウィンドウパラ
メーター設定部と基点ウィンドウ設定部と候補ウィンド
ウ設定部と類似度計算部と類似度保存・比較部と履歴画
像記憶部と方向画像記憶部と相関画像記憶部と基点ウィ
ンドウ設定制御部とから構成され、 前記ウィンドウパラメーター設定部は、部分画像を切り
出す際に設定が必要なウィンドウの大きさ及び形状とウ
ィンドウ内の重みを外部から与えられた値に従い決定
し、 前記基点ウィンドウ設定部は、前記入力画像切り替え手
段より受け取る画像上の、前記基点ウィンドウ設定制御
部により指示された座標に、前記ウィンドウパラメータ
ー設定部で決定された大きさ・形状の基点ウィンドウを
設定し、該基点ウィンドウ内の画像を基点ウィンドウ部
分画像として切り出し保存し、該基点ウィンドウ部分画
像とその原画像における座標値を前記類似度計算部に送
り、 前記候補ウィンドウ設定部は、前記基点ウィンドウ設定
部の設定を受け取り、前記入力画像切り替え手段より受
け取る画像上に、基点となるウィンドウの近傍で当該ウ
ィンドウと類似度の高いウィンドウの候補を複数設定
し、全ての候補ウィンドウについて、ウィンドウで区切
られた部分画像を候補ウィンドウ部分画像とし、その候
補ウィンドウ部分画像とその原画像における座標値を前
記類似度計算部に送り、 前記類似度計算部は、全ての候補ウィンドウ内の部分画
像について、前記基点ウィンドウ部分画像との間で外部
より与えられた計算手法に従って類似度を計算し、計算
結果と各候補ウィンドウの座標値を前記類似度保存・比
較部に渡し、 前記類似度保存・比較部は、前記類似度計算部によって
得られた各候補ウィンドウに対する類似度及び各候補ウ
ィンドウの座標値を保存し、最も類似度の高い候補ウィ
ンドウを次期基点ウィンドウ候補とし、前記相関画像記
憶部に保持されている相関画像において、該次期基点ウ
ィンドウ候補の座標に、該次期基点ウィンドウ候補と、
現在基点ウィンドウとしている基点ウィンドウとは全く
別の基点ウィンドウとの間で過去に計算された類似度が
存在するならば、その過去の類似度と現在計算された類
似度を比較し、過去の類似度の方が大きければ基点ウィ
ンドウ更新信号を前記基点ウィンドウ設定制御部に送
り、反対に現在の類似度の方が 大きければ、現在の類似
度と前記次期基点ウィンドウ候補の座標を前記相関画像
記憶部に送り、更に前記次期基点ウィンドウ候補の座標
と前記基点ウィンドウの座標を前記方向画像記憶部に送
り、同時に次期基点ウィンドウ候補の座標を前記履歴画
像機億部に送り、 前記基点ウィンドウ設定制御部は、前記類似度保存・比
較部から前記基点ウィンドウ更新信号を受け取ったら、
前記履歴画像記憶部に保持される履歴画像において、探
索済み指標が記入されていない座標を選び出し、そこを
新たな基点ウィンドウの座標とし、該座標を前記基点ウ
ィンドウ設定部に送り、前記類似度保存・比較部から前
記基点ウィンドウ更新信号を受け取っても、前記履歴画
像において全画素に探索済み指標が記入されているなら
ば、処理終了信号を前記方向画像記憶部に送り、前記類
似度保存・比較部から前記基点ウィンドウ更新信号の代
わりに、前記次期基点ウィンドウ候補の座標とその現在
の基点ウィンドウとの間の類似度を受け取ったならば、
該座標を次期の基点ウィンドウの座標と確定し、該座標
を前記基点ウィンドウ設定部に送り、 前記履歴画像記憶部は、前記入力画像と同じサイズの前
記履歴画像を生成、保持し、前記類似度保存・比較部か
ら、前記次期基点ウィンドウ候補の座標を受け取ったな
らば、前記履歴画像上の該座標に探索済み終了を示す指
標を記入し、 前記相関画像記憶部は、前記入力画像と同じサイズの前
記相関画像を生成、保持し、前記類似度保存・比較部か
ら、前記次期基点ウィンドウ候補の座標と現在の類似度
を受け取ったならば、前記相関画像上の該座標に該類似
度を記入し、 前記方向画像記憶部は、前記入力画像と同じサイズの前
記方向画像を生成、保持し、前記類似度保存・比較部か
ら、前記次期基点ウィンドウ候補の座標と前記基点ウィ
ンドウの座標を受け取ったならば、前記方向画像上、両
座標間を直線で結び、該直線が前記方向画像上の外部よ
り与えられた軸と成す角度を求め、該角度を前記方向画
像上、前記次期基点ウィンドウ候補の座標に記入し、前
記基点ウィンドウ設定制御部から前記処理終了信号を受
け取ったならば、該方向画像を出力画像210として出
力することを特徴とする 請求項1記載のエッジ強調装
置。
2. The apparatus according to claim 1, wherein the direction image generating means includes a window parameter.
Meter setting section, base window setting section, and candidate window
C Setting section, similarity calculation section, similarity storage / comparison section, and history screen
Image storage unit, direction image storage unit, correlation image storage unit,
And a window setting control section. The window parameter setting section cuts a partial image.
Window size and shape that need to be set when
Determine weights in windows according to externally given values
And the base window setting unit controls the input image switching operation.
Control of the base window setting on the image received from the column
The window parameters to the coordinates specified by the
-The base window of the size and shape determined by the setting unit
Set the image in the base window as the base window
Cut out and save as a minute image, and
The image and its coordinate values in the original image are sent to the similarity calculation unit.
The candidate window setting unit is configured to set the base window setting
Unit setting, and receives the setting from the input image switching unit.
On the image to be trimmed, the window
Set multiple window candidates with high similarity to windows
Then, for all candidate windows,
The obtained partial image is used as a candidate window partial image,
Coordinate values in the complementary window partial image and its original image
Sent to the similarity calculation unit, and the similarity calculation unit
The image is external to the base window partial image.
Calculate the similarity according to the given calculation method and calculate
Save the result and the coordinate values of each candidate window to the similarity
Handover to the comparison unit, and the similarity storage / comparison unit
The degree of similarity to each obtained candidate window and each candidate window
The window coordinates are saved, and the candidate window with the highest similarity is saved.
Window as the next base window candidate, and
In the correlation image held in the storage unit, the next base point c
In the coordinates of the window candidate, the next base window candidate,
What is the base window that is currently the base window?
The previously calculated similarity with another base window is
If present, its past similarities and currently calculated classes
Compare the similarities, and if the past similarity is greater,
Window update signal to the base window setting control unit.
Conversely, if the current similarity is greater,
The degree and the coordinates of the next base window candidate are represented by the correlation image
Sent to the storage unit and further coordinates of the next base window candidate
And the coordinates of the base window are sent to the direction image storage unit.
At the same time, the coordinates of the next base window candidate are
The base window setting control unit sends the similarity degree storage / ratio
When the base window update signal is received from the comparison unit,
In the history image held in the history image storage unit,
Select the coordinates where the searched index is not entered, and
The coordinates of the new base point window are set as the coordinates of the base point window.
Window to the window setting section and forward from the similarity storage / comparison section.
Even if a base window update signal is received,
If the searched index is entered for all pixels in the image
If a processing end signal is sent to the direction image storage unit,
From the similarity storage / comparison unit, the
Instead, the coordinates of the next base window candidate and its current
If we receive the similarity with the base window of
The coordinates are determined as the coordinates of the next base window, and the coordinates are determined.
Is sent to the base window setting unit, and the history image storage unit stores a previous image having the same size as the input image.
Generates and stores a history image, and stores it in the similarity storage / comparison unit.
Received the coordinates of the next base point window candidate.
The finger indicating the searched end is displayed at the coordinates on the history image.
Mark, and the correlation image storage unit stores a mark of the same size as the input image.
The correlation image is generated and stored, and stored in the similarity storage / comparison unit.
The coordinates of the next base window candidate and the current similarity
, The similarity to the coordinates on the correlation image
And the direction image storage unit stores the same size as the input image.
Generates and stores the notational image, and stores it in the similarity storage / comparison unit.
The coordinates of the next base window candidate and the base window
If the coordinates of the window are received,
The coordinates are connected by a straight line, and the straight line is
Angle with the given axis, and calculate the angle
On the image, fill in the coordinates of the next base window candidate and
Receiving the processing end signal from the base window setting control unit.
If the image is removed, the direction image is output as the output image 210.
2. The edge enhancement device according to claim 1, wherein the edge enhancement device applies force .
JP5329344A 1993-12-27 1993-12-27 Edge enhancement device Expired - Fee Related JP2858530B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5329344A JP2858530B2 (en) 1993-12-27 1993-12-27 Edge enhancement device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5329344A JP2858530B2 (en) 1993-12-27 1993-12-27 Edge enhancement device

Publications (2)

Publication Number Publication Date
JPH07193716A JPH07193716A (en) 1995-07-28
JP2858530B2 true JP2858530B2 (en) 1999-02-17

Family

ID=18220408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5329344A Expired - Fee Related JP2858530B2 (en) 1993-12-27 1993-12-27 Edge enhancement device

Country Status (1)

Country Link
JP (1) JP2858530B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4534594B2 (en) * 2004-05-19 2010-09-01 ソニー株式会社 Image processing apparatus, image processing method, program for image processing method, and recording medium recording program for image processing method
JP4517872B2 (en) * 2005-02-10 2010-08-04 ソニー株式会社 Image processing apparatus, image processing method, program for image processing method, and recording medium recording program for image processing method
JP4700445B2 (en) 2005-09-01 2011-06-15 オリンパス株式会社 Image processing apparatus and image processing program
JP5520463B2 (en) * 2008-09-04 2014-06-11 株式会社ソニー・コンピュータエンタテインメント Image processing apparatus, object tracking apparatus, and image processing method
US9390327B2 (en) * 2013-09-16 2016-07-12 Eyeverify, Llc Feature extraction and matching for biometric authentication

Also Published As

Publication number Publication date
JPH07193716A (en) 1995-07-28

Similar Documents

Publication Publication Date Title
CN110678901B (en) Information processing apparatus, information processing method, and computer-readable storage medium
US11282185B2 (en) Information processing device, information processing method, and storage medium
EP0977151B1 (en) Image processing apparatus, image processing method, and storage medium
JP3830998B2 (en) Ruled line removal method and character recognition apparatus using the same
US5050229A (en) Method and apparatus for thinning alphanumeric characters for optical character recognition
US6728407B1 (en) Method for automatically determining trackers along contour and storage medium storing program for implementing the same
JP2858530B2 (en) Edge enhancement device
JP2020140518A (en) Information processing device, control method of information processing device and program
KR100449486B1 (en) Document recognition system and method using vertical line adjacency graphs
JP3172498B2 (en) Image recognition feature value extraction method and apparatus, storage medium for storing image analysis program
JPH1153539A (en) Circular pattern discriminating method and storage medium
JP2004110543A (en) Face image processing unit and program
JP2770849B2 (en) Image processing device
JP3514085B2 (en) Character string input method and apparatus, and storage medium storing character string input program
JP2005071243A (en) Image processing apparatus, method and program
JP2613211B2 (en) Image input device
JP3368807B2 (en) Character recognition method and apparatus, and storage medium storing character recognition program
JP3048718B2 (en) Vertex detector
JPH0573718A (en) Area attribute identifying system
JPH03219384A (en) Character recognizing device
JPH06282684A (en) Character recognizing device
JP2000182056A (en) Picture processor
JPH11345333A (en) Labeling processing system and method therefor
JPH07182509A (en) Graphic recognition device
KR20040102672A (en) Method for detecting image

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19981104

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071204

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081204

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091204

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091204

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101204

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees