JPH08329252A - Method and device for detecting edge - Google Patents

Method and device for detecting edge

Info

Publication number
JPH08329252A
JPH08329252A JP7134418A JP13441895A JPH08329252A JP H08329252 A JPH08329252 A JP H08329252A JP 7134418 A JP7134418 A JP 7134418A JP 13441895 A JP13441895 A JP 13441895A JP H08329252 A JPH08329252 A JP H08329252A
Authority
JP
Japan
Prior art keywords
edge
gradient
estimated
strength
edge strength
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7134418A
Other languages
Japanese (ja)
Other versions
JP3826412B2 (en
Inventor
Takushi Totsuka
卓志 戸塚
Tomoo Mitsunaga
知生 光永
Migaku Yokoyama
琢 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP13441895A priority Critical patent/JP3826412B2/en
Publication of JPH08329252A publication Critical patent/JPH08329252A/en
Application granted granted Critical
Publication of JP3826412B2 publication Critical patent/JP3826412B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: To improve the precision of edge detection by calculating the edge intensity to detect the picture element group, where the picture element value is steeply changed in comparison with peripheral picture element values, as an edge. CONSTITUTION: A gradient calculation part 11 to which an input picture Fin is supplied, a spline curve generation part 12 to which an outline P of contours is supplied, a parameter coordicate generation part 13 which generates a parameter (t) to the spline,curve generation part 12, and an edge intensity calculation part 14 which calculates an edge intensity E in accordance with the output from the gradient calculation part 11 and that from the spline curve generation part 12 are provided. The edge direction of each position in input picture data consisting of variable density data is estimated. The gradient in each position is obtained. The edge intensity calculation part 14 takes information of the estimated edge direction as auxiliary information and calculates the edge intensity E in accordance with this auxiliary information and the gradient, and the picture element group where the picture element value is steeply changed in comparison with peripheral picture element values is detected as an edge.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像処理において基本
的な役割を果たすエッジ検出方法及びエッジ検出装置に
関するものであり、テレビジョンや映画等の映像制作に
おける特殊効果処理、FA(Factory Auto
mation)におけるカメラ画像からの部品認識等に
適用して好適なエッジ検出方法及びエッジ検出装置に関
するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an edge detection method and an edge detection device which play a basic role in image processing, and special effect processing in FA (Factory Auto) in video production such as television and movies.
The present invention relates to an edge detection method and an edge detection apparatus which are suitable for application to component recognition from a camera image in the operation (.

【0002】[0002]

【従来の技術】画像から任意の部分画像を切り出す作業
は、映像の編集合成やコンピュータグラフィックス等に
おけるテクスチャ及び構造データの生成の基本操作であ
る。この切り出しという操作では、エッジ検出、領域抽
出、及び既知物体との対応付け等の処理を必要とする。
特に、画像中の背景や対象物体が複雑になると、対象物
体の輪郭を構成するエッジを正確に求め、追跡すること
が必要となる。
2. Description of the Related Art The operation of cutting out an arbitrary partial image from an image is a basic operation of editing and synthesizing video images and generating texture and structure data in computer graphics and the like. This cutout operation requires processing such as edge detection, area extraction, and association with a known object.
In particular, when the background or the target object in the image becomes complicated, it is necessary to accurately find and track the edges forming the contour of the target object.

【0003】ここで、エッジ検出とは、濃淡画像内で画
素値が急峻に変化している部分を見いだす処理である。
通常、急峻な変化は、対象物体の輪郭で起きるため、エ
ッジ検出の結果を基にして、対象物体の輪郭を画像から
抽出することができる。したがって、エッジ検出は、画
像からその中に存在する対象物体に関する情報を得るた
めの最も基本的な処理として多方面で使用されている。
特に、対象物体の輪郭の抽出は、例えば、画像に存在す
る対象物体の構成や位置等を計算機等によって判断する
上での最も基本的な処理であり、エッジ検出の最も重要
な用途である。
Here, the edge detection is a process for finding a portion in which a pixel value changes abruptly in a grayscale image.
Usually, a sharp change occurs in the contour of the target object, so the contour of the target object can be extracted from the image based on the result of edge detection. Therefore, edge detection is used in many fields as the most basic process for obtaining information about an object existing therein from an image.
In particular, the extraction of the contour of the target object is the most basic process for determining the configuration, position, etc. of the target object existing in the image by a computer or the like, and is the most important application of edge detection.

【0004】上述のようなエッジ検出の方法は、公知の
多くの方法があるが、何れの方法も局所的な画素の値の
変化を調べ、その変化が大きい部分をエッジとして検出
するものである。代表的なエッジ検出方法として、空間
フィルタとして微分フィルタを使用するものがある。こ
の微分フィルタを用いるエッジ検出方法は、画素の値の
変化が大きい部分では、微係数も大きな値になるという
原理に基いてエッジを検出する方法である。例えば、図
10に示すような横(X)方向のソーベルフィルタは、
横(X)方向の1次微分に相当する演算を行うものであ
り、このソーベルフィルタを用いた場合、縦(Y)方向
のエッジが存在するところでは、ソーベルフィルタの出
力が正又は負の大きな値となるため、縦(Y)方向のエ
ッジを検出することができる。
There are many publicly known methods for edge detection as described above, and in any of these methods, a local change in pixel value is examined and a portion with a large change is detected as an edge. . As a typical edge detection method, there is a method using a differential filter as a spatial filter. The edge detection method using this differential filter is a method of detecting an edge based on the principle that the differential coefficient also has a large value in a portion where the change in pixel value is large. For example, a lateral (X) direction Sobel filter as shown in FIG.
The calculation corresponding to the first-order differential in the horizontal (X) direction is performed, and when this Sobel filter is used, the output of the Sobel filter is positive or negative when an edge in the vertical (Y) direction exists. Is large, the edge in the vertical (Y) direction can be detected.

【0005】上述のようなソーベルフィルタの他にも、
1次又は2次の微分に相当する演算を行う多種の空間フ
ィルタがエッジ検出用に用いられている。これらのエッ
ジ検出方法については、例えば、代表的な教科書である
ジャイン(Jain)著「ファンダメンタルズ オブ
デジタル イメージ プロセッシング(Fundame
ntals of Digital Image Pr
ocessing)」、及びプラット(Pratt)著
「デジタル イメージ プロセッシング(Digita
l Image Processing)」に詳しく紹
介されている。
In addition to the Sobel filter as described above,
Various types of spatial filters that perform calculations corresponding to first-order or second-order differentiation are used for edge detection. These edge detection methods are described in, for example, “Fundamentals of Fundamentals” by Jain, which is a typical textbook.
Digital image processing (Fundame
ntals of Digital Image Pr
processing "and Pratt's" Digital Image Processing (Digital).
Image Processing).

【0006】また、上述のようなエッジ検出方法を用い
て対象物体の輪郭を検出する方法もいろいろ試みられて
いる。例えば、エッジ検出の結果から画素値の変化の度
合い、すなわちエッジ強度が大きい部分を「1」、それ
以外の部分を「0」とする2値画像を生成し、その2値
画像を細線化することにより対象物体の輪郭を得る領域
抽出方法が「特願平5−233810号」に開示されて
いる。ここで、細線化とは、生成した2値画像から値
「1」のピクセルを順に取り除いていき、通常は1ピク
セル幅になるまで値「1」のピクセルを順に取り除いて
1ピクセル幅の中心線を抽出するという公知の手順であ
る。
Further, various methods for detecting the contour of a target object using the above-described edge detecting method have been tried. For example, a binary image in which the degree of change in pixel value, that is, the portion having a large edge strength is “1” and the other portion is “0” is generated from the edge detection result, and the binary image is thinned. A region extraction method for obtaining the contour of a target object by doing so is disclosed in Japanese Patent Application No. Hei 5-233810. Here, thinning means that pixels with a value of "1" are sequentially removed from the generated binary image, and pixels with a value of "1" are normally removed in order until the width becomes 1 pixel. Is a known procedure of extracting

【0007】一方、空間フィルタを用いずに統計的な方
法でエッジを検出する方法もある。例えば、注目してい
る画素の近傍での画素値の分散、すなわち色相の分散を
算出し、その値が大きいところを領域の境界として検出
するエッジ検出方法及び装置が「特願平5−18196
9号」に開示されている。
On the other hand, there is also a method of detecting edges by a statistical method without using a spatial filter. For example, an edge detecting method and apparatus for calculating a variance of pixel values in the vicinity of a pixel of interest, that is, a variance of hues and detecting a place where the value is large as a boundary of a region is disclosed in Japanese Patent Application No. 5-18196.
No. 9 ”.

【0008】また、文献「カラーエッジ ディテクショ
ン ユージング ベクトル オーダスタティスティック
ス(Trahanias,P.E.et.al.”Co
lor edge detection using
vector orderstatistics”,I
EEE Transactions on image
processing,Vo1.2,No.2,p
p.259−264,1993)」では、画素値が各々
他の画素値とどれだけ離れているかを表す尺度を基にエ
ッジを検出する方法が述べられている。
In addition, the document "Color Edge Detection, Eusing Vector Ordered Statistics (Trahanias, PE et al." Co.
lor edge detection using
vector order statistics ”, I
EEE Transactions on image
processing, Vo1.2, No. 2, p
p. 259-264, 1993) "describes a method for detecting edges based on a scale indicating how far a pixel value is from each other pixel value.

【0009】[0009]

【発明が解決しようとする課題】しかし、上述したよう
な従来のエッジ検出方法では、画素値の急峻な変化があ
る部分を全て検出してしまうという問題があった。例え
ば、図11(a)に示すように、画像100の対象物体
110において、対象物体110の内部に色の違いや背
景と対象物体110の交差がある場合、従来のエッジ検
出方法では、同図(b)に示すように、物体内部の境界
112をも検出されてしまい、同図(c)に示すような
本来求めたいエッジ111のみを得ることができなかっ
た。
However, the conventional edge detecting method as described above has a problem that all the portions where the pixel value changes abruptly are detected. For example, as shown in FIG. 11A, in the target object 110 of the image 100, when there is a color difference inside the target object 110 or an intersection of the background and the target object 110, the conventional edge detection method is used. As shown in (b), the boundary 112 inside the object was also detected, and it was not possible to obtain only the edge 111 to be originally obtained as shown in (c) of the figure.

【0010】通常、物体内部では、上記図11(a)に
示したような色の違い、模様、影等様々な理由による画
素値の急峻な変化が不可避である。また、通常は、背景
にも様々な模様や色が存在する。これに対して従来のエ
ッジ検出方法では、画素値の急峻な変化を一様に検出し
ていたため、上述したような物体内部の境界や背景の模
様等も誤ってエッジとして検出されてしまう可能性があ
った。
Normally, a sharp change in pixel value is unavoidable inside the object due to various reasons such as the color difference, the pattern, and the shadow as shown in FIG. 11A. Also, there are usually various patterns and colors in the background. On the other hand, in the conventional edge detection method, a sharp change in the pixel value is detected uniformly, so that the boundary inside the object or the background pattern as described above may be erroneously detected as an edge. was there.

【0011】そこで、上述のような問題を解決するため
に、画像の色情報、すなわち明度、彩度、及び色相に基
いて明度に対して重み付け補正処理を施した後、重み付
け補正処理が施された明度に基いてエッジを検出する自
動切抜きシステムが「特願平1−173177号」に開
示されている。この自動切抜きシステムは、輪郭付近の
画素値の変化、例えば、明度の変化を強調するための重
み付け補正処理により輪郭をより際だたせることによ
り、前景の物体や背景内の模様や色変化の誤った検出を
減らしてエッジ検出を行うものである。
Therefore, in order to solve the above-mentioned problem, a weighting correction process is performed on the lightness based on the color information of the image, that is, the lightness, the saturation, and the hue, and then the weighting correction process is performed. An automatic cutting system for detecting an edge based on brightness is disclosed in Japanese Patent Application No. 1-173177. This automatic clipping system makes the contours more prominent by weighting correction processing for emphasizing changes in pixel values near the contours, for example, changes in brightness, so that erroneous patterns and color changes in foreground objects and backgrounds are detected. Edge detection is performed with reduced detection.

【0012】しかし、上記自動切抜きシステムでは、輪
郭上の個々の部分各々について最適な重み付け補正処理
を行うことは考慮されていない。また、物体の輪郭に沿
って模様や色等が一様であることは、むしろ希である。
このため、上記自動切抜きシステムによっても、本来求
めたいエッジ以外のエッジの混入を防ぐことができなか
った。
However, the above automatic cutting system does not consider performing the optimum weighting correction processing for each individual portion on the contour. Further, it is rather rare that the pattern, color, etc. are uniform along the contour of the object.
For this reason, even the above automatic cutting system cannot prevent the mixing of edges other than the originally desired edge.

【0013】また、画像のヒストグラムを用いて前景と
背景の境界におけるコントラストが上がるように画素値
の変換を行うことにより、境界付近のエッジを際だたせ
てエッジを検出するエッジ抽出装置が「特願平1−76
170号」に開示されている。しかし、上記エッジ抽出
装置によっても、敏感なエッジの検出には有効である
が、本来求めたいエッジ以外のエッジの混入を防ぐこと
ができなかった。
In addition, an edge extraction device that detects edges by converting the pixel values so as to increase the contrast at the boundary between the foreground and the background by using the histogram of the image is disclosed in "Patent application". Flat 1-76
170 ". However, even with the above-mentioned edge extraction device, although it is effective in detecting sensitive edges, it is not possible to prevent mixing of edges other than the originally desired edge.

【0014】一方、エッジ検出を行う場所を画像上で限
定することにより、不必要な場所でのエッジ検出を省
き、輪郭以外の場所におけるエッジの混入を最小限にと
どめる領域抽出装置が「特願平3−176780号」に
開示されている。この領域抽出装置では、人手により対
象物体の輪郭の概略を入力し、その輪郭概略内部でのみ
エッジ検出を行うことにより、余分なエッジの発生を防
いでエッジ検出を行うものである。また、人手により対
象物体の輪郭の概略を入力し、その輪郭概略の情報に基
いてエッジ検出を境界付近でのみ行う構成としたソフト
キー生成装置が「特願平5−236347号」に開示さ
れている。
On the other hand, by limiting the place where the edge detection is performed on the image, the edge detection in the unnecessary place can be omitted, and the area extracting device which minimizes the mixing of the edge in the place other than the contour is disclosed in "Patent application". No. 3-176780 ". In this area extraction device, the outline of the target object is manually input, and the edge detection is performed only within the outline of the target object, thereby preventing the generation of extra edges and performing the edge detection. Further, a softkey generation device configured to manually input the outline of a target object and perform edge detection only near the boundary based on the outline information is disclosed in Japanese Patent Application No. 5-236347. ing.

【0015】しかし、上記領域抽出装置及び上記ソフト
キー生成装置では、単に誤ったエッジの検出が発生する
領域を狭めるのみであり、輪郭以外のエッジの混入を防
ぐことができなかった。例えば、図12(a)に示すよ
うに、画像200において、オペレータが入力した対象
物体210の輪郭の概略220を用いてエッジ検出を行
った場合、エッジ検出を行う範囲を制限してもその制限
には限界があり、上記図12(b)に示すように、不要
なエッジ221a,221b,221cが誤って検出さ
れてしまっていた。
However, in the area extracting device and the soft key generating device, only the area in which an erroneous edge is detected is narrowed, and it is impossible to prevent the mixing of edges other than the contour. For example, as shown in FIG. 12A, in the image 200, when edge detection is performed using the outline 220 of the contour of the target object 210 input by the operator, even if the range in which the edge detection is performed is limited, the limitation is performed. Has a limit, and as shown in FIG. 12B, unnecessary edges 221a, 221b, 221c have been erroneously detected.

【0016】ここで、輪郭の概略220の精度を上げる
ことにより、不要なエッジ221a,221b,221
cの数や長さを次第に減少させることはできるが、この
ためには、輪郭の概略220を人手で高精度に与える必
要があり、これは大変困難な作業である。この問題を解
決するために、オペレータがタブレットやマウス等の入
力手段をゆっくり動かしている場合には、輪郭の概略の
太さが細くなるように制御し、速く動かしている場合に
は、輪郭の概略の太さが太くなるように制御することに
より、エッジ検出を行う範囲を制限してエッジを検出す
る画像編集装置が「特願平1−180674号」に開示
されているが、これにおいても、不要なエッジの混入を
防ぐことはできなかった。
Here, by increasing the precision of the outline 220, unnecessary edges 221a, 221b, 221 are obtained.
Although it is possible to gradually reduce the number and length of c, it is necessary to manually give the outline 220 of the contour with high precision, which is a very difficult task. To solve this problem, when the operator is slowly moving the input means such as a tablet or mouse, the outline is controlled so that the outline thickness becomes thin. An image editing apparatus that detects an edge by limiting the range in which edge detection is performed by controlling the outline to be thick is disclosed in "Japanese Patent Application No. Hei 1-180674". However, it was not possible to prevent mixing of unnecessary edges.

【0017】上述のような問題を解決するために、例え
ば、エッジ方向を人手で入力した概略の輪郭から推定
し、推定したエッジ方向と合致するエッジのみを選択的
に検出することにより、上述したような不要なエッジを
大幅に除去してエッジの検出を行うエッジ検出方法があ
る。
In order to solve the above-mentioned problem, for example, the edge direction is estimated from a rough outline manually input, and only the edges that match the estimated edge direction are selectively detected, whereby the above-mentioned problem is solved. There is an edge detection method for detecting an edge by largely removing such an unnecessary edge.

【0018】上記エッジ検出方法では、図13の(a)
〜(d)に示すようなロビンソン(Robinson)
の3レベル(3−level)と呼ばれるフィルタ群を
用いることにより、特定の方向のエッジのみを検出す
る。上記図13の(a)〜(d)に示したフィルタ群
は、上記図10に示したソーベルフィルタを拡張したも
のであり、水平及び垂直以外の方向のエッジを検出する
ものである。例えば、上記図13の(a)に示したフィ
ルタは、画像右側の画素値が大きく、画像左側の画素値
が小さい場合に大きな値を出力するものである。すなわ
ち、上記図13の(a)に示したフィルタは、+0°方
向のエッジを検出するものである。また、上記図13の
(b),(c),(d)に示した各フィルタは、各々、
45°、90°、135°方向のエッジを検出するもの
である。
In the above-mentioned edge detection method, FIG.
~ Robinson as shown in (d)
By using a filter group called “3-level”, only edges in a specific direction are detected. The filter group shown in (a) to (d) of FIG. 13 is an extension of the Sobel filter shown in FIG. 10 and detects edges in directions other than horizontal and vertical directions. For example, the filter shown in (a) of FIG. 13 outputs a large value when the pixel value on the right side of the image is large and the pixel value on the left side of the image is small. That is, the filter shown in (a) of FIG. 13 detects an edge in the + 0 ° direction. Further, the filters shown in (b), (c), and (d) of FIG.
Edges in the directions of 45 °, 90 °, and 135 ° are detected.

【0019】また、上記エッジ検出方法では、上記図1
3の(a)〜(d)に示したフィルタ群以外に、上記フ
ィルタ群が検出するエッジの方向以外の方向において、
45°きざみでエッジを検出するフィルタ群が用いられ
る。したがって、上記エッジ検出方法では、全部で8方
向のエッジを検出するためのフィルタが用いられる。
Further, in the above edge detecting method, the above-mentioned FIG.
In addition to the filter groups shown in (a) to (d) of 3 above, in a direction other than the direction of the edge detected by the filter group,
A filter group that detects edges in 45 ° increments is used. Therefore, in the above edge detection method, a filter for detecting edges in all eight directions is used.

【0020】ここで、上記図13の(a)〜(d)に示
したロビンソンの3レベルのフィルタの他に、特定の方
向のエッジを検出するフィルタとして、上述したプラッ
ト(Pratt)著「デジタル イメージ プロセッシ
ング(Digital Image Processi
ng)」に述べられているプレウイット(Prewit
t)のコンパス(compass)フィルタやキルシュ
(Kirsch)のフィルタ等がある。
Here, in addition to the Robinson three-level filter shown in FIGS. 13A to 13D, as a filter for detecting an edge in a specific direction, the above-mentioned "Digital" by Pratt. Image processing (Digital Image Process)
ng) ”described in Prewit
There are a compass filter of t), a Kirsch filter, and the like.

【0021】しかし、上述したロビンソンの3レベルの
フィルタ、プレウイットのコンパスフィルタ、及びキル
シュのフィルタ等の特定の方向のエッジを検出するフィ
ルタ(以下、方向選択的なフィルタと言う。)において
は、方向選択性、すなわち指向性が弱いという欠点があ
る。
However, in the above-mentioned filter for detecting edges in a specific direction (hereinafter, referred to as direction-selective filter) such as the Robinson three-level filter, the Prewitt compass filter, and the Kirsch filter, the direction is determined. There is a drawback that the selectivity, that is, the directivity is weak.

【0022】具体的に説明すると、例えば、エッジの本
来の強度をK、検出したいエッジの方向と実際のエッジ
の方向のなす角度をθとした場合、方向選択的なフィル
タの出力、すなわちエッジ強度Eは、 E = Kcosθ なる関係式で与えられる。
More specifically, for example, when the original strength of the edge is K and the angle between the edge direction to be detected and the actual edge direction is θ, the output of the direction-selective filter, that is, the edge strength. E is given by the relational expression of E = K cos θ.

【0023】この関係式は、不要なエッジの方向が本来
検出したいエッジの方向と90゜異ならない限り、不要
なエッジのエッジ強度Eは「0」にならない、すなわち
不要なエッジの混入を完全に除去することはできないこ
とを示している。したがって、図14に示すように、方
向選択的なフィルタにおける指向性Aに対して、実用上
必要となる指向性Bは、さらに強いものである必要があ
るが、このような強い指向性を方向選択的なフィルタに
持たせることができなかったため、不要なエッジの混入
を防ぐことができなかった。
In this relational expression, the edge strength E of the unnecessary edge does not become "0" unless the direction of the unnecessary edge differs from the direction of the edge to be originally detected by 90 °, that is, the mixing of the unnecessary edge is completed. It indicates that it cannot be removed. Therefore, as shown in FIG. 14, the directivity B required for practical use needs to be stronger than the directivity A in the direction-selective filter. Since it was not possible to provide a selective filter, it was not possible to prevent the mixing of unnecessary edges.

【0024】また、方向選択的なフィルタにおいて、エ
ッジの検出方向を細かくしようとした場合、例えば、上
述したような45°単位ではなく、15°単位でエッジ
の検出方向を細かくしようとした場合には、フィルタが
大きくなってしまっていた。すなわち、フィルタの係数
の正の部分と負の部分は、エッジの検出方向と直角に配
置されなくてはならないが、エッジの検出方向が15°
単位のように細かく指定されると、その検出方向の角度
を表すためには、3×3程度の小さなフィルタでは不十
分となり、フィルタが大きくなってしまっていた。この
ため、細かいエッジの検出能力が低下すると共に、多数
のフィルタを用いなければ全方向のエッジに対応するこ
とができないという不便さが生じてしまっていた。
Further, in the direction-selective filter, when it is desired to make the edge detection direction finer, for example, when the edge detection direction is made finer in 15 ° units than in the 45 ° units as described above. Had a large filter. That is, the positive and negative portions of the filter coefficient must be arranged at right angles to the edge detection direction, but the edge detection direction is 15 °.
If it is specified in detail like a unit, a small filter of about 3 × 3 becomes insufficient to represent the angle of the detection direction, and the filter becomes large. As a result, the ability to detect fine edges deteriorates, and inconvenience occurs in that edges cannot be dealt with in all directions unless a large number of filters are used.

【0025】そこで、本発明は、上述の如き従来の実情
に鑑みてなされたものであり、次のような目的を有する
ものである。即ち、本発明の目的は、不要なエッジの混
入を防ぎ、エッジ検出精度を高めたエッジ検出方法及び
エッジ検出装置を提供することにある。
Therefore, the present invention has been made in view of the above-mentioned conventional circumstances, and has the following objects. That is, it is an object of the present invention to provide an edge detection method and an edge detection device which prevent unwanted mixing of edges and improve the edge detection accuracy.

【0026】また、本発明の目的は、エッジ検出方向の
指向性が強いエッジ検出方法及びエッジ検出装置を提供
することにある。また、本発明の目的は、良好なエッジ
画像を容易に得るエッジ検出方法及びエッジ検出装置を
提供することにある。
Another object of the present invention is to provide an edge detecting method and an edge detecting apparatus having strong directivity in the edge detecting direction. It is another object of the present invention to provide an edge detection method and an edge detection device that can easily obtain a good edge image.

【0027】また、本発明の目的は、良好なエッジ画像
を高速に得るエッジ検出方法及びエッジ検出装置を提供
することにある。
Another object of the present invention is to provide an edge detecting method and an edge detecting apparatus for obtaining a good edge image at high speed.

【0028】[0028]

【課題を解決するための手段】上述の課題を解決するた
めに、本発明に係るエッジ検出方法は、濃淡データで構
成される入力画像データの中から、画素値が周囲と比べ
て急峻に変化している画素群をエッジとして検出するエ
ッジ検出方法であって、入力画像データにおける各位置
のエッジ方向を推定すると共に、各位置におけるグラデ
ィエントを求め、推定したエッジ方向の情報を補助情報
とし、上記補助情報と上記グラディエントからエッジ強
度を算出してエッジを検出することを特徴とする。
In order to solve the above-mentioned problems, the edge detection method according to the present invention is such that the pixel value in the input image data composed of grayscale data changes sharply as compared with the surroundings. An edge detection method for detecting a group of pixels as an edge, estimating the edge direction of each position in the input image data, obtaining the gradient at each position, and using the information of the estimated edge direction as auxiliary information, It is characterized in that edge strength is calculated from auxiliary information and the gradient to detect an edge.

【0029】また、本発明に係るエッジ検出方法は、上
記推定したエッジ方向と上記グラディエントのなす角度
のコサインを求めてエッジ強度を算出することを特徴と
する。また、本発明に係るエッジ検出方法は、上記推定
したエッジ方向と上記グラディエントのなす角度θと、
比例定数Cと、上記グラディエントの大きさGと、指向
性を決定する指数Sを持って、エッジ強度Eを E = C|G|cosS(θ) なる演算により算出することを特徴とする。
The edge detecting method according to the present invention is characterized in that the edge strength is calculated by obtaining the cosine of the angle formed by the estimated edge direction and the gradient. Further, the edge detection method according to the present invention, an angle θ formed by the estimated edge direction and the gradient,
It is characterized in that the edge strength E is calculated by a calculation of E = C | G | cos S (θ) with a proportionality constant C, the gradient size G, and an index S that determines directivity.

【0030】また、本発明に係るエッジ検出方法は、上
記推定したエッジ方向と上記グラディエントのなす角度
のコサインを、予め正規化したベクトルである上記推定
したエッジ方向と、長さを「1」に正規化した上記グラ
ディエントとの内積として求めることを特徴とする。
In the edge detecting method according to the present invention, the estimated edge direction which is a vector obtained by normalizing the cosine of the angle formed by the estimated edge direction and the gradient and the length thereof are set to "1". It is characterized in that it is obtained as an inner product with the normalized gradient.

【0031】また、本発明に係るエッジ検出方法は、予
め算出したエッジ強度の情報テーブルを用いて上記補助
情報と上記グラディエントからエッジ強度を算出するこ
とを特徴とする。本発明に係るエッジ検出装置は、濃淡
データで構成される入力画像データの中から、画素値が
周囲と比べて急峻に変化している画素群をエッジとして
検出するエッジ検出装置であって、入力画像データにお
ける各位置のエッジ方向を推定し、その推定した方向の
情報を補助情報とする推定手段と、入力画像データにお
ける各位置のグラディエントを求めるグラディエント算
出手段と、上記推定手段で得られた補助情報と上記グラ
ディエント算出手段で得られたグラディエントからエッ
ジ強度を算出するエッジ強度算出手段と、上記エッジ強
度算出手段で得られたエッジ強度からエッジを検出する
検出手段とを備えることを特徴とする。
Further, the edge detecting method according to the present invention is characterized in that the edge strength is calculated from the auxiliary information and the gradient using an edge strength information table calculated in advance. An edge detection device according to the present invention is an edge detection device that detects, as an edge, a pixel group in which pixel values change sharply compared to the surroundings from input image data composed of grayscale data. Estimating the edge direction of each position in the image data, estimating means using the information of the estimated direction as auxiliary information, gradient calculating means for obtaining the gradient of each position in the input image data, and the auxiliary obtained by the estimating means. It is characterized by comprising edge strength calculation means for calculating edge strength from information and the gradient obtained by the gradient calculation means, and detection means for detecting an edge from the edge strength obtained by the edge strength calculation means.

【0032】また、本発明に係るエッジ検出装置は、上
記エッジ強度算出手段は、上記推定したエッジ方向と上
記グラディエントのなす角度のコサインを求めてエッジ
強度を算出することを特徴とする。また、本発明に係る
エッジ検出装置は、上記エッジ強度算出手段は、上記推
定したエッジ方向と上記グラディエントのなす角度θ
と、比例定数Cと、上記グラディエントの大きさGと、
指向性を決定する指数Sを持って、エッジ強度Eを E = C|G|cosS(θ) なる演算により算出することを特徴とする。
Further, the edge detecting apparatus according to the present invention is characterized in that the edge strength calculating means calculates the edge strength by obtaining a cosine of an angle formed by the estimated edge direction and the gradient. Further, in the edge detection device according to the present invention, the edge strength calculation means is configured to form an angle θ between the estimated edge direction and the gradient.
, The proportional constant C, and the magnitude G of the gradient,
It is characterized in that the edge strength E is calculated by a calculation of E = C | G | cos S (θ) with an index S that determines the directivity.

【0033】また、本発明に係るエッジ検出装置は、上
記エッジ強度算出手段は、上記推定したエッジ方向と上
記グラディエントのなす角度のコサインを、予め正規化
したベクトルである上記推定したエッジ方向と、長さを
「1」に正規化した上記グラディエントとの内積として
求めることを特徴とする。
Further, in the edge detecting apparatus according to the present invention, the edge strength calculating means has the estimated edge direction which is a vector obtained by previously normalizing a cosine of an angle formed by the estimated edge direction and the gradient, It is characterized in that it is obtained as an inner product with the above-mentioned gradient in which the length is normalized to "1".

【0034】また、本発明に係るエッジ検出装置は、予
め算出したエッジ強度の情報テーブルを備え、上記エッ
ジ強度算出手段は、上記情報テーブルを用いて上記補助
情報と上記グラディエントからエッジ強度を算出するこ
とを特徴とする。
Further, the edge detecting apparatus according to the present invention comprises an information table of edge strength calculated in advance, and the edge strength calculating means calculates the edge strength from the auxiliary information and the gradient using the information table. It is characterized by

【0035】[0035]

【作用】本発明に係るエッジ検出方法では、濃淡データ
で構成される入力画像データにおける各位置のエッジ方
向を推定する。また、各位置におけるグラディエントを
求める。そして、推定したエッジ方向の情報を補助情報
とし、上記補助情報と上記グラディエントからエッジ強
度を算出して、画素値が周囲と比べて急峻に変化してい
る画素群をエッジとして検出する。
In the edge detecting method according to the present invention, the edge direction of each position in the input image data composed of grayscale data is estimated. Also, the gradient at each position is obtained. Then, the estimated edge direction information is used as auxiliary information, edge strength is calculated from the auxiliary information and the gradient, and a pixel group in which the pixel value changes sharply compared with the surroundings is detected as an edge.

【0036】また、本発明に係るエッジ検出方法では、
上記推定したエッジ方向と上記グラディエントのなす角
度のコサインを求めてエッジ強度を算出する。また、本
発明に係るエッジ検出方法では、上記推定したエッジ方
向と上記グラディエントのなす角度θと、比例定数C
と、上記グラディエントの大きさGと、指向性を決定す
る指数Sを持って、エッジ強度Eを E = C|G|cosS(θ) なる演算により算出する。
Further, in the edge detecting method according to the present invention,
The edge strength is calculated by obtaining the cosine of the angle formed by the estimated edge direction and the gradient. Further, in the edge detection method according to the present invention, the angle θ formed by the estimated edge direction and the gradient, and the proportional constant C
Then, with the magnitude G of the gradient and the index S that determines the directivity, the edge strength E is calculated by a calculation of E = C | G | cos S (θ).

【0037】また、本発明に係るエッジ検出方法では、
上記推定したエッジ方向と上記グラディエントのなす角
度のコサインを、予め正規化したベクトルである上記推
定したエッジ方向と、長さを「1」に正規化した上記グ
ラディエントとの内積として求める。
Further, in the edge detecting method according to the present invention,
The cosine of the angle formed by the estimated edge direction and the gradient is obtained as the inner product of the estimated edge direction, which is a previously normalized vector, and the gradient whose length is normalized to "1".

【0038】また、本発明に係るエッジ検出方法では、
予め算出したエッジ強度の情報テーブルを用いて、上記
補助情報と上記グラディエントからエッジ強度を算出す
る。本発明に係るエッジ検出装置では、推定手段は、濃
淡データで構成される入力画像データにおける各位置の
エッジ方向を推定し、その推定した方向の情報を補助情
報とする。グラディエント算出手段は、入力画像データ
における各位置のグラディエントを求める。エッジ強度
算出手段は、上記推定手段で得られた補助情報と上記グ
ラディエント算出手段で得られたグラディエントからエ
ッジ強度を算出する。検出手段は、上記エッジ強度算出
手段で得られたエッジ強度から、画素値が周囲と比べて
急峻に変化している画素群をエッジとして検出する。
Further, in the edge detecting method according to the present invention,
The edge strength is calculated from the auxiliary information and the gradient using the edge strength information table calculated in advance. In the edge detecting device according to the present invention, the estimating means estimates the edge direction of each position in the input image data composed of the grayscale data, and uses the information of the estimated direction as auxiliary information. The gradient calculating means calculates the gradient at each position in the input image data. The edge strength calculating means calculates the edge strength from the auxiliary information obtained by the estimating means and the gradient obtained by the gradient calculating means. The detection unit detects, as an edge, a pixel group in which the pixel value changes sharply compared with the surroundings, from the edge strength obtained by the edge strength calculation unit.

【0039】また、本発明に係るエッジ検出装置では、
上記エッジ強度算出手段は、上記推定したエッジ方向と
上記グラディエントのなす角度のコサインを求めてエッ
ジ強度を算出する。また、本発明に係るエッジ検出装置
では、上記エッジ強度算出手段は、上記推定したエッジ
方向と上記グラディエントのなす角度θと、比例定数C
と、上記グラディエントの大きさGと、指向性を決定す
る指数Sを持って、エッジ強度Eを E = C|G|cosS(θ) なる演算により算出する。
Further, in the edge detecting device according to the present invention,
The edge strength calculating means calculates the edge strength by obtaining the cosine of the angle formed by the estimated edge direction and the gradient. Further, in the edge detection device according to the present invention, the edge strength calculation means includes an angle θ formed by the estimated edge direction and the gradient, and a proportional constant C.
Then, with the magnitude G of the gradient and the index S that determines the directivity, the edge strength E is calculated by a calculation of E = C | G | cos S (θ).

【0040】また、本発明に係るエッジ検出装置では、
上記エッジ強度算出手段は、上記推定したエッジ方向と
上記グラディエントのなす角度のコサインを、予め正規
化したベクトルである上記推定したエッジ方向と、長さ
を「1」に正規化した上記グラディエントとの内積とし
て求める。
In the edge detecting device according to the present invention,
The edge strength calculation means calculates the cosine of the angle formed by the estimated edge direction and the gradient from the estimated edge direction, which is a vector that is normalized in advance, and the gradient whose length is normalized to “1”. Calculate as the dot product.

【0041】また、本発明に係るエッジ検出装置では、
上記エッジ強度算出手段は、予め算出したエッジ強度の
情報テーブルを用いて上記補助情報と上記グラディエン
トからエッジ強度を算出する。
Further, in the edge detecting device according to the present invention,
The edge strength calculation means calculates the edge strength from the auxiliary information and the gradient using an edge strength information table calculated in advance.

【0042】[0042]

【実施例】以下、本発明の一実施例について図面を参照
しながら説明する。本発明に係るエッジ検出方法は、例
えば、図1に示すようなエッジ検出装置10により実施
される。また、エッジ検出装置10は、本発明に係るエ
ッジ検出装置を適用したものである。
An embodiment of the present invention will be described below with reference to the drawings. The edge detection method according to the present invention is carried out by an edge detection device 10 as shown in FIG. 1, for example. The edge detection device 10 is an application of the edge detection device according to the present invention.

【0043】すなわち、エッジ検出装置10は、上記図
1に示すように、入力画像Finが供給されるグラディエ
ント計算部11と、輪郭の概略Pが供給されるスプライ
ン曲線発生部12と、助変数tをスプライン曲線発生部
12に対して発生するパラメータ座標生成部13と、グ
ラディエント計算部11からの出力とスプライン曲線発
生部12からの出力からエッジ強度Eを算出するエッジ
強度計算部14とを備えている。また、スプライン曲線
発生部12からの出力は、グラディエント計算部11に
も供給されるようになされている。
That is, as shown in FIG. 1, the edge detecting apparatus 10 includes a gradient calculating section 11 to which an input image F in is supplied, a spline curve generating section 12 to which a contour outline P is supplied, and an auxiliary variable. A parameter coordinate generation unit 13 that generates t for the spline curve generation unit 12, and an edge strength calculation unit 14 that calculates an edge strength E from the output from the gradient calculation unit 11 and the output from the spline curve generation unit 12 are provided. ing. The output from the spline curve generator 12 is also supplied to the gradient calculator 11.

【0044】また、グラディエント計算部11は、図2
に示すように、入力画像Finが各々供給されるフィルタ
演算器111とフィルタ演算器112を備えている。フ
ィルタ演算器111は、X方向のソーベルフィルタSX
を入力画像Finに対して施すものであり、フィルタ演算
器112は、Y方向のソーベルフィルタSYを入力画像
inに対して施すものである。このようなフィルタ演算
器111及びフィルタ演算器112からの各出力は、エ
ッジ強度計算部14に供給されるようになされている。
In addition, the gradient calculation unit 11 is shown in FIG.
As shown in FIG. 4, the filter calculator 111 and the filter calculator 112 are provided to which the input image F in is supplied. The filter calculator 111 uses the Sobel filter S X in the X direction.
Is applied to the input image F in , and the filter calculator 112 applies the Y-direction Sobel filter S Y to the input image F in . The outputs from the filter calculator 111 and the filter calculator 112 are supplied to the edge strength calculator 14.

【0045】また、エッジ強度計算部14には、予め設
定されている方向選択指数sが供給されるようになされ
ており、エッジ強度計算部14は、図3に示すように、
グラディエント計算部11からの出力を用いて参照する
グラディエントテーブルTGと、スプライン曲線発生部
12からの出力が供給される座標回転部412と、グラ
ディエントテーブルTGで得られた結果と座標回転部4
12からの出力が供給される内積計算部141と、供給
された方向選択指数sと内部演算部141からの出力を
用いて参照するコサインテーブルTCと、コサインテー
ブルTCで得られた結果とグラディエントテーブルTG
得られた結果からエッジ強度Eを算出する乗算器143
とを備えている。
Further, the edge strength calculation section 14 is supplied with a preset direction selection index s, and the edge strength calculation section 14, as shown in FIG.
The gradient table T G referenced using the output from the gradient calculation unit 11, the coordinate rotation unit 412 to which the output from the spline curve generation unit 12 is supplied, the result obtained by the gradient table T G , and the coordinate rotation unit 4
The inner product calculation unit 141 to which the output from 12 is supplied, the cosine table T C referred to by using the supplied direction selection index s and the output from the internal calculation unit 141, and the result obtained by the cosine table T C. A multiplier 143 for calculating the edge strength E from the result obtained by the gradient table T G
It has and.

【0046】ここで、図4は、エッジ検出装置10にお
けるエッジ検出処理を示すフローチャートである。以
下、上記図1〜図3及び図4を用いて具体的に説明す
る。エッジ検出装置10には、濃淡データで構成された
入力画像Finが入力される。一方、エッジ検出装置10
には、例えば、オペレータが図示していないディスプレ
イ上に表示されている入力画像Finをみながらタブレッ
トを使用することにより、輪郭の概略Pが入力される。
Here, FIG. 4 is a flowchart showing the edge detection processing in the edge detection device 10. Hereinafter, a specific description will be given with reference to FIGS. 1 to 3 and 4. An input image F in composed of grayscale data is input to the edge detection device 10. On the other hand, the edge detection device 10
For example, the outline P of the contour is input by the operator using the tablet while observing the input image F in displayed on the display (not shown).

【0047】グラディエント計算部11は、入力画像F
inを取り込む(ステップS1)。尚、グラディエント計
算部11における詳細な説明は後述する。一方、スプラ
イン曲線発生部12は、上述したようなオペレータの入
力による輪郭の概略Pを座標列(x0,y0),(x
1,y1),(x2,y2),・・・として順次取り込
む(ステップS2)。そして、スプライン曲線発生部1
2は、順次取り込んだ座標列(x0,y0),(x1,
y1),(x2,y2),・・・を通るような滑らかな
曲線P(t)を生成する(ステップS3)。
The gradient calculator 11 calculates the input image F
In is taken in (step S1). The detailed description of the gradient calculator 11 will be described later. On the other hand, the spline curve generation unit 12 calculates the outline P of the contour input by the operator as described above into the coordinate sequence (x0, y0), (x
1, y1), (x2, y2), ... (Step S2). Then, the spline curve generator 1
2 is the coordinate sequence (x0, y0), (x1,
A smooth curve P (t) passing through y1), (x2, y2), ... Is generated (step S3).

【0048】具体的に説明すると、まず、曲線P(t)
は、3次スプライン形式で表現される。すなわち、曲線
P(t)は、助変数t、助変数tの3次多項式x
(t),y(t)を持って、 P(t) = (x(t),y(t)) なる式で表現される。そして、助変数tが「0」〜
「1」まで変化する時、その軌跡である曲線P(t)、
すなわちスプライン曲線P(t)は、座標列(x0,y
0),(x1,y1),(x2,y2),・・・を滑ら
かに接続して輪郭を一周することとなる。このようなス
プライン曲線は、CADをはじめとする広い分野で使用
されている。
Specifically, first, the curve P (t)
Is expressed in a cubic spline format. That is, the curve P (t) is the auxiliary variable t and the cubic polynomial x of the auxiliary variable t.
It has (t) and y (t), and is expressed by an equation P (t) = (x (t), y (t)). Then, the auxiliary variable t is "0"-
When it changes to “1”, the locus of the curve P (t),
That is, the spline curve P (t) has a coordinate sequence (x0, y
0), (x1, y1), (x2, y2), ... Are smoothly connected to make a round of the contour. Such spline curves are used in a wide range of fields including CAD.

【0049】そこで、スプライン曲線発生部12は、ス
プライン曲線P(t)が座標列(x0,y0),(x
1,y1),(x2,y2),・・・を滑らかに接続す
るように、3次多項式x(t),y(t)の係数を順次
取り込んだ座標列(x0,y0),(x1,y1),
(x2,y2),・・・(以下、座標列(xn,yn)
と言う。)に基いて決定する。この係数の決定方法は、
例えば、代表的な文献であるファーリン(Farin)
著の「カーブス アンド サーフェシズ フォーコンピ
ュータ エイディッド ジェオメトリック デザイン
(Curves and surfaces for
computer aided geometric
design)」に述べられている係数の決定方法を適
用する。この係数の決定方法は、点群を与えられた時、
その点群を通過するような係数の決定方法であり、公知
のものである。
Therefore, the spline curve generation unit 12 determines that the spline curve P (t) is the coordinate sequence (x0, y0), (x
1, y1), (x2, y2), ... Coordinate sequences (x0, y0), (x1) in which coefficients of cubic polynomials x (t) and y (t) are sequentially taken in so as to smoothly connect them. , Y1),
(X2, y2), ... (hereinafter, coordinate sequence (xn, yn)
Say ) Based on. The method of determining this coefficient is
For example, a representative document, Farin.
"Curves and Surfaces for Computer Aided Geometric Design (Curves and surfaces for for
computer aided geometric
The method of determining the coefficient described in "Design" is applied. The method of determining this coefficient is that, given a point cloud,
This is a publicly known method for determining a coefficient that passes through the point group.

【0050】例えば、入力画像Finが図5(a)に示す
ような画像250であった場合、すなわち画像250の
中心付近に円形の物体260が存在する場合、スプライ
ン曲線発生部12は、円形の物体260の周囲に沿って
オペレータが指定した概略の輪郭上の点群271xyを座
標列(xn,yn)として取り込む。そして、スプライ
ン曲線発生部12は、点群271xyを補間する曲線27
0が点群271xyを通過するような係数を決定して、ス
プライン曲線P(t)を生成する。
For example, when the input image F in is the image 250 as shown in FIG. 5A, that is, when the circular object 260 exists near the center of the image 250, the spline curve generating section 12 determines that the circular shape is circular. The point group 271 xy on the outline specified by the operator along the periphery of the object 260 is captured as a coordinate sequence (xn, yn). Then, the spline curve generation unit 12 uses the curve 27 that interpolates the point group 271 xy.
A coefficient such that 0 passes through the point group 271 xy is determined to generate the spline curve P (t).

【0051】上述のようにしてスプライン曲線発生部1
2により生成されたスプライン曲線P(t)は、グラデ
ィエント計算部11に供給される。また、スプライン曲
線発生部12は、生成したスプライン曲線P(t)を輪
郭の概略として用い、スプライン曲線P(t)上の各画
素について以下の処理を行う(ステップS4)。この
時、パラメータ座標生成部13は、曲線P(t)の助変
数tを「0」〜「1」まで小さな刻み幅で変化させてス
プライン曲線発生部12に対して発生する。
As described above, the spline curve generator 1
The spline curve P (t) generated by 2 is supplied to the gradient calculation unit 11. In addition, the spline curve generation unit 12 uses the generated spline curve P (t) as an outline of the contour and performs the following process for each pixel on the spline curve P (t) (step S4). At this time, the parameter coordinate generation unit 13 changes the auxiliary variable t of the curve P (t) from "0" to "1" with a small step size and generates it for the spline curve generation unit 12.

【0052】尚、以下に述べるステップS4の処理は、
パラメータ座標生成部13からの少しずつ変化した助変
数tにより、スプライン曲線P(t)上の各画素を順に
たどっていき、各画素(x,y)について繰り返すルー
プ処理である。先ず、スプライン曲線発生部12は、パ
ラメータ座標生成部13からの助変数tを上述した「P
(t)=(x(t),y(t))」の式に代入すること
により、対象画素のX座標及びY座標(以下、対象画素
(x,y)と言う。)を求める。そして、スプライン曲
線発生部12は、求めた対象画素(x,y)をグラディ
エント計算部11に供給する。
The process of step S4 described below is as follows.
This is a loop process in which each pixel on the spline curve P (t) is sequentially traced by the auxiliary variable t that is gradually changed from the parameter coordinate generation unit 13, and is repeated for each pixel (x, y). First, the spline curve generation unit 12 sets the auxiliary variable t from the parameter coordinate generation unit 13 to “P
(T) = (x (t), y (t)) ”to obtain the X and Y coordinates of the target pixel (hereinafter referred to as the target pixel (x, y)). Then, the spline curve generation unit 12 supplies the obtained target pixel (x, y) to the gradient calculation unit 11.

【0053】また、スプライン曲線発生部12は、上記
図5(b)に示すように、求めた対象画素(x,y)に
おけるスプライン曲線P(t)の接線方向を求める。こ
の接線方向を対象画素(x,y)における輪郭のおよそ
の方向として使用する。すなわち、接線方向は、スプラ
イン曲線P(t)を微分して得られる速度ベクトルV
(t)の方向と等しいため、この速度ベクトルV(t)
を接線方向として、 V(t) = d/dtP(t) なる式で求める。そして、求めた速度ベクトルV(t)
の長さを「1」に正規化し、接線ベクトルTを、 T = V(t)/|V(t)| なる式で求め(ステップS4.1)、求めた接線ベクト
ルTをエッジ強度計算部14に供給する。
Further, as shown in FIG. 5 (b), the spline curve generating section 12 finds the tangential direction of the spline curve P (t) at the obtained target pixel (x, y). This tangential direction is used as the approximate direction of the contour at the target pixel (x, y). That is, the tangential direction is the velocity vector V obtained by differentiating the spline curve P (t).
Since it is equal to the direction of (t), this velocity vector V (t)
Is taken as the tangential direction, and V (t) = d / dtP (t) is obtained. Then, the obtained velocity vector V (t)
Is normalized to "1", and the tangent vector T is calculated by the formula T = V (t) / | V (t) | (step S4.1), and the calculated tangent vector T is calculated by the edge strength calculation unit. Supply to 14.

【0054】次に、上述のようにしてスプライン曲線発
生部12で得られた接線ベクトルTを補助情報とし、そ
の補助情報を用いて以下に述べるエッジ検出処理を行う
(ステップS4.2)。先ず、エッジ強度計算部14
は、スプライン曲線発生部12からの接線ベクトルTを
90゜回転させた法線ベクトルNを求める(ステップS
4.2.1)。この回転は、スプライン曲線P(t)の
軌跡の進行方向に対して反時計回りを正の向きとする。
Next, the tangent vector T obtained by the spline curve generator 12 as described above is used as auxiliary information, and the edge detection processing described below is performed using this auxiliary information (step S4.2). First, the edge strength calculator 14
Calculates a normal vector N obtained by rotating the tangent vector T from the spline curve generating unit 12 by 90 ° (step S
4.2.1). This rotation has a positive counterclockwise direction with respect to the traveling direction of the locus of the spline curve P (t).

【0055】すなわち、エッジ強度計算部14におい
て、上記図3に示すように、座標回転部142は、スプ
ライン曲線発生部12からの接線ベクトルTを反時計回
りに回転した法線ベクトルNに変換する。この座標回転
部142における処理は、1倍及び−1倍の係数をかけ
るのみのごく簡単なものである。
That is, in the edge strength calculation unit 14, as shown in FIG. 3, the coordinate rotation unit 142 converts the tangent vector T from the spline curve generation unit 12 into a normal vector N rotated counterclockwise. . The processing in the coordinate rotation unit 142 is very simple, only by multiplying the coefficients by 1 and -1.

【0056】上述のような法線ベクトルNを求める処理
を演算式を用いて表すと、法線ベクトルNは、数1に示
す行列Rを用いて、
When the processing for obtaining the normal vector N as described above is expressed by using an arithmetic expression, the normal vector N is obtained by using the matrix R shown in Formula 1.

【0057】[0057]

【数1】 [Equation 1]

【0058】N = RT となる。このようにして求められた法線ベクトルNは、
スプライン曲線P(t)の法線ベクトルであるため、エ
ッジの向きと推定した輪郭の方向が平行であるならば、
各々に垂直な後述するグラディエントとスプライン曲線
P(t)の法線ベクトルNも平行となる。
N = RT. The normal vector N thus obtained is
Since it is the normal vector of the spline curve P (t), if the direction of the edge and the estimated contour direction are parallel,
The gradient and the normal vector N of the spline curve P (t), which will be described later, perpendicular to each of them are also parallel to each other.

【0059】次に、上述したグラディエント計算部11
は、スプライン曲線発生部12からの対象画素(x,
y)の近傍3×3画素の領域について、ステップS1の
処理において取り込んだ入力画像Finの画素値I(x,
y)を読み込み、対象画素(x,y)における画像の勾
配(以下、グラディエントと言う。)Gを求める。
Next, the gradient calculator 11 described above
Is the target pixel (x, from the spline curve generation unit 12
y), the pixel value I (x, of the input image F in captured in the process of step S1 for the region of 3 × 3 pixels
y) is read, and the gradient (hereinafter, referred to as a gradient) G of the image at the target pixel (x, y) is obtained.

【0060】すなわち、グラディエント計算部11にお
いて、上記図2に示すように、フィルタ演算器111
は、読み込んだ入力画像Finの画素値I(x,y)に対
してX方向のソーベルフィルタSXを施す。また、フィ
ルタ演算器112は、読み込んだ入力画像Finの画素値
I(x,y)に対してY方向のソーベルフィルタSY
施す。そして、グラディエント計算部11は、フィルタ
演算器111及びフィルタ演算器112の出力Dx,D
yを組み合わせて、対象画素(x,y)における画像の
グラディエントG(=(Dx,Dy))としてエッジ強
度計算部14に供給する(ステップS4.2.2)。
That is, in the gradient calculator 11, as shown in FIG.
Applies the Sobel filter S X in the X direction to the read pixel value I (x, y) of the input image F in . Further, the filter calculator 112 applies the Sobel filter S Y in the Y direction to the read pixel value I (x, y) of the input image F in . Then, the gradient calculator 11 outputs the outputs Dx and D of the filter calculator 111 and the filter calculator 112.
The y is combined and supplied to the edge strength calculation unit 14 as the image gradient G (= (Dx, Dy)) at the target pixel (x, y) (step S 4.2.2).

【0061】上述のようにして得られたグラディエント
Gは、画像の濃淡を標高としてとらえた場合に、傾斜が
最大の方向を示すベクトルであり、エッジの方向に垂直
なものである。すなわち、グラディエントGは、入力画
像Finの画素値I(x,y)に対して、 G = gradI(x,y) = (Dx,Dy) なる式で表すことができる。
The gradient G obtained as described above is a vector indicating the direction of maximum inclination when the light and shade of the image is taken as the altitude, and is perpendicular to the edge direction. That is, the gradient G can be expressed by the following equation for the pixel value I (x, y) of the input image F in : G = gradI (x, y) = (Dx, Dy)

【0062】次に、エッジ強度計算部14は、グラディ
エント計算部11で得られたグラディエントGの長さl
enGと、グラディエントGの長さlenGが「1」と
なるように正規化したnormGとを求める(ステップ
S4.2.3)。ここで、エッジ強度計算部14は、上
記図3に示すように、グラディエントテーブルTGを備
えている。このグラディエントテーブルTGには、グラ
ディエントGの長さlenGと、それを正規化したno
rmGとが[数2]に示す演算式を用いて予め計算され
た結果が格納されている。
Next, the edge strength calculation unit 14 calculates the length l of the gradient G obtained by the gradient calculation unit 11.
EnG and normG normalized so that the length lenG of the gradient G becomes "1" are obtained (step S4.2.3.). Here, the edge strength calculation unit 14 includes a gradient table T G, as shown in FIG. In this gradient table T G , the length lenG of the gradient G and the normalized no
The rmG and the result calculated in advance using the arithmetic expression shown in [Equation 2] are stored.

【0063】[0063]

【数2】 [Equation 2]

【0064】具体的に説明すると、グラディエントテー
ブルTGは、グラディエント計算部11で得られたグラ
ディエントG(=(Dx,Dy))を入力とし、グラデ
ィエントGの長さlenGと、それを正規化したnor
mGとを出力とするテーブルである。また、画素値の精
度は、通常8ビットであり、X方向の出力Dx及びY方
向の出力Dyも同じ精度が使用されるため、グラディエ
ントテーブルTGには、X方向の出力DxとY方向の出
力Dyの合わせて16ビットが入力されるようになされ
ている。このため、任意のX方向の出力DxとY方向の
出力Dyの組み合わせに対して、グラディエントテーブ
ルTGの1要素が割り当てられる。したがって、グラデ
ィエントテーブルTGの各要素に各々、グラディエント
Gの長さlenGの値と、それを正規化したnormG
の値とが格納されている。このようなグラディエントテ
ーブルTGを用いることにより、平方根等の複雑な計算
を行うこと無しに、容易に結果を得ることができる。ま
た、グラディエントテーブルTGへの入力は、16ビッ
トとしているため、テーブルサイズ、すなわち要素の数
は、「65536」であり、現在の計算機に十分適用す
ることができる。
More specifically, the gradient table T G receives the gradient G (= (Dx, Dy)) obtained by the gradient calculator 11 as an input, and normalizes the length lenG of the gradient G. nor
It is a table which outputs mG. In addition, the accuracy of the pixel value is usually 8 bits, and the same accuracy is used for the output Dx in the X direction and the output Dy in the Y direction. Therefore, the gradient table T G includes the output Dx in the X direction and the output Dy in the Y direction. A total of 16 bits of the output Dy are input. Therefore, one element of the gradient table T G is assigned to an arbitrary combination of the output Dx in the X direction and the output Dy in the Y direction. Therefore, for each element of the gradient table T G , the value of the length lenG of the gradient G and the normG obtained by normalizing the value
And the value of are stored. By using such a gradient table T G , the result can be easily obtained without performing a complicated calculation such as a square root. Further, since the input to the gradient table T G is 16 bits, the table size, that is, the number of elements is “65536”, which can be sufficiently applied to the current computer.

【0065】上述のようなグラディエントテーブルTG
により、グラディエント計算部11で得られたグラディ
エントG(=(Dx,Dy))のグラディエントGの長
さlenGと、それを正規化したnormGが求められ
る。そして、求められたグラディエントGの長さlen
Gを正規化したnormGは、内積計算部141に供給
されると共に、グラディエントGの長さlenGは、乗
算器143に供給される。
The gradient table T G as described above
Thus, the length lenG of the gradient G (= (Dx, Dy)) of the gradient G (= (Dx, Dy)) obtained by the gradient calculation unit 11 and normG obtained by normalizing the length lenG are obtained. Then, the length len of the obtained gradient G
The normG obtained by normalizing G is supplied to the inner product calculating unit 141, and the length lenG of the gradient G is supplied to the multiplier 143.

【0066】最後に、エッジ強度計算部14は、対象画
素(x,y)における輪郭のエッジ強度E(x,y)を
上述のようにして求めた法線ベクトルN、グラディエン
トテーブルTGからのグラディエントGの長さlen
G、それを正規化したnormG、及び方向選択指数s
を持って、 E(x,y) = lenG(normG・N)S なる式により求める。
Finally, the edge strength calculator 14 calculates the edge strength E (x, y) of the contour at the target pixel (x, y) from the normal vector N and the gradient table T G obtained as described above. Length of gradient G len
G, normG that normalizes it, and direction selection index s
Then, E (x, y) = lenG (normG · N) S is obtained.

【0067】すなわち、エッジ強度計算部14におい
て、上記図3に示すように、先ず、内積計算部141
は、法線ベクトルNと、グラディエントGの長さlen
Gを正規化したnormGとの内積「normG・N」
を、乗算により求める。この結果がグラディエントGと
法線ベクトルNのなす角度θのコサイン「cosθ」と
なる。
That is, in the edge strength calculation unit 14, as shown in FIG.
Is the normal vector N and the length len of the gradient G
Inner product “normG · N” with normG normalized to G
Is obtained by multiplication. The result is the cosine “cos θ” of the angle θ formed by the gradient G and the normal vector N.

【0068】次に、コサインテーブルTCを用いて、供
給される方向選択指数sにより、 cosSθ を求める。このコサインテーブルTCは、内積計算部1
41で得られたコサイン「cosθ」を入力とし、コサ
イン「cosθ」のS乗を出力とするテーブルであり、
コサインテーブルTCから出力されるコサイン「cos
θ」のS乗(=cosSθ)は、乗算器143に供給さ
れる。ここで、本実施例では、方向選択指数sは、予め
設定されている固定値としているため、コサインテーブ
ルTCへの入力は、内積計算部141で得られた内積の
結果であり、コサインテーブルTCは、入力が8ビット
程度の小さなテーブルである。このようなコサインテー
ブルTCを用いることにより、複雑な計算を行うこと無
しに、コサインのS乗「cosSθ」を容易に求めるこ
とができる。
Next, using the cosine table T C , cos S θ is obtained from the supplied direction selection index s. This cosine table T C is the inner product calculation unit 1
41 is a table in which the cosine “cos θ” obtained in step 41 is input, and the S power of the cosine “cos θ” is output.
The cosine “cos” output from the cosine table T C
The Sth power of (θ) (= cos S θ) is supplied to the multiplier 143. Here, in this embodiment, since the direction selection index s is a preset fixed value, the input to the cosine table T C is the result of the inner product obtained by the inner product calculation unit 141, and the cosine table T C is a small table whose input is about 8 bits. By using such a cosine table T C , it is possible to easily obtain the S-th power “cos S θ” of the cosine without performing complicated calculations.

【0069】そして、最後に、乗算器143は、グラデ
ィエントテーブルTGからのグラディエントGの長さl
enGと、コサインテーブルTCからのコサインのS乗
「cosSθ」とを掛け合わせ、掛け合わせた結果をエ
ッジ強度Eとして出力する。ここで、エッジ強度計算部
14に供給される方向選択指数sは、どの程度選択的に
特定方向のエッジにだけ反応するかを決定する指数であ
る。この方向選択指数sは、値が大きければその分指向
性が強くなるため、不要なエッジの混入をより強く阻止
することができるが、所望の方向、すなわち推定したエ
ッジ方向と実際のエッジ方向が少しでもずれていた場合
には、エッジ強度の減衰を引き起こす。そこで、方向選
択指数sは、通常2〜8の間の値が設定されている。
Finally, the multiplier 143 determines the length l of the gradient G from the gradient table T G.
EnG is multiplied by the cosine Sth power “cos S θ” from the cosine table T C , and the multiplication result is output as the edge strength E. Here, the direction selection index s supplied to the edge strength calculation unit 14 is an index that determines how selectively and selectively reacts only to edges in a specific direction. The larger the value of the direction selection index s, the stronger the directivity. Therefore, it is possible to more strongly prevent the mixing of unnecessary edges, but the desired direction, that is, the estimated edge direction and the actual edge direction are If it deviates even a little, the edge strength is attenuated. Therefore, the direction selection index s is usually set to a value between 2 and 8.

【0070】例えば、図6に示すように、方向選択指数
sが大きくなると、グラディエントGと法線ベクトルN
が同じ方向、すなわち内積「normG・N」の値が
「1」に近い場合のみ、エッジ強度E(x,y)が大き
い値となる。すなわち、高い指向性が得られる。また、
方向選択指数sを「1」とした場合には、上述したロビ
ンソンの3レベルのフィルタ、プレウイットのコンパス
フィルタ、及びキルシュのフィルタにおける指向性と同
じ指向性が得られる。
For example, as shown in FIG. 6, when the direction selection index s increases, the gradient G and the normal vector N
In the same direction, that is, when the value of the inner product “normG · N” is close to “1”, the edge strength E (x, y) becomes a large value. That is, high directivity can be obtained. Also,
When the direction selection index s is "1", the same directivity as that of the Robinson three-level filter, the Prewitt compass filter, and the Kirsch filter described above is obtained.

【0071】上述のようなステップS4の処理を概略の
輪郭を与えるスプライン曲線P(t)上の各画素(x,
y)に対して行う。したがって、エッジ強度計算部14
からは、図7に示すように、入力画像Finから得られた
エッジ強度画像Foutが出力される(ステップS5)。
上述のように、本実施例では、エッジ強度Eを求める処
理において、グラディエントGと法線ベクトルNのなす
角度を直接求めずに、内積の計算により直接コサイン
「cosθ」を求めているため、3角関数の計算等の複
雑な処理を行う必要が無い。すなわち、グラディエント
Gと法線ベクトルNのなす角度の大きさと対応する量
が、乗算2回と加算1回のみのはるかに少ない計算量で
算出することができる。
Each pixel (x, x on the spline curve P (t) giving the outline of the processing of step S4 as described above
y). Therefore, the edge strength calculator 14
Then, as shown in FIG. 7, the edge intensity image F out obtained from the input image F in is output (step S5).
As described above, in the present embodiment, in the process of obtaining the edge strength E, the cosine “cos θ” is directly obtained by calculating the inner product without directly obtaining the angle formed by the gradient G and the normal vector N. There is no need to perform complicated processing such as calculation of angular functions. That is, the amount corresponding to the magnitude of the angle formed by the gradient G and the normal vector N can be calculated with a much smaller calculation amount of only two multiplications and one addition.

【0072】また、従来のエッジ検出方法及びエッジ検
出装置では、上記図12の(b)に示した前景物体内の
色の差や背景物体の交差による不要なエッジ221a〜
221cの混入が不可避であり、例えば、推定したエッ
ジ方向から45°ずれた方向のエッジの強度は29%の
減衰、60°ずれた方向のエッジの強度は50%の減衰
しか得られないのに対して、本実施例によると、上記図
6に示すように、方向選択指数sを「4」とした場合、
推定したエッジ方向から45°ずれた方向のエッジの強
度は75%の減衰、60°ずれた方向のエッジの強度は
94%の減衰を得ることができる。また、上述のような
前景内の色変化や背景によって生じるうるエッジ221
a〜221cの方向は、対象物体の輪郭の方向とは大き
く異なる角度となるため、上述したような強い指向性を
用いることにより、不要なエッジの混入をほぼ完全に除
去することができる。
Further, in the conventional edge detection method and edge detection device, unnecessary edges 221a to 221a due to the color difference in the foreground object and the intersection of the background objects shown in FIG.
It is unavoidable to mix 221c, and for example, the edge strength in the direction shifted by 45 ° from the estimated edge direction is attenuated by 29%, and the edge strength in the direction shifted by 60 ° is only attenuated by 50%. On the other hand, according to the present embodiment, as shown in FIG. 6, when the direction selection index s is “4”,
It is possible to obtain 75% attenuation for the edge strength in the direction deviated by 45 ° from the estimated edge direction and 94% attenuation for the edge strength in the direction deviated by 60 °. In addition, an edge 221 that may occur due to the color change in the foreground and the background as described above
Since the directions of a to 221c are angles significantly different from the direction of the contour of the target object, use of the strong directivity as described above makes it possible to almost completely eliminate unnecessary edge contamination.

【0073】また、概略の輪郭の方向の推定値である接
線ベクトルT、及び入力画像FinのグラディエントGを
輪郭上の各画素毎に求めるため、輪郭上の各点において
輪郭に沿ったエッジを選択的に検出することができる。
例えば、上記図5(a)に示した画像250において、
円形の物体260内の色の違いがある箇所A,Bでは、
法線ベクトルNは、曲線270に垂直な方向となり、円
形の物体260内の色の違いにより生じる水平な線上で
は、グラディエントGは、上記水平な線に対して垂直方
向となる。このため、上記法線ベクトルNと上記グラデ
ィエントGの角度差は、90゜となり、上記図6に示す
ように、エッジ強度Eは、「0」となる。すなわち、円
形の物体260内のエッジは、検出されない。一方、輪
郭を表すエッジは、曲線270に沿うため、箇所A,B
におけるグラディエントGは、水平方向となる。これは
法線ベクトルNと同じ方向であり、このため、輪郭を表
すエッジは、強く検出される。したがって、上記図12
(b)に示したような不要なエッジ221a,221
b,221cを混入することなく、本来求めたいエッジ
のみを検出することができる。
Further, since the tangent vector T, which is the estimated value of the outline direction, and the gradient G of the input image F in are obtained for each pixel on the outline, an edge along the outline is obtained at each point on the outline. It can be selectively detected.
For example, in the image 250 shown in FIG.
At locations A and B in the circular object 260 that have different colors,
The normal vector N is in the direction perpendicular to the curve 270, and on the horizontal line caused by the color difference in the circular object 260, the gradient G is in the direction perpendicular to the horizontal line. Therefore, the angle difference between the normal vector N and the gradient G is 90 °, and the edge strength E is “0” as shown in FIG. That is, no edge within the circular object 260 is detected. On the other hand, since the edge representing the contour is along the curve 270, the points A and B are
The gradient G at is in the horizontal direction. This is in the same direction as the normal vector N, so that the edge representing the contour is strongly detected. Therefore, in FIG.
The unnecessary edges 221a and 221 as shown in FIG.
Only the edge that is originally desired can be detected without mixing b and 221c.

【0074】また、エッジ強度計算部14に対してエッ
ジの方向を推定した情報である接線ベクトルTを補助情
報として与え、エッジ強度計算部14を特定の方向に強
く反応するものとすることにより、不要なエッジが混入
することなく必要なエッジのみを高いS/N比で検出す
ることができる。
Further, the tangent vector T, which is the information for estimating the direction of the edge, is given to the edge strength calculation unit 14 as auxiliary information, and the edge strength calculation unit 14 is made to react strongly in a specific direction. Only unnecessary edges can be detected with a high S / N ratio without mixing unnecessary edges.

【0075】また、オペレータにより入力された輪郭の
概略から各位置での対象物体のエッジの方向を算出でき
るため、オペレータの作業量を増やすこと無く、手間を
かけずに必要なエッジのみを検出することができる。
尚、上述した実施例では、方向選択指数sの設定値を2
〜8の間の値としたが、エッジの推定方向の精度をさら
に高くし、方向選択指数sにさらに大きな値を設定して
もよい。これにより、指向性をさらに強めることができ
る。
Further, since the direction of the edge of the target object at each position can be calculated from the outline of the contour input by the operator, only the necessary edge can be detected without increasing the labor of the operator. be able to.
In the above-described embodiment, the set value of the direction selection index s is set to 2
Although a value between 8 and 8 is used, the accuracy of the edge estimated direction may be further increased and a larger value may be set as the direction selection index s. Thereby, the directivity can be further strengthened.

【0076】また、方向選択指数sの値を外部から入力
することにより、状況に応じて方向選択指数sの値を変
化させてもよい。通常、方向選択指数sの値は、数通り
選択できれば十分であるため、方向選択指数sを入力と
するコサインテーブルTC追加ビット数は、4ビット程
度でよい。また、方向選択指数sの値を整数に限定し
て、計算機が乗算の繰り返しとして冪乗を計算してもよ
い。
Further, the value of the direction selection index s may be changed from outside by inputting the value of the direction selection index s from the outside. Normally, it is sufficient that the direction selection index s can be selected in several ways. Therefore, the number of additional bits of the cosine table T C to which the direction selection index s is input may be about 4 bits. Further, the value of the direction selection index s may be limited to an integer, and the computer may calculate the power as repeated multiplication.

【0077】また、上述した実施例では、コサイン「c
osθ」の冪乗を使用してエッジ強度を求めることとし
たが、上記図3に示した内積演算部141の出力をI
P、指向性の分布関数をf(θ)として、 f(cos-1IP) を計算し、その結果を使用してエッジ強度を求めてもよ
い。これにより、例えば、図8に示すように、推定した
エッジ方向と実際のエッジ方向のなす角度θがしきい値
K以下の場合には、エッジ強度を減衰させず、しきい値
Kを超えた場合には、エッジ強度を急峻に減衰させる指
向性を得ることができる。
In the above embodiment, the cosine "c
Although the power of “osθ” is used to obtain the edge strength, the output of the inner product computing unit 141 shown in FIG.
It is also possible to calculate f (cos −1 IP) with P and a distribution function of directivity as f (θ), and use the result to obtain the edge strength. Thus, for example, as shown in FIG. 8, when the angle θ formed by the estimated edge direction and the actual edge direction is equal to or less than the threshold value K, the edge strength is not attenuated and exceeds the threshold value K. In this case, it is possible to obtain directivity that sharply attenuates the edge strength.

【0078】具体的に説明すると、先ず、所望の分布形
状を定義し、上記図8に示したグラフの横軸の値をコサ
インに変換する。次に、コサインの値各々に対する減衰
率、すなわち「f(cos-1IP)」の計算結果をテー
ブルに格納する。このテーブルを上述した実施例で用い
たコサインテーブルTCの代わりに使用する。したがっ
て、分布関数f(θ)を使用してエッジ強度を求めるこ
とができる。
More specifically, first, a desired distribution shape is defined, and the value on the horizontal axis of the graph shown in FIG. 8 is converted into a cosine. Next, the attenuation rate for each cosine value, that is, the calculation result of “f (cos −1 IP)” is stored in the table. This table is used in place of the cosine table T C used in the above embodiment. Therefore, the distribution function f (θ) can be used to obtain the edge strength.

【0079】また、分布関数f(θ)が方向選択指数s
をも変数として持つこととしてもよい。すなわち、分布
関数f(θs)を使用してエッジ強度を求めてもよい。
この場合には、方向選択指数sをも上記テーブルの入力
とし、方向選択指数sを変化させながらエッジ強度を求
める。
The distribution function f (θ) is the direction selection index s.
May also be held as a variable. That is, the edge strength may be obtained using the distribution function f (θs).
In this case, the direction selection index s is also input to the table, and the edge strength is obtained while changing the direction selection index s.

【0080】また、上述した実施例では、輪郭の概略を
3次スプライン形式で表現されるスプライン曲線P
(t)としたが、異なる次数のスプライン形式で表現さ
れるものとしてもよい。また、助変数tを用いずに、イ
ンプリサイトフォーム(implicit form)
形式で表現される曲線 Q(x,y) = 0 としてもよい。
Further, in the above-described embodiment, the outline of the contour is represented by a spline curve P in the cubic spline format.
Although (t) is used, it may be expressed in a spline format with different orders. In addition, without using the auxiliary variable t, the implicit site form (implicit form)
The curve expressed in the form may be Q (x, y) = 0.

【0081】また、オペレータが描画した概略の輪郭線
の画像を細線化し、隣接する画素の位置関係からエッジ
の方向を推定してもよい。この場合には、上記図4に示
したステップS3において、概略の輪郭線の画像を細線
化し、上記図4に示したステップS4.1において、細
線化した画像中の対象画素に隣接する複数の画素の並び
からその位置における輪郭の方向を求めるようにする。
Further, the outline image drawn by the operator may be thinned and the edge direction may be estimated from the positional relationship between adjacent pixels. In this case, in step S3 shown in FIG. 4, the image of the outline is thinned, and in step S4.1 shown in FIG. 4, a plurality of pixels adjacent to the target pixel in the thinned image are displayed. The direction of the contour at that position is determined from the pixel arrangement.

【0082】また、上記図4に示したステップS4にお
いて、特定の方向のエッジに選択的に反応するような複
数のフィルタ、例えば、コンパスオペレータ(comp
ass operator)を用いて、エッジの推定し
た方向を基にしてその方向に対する検出能力の最も高い
フィルタを上記複数のフィルタから選択してエッジ強度
を求めるようにしてもよい。
Further, in step S4 shown in FIG. 4, a plurality of filters, such as a compass operator (comp), which selectively reacts with an edge in a specific direction.
The edge strength may be obtained by selecting the filter having the highest detection ability in the direction based on the estimated direction of the edge from the plurality of filters by using the (ass operator).

【0083】また、上述した実施例では、輪郭の概略を
表す情報がオペレータにより入力されるものとしたが、
複数枚の時間的に連続する画像、すなわち動画像から連
続的にエッジを検出することとしてもよい。この場合に
は、上記図4に示したフローチャートのステップS2の
処理において、概略の輪郭を座標列(xn,yn)とし
て取り込むのではなく、現在の処理対象の画像に対して
直前の画像、直前の画像から得られたエッジ検出の結
果、及び現在の処理対象の画像の3つの情報から現在の
処理対象の画像における輪郭を推定する。
Further, in the above-mentioned embodiment, the information indicating the outline of the contour is inputted by the operator.
Edges may be continuously detected from a plurality of temporally continuous images, that is, moving images. In this case, in the process of step S2 of the flowchart shown in FIG. 4, the outline is not captured as the coordinate sequence (xn, yn), but the image immediately before and immediately before the image to be currently processed. The contour in the current processing target image is estimated from the edge detection result obtained from the image and the three pieces of information of the current processing target image.

【0084】すなわち、図9に示すように、先ず、現在
の処理対象の画像FCの直前の画像FPに対するエッジ検
出処理の結果得られたエッジ30上に一定間隔で画素
(以下、マークと言う)311,312,313,・・・
を結ぶ。次に、各マーク311,312,313,・・・
に対して、各々マークを含む小ブロックを定める。例え
ば、マーク311に対しては、マーク311を含む小ブロ
ック32を定める。このようにして定めた小ブロック内
のデータと最も相関が高い部分を現在の処理対象の画像
C中からブロックマッチング処理により検出する。
That is, as shown in FIG. 9, first, pixels (hereinafter, referred to as marks) are arranged at regular intervals on the edges 30 obtained as a result of the edge detection processing for the image F P immediately before the current image F C to be processed. Say) 31 1 , 31 2 , 31 3 , ...
Tie Next, the marks 31 1 , 31 2 , 31 3 , ...
, A small block including each mark is defined. For example, with respect to the mark 31 1 defines a small block 32 which includes a mark 31 1. The portion having the highest correlation with the data in the small block thus determined is detected by the block matching process from the image F C currently being processed.

【0085】このブロックマッチング処理においては、
先ず、例えば、小ブロック32内の画素値と、現在の処
理対象の画像FC中の同じ大きさのブロック内の画素値
とを比較し、その差の総和の大小により相関の高さを決
定することにより、最も相関が高いブロック33を検出
する。この時、ブロック33における画素34が小ブロ
ック32のマーク311に対応する画素となる。マーク
311以外のマーク31 2,313,・・・に対しても同
様にして、対応する画素を現在の処理対象の画像FC
から検出する。
In this block matching process,
First, for example, the pixel value in the small block 32 and the current processing
Image F of the targetCPixel values in blocks of the same size inside
And the level of correlation is determined by the sum of the differences.
Block 33 with the highest correlation
I do. At this time, the pixel 34 in the block 33 is
Mark 321Becomes a pixel corresponding to. mark
311Other than mark 31 2, 313The same applies to ...
In this way, the corresponding pixel is set to the current image F to be processed.CDuring ~
To detect from.

【0086】したがって、上記図4に示したフローチャ
ートのステップS3の処理において、上述のようにして
得られた一連の対応する画素の座標列を用いて、スプラ
イン曲線P(t)を生成する。上述のように、現在の処
理対象の画像と直前の画像からブロックマッチング処理
により連続的に輪郭を抽出し、その輪郭を用いてエッジ
検出を行うことにより、動画像に対してオペレータの介
在なく自動的にエッジを検出することができる。また、
この場合、ブロックマッチング処理に用いる画像を現在
の処理対象の画像と直前の画像のみではなく、画像の枚
数を増やしてブロックマッチング処理を行ってもよい。
これにより、ブロックの移動量の算出精度を高めること
ができるため、より正確にエッジを検出することができ
る。
Therefore, in the process of step S3 of the flow chart shown in FIG. 4, the spline curve P (t) is generated using the series of corresponding pixel coordinate sequences obtained as described above. As described above, the contour is continuously extracted from the current image to be processed and the immediately preceding image by the block matching process, and the edge is detected using the contour, so that the moving image is automatically processed without operator intervention. Edge can be detected. Also,
In this case, the image used for the block matching process is not limited to the current image to be processed and the image immediately before, and the block matching process may be performed by increasing the number of images.
As a result, the accuracy of calculating the block movement amount can be increased, so that the edge can be detected more accurately.

【0087】また、時間的に離れた複数の画像におい
て、上記図4に示したフローチャートのステップS2の
処理にキーフレーム法を適用してもよい。すなわち、複
数の画像についてオペレータが形状の指示を与え、中間
の画像については計算機が補間によりオペレータの代替
を行う手法を適用してもよい。この場合には、上記ステ
ップS2の処理において、概略の輪郭をオペレータが設
定し、中間の画像群については、概略の輪郭上の点群を
補間し、自動的にその画像におけるスプライン曲線を生
成する。
The key frame method may be applied to the process of step S2 of the flowchart shown in FIG. 4 for a plurality of images that are temporally separated. That is, a method may be applied in which the operator gives a shape instruction to a plurality of images and the computer substitutes the operator by interpolation for intermediate images. In this case, in the process of step S2, the operator sets a rough outline, and for an intermediate image group, a point group on the rough outline is interpolated to automatically generate a spline curve in the image. .

【0088】上述のように複数枚の画像と過去のエッジ
検出の結果を基にして現在の処理対象の画像におけるエ
ッジを検出することにより、フレーム間の相関を用いて
さらに精度良くエッジ方向又は色の変化の情報である補
助情報を求めることができる。したがって、エッジ検出
精度をさらに高めることができ、動画像におけるエッジ
検出を手間をかけずに行うことができる。
As described above, the edges in the image to be currently processed are detected on the basis of the plurality of images and the results of the edge detection in the past, so that the edge direction or the color can be more accurately used by using the correlation between the frames. It is possible to obtain auxiliary information that is information on changes in the. Therefore, the edge detection accuracy can be further improved, and the edge detection in the moving image can be performed without trouble.

【0089】[0089]

【発明の効果】本発明に係るエッジ検出方法では、濃淡
データで構成される入力画像データにおける各位置のエ
ッジ方向を推定する。また、各位置におけるグラディエ
ントを求める。そして、推定したエッジ方向の情報を補
助情報とし、上記補助情報と上記グラディエントからエ
ッジ強度を算出して、画素値が周囲と比べて急峻に変化
している画素群をエッジとして検出する。これにより、
エッジ検出において強い指向性を得ることができ、不要
なエッジが混入すること無く、対象物体の輪郭を構成す
るエッジのみを検出することができる。したがって、エ
ッジ検出精度を高めることができる。
According to the edge detection method of the present invention, the edge direction of each position in the input image data composed of grayscale data is estimated. Also, the gradient at each position is obtained. Then, the estimated edge direction information is used as auxiliary information, edge strength is calculated from the auxiliary information and the gradient, and a pixel group in which the pixel value changes sharply compared with the surroundings is detected as an edge. This allows
In the edge detection, strong directivity can be obtained, and only the edges forming the contour of the target object can be detected without mixing unnecessary edges. Therefore, the edge detection accuracy can be improved.

【0090】また、本発明に係るエッジ検出方法では、
上記推定したエッジ方向と上記グラディエントのなす角
度のコサインを求めてエッジ強度を算出する。これによ
り、少ない計算量でエッジ強度を算出することができ
る。したがって、良好なエッジ画像を容易に得ることが
できる。
Further, in the edge detection method according to the present invention,
The edge strength is calculated by obtaining the cosine of the angle formed by the estimated edge direction and the gradient. Thereby, the edge strength can be calculated with a small calculation amount. Therefore, a good edge image can be easily obtained.

【0091】また、本発明に係るエッジ検出方法では、
上記推定したエッジ方向と上記グラディエントのなす角
度θと、比例定数Cと、上記グラディエントの大きさG
と、指向性を決定する指数Sを持って、エッジ強度Eを E = C|G|cosS(θ) なる演算により算出する。これにより、少ない計算量で
エッジ強度を算出することができる。したがって、良好
なエッジ画像を容易に得ることができる。
Further, in the edge detection method according to the present invention,
An angle θ formed by the estimated edge direction and the gradient, a proportional constant C, and a magnitude G of the gradient.
And the index S that determines the directivity, the edge strength E is calculated by the calculation of E = C | G | cos S (θ). Thereby, the edge strength can be calculated with a small calculation amount. Therefore, a good edge image can be easily obtained.

【0092】また、本発明に係るエッジ検出方法では、
上記推定したエッジ方向と上記グラディエントのなす角
度のコサインを、予め正規化したベクトルである上記推
定したエッジ方向と、長さを「1」に正規化した上記グ
ラディエントとの内積として求める。これにより、さら
に強い指向性を得ることができ、さらに少ない計算量で
エッジ強度を算出することができる。したがって、良好
なエッジ画像をさらに容易に得ることができる。
Further, in the edge detection method according to the present invention,
The cosine of the angle formed by the estimated edge direction and the gradient is obtained as the inner product of the estimated edge direction, which is a previously normalized vector, and the gradient whose length is normalized to "1". As a result, stronger directivity can be obtained, and the edge strength can be calculated with a smaller amount of calculation. Therefore, a good edge image can be obtained more easily.

【0093】また、本発明に係るエッジ検出方法では、
予め算出したエッジ強度の情報テーブルを用いて、上記
補助情報と上記グラディエントからエッジ強度を算出す
る。これにより、エッジ強度の算出処理を簡単にするこ
とができるため、良好なエッジ画像を高速に得ることが
できる。
Further, in the edge detecting method according to the present invention,
The edge strength is calculated from the auxiliary information and the gradient using the edge strength information table calculated in advance. As a result, the calculation process of the edge strength can be simplified, and a good edge image can be obtained at high speed.

【0094】本発明に係るエッジ検出装置では、推定手
段は、濃淡データで構成される入力画像データにおける
各位置のエッジ方向を推定し、その推定した方向の情報
を補助情報とする。グラディエント算出手段は、入力画
像データにおける各位置のグラディエントを求める。エ
ッジ強度算出手段は、上記推定手段で得られた補助情報
と上記グラディエント算出手段で得られたグラディエン
トからエッジ強度を算出する。検出手段は、上記エッジ
強度算出手段で得られたエッジ強度から、画素値が周囲
と比べて急峻に変化している画素群をエッジとして検出
する。これにより、エッジ検出において強い指向性を得
ることができ、不要なエッジが混入すること無く、対象
物体の輪郭を構成するエッジのみを検出することができ
る。したがって、エッジ検出精度を高めることができ
る。
In the edge detecting device according to the present invention, the estimating means estimates the edge direction of each position in the input image data composed of grayscale data, and uses the information of the estimated direction as auxiliary information. The gradient calculating means calculates the gradient at each position in the input image data. The edge strength calculating means calculates the edge strength from the auxiliary information obtained by the estimating means and the gradient obtained by the gradient calculating means. The detection unit detects, as an edge, a pixel group in which the pixel value changes sharply compared with the surroundings, from the edge strength obtained by the edge strength calculation unit. Thereby, strong directivity can be obtained in edge detection, and only edges forming the contour of the target object can be detected without mixing unnecessary edges. Therefore, the edge detection accuracy can be improved.

【0095】また、本発明に係るエッジ検出装置では、
上記エッジ強度算出手段は、上記推定したエッジ方向と
上記グラディエントのなす角度のコサインを求めてエッ
ジ強度を算出する。これにより、少ない計算量でエッジ
強度を算出することができる。したがって、良好なエッ
ジ画像を容易に得ることができる。
Further, in the edge detecting device according to the present invention,
The edge strength calculating means calculates the edge strength by obtaining the cosine of the angle formed by the estimated edge direction and the gradient. Thereby, the edge strength can be calculated with a small calculation amount. Therefore, a good edge image can be easily obtained.

【0096】また、本発明に係るエッジ検出装置では、
上記エッジ強度算出手段は、上記推定したエッジ方向と
上記グラディエントのなす角度θと、比例定数Cと、上
記グラディエントの大きさGと、指向性を決定する指数
Sを持って、エッジ強度Eを E = C|G|cosS(θ) なる演算により算出する。これにより、少ない計算量で
エッジ強度を算出することができる。したがって、良好
なエッジ画像を容易に得ることができる。
Further, in the edge detecting device according to the present invention,
The edge strength calculating means has an angle θ formed by the estimated edge direction and the gradient, a proportional constant C, a magnitude G of the gradient, and an index S for determining directivity, and an edge strength E is E = C | G | cos S (θ). Thereby, the edge strength can be calculated with a small calculation amount. Therefore, a good edge image can be easily obtained.

【0097】また、本発明に係るエッジ検出装置では、
上記エッジ強度算出手段は、上記推定したエッジ方向と
上記グラディエントのなす角度のコサインを、予め正規
化したベクトルである上記推定したエッジ方向と、長さ
を「1」に正規化した上記グラディエントとの内積とし
て求める。これにより、さらに強い指向性を得ることが
でき、さらに少ない計算量でエッジ強度を算出すること
ができる。したがって、良好なエッジ画像をさらに容易
に得ることができる。
Further, in the edge detecting device according to the present invention,
The edge strength calculation means calculates the cosine of the angle formed by the estimated edge direction and the gradient from the estimated edge direction, which is a vector that is normalized in advance, and the gradient whose length is normalized to “1”. Calculate as the dot product. As a result, stronger directivity can be obtained, and the edge strength can be calculated with a smaller amount of calculation. Therefore, a good edge image can be obtained more easily.

【0098】また、本発明に係るエッジ検出装置では、
上記エッジ強度算出手段は、予め算出したエッジ強度の
情報テーブルを用いて上記補助情報と上記グラディエン
トからエッジ強度を算出する。これにより、エッジ強度
の算出処理を簡単にすることができるため、良好なエッ
ジ画像を高速に得ることができる。
Further, in the edge detecting device according to the present invention,
The edge strength calculation means calculates the edge strength from the auxiliary information and the gradient using an edge strength information table calculated in advance. As a result, the calculation process of the edge strength can be simplified, and a good edge image can be obtained at high speed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係るエッジ検出装置の構成を示すブロ
ック図である。
FIG. 1 is a block diagram showing a configuration of an edge detection device according to the present invention.

【図2】上記エッジ検出装置のグラディエント計算部の
構成を示すブロック図である。
FIG. 2 is a block diagram showing a configuration of a gradient calculation unit of the edge detection device.

【図3】上記エッジ検出装置のエッジ強度計算部の構成
を示すブロック図である。
FIG. 3 is a block diagram showing a configuration of an edge strength calculation unit of the edge detection device.

【図4】上記エッジ検出装置におけるエッジ検出処理を
示すフローチャートである。
FIG. 4 is a flowchart showing an edge detection process in the edge detection device.

【図5】概略の輪郭を与える曲線を説明するための図で
ある。
FIG. 5 is a diagram for explaining a curve that gives a rough contour.

【図6】方向選択指数とエッジ強度の関係を示すグラフ
である。
FIG. 6 is a graph showing a relationship between a direction selection index and edge strength.

【図7】入力画像とエッジ強度画像の関係を説明するた
めの図である。
FIG. 7 is a diagram for explaining a relationship between an input image and an edge strength image.

【図8】指向性分布関数を用いてエッジ強度を求める場
合を説明するための図である。
FIG. 8 is a diagram for explaining a case where an edge strength is obtained using a directivity distribution function.

【図9】ブロックマッチング処理を説明するための図で
ある。
FIG. 9 is a diagram for explaining a block matching process.

【図10】特定方向のエッジを検出するソーベルフィル
タを示す略線図である。
FIG. 10 is a schematic diagram showing a Sobel filter for detecting edges in a specific direction.

【図11】従来のエッジ検出方法を用いて物体内部に色
の違いがある画像のエッジ検出を行った場合の結果を説
明するための図である。
FIG. 11 is a diagram for explaining a result when edge detection is performed on an image having a color difference inside an object using a conventional edge detection method.

【図12】オペレータにより入力される輪郭の概略を使
用する従来のエッジ検出方法を用いて物体内部に色の違
いがある画像のエッジ検出を行った場合の結果を説明す
るための図である。
FIG. 12 is a diagram for explaining results when edge detection is performed on an image having a color difference inside an object using a conventional edge detection method that uses an outline of a contour input by an operator.

【図13】特定方向のエッジを検出するロビンソン3レ
ベルフィルタ群を示す略線図である。
FIG. 13 is a schematic diagram showing a Robinson 3-level filter group that detects edges in a specific direction.

【図14】従来のエッジ検出方法における指向性と実用
上必要となる指向性の比較を説明するための図である。
FIG. 14 is a diagram for explaining a comparison between directivity in a conventional edge detection method and directivity required for practical use.

【符号の説明】[Explanation of symbols]

10 エッジ検出装置 11 グラディエント計算部 12 スプライン曲線発生部 13 パラメータ座標生成部 14 エッジ強度計算部 10 Edge Detection Device 11 Gradient Calculation Unit 12 Spline Curve Generation Unit 13 Parameter Coordinate Generation Unit 14 Edge Strength Calculation Unit

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 濃淡データで構成される入力画像データ
の中から、画素値が周囲と比べて急峻に変化している画
素群をエッジとして検出するエッジ検出方法であって、 入力画像データにおける各位置のエッジ方向を推定する
と共に、各位置におけるグラディエントを求め、推定し
たエッジ方向の情報を補助情報とし、上記補助情報と上
記グラディエントからエッジ強度を算出してエッジを検
出することを特徴とするエッジ検出方法。
1. An edge detection method for detecting, as an edge, a pixel group in which pixel values change sharply from the surroundings in input image data composed of grayscale data. While estimating the edge direction of the position, the gradient at each position is obtained, the information of the estimated edge direction is used as auxiliary information, and the edge is detected by calculating the edge strength from the auxiliary information and the gradient. Detection method.
【請求項2】 上記推定したエッジ方向と上記グラディ
エントのなす角度のコサインを求めてエッジ強度を算出
することを特徴とする請求項1記載のエッジ検出方法。
2. The edge detection method according to claim 1, wherein the edge strength is calculated by obtaining a cosine of an angle formed by the estimated edge direction and the gradient.
【請求項3】 上記推定したエッジ方向と上記グラディ
エントのなす角度θと、比例定数Cと、上記グラディエ
ントの大きさGと、指向性を決定する指数Sを持って、
エッジ強度Eを E = C|G|cosS(θ) なる演算により算出することを特徴とする請求項1記載
のエッジ検出方法。
3. An angle θ formed by the estimated edge direction and the gradient, a proportional constant C, a magnitude G of the gradient, and an index S for determining directivity,
The edge detection method according to claim 1, wherein the edge strength E is calculated by a calculation of E = C | G | cos S (θ).
【請求項4】 上記推定したエッジ方向と上記グラディ
エントのなす角度のコサインを、予め正規化したベクト
ルである上記推定したエッジ方向と、長さを「1」に正
規化した上記グラディエントとの内積として求めること
を特徴とする請求項1記載のエッジ検出方法。
4. The inner product of the estimated edge direction, which is a vector obtained by normalizing the cosine of the angle formed by the estimated edge direction and the gradient, and the gradient whose length is normalized to “1”. The edge detecting method according to claim 1, wherein the edge detecting method is obtained.
【請求項5】 予め算出したエッジ強度の情報テーブル
を用いて上記補助情報と上記グラディエントからエッジ
強度を算出することを特徴とする請求項1記載のエッジ
検出方法。
5. The edge detecting method according to claim 1, wherein the edge strength is calculated from the auxiliary information and the gradient by using a previously calculated edge strength information table.
【請求項6】 濃淡データで構成される入力画像データ
の中から、画素値が周囲と比べて急峻に変化している画
素群をエッジとして検出するエッジ検出装置であって、 入力画像データにおける各位置のエッジ方向を推定し、
その推定した方向の情報を補助情報とする推定手段と、 入力画像データにおける各位置のグラディエントを求め
るグラディエント算出手段と、 上記推定手段で得られた補助情報と上記グラディエント
算出手段で得られたグラディエントからエッジ強度を算
出するエッジ強度算出手段と、 上記エッジ強度算出手段で得られたエッジ強度からエッ
ジを検出する検出手段とを備えることを特徴とするエッ
ジ検出装置。
6. An edge detection device for detecting, as an edge, a pixel group in which pixel values are sharply changed from the surroundings, from input image data composed of grayscale data, Estimate the edge direction of the position,
From the gradient obtained by the estimating means that uses the estimated direction information as auxiliary information, the gradient calculating means that obtains the gradient at each position in the input image data, the auxiliary information obtained by the estimating means, and the gradient obtained by the gradient calculating means. An edge detecting apparatus comprising: an edge strength calculating means for calculating an edge strength; and a detecting means for detecting an edge from the edge strength obtained by the edge strength calculating means.
【請求項7】 上記エッジ強度算出手段は、上記推定し
たエッジ方向と上記グラディエントのなす角度のコサイ
ンを求めてエッジ強度を算出することを特徴とする請求
項6記載のエッジ検出装置。
7. The edge detecting apparatus according to claim 6, wherein the edge strength calculating means calculates the edge strength by obtaining a cosine of an angle formed by the estimated edge direction and the gradient.
【請求項8】 上記エッジ強度算出手段は、上記推定し
たエッジ方向と上記グラディエントのなす角度θと、比
例定数Cと、上記グラディエントの大きさGと、指向性
を決定する指数Sを持って、エッジ強度Eを E = C|G|cosS(θ) なる演算により算出することを特徴とする請求項6記載
のエッジ検出装置。
8. The edge strength calculating means has an angle θ formed by the estimated edge direction and the gradient, a proportional constant C, a magnitude G of the gradient, and an index S for determining directivity, 7. The edge detecting device according to claim 6, wherein the edge strength E is calculated by a calculation of E = C | G | cos S (θ).
【請求項9】 上記エッジ強度算出手段は、上記推定し
たエッジ方向と上記グラディエントのなす角度のコサイ
ンを、予め正規化したベクトルである上記推定したエッ
ジ方向と、長さを「1」に正規化した上記グラディエン
トとの内積として求めることを特徴とする請求項6記載
のエッジ検出装置。
9. The edge strength calculation means normalizes a cosine of an angle formed by the estimated edge direction and the gradient to the estimated edge direction which is a vector that is normalized in advance, and normalizes the length to “1”. 7. The edge detection device according to claim 6, wherein the edge product is obtained as an inner product with the gradient.
【請求項10】 予め算出したエッジ強度の情報テーブ
ルを備え、 上記エッジ強度算出手段は、上記情報テーブルを用いて
上記補助情報と上記グラディエントからエッジ強度を算
出することを特徴とする請求項6記載のエッジ検出装
置。
10. The edge strength information table calculated in advance, wherein the edge strength calculation means calculates the edge strength from the auxiliary information and the gradient using the information table. Edge detector.
JP13441895A 1995-05-31 1995-05-31 Edge detection method and edge detection apparatus Expired - Fee Related JP3826412B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13441895A JP3826412B2 (en) 1995-05-31 1995-05-31 Edge detection method and edge detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13441895A JP3826412B2 (en) 1995-05-31 1995-05-31 Edge detection method and edge detection apparatus

Publications (2)

Publication Number Publication Date
JPH08329252A true JPH08329252A (en) 1996-12-13
JP3826412B2 JP3826412B2 (en) 2006-09-27

Family

ID=15127930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13441895A Expired - Fee Related JP3826412B2 (en) 1995-05-31 1995-05-31 Edge detection method and edge detection apparatus

Country Status (1)

Country Link
JP (1) JP3826412B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2328355B (en) * 1997-08-05 2002-04-17 Canon Kk Image processing apparatus
US6647146B1 (en) 1997-08-05 2003-11-11 Canon Kabushiki Kaisha Image processing apparatus
JP2008010980A (en) * 2006-06-27 2008-01-17 Fujitsu Ltd Character image processing apparatus and method
US7400766B1 (en) * 2004-02-19 2008-07-15 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Image edge extraction via fuzzy reasoning
JP2009116464A (en) * 2007-11-02 2009-05-28 Hitachi Software Eng Co Ltd Outline information generation method, system, and program
WO2009145336A1 (en) 2008-05-26 2009-12-03 株式会社トプコン Edge extraction apparatus, surveying equipment, and program
WO2014076979A1 (en) * 2012-11-16 2014-05-22 三菱重工業株式会社 Image recognition device, image recognition method, program, and recording medium
US10129547B2 (en) 2015-02-26 2018-11-13 Mitsubishi Electric Corporation Image processing apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6704726B2 (en) * 2015-12-21 2020-06-03 キヤノン株式会社 Edge detection device, edge detection method, and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2328355B (en) * 1997-08-05 2002-04-17 Canon Kk Image processing apparatus
US6647146B1 (en) 1997-08-05 2003-11-11 Canon Kabushiki Kaisha Image processing apparatus
US7400766B1 (en) * 2004-02-19 2008-07-15 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Image edge extraction via fuzzy reasoning
JP2008010980A (en) * 2006-06-27 2008-01-17 Fujitsu Ltd Character image processing apparatus and method
JP4576358B2 (en) * 2006-06-27 2010-11-04 富士通株式会社 Character image processing apparatus and character image processing method
JP2009116464A (en) * 2007-11-02 2009-05-28 Hitachi Software Eng Co Ltd Outline information generation method, system, and program
WO2009145336A1 (en) 2008-05-26 2009-12-03 株式会社トプコン Edge extraction apparatus, surveying equipment, and program
US8600170B2 (en) 2008-05-26 2013-12-03 Kabushiki Kaisha Topcon Edge extraction apparatus, surveying equipment, and program
WO2014076979A1 (en) * 2012-11-16 2014-05-22 三菱重工業株式会社 Image recognition device, image recognition method, program, and recording medium
JP2014099128A (en) * 2012-11-16 2014-05-29 Mitsubishi Heavy Ind Ltd Image recognition device, image recognition method, program, and recording medium
US9747511B2 (en) 2012-11-16 2017-08-29 Mitsubishi Heavy Industries, Ltd. Image recognition device, image recognition method, program, and recording medium
US10129547B2 (en) 2015-02-26 2018-11-13 Mitsubishi Electric Corporation Image processing apparatus

Also Published As

Publication number Publication date
JP3826412B2 (en) 2006-09-27

Similar Documents

Publication Publication Date Title
EP0853293B1 (en) Subject image extraction method and apparatus
US6774889B1 (en) System and method for transforming an ordinary computer monitor screen into a touch screen
US7742634B2 (en) Image processing method, three-dimensional position measuring method and image processing apparatus
CN102067173B (en) Defining a border for an image
WO2001026050A2 (en) Improved image segmentation processing by user-guided image processing techniques
JP2001014456A (en) Image processing device and program recording medium
JP2006065673A (en) Face center position detecting device, method and program
CN106934806A (en) It is a kind of based on text structure without with reference to figure fuzzy region dividing method out of focus
JP5251410B2 (en) Camera work calculation program, imaging apparatus, and camera work calculation method
JP3826412B2 (en) Edge detection method and edge detection apparatus
JPH05250472A (en) Method and device for preparing fine mask of boundary on image in concerned area so as to separate area from remaining parts of image
JP3659426B2 (en) Edge detection method and edge detection apparatus
JPH08329253A (en) Method and device for detecting edge
JP2981382B2 (en) Pattern matching method
JP4639044B2 (en) Contour shape extraction device
JP2000209431A (en) Method for extracting contour and storage medium
JP2000339452A (en) Method and device for extracting picture and storage medium
JPH08161474A (en) Method for correcting registration between images by different kinds of sensors
CN112669337A (en) Self-iterative local green curtain image matting method
KR100491446B1 (en) Road Extraction from images using Template Matching
Qin et al. Real-time edge template tracking via homography estimation
JPH07128147A (en) Estimation apparatus of light-source color using specular reflection component
JP2003271974A (en) Method and detector for detecting rotation angle of image, and recording medium
JPH06259531A (en) Method for correcting inclination of dot pattern
JPH08329251A (en) Method and device for detecting edge

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051004

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060626

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090714

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100714

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100714

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110714

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120714

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees