JPS6228886A - Method for discriminating object - Google Patents

Method for discriminating object

Info

Publication number
JPS6228886A
JPS6228886A JP60167663A JP16766385A JPS6228886A JP S6228886 A JPS6228886 A JP S6228886A JP 60167663 A JP60167663 A JP 60167663A JP 16766385 A JP16766385 A JP 16766385A JP S6228886 A JPS6228886 A JP S6228886A
Authority
JP
Japan
Prior art keywords
line
point
line segment
segment
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP60167663A
Other languages
Japanese (ja)
Inventor
Hirohisa Takusagawa
田草川 大久
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP60167663A priority Critical patent/JPS6228886A/en
Publication of JPS6228886A publication Critical patent/JPS6228886A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To make it possible to discriminate an object even if a phase difference between patterns to be discriminated is not enough large by extracting a point to be a feature on a line graphic at first and then dividing said line graphic into plural segments by using the extracted point as a starting point. CONSTITUTION:A processor 17 traces the outline of an object, graphs the outline and searches a feature point on the pattern. Segmenting processing for dividing the line graphic into plural segments by using the feature point as a starting point is executed and the segment information including data inherent in each segment and inter-segment connection/array data is extracted in each segment. In a dictionary registration mode, said processing is executed in each reference object, and in a test mode, similar processing is executed for an unknown object. Respective extracted information are stored in a prescribed memory. Respective normalized data of the reference objects and unknown object stored in the memory are successively collated along the line graphic while matching their starting point each other and the reference object having the highest similarity is decided as the reference object for the unknown object.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、画像処理装置により対象物を線図形化して
識別(検査)する識別方法に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an identification method for identifying (inspecting) an object by converting it into a line diagram using an image processing device.

〔従来の技術〕[Conventional technology]

最近は、各種の産業分野において、対象物識別のための
ニーズが増えている。例えば、製品の自動組立を行なう
べく、その構成部品を識別してノ・ンドリンクを行なう
場合等がそれである。従来、か〜る対象物識別方法とし
ては、いわゆる5RI(Stanford Re5ea
rch In5titute )法やマツチング法等が
知られている。
Recently, the need for object identification has increased in various industrial fields. For example, this is the case when the component parts of a product are identified and non-linked in order to automatically assemble the product. Conventionally, as such an object identification method, the so-called 5RI (Stanford Re5ea) has been used.
A matching method and a matching method are known.

マツチング法は、識別対象物パターンの全体または一部
に関するデータを全て取り出し、これを標準のものと照
合して識別する方法である。
The matching method is a method of extracting all data related to the entire or part of an identification object pattern and comparing it with a standard pattern for identification.

しかしながら、この方法には、 イ)対象物の姿勢が良くないと適用が難かしい。However, this method has b) It is difficult to apply this method unless the posture of the object is good.

口)各識別対象物が互いに分離した状態でないと識別不
可能である。
(Example) It is impossible to identify objects unless they are separated from each other.

という問題または制約があるばかりでなく、対象物パタ
ーンそのものを取り扱うためデータ量が膨大となり、対
象物の姿勢変動が太き(なればなる程、位置の正規化や
照合処理が複雑かつ困難になる。
Not only are there problems and constraints, but the amount of data required to handle the object pattern itself is enormous, and the larger the changes in the posture of the object (the more complicated and difficult the position normalization and matching process become). .

一万、前記SRI法は以下の如き手法である。The SRI method is as follows.

第7図はかかるSRI法を説明するためので照図である
FIG. 7 is a diagram for explaining the SRI method.

これは、まず対象物の2値化画像からランレングス(セ
グメント)によるコード化を行ない、次いでランレング
ス化されたデータについて連結性解析を行なうことによ
り、種々の特徴量を抽出する。そして、その基本特徴量
とその組み合わせとによって多(の有用なパラメータを
算出する。この基本特徴量としては多くのものがあるが
、例えば第7図の如き対象物10の全面積Sおよび周囲
長L、対象物10の中の穴Hの数、各穴Hの面積和、対
象物10の重心Pc(Xe、yc)、重心から輪郭まで
の半径の最大値RmaX% 同じくその最小値Rmin
−X軸への投影最大値XmaXおよび最小値Xm1n、
Y軸への投影最大値YmaXおよび最小値Ymin等が
ある。また、基本的性微量の組合せパラメータとしては
、例えばPe(ミ4゜S/L”)、Rr(=Rmax 
 Rmin)、Xd(EEXmax  Xm1n)−y
d (= ymaX  Ymin )等がある。なお、
識別処理は予め各対象物のショーイング(S howi
ng ;画像処理装置に見せること)によりその登録を
した後、識別すべき対象物との間でそのパラメータを互
いに比較、照合することにより行なわれる。
This involves first encoding a binary image of the object using run lengths (segments), and then performing connectivity analysis on the run length data to extract various feature amounts. Then, useful parameters are calculated based on the basic feature values and their combinations.There are many basic feature values, but for example, the total area S and the circumference of the object 10 as shown in FIG. L, the number of holes H in the object 10, the sum of the areas of each hole H, the center of gravity Pc (Xe, yc) of the object 10, the maximum value RmaX% of the radius from the center of gravity to the contour, and the minimum value Rmin
- Projection maximum value XmaX and minimum value Xm1n onto the X axis,
There are a maximum value YmaX and a minimum value Ymin projected onto the Y axis. In addition, as the combination parameters of basic characteristics, for example, Pe (Mi4°S/L"), Rr (=Rmax
Rmin), Xd(EEXmax Xm1n)-y
d (=ymaX Ymin), etc. In addition,
The identification process is performed by showing each object in advance.
After registering the information by showing it to an image processing device), the parameters are compared and verified with the object to be identified.

〔発明が解決しようとする問題点1 以上のように、SRI法は対象物の幾何学的特徴量に着
目する方法であるが、以下の如き問題点を有している。
[Problem 1 to be Solved by the Invention As described above, the SRI method is a method that focuses on the geometric features of an object, but it has the following problems.

a)各識別対象パターンの形状差が大きくないと識別が
できない。
a) Identification cannot be made unless the difference in shape between the patterns to be identified is large.

b)各識別対象物は互いに分離した状態でなければ識別
不能である。
b) The objects to be identified cannot be identified unless they are separated from each other.

すなわち、a)は識別可能対象物の種類や図形の複雑さ
に対する制約となり、b)は各対象物の配列や背景に対
する制約であり、対象物が互いに重なり合ったり組み合
わさった状態にないこと、また背景部に他のパターンが
存在しないこと等が条件となる。
In other words, a) is a constraint on the type of objects that can be identified and the complexity of their shapes, and b) is a constraint on the arrangement and background of each object, which requires that the objects do not overlap or combine with each other. The condition is that no other patterns exist in the background.

したがって、この発明は、 1)識別対象パターン間の形状差が余り大きくな(でも
対処できるようにする。・ 2)各識別対象物が互いに分離しているものは勿論、こ
れらが重なり什っていても対処できるようにする。
Therefore, this invention solves the following problems: 1) Even if the shape difference between the patterns to be identified is too large, it can be dealt with.・2) Not only the objects to be identified are separated from each other, but also the cases where they overlap. Be able to deal with any situation.

3)識別精度の向上と識別時間の短縮(形状特徴の保存
とデータ圧縮)とを両立さぜる。
3) Improve identification accuracy and shorten identification time (save shape features and compress data).

ことを目的とする。The purpose is to

〔問題点を解決するだめの手段〕[Failure to solve the problem]

対象物を画像として捉え、その画像情報から対象物の各
種特徴量を抽出し、これにもとづいて所定の処理を行な
う画像処理装置を設ける。
An image processing device is provided that captures an object as an image, extracts various feature amounts of the object from the image information, and performs predetermined processing based on this.

〔作用〕[Effect]

上記画像処理装置によって、以下の如き処理を行なう。 The image processing device performs the following processing.

1)対象物の輪郭線追跡を行ない、これを線図形化する
1) Trace the contour of the object and convert it into a line figure.

2)線図形上で特徴となる点(特徴点)を探す。2) Search for characteristic points (feature points) on the line figure.

この特徴点としては、折点や曲率が急激に変化する凹凸
点等がある。
These characteristic points include breaking points and uneven points where the curvature changes rapidly.

3)特徴点を起点として上記線図形を複数の線分に分割
する線分化処理を行ない、各線分毎に線分固有のデータ
および線分間の接続・配列データを含む線分情報を抽出
する。こS、で、線分固有のデータとしては線分の長さ
、線分の両端点座標等があり、また線分間の接続・配列
データとしては各線分間のなす角度、各線分の代表点(
端点、中心点)間の距離等がある。
3) Perform line segmentation processing to divide the line figure into a plurality of line segments using the feature point as a starting point, and extract line segment information including line segment-specific data and line segment connection/arrangement data for each line segment. In this case, the line segment-specific data includes the length of the line segment, the coordinates of both end points of the line segment, etc., and the connection/arrangement data of line segments includes the angle formed by each line segment, the representative point of each line segment (
distance between end points, center point), etc.

4)辞書登録モードでは、各標準対象物について以上の
如き処理を行ない、その結果抽出される各種情報を所定
のメモリに格納する。
4) In the dictionary registration mode, the above-described processing is performed for each standard object, and various information extracted as a result is stored in a predetermined memory.

5)検査モードでは、未知対象物について同様に行ない
、各種の抽出情報を所定のメモリに格納する。
5) In the inspection mode, the same process is performed for the unknown object, and various extracted information is stored in a predetermined memory.

6)メモリに記憶された標準対象物と未知対象物の各正
規化データを、上記起点を互いに一致させた上でかつ線
図形に沿って順次照合し、最も大きな類似度が得られる
標準対象物を未知対象物の該当物と判定する。
6) The normalized data of the standard object and the unknown object stored in the memory are matched sequentially along the line shape and the above starting points are made to match each other, and the standard object with the greatest degree of similarity is obtained. is determined to be an unknown object.

〔実施例〕〔Example〕

第1図はこの発明の詳細な説明するための参照図、第2
図はこの発明が実施される画像処理装置を示すブロック
図、第6図はこの発明により得られる線分情報のメモリ
への記憶例を示す参照図、第4図は画素の連なりからな
る輪郭線の一例を示すε照図、第5図は方向コードを説
明するための参照図、第6図は輪郭情報のメモリへの記
憶例を示す参照図である。
Figure 1 is a reference diagram for explaining the invention in detail;
FIG. 6 is a block diagram showing an image processing apparatus in which the present invention is implemented, FIG. 6 is a reference diagram showing an example of storing line segment information in memory obtained by the present invention, and FIG. 4 is a contour line consisting of a series of pixels. FIG. 5 is a reference diagram for explaining a direction code, and FIG. 6 is a reference diagram showing an example of storing contour information in a memory.

まず、第2図から説明する。同図において、10は識別
対象物、11は照明器、12はテレビカメラ等の撮像装
置、15は7ノ〜ログ/デイジタル(A/D)変換器、
14は前処理回路、15は特徴抽出回路、16は画像メ
モリ、17はマイクロプロセツサ等の処理装置である。
First, explanation will be given starting from FIG. In the figure, 10 is an object to be identified, 11 is an illuminator, 12 is an imaging device such as a television camera, 15 is a log/digital (A/D) converter, and 15 is a log/digital (A/D) converter.
14 is a preprocessing circuit, 15 is a feature extraction circuit, 16 is an image memory, and 17 is a processing device such as a microprocessor.

照明器11によって照明される職別対象物10の光学像
は、テレビカメラ12によって映像(ビデオ)信号に変
換される。この映像信号はA/D変換器15によって画
素毎にディジタル量に変換され、さらに前処理回路14
にて雑音除去、平滑化等が行なわれ、ディジタル画像と
して取り出される。特徴抽出回路15はこのディジタル
画像から各種の特徴量を抽出し、画像メモリ16に格納
する。処理装置17は着目画素毎に隣接する4画素また
は8画素を対象とする4連結または8連結による連結性
解析等を行ない、各プロプ(Blob )を抽出する。
The optical image of the occupational object 10 illuminated by the illuminator 11 is converted into a video signal by the television camera 12. This video signal is converted into a digital quantity for each pixel by an A/D converter 15, and further processed by a preprocessing circuit 14.
Noise removal, smoothing, etc. are performed on the image, and the image is extracted as a digital image. The feature extraction circuit 15 extracts various feature quantities from this digital image and stores them in the image memory 16. The processing device 17 performs connectivity analysis by 4-connection or 8-connection of 4 or 8 pixels adjacent to each pixel of interest, and extracts each prop (Blob).

プロプは1つの独立したパターンを表わしており、背景
より分離されたものとなる。
A prop represents an independent pattern and is separated from the background.

次いで各プロプの輪郭線を抽出し、輪郭線追跡を行なう
。この輪郭線に関する情報は、上記画像メモリ16内に
格納される。
Next, the contour of each prop is extracted and contour tracing is performed. Information regarding this contour line is stored in the image memory 16.

いま、輪郭線の一部が画素の連なりとして第4図の如べ
表わされるものとすると、この輪郭線1は各画素の座標
位置PI F P 2・・・・・・P9と各座標点にお
ける方向コードDo−D7とによって表現するととがで
きる。こへで、方向コードとは輪郭線を画素単位で追跡
する場合の方向(ベクトル)を表わすものであり、第5
図にDO〜D7で示す如く8つの方向がある。なお、各
方向ベクトル間の角度は45゛である。また、これらの
輪郭データは、画像メモリ16へ第6図の如く格納され
る。
Now, suppose that a part of the contour line is represented as a series of pixels as shown in FIG. It can be expressed by the direction code Do-D7. Here, the direction code represents the direction (vector) when tracing the contour line pixel by pixel.
There are eight directions as shown by DO to D7 in the figure. Note that the angle between each direction vector is 45°. Further, these contour data are stored in the image memory 16 as shown in FIG.

この方向コードの利用の仕方としては糧々考えられるが
、例えば輪郭線に沿う周囲長の演算に用いることができ
る。すなわち、第4図の21点から29点までの周囲長
は、方向コードDOを0゜として0°、90°、180
°、270°の場合はそれぞれ1画素分の長さtとし、
方向コードが45°、135’、225°、315’の
勘合は1画素分の長さtを7丁倍したものと考え、部分
毎の和として求めることができる。したがって、第4図
の21点からP9点迄の周囲長は、(sxl−+−5x
v’T)xzである。
There are many possible ways to use this direction code; for example, it can be used to calculate the perimeter along a contour line. That is, the circumference lengths from point 21 to point 29 in Figure 4 are 0°, 90°, and 180°, assuming the direction code DO is 0°.
°, 270°, each has a length t of one pixel,
The combinations of direction codes of 45°, 135', 225°, and 315' can be considered as the length t of one pixel multiplied by 7, and can be calculated as the sum of each part. Therefore, the perimeter from point 21 to point P9 in Figure 4 is (sxl-+-5x
v'T)xz.

こうして、対象物の画像パターンは輪郭線による線図形
に変換される。この輪郭線による対象物の記述(表現)
は、対象物の形状情報、特徴情報を充分に含んでいなが
ら大幅なデータ圧縮を可能にしている。なお、輪郭線の
追跡に当たっては上記の如きテレビカメラを用いる方法
だけでなく、フライングスポットスキャナやレーザ光を
利用する方法も考えられる。
In this way, the image pattern of the object is converted into a line figure using contour lines. Description (representation) of the object using this contour line
allows for significant data compression while containing sufficient shape information and feature information of the object. In addition to the method of using a television camera as described above, methods of using a flying spot scanner or laser light may also be considered for tracing the contour line.

次いで、輪郭線を分割する線分化が行なわれる。Next, line segmentation is performed to divide the contour line.

この線分化の方法も種々考えられるが、この発明による
例を第1図に示す。
Although various methods of line segmentation can be considered, an example according to the present invention is shown in FIG.

まず、線図形の輪郭線をたどって、特徴となる点(特徴
点)または特徴的小区間を探す。第1図(イ)の点P1
〜P4が特徴点または特徴的小区間であり、Plは折点
、P2〜P4は凸点である。
First, the outline of the line figure is traced to find characteristic points (feature points) or characteristic small sections. Point P1 in Figure 1 (a)
~P4 is a feature point or a characteristic small section, Pl is a break point, and P2 to P4 are convex points.

つまり、輪郭線1を追跡する過程においてその曲率(半
径の逆数)の変化を調べると、折点P1は第1図(ロ)
の如く、この曲率が0から(1)へと不連続的に変化す
る点として、また凸点のうちのピーク点P5は同様にこ
の曲率が連続的に大きく変化する点とじてそれぞれ捉え
ることができる。l〜たがって、このような特徴点まだ
は特徴的小区間を線分化処理のためのスタート点として
採用する。
In other words, if we examine the change in the curvature (reciprocal of the radius) during the process of tracing contour line 1, we find that the break point P1 is as shown in Figure 1 (b).
As shown in the figure, the curvature changes discontinuously from 0 to (1), and the peak point P5 among the convex points can be regarded as the point where the curvature changes continuously and significantly. can. Therefore, such a feature point or a characteristic small section is adopted as a starting point for the line segmentation process.

なお、折点P10場合はこれをそのま入用いることがで
きるが、凸点についてはピーク点P3または終点P4の
いずれかをスタート点として選択するようにする。
Note that in the case of the corner point P10, this can be used as is, but for convex points, either the peak point P3 or the end point P4 is selected as the starting point.

次いで、輪郭線1を各線分L1eL2・・・・・・に分
割する。このとき考慮されるのが各点の接線である。
Next, the contour line 1 is divided into line segments L1eL2, . . . . What is considered at this time is the tangent line of each point.

例えば、第を図(ハ)の如く示される輪郭線(一部)1
の25点の接線2は、そのx、y座標をX5ey5とす
ると、 y−ys−a(x−xs) として求めることができる。こ〜に、aは接線2の傾き
(勾配)を表わしており、適宜な方法によって求められ
る。そして、この接線と輪郭線間の距離d(または角度
θ0)が所足の許容値に達した輪郭線上の点P6(x6
.y6)を1つの線分の終点とする。このP6(x6.
y6)点は1つの線分L2の終点であるが、同時に次の
線分L3のスタート点でもあり、以下同様にして線分L
 5 + L a・・・・・・を得ることができる。な
お、同図(ハ)の折点P1の如く、以上のような手法を
採っても無意味なところでは、便宜的な手法によって次
の点、例えばP5を決めることができる。線分化の別の
方法としては、輪郭線と接線間のずれ量d(tたはθ0
)とその輪郭線上における周囲長との比に対して許容値
を設定する方法も考えられる。なお、この場合も所定の
許容比に達し7た輪郭線上の点をその線分の終点とする
。いずれにしても、かかる線分化により、連続する1つ
の輪郭線のデータ、つまり対象物データを大幅に圧縮す
ることができる。
For example, the outline (part) 1 shown in Figure (C)
The tangent line 2 at 25 points can be found as y-ys-a(x-xs), where its x and y coordinates are X5ey5. Here, a represents the inclination (gradient) of the tangent line 2, and is determined by an appropriate method. Then, point P6 (x6
.. Let y6) be the end point of one line segment. This P6 (x6.
The point y6) is the end point of one line segment L2, but it is also the starting point of the next line segment L3, and the following line segment L
5 + La... can be obtained. Incidentally, at a point such as the corner point P1 in FIG. 3C, where the above method is meaningless, the next point, for example, P5, can be determined by a convenient method. Another method of line differentiation is to calculate the amount of deviation d (t or θ0) between the contour line and the tangent line.
) and the peripheral length on the contour line. In this case as well, the point on the contour line that reaches the predetermined tolerance ratio is set as the end point of the line segment. In any case, by such line segmentation, data of one continuous contour line, that is, object data, can be significantly compressed.

こうして得られる線図形を、線分情報を用いて記述する
。こ〜に、線分情報とは、 イ)線分固有の情報 口)各線分間の接続・配列情報 を云うものとする。より具体的には、 イ)は線分のラベル、線分の長さ、線分の両端点座標等
であり、 口)は各線分の接続頭外、2つの線分間のなす角度、各
線分間の代表点(端点、中心点など)間の距離等である
The line figure obtained in this way is described using line segment information. In this case, line segment information refers to (a) line segment-specific information port) connection/arrangement information for each line segment. More specifically, a) is the label of the line segment, the length of the line segment, the coordinates of both end points of the line segment, etc.; The distance between representative points (end points, center points, etc.) of

これらの線分情報も所定のメモリに格納されるが、その
例が第3図に示されている。なお、上記イ)1口)のデ
ータは全て必要というわけではなく、例えばイ)のラベ
ルや口)の接続頭外はメモリのアドレスと対応付けるこ
とによって省略するととができる。また、イ)の両端点
座標は、1組の情報で線分そのもの匁情報(固有情報)
だけでなく、隣り合う線分との接続関係を表わす情報を
も兼ねており、対象図形の位置正規化を行なう前の原始
データ等として有効なものである。口)の隣接する線分
となす角度θ(第1図(ハ)参照)を利用すれば、記憶
データ量が少なくなって処理も容易になるが、これは角
度θが対象図形の姿勢に依存しない正規化されたデータ
であるためである。これはイ)の線分の長さく 11*
 t2・・・・・・)についても同様である。
This line segment information is also stored in a predetermined memory, an example of which is shown in FIG. Note that all of the data in A) 1) is not necessary; for example, the label in B) and the data other than the connection head in A) can be omitted by associating them with addresses in the memory. In addition, the coordinates of both end points in (a) are one set of information, and the line segment itself is momme information (unique information).
In addition, it also serves as information representing the connection relationship with adjacent line segments, and is effective as original data before normalizing the position of the target figure. If you use the angle θ (see Figure 1 (c)) between the mouth and the adjacent line segment, the amount of stored data will be reduced and processing will be easier, but this is because the angle θ depends on the orientation of the target figure. This is because the data is not normalized. This is the length of the line segment a) 11*
The same applies to t2...).

次に、識別処理について説明する。Next, the identification process will be explained.

未知対象物の職別処理(検査モードともいう)に先立っ
て、まず全ての標準対象物について学習し、登録する操
作が行なわれる(辞書登録モードともいう)。このとき
、各対象物をコントラストのよい背景の中で、互いに分
離した状態で撮像し、これらについてそれぞれ上述の如
き線図形化をして特徴点を抽出し、この点を基準にして
線分化処理を行なうことにより線分情報を抽出する。各
標準対象物の特徴点情報と線分情報が所定のメモリに登
録される。
Prior to job-specific processing of unknown objects (also referred to as inspection mode), an operation is first performed to learn and register all standard objects (also referred to as dictionary registration mode). At this time, each object is imaged separately from each other in a background with good contrast, each of these objects is converted into a line shape as described above, feature points are extracted, and line segmentation processing is performed using these points as a reference. By doing this, line segment information is extracted. Feature point information and line segment information of each standard object are registered in a predetermined memory.

検査モードでは、未知対象物について上記と同様の処理
が行なわれ、その特徴点情報と線分情報が所定のメモリ
に登録される。
In the inspection mode, the same process as above is performed on the unknown object, and its feature point information and line segment information are registered in a predetermined memory.

標準対象物と検査対象物との各抽出情報は、特徴点の情
報を優先してかつ輪郭線に沿って互いに照合され、最も
大きな類似度を与える標準対象物をもって検査対象物の
該当物と判定する。こ〜で、1つの線分に関する線分情
報について、標準対象物のそれをf、検査対象物のそれ
をf′にて表わすと、その類似度Sは例えば次式の如く
表わすことができる。
Each extraction information of the standard object and the inspection object is compared with each other along the contour line with priority given to the information on the feature points, and the standard object that gives the highest degree of similarity is determined to be the applicable object of the inspection object. do. Here, regarding line segment information regarding one line segment, if that of the standard object is expressed by f and that of the inspection object by f', then the degree of similarity S can be expressed, for example, as in the following equation.

S−Cf−1f−f’l )/f したがって、両方の特徴if、f’が一致すれば(f’
−f)、S=l となる。同様に、n番目の線分の類似
度をSnとし、wnf、n番目の線分の重み係数(全体
に対する割合)とすると、全線分(線分数;N)に対す
る類似度Stは、 の如く一般化することができる。なお、全ての部分につ
いて、f’−fが成立すれば全線分の類化度もIt I
 Itとなり、完全に一致しているものと消えることが
できる。
S-Cf-1f-f'l )/f Therefore, if both features if and f' match (f'
-f), S=l. Similarly, if the similarity of the nth line segment is Sn, and wnf is the weighting coefficient (ratio to the whole) of the nth line segment, then the similarity St for all line segments (number of line segments; N) is generally as follows. can be converted into Note that if f'-f holds for all parts, the degree of classification of all line segments is also It I
It becomes It, and can be completely matched and disappear.

〔発明の効果〕〔Effect of the invention〕

この発明によれば、対象物の輪郭情報を抽出し対象物を
複数の線分からなる線図形として扱うことにより、その
形状特徴を充分に抽出しなからメ幅なデータ圧縮を行な
うことができるので、メキリ容量の低減化と演算時間の
短縮化を図り得る甲点がもたらされる。また、線図形上
の特徴点(v点や凹凸点)を抽出し、これを線分化のた
めの1準とするようにしたので、常に安定な線分情報を
得ることができるばかりでなく、照合の効率化(不要な
照合を減らす)t−図り得る利点かもたら切れる。
According to this invention, by extracting contour information of an object and treating the object as a line figure consisting of a plurality of line segments, it is possible to perform extensive data compression without sufficiently extracting the shape features of the object. , a point A is brought about in which the memory capacity can be reduced and the calculation time can be shortened. In addition, feature points (v points and uneven points) on line figures are extracted and used as the first criterion for line segmentation, so not only can stable line segment information be obtained at all times, but also Improving the efficiency of matching (reducing unnecessary matching) - Brings about possible benefits.

これにより、この発明は イ)tl&別対象物の形状が単純でなく、その種類も多
い。
As a result, the present invention has the following advantages: a) The shape of the object is not simple, and there are many types of objects.

口)識別対象物が分離状態にあるものばかりでなく、重
畳している状態(部分パターン)でも識別したい。
(Example) We want to identify not only separated objects but also overlapping objects (partial patterns).

と云うようなニーズに対処することができる。すなわち
、上記イ)2口)の如きニーズは各種オートメーショy
 (FA * OA + LA )の進展とともに多′
・  くなり、次第に強くなって来ている中で、従来の
SRI法やマツチング法ではこれらに対処できな:  
いため、この発明によってこれらのニーズにも応えられ
るようにしたものである。
It is possible to meet such needs. In other words, needs such as (a) and (2) above are met by various types of automation.
(FA * OA + LA)
・While these problems are gradually becoming stronger, conventional SRI methods and matching methods cannot deal with them:
Therefore, the present invention has been made to meet these needs.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の詳細な説明するための参〇  照図
、第2図はこの発明が実施される画像処理装置の構成を
示すブロック図、第3図はこの発明により得られる線分
情報のメモリへの記憶例を示す参照図、第4図は画素の
連なりからなる輪郭線の一例を示す参照図、第5図は方
向コードを説明するだめの参照図、第6図は輪郭情報の
メモリへの記憶例を示す参照図、第7図はSRI法を説
明するための参照図である。 符号説明 1・・・・・・輪郭線、2・・・・・・接線、1o・・
・・・・識別対象部、11・・・・・・照BA器、12
・・曲テレビカメラ、13・・・・・・A/D変換器、
14・・面前処理回路、15・・・・・・特徴抽出回路
、16・・・・・・画像メモリ、17・・・・・・処理
装置。 代理人 弁理士 並 木 昭 夫 代理人 弁理士 松 崎    溝 型1図 第2図 @3図 WE 4 図 等 5 図 z 第 6 図
FIG. 1 is a reference diagram for explaining the present invention in detail, FIG. 2 is a block diagram showing the configuration of an image processing device in which the present invention is implemented, and FIG. 3 is a diagram showing line segment information obtained by the present invention. FIG. 4 is a reference diagram showing an example of a contour line made up of a series of pixels, FIG. 5 is a reference diagram for explaining direction codes, and FIG. 6 is a reference diagram showing contour information. A reference diagram showing an example of storage in a memory, and FIG. 7 is a reference diagram for explaining the SRI method. Code explanation 1... Contour line, 2... Tangent line, 1o...
... Identification target part, 11 ... Illumination BA device, 12
...Song TV camera, 13...A/D converter,
14... Front processing circuit, 15... Feature extraction circuit, 16... Image memory, 17... Processing device. Agent Patent Attorney Akio Namiki Agent Patent Attorney Matsuzaki Mizogata Figure 1 Figure 2 @ Figure 3 WE 4 Figures etc. 5 Figure z Figure 6

Claims (1)

【特許請求の範囲】[Claims] 対象物を撮像しその画像処理を行なうことによつて対象
物を線図形化し該線図形にもとづき所定の処理をして対
象物を識別する方法であつて、前記線図形上の特徴とな
る点を最初に抽出し、この点を起点として該線図形を複
数の線分に分割し、各線分毎にその線分固有のデータお
よび線分間の接続・配列データを含む線分情報を抽出す
る処理を各標準対象物について行なつた後、未知の対象
物についても同様の処理を行ない、その結果得られた両
者の線分情報を前記起点を互いに一致させた上で線図形
に沿う形で順次照合し、最も大きな類似度が得られる所
定標準対象物をもつて未知対象物の該当物とすることを
特徴とする対象物識別方法。
A method of identifying the object by capturing an image of the object, processing the image, converting the object into a line figure, and performing predetermined processing based on the line figure, the method being a method of identifying the object, the feature of which is on the line figure. A process of first extracting , dividing the line figure into multiple line segments using this point as a starting point, and extracting line segment information for each line segment, including data specific to that line segment and connection/sequence data between line segments. After performing the above for each standard object, the same process is performed for the unknown object, and the resulting line segment information for both is made to coincide with each other, and then sequentially processed along the line figure. 1. An object identification method characterized in that a predetermined standard object from which the greatest degree of similarity is obtained is determined as a corresponding object of an unknown object.
JP60167663A 1985-07-31 1985-07-31 Method for discriminating object Pending JPS6228886A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60167663A JPS6228886A (en) 1985-07-31 1985-07-31 Method for discriminating object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60167663A JPS6228886A (en) 1985-07-31 1985-07-31 Method for discriminating object

Publications (1)

Publication Number Publication Date
JPS6228886A true JPS6228886A (en) 1987-02-06

Family

ID=15853919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60167663A Pending JPS6228886A (en) 1985-07-31 1985-07-31 Method for discriminating object

Country Status (1)

Country Link
JP (1) JPS6228886A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6470890A (en) * 1987-09-11 1989-03-16 Fuji Electric Co Ltd Method for writing contour of graphic

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6470890A (en) * 1987-09-11 1989-03-16 Fuji Electric Co Ltd Method for writing contour of graphic

Similar Documents

Publication Publication Date Title
Chang et al. A shape recognition scheme based on relative distances of feature points from the centroid
Rosin et al. Segmentation of edges into lines and arcs
US4545067A (en) Process for automatic image recognition
JP3065104B2 (en) Fingerprint matching device
US8031948B2 (en) Shape comparison apparatus on contour decomposition and correspondence
JP2007508633A (en) Method and image processing device for analyzing object contour image, method and image processing device for detecting object, industrial visual device, smart camera, image display, security system, and computer program product
US20130135301A1 (en) Efficient scale-space extraction and description of interest points
CN106897723B (en) Target real-time identification method based on characteristic matching
EP1930852B1 (en) Image search method and device
JPS6228886A (en) Method for discriminating object
JPS6228888A (en) Method for discriminating object
JPS6228887A (en) Method for discriminating object
Kwabwe et al. Recognition of bones from x-rays of the hand
JPS6310472B2 (en)
JPS6029878A (en) Detector for circular body
JPS6228877A (en) Method for discriminating object
JP2946095B2 (en) Line segment extraction device
US7136515B2 (en) Method and apparatus for providing a binary fingerprint image
JPS6228885A (en) Method for discriminating object
Chen et al. Skeletonization for fuzzy degraded character images
Pal et al. Circular arc segmentation by curvature estimation and geometric validation
US20030215118A1 (en) Extraction of minutiae from a fingerprint image
CN114494750B (en) Computer-aided alpha bone conjugation method based on orthogonal V-system transformation
JP2885476B2 (en) Image processing method and apparatus
Rao et al. Shape feature extraction from object corners