JPS5952472B2 - Part identification method - Google Patents

Part identification method

Info

Publication number
JPS5952472B2
JPS5952472B2 JP54115658A JP11565879A JPS5952472B2 JP S5952472 B2 JPS5952472 B2 JP S5952472B2 JP 54115658 A JP54115658 A JP 54115658A JP 11565879 A JP11565879 A JP 11565879A JP S5952472 B2 JPS5952472 B2 JP S5952472B2
Authority
JP
Japan
Prior art keywords
pixel
memory
reference point
posture
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired
Application number
JP54115658A
Other languages
Japanese (ja)
Other versions
JPS5640981A (en
Inventor
智昭 坂田
高道 鈴木
浩一 杉本
通長 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP54115658A priority Critical patent/JPS5952472B2/en
Publication of JPS5640981A publication Critical patent/JPS5640981A/en
Publication of JPS5952472B2 publication Critical patent/JPS5952472B2/en
Expired legal-status Critical Current

Links

Description

【発明の詳細な説明】 本発明は、部品識別方法に関する。[Detailed description of the invention] The present invention relates to a component identification method.

部品の組立てを自動的に行うには、先ず部品の識別が必
要である。
In order to automatically assemble parts, it is first necessary to identify the parts.

部品識別を部品の姿勢識別として行う事例を以下述べよ
う。第1図乃至第4図は、部品1が壁2に押し当てられ
ている各種の姿勢の状態を示している。図の姿勢I、1
1、111、IVを識別する方法として、先ず複数個の
光電スイッチを使用して識別を行う方法を第5図に示す
。姿勢I、11、111、IVについて各姿勢の識別が
可能となる位置に光電スイッチ6、7(実際には識別に
必要な数だけ)を設ける。今、透過照明がなされており
、光電スイッチ6、7が入光でON、遮光でOFFとす
れば、光電スイッチ6がONとなるのは姿勢IとIIL
光電スイッチ7がONとなるのは姿勢11とIVである
。従つて、光電スイッチ6、7のON、、OFFの組合
せをみることによつて、姿勢I、11、111、IVの
識別が可能となる。然るに、この方法では、光電スイッ
チの位置と個数を机上検討したのち、実際装置で位置の
微調整を行わなければならなかつた。従つて、姿勢の数
が多くなり、各光電スイッチのON−OFFの組合せパ
ターンが多くなれば、机上検討及び調整に多くの時間を
要することになる。更に各スイッチを適切な位置に必要
個数だけ配置するものであるから、取り扱う部品が他種
にわたる場合は、部品の種類の切り換え毎に各スイッチ
の位置を調整せねばならず、多種部品を連続して識別す
ることができない。以上の問題点を解決すべく、ITV
カメラ、固体撮像カメラ等の撮像装置を用いた方法があ
る。
An example in which part identification is performed as part orientation identification will be described below. 1 to 4 show various postures in which the component 1 is pressed against a wall 2. FIG. Figure posture I, 1
As a method for identifying 1, 111, and IV, first, a method for performing identification using a plurality of photoelectric switches is shown in FIG. Regarding postures I, 11, 111, and IV, photoelectric switches 6 and 7 (actually as many as necessary for identification) are provided at positions where each posture can be identified. Now, if transmitted illumination is being used and photoelectric switches 6 and 7 are turned on when light enters and turned off when light is blocked, photoelectric switch 6 is turned on in postures I and IIL.
The photoelectric switch 7 is turned ON in postures 11 and IV. Therefore, by checking the combination of ON and OFF of the photoelectric switches 6 and 7, it is possible to identify the postures I, 11, 111, and IV. However, with this method, after a theoretical study of the position and number of photoelectric switches, the positions had to be finely adjusted using the actual device. Therefore, as the number of postures increases and the number of ON-OFF combination patterns of each photoelectric switch increases, more time will be required for desk study and adjustment. Furthermore, each switch is placed in the appropriate position and in the required number, so if you are handling different types of parts, you will have to adjust the position of each switch each time you change the type of part, and you will have to adjust the position of each switch each time you change the type of part. cannot be identified. In order to solve the above problems, ITV
There is a method using an imaging device such as a camera or a solid-state imaging camera.

この方法によれば、撮像装置は、第6図に示す如く、映
像を有限個の細かい画素8に分割して、それぞれの画素
の光量を電気量に変換するものであるから、適当な閾値
を設けて各画素を2値化すれば、細かい光電スイツチを
画面いつぱいにすき間なく並べたのと同等の作用をなす
。このような撮像装置を用いた部品の識別方法としては
、従来、もつぱら単純なパタンマツチングが用いられて
いた。
According to this method, as shown in FIG. 6, the imaging device divides the image into a finite number of fine pixels 8 and converts the amount of light of each pixel into an amount of electricity, so an appropriate threshold value is set. If they are installed and each pixel is binarized, it will have the same effect as if fine photoelectric switches were lined up across the screen without any gaps. Conventionally, a simple pattern matching method has been used as a component identification method using such an imaging device.

これは、部品のとり得る姿勢の各々について画面の全部
、或いは連続した特定の部分の全ての画素の情報をその
まま記憶してとり得る姿勢の数と同数個の辞書パターン
として用意しておき、作業中に得られるある姿勢の部品
パターンと全ての辞書パターンのそれぞれに対応する全
ての画素の一致を求め、最も一致度の高い辞書パターン
の姿勢とその時の姿勢が同一であると定める方法である
。従つて、この方法では、辞書パターンを種類、姿勢に
対応していくつも用意しておけば、多種部品を段取り時
間なく連続して識別できる。然るに、辞書パターンとし
て非常に多くの画素の情報を記憶するため多くの記憶容
量を必要とし、且つ一致度を求めるのに多くの処理時間
がかかるという欠点を持つ。本発明の目的は、汎用性が
あり、且つ計算処理が迅速な部品識別方法を提供するも
のである。
This is done by memorizing the information of all the pixels of the entire screen or of a specific continuous part for each of the possible postures of the part, and preparing the same number of dictionary patterns as the number of possible postures. In this method, all pixels corresponding to each of all dictionary patterns are found to match the part pattern with a certain orientation obtained in the database, and the orientation of the dictionary pattern with the highest degree of matching is determined to be the same as the orientation at that time. Therefore, in this method, by preparing a number of dictionary patterns corresponding to types and orientations, it is possible to identify various types of parts continuously without any setup time. However, it has the disadvantage that it requires a large storage capacity to store information on a very large number of pixels as a dictionary pattern, and it takes a lot of processing time to determine the degree of matching. An object of the present invention is to provide a component identification method that is versatile and quick in calculation processing.

本発明の要旨は、部品の映像情報をもとに姿勢識別のた
めのデータを抽出する。このデータを参照点と称する。
かくして得られた参照点をもとに辞書パターンを決定す
る。この辞書パターンと実際の部品映像情報から得られ
るリアルな参照点とを比較することによつて部品の識別
を行う。この際、部品の姿勢の他に、部品の種類等の部
品個有の識別も可能としている。以下、本発明を図面に
より詳述する。第7図は本発明の実施例を示す図である
The gist of the present invention is to extract data for posture identification based on video information of parts. This data is called a reference point.
A dictionary pattern is determined based on the reference points thus obtained. Parts are identified by comparing this dictionary pattern with real reference points obtained from actual part video information. At this time, in addition to the orientation of the part, it is also possible to identify specific parts, such as the type of the part. Hereinafter, the present invention will be explained in detail with reference to the drawings. FIG. 7 is a diagram showing an embodiment of the present invention.

この実施例は、撮像装置9、識別装置10、表示装置.
11.制御装置12とより成る。制御装置12は、識別
装置10の識別結果に従つて部品の姿勢等の制御を行う
ものである。識別装置10は辞書パターン作成部13、
パターン比較識別部14とより成る。以上の実施例での
発明上のポイントは、識別装置10の処理内容にある。
This embodiment includes an imaging device 9, an identification device 10, a display device, and so on.
11. It consists of a control device 12. The control device 12 controls the posture of the parts, etc. according to the identification results of the identification device 10. The identification device 10 includes a dictionary pattern creation section 13,
It consists of a pattern comparison and identification section 14. The key point of the invention in the above embodiments lies in the processing content of the identification device 10.

以下、識別装置10の動作を説明する。先ず、参照点パ
ターンの作成を述べる。第8図は部品1の姿勢1,11
,111,IVについて重ね合せた映像情報を示す。こ
の重ね合せた映像情報15は、各姿勢の境果線によつて
閉じた部分領域16を形成する。図の部品1の事例では
19個の部分領域16を形成している。以上の複数個の
部分領域16のそれぞれについて、その領域内の1画素
を参照点として設定する。その参照点設定の一例を第9
図に示す。第9図では、参照点として10個の参照点1
7,18・・・・・・・・・, 25,26を設定して
いる例を示している。但し、上記参照点17,18,・
・・・・・・・・25,26の各々は部分領域16内で
完全な一画素(正方形)を占めるものとしている。従つ
て、部分領域の中で一画素の参照点を設定できないもの
に対しては、参照点設定を行つていない。また、同一領
域内に参照点可能な画素が多数存在する部分領域内では
、第10図に示す如く、Y=YOとしてX。からX,へ
走査し、次にY=YO+1としてX。からXFへ走査し
てゆく。以下、同様にYFまで同様な走査を繰返して全
画面の走査を行う。この走査過程で該当する”部分領域
について最も参照順序の早に参照点をその該当部分領域
の参照点として設定する。勿論、この走査は他の部分領
域についても同様になされる。いずれにしろ、参照点設
定は上記走査に従つてなされる。次に参照点の取捨選択
を行う。
The operation of the identification device 10 will be explained below. First, the creation of a reference point pattern will be described. Figure 8 shows postures 1 and 11 of part 1.
, 111, shows the superimposed video information for IV. This superimposed video information 15 forms a partial region 16 closed by the boundary line of each posture. In the case of component 1 shown in the figure, 19 partial regions 16 are formed. For each of the plurality of partial regions 16 described above, one pixel within the region is set as a reference point. An example of setting the reference point is shown in the 9th section.
As shown in the figure. In Figure 9, ten reference points 1 are used as reference points.
An example is shown in which 7, 18..., 25, 26 are set. However, the above reference points 17, 18, ・
It is assumed that each of 25 and 26 occupies one complete pixel (square) within the partial area 16. Therefore, reference points are not set for partial areas for which a reference point of one pixel cannot be set. Furthermore, in a partial area where there are many pixels that can be used as reference points in the same area, as shown in FIG. 10, set Y=YO to X. Scan from to X, then set Y=YO+1 to X. Scan from to XF. Thereafter, similar scanning is repeated up to YF to scan the entire screen. In this scanning process, the reference point earliest in the reference order for the corresponding partial area is set as the reference point for the corresponding partial area.Of course, this scanning is performed in the same way for other partial areas.In any case, Reference points are set according to the above scanning.Next, reference points are selected.

第11図に選択の過程をトリ一構造によつて示した。走
査の過程で最も参照順序の早い参照点は、第9図の事例
では参照点17であるから、第11図において先ず参照
点17の画素情報に従つて姿勢1〜姿勢1Vが類別され
る。第9図の画素8は2値化されたものであり、部分が
ある時″1″、ない時″0″とすれば、姿勢1−1Vは
参照点17のゞゝ17、ゝ『によつて第11図の如く二
分される。次の参照点は参照点18となる。参照点18
の画素情報は参照点17と同一なので、参照点18は参
照点として採用しない。参照点の取捨の基準は、姿勢の
部分群の中からある姿勢を一つでも分離する情報をもた
らすならば採用すべく取り込みを行い、そうでなければ
不採用として取り込まないよ,うにしている。例えば、
参照点17と参照点23は、画素情報″RO『は反対で
あつても、姿勢1〜IVを姿勢1,11と姿勢111,
Iとに2分化するという同一の情報をもたらすものであ
るから、どちらか一方を採用すれば、他方は採用しない
ものとする。
FIG. 11 shows the selection process using a tri-structure. In the case of FIG. 9, the reference point that is referred to earliest in the scanning process is the reference point 17, so in FIG. 11, postures 1 to 1V are first classified according to the pixel information of the reference point 17. Pixel 8 in FIG. 9 is binarized, and if it is set to "1" when there is a part and "0" when there is no part, the posture 1-1V is determined by "17" and "" of the reference point 17. It is then divided into two parts as shown in Figure 11. The next reference point will be reference point 18. Reference point 18
Since the pixel information of is the same as that of reference point 17, reference point 18 is not adopted as a reference point. The criteria for selecting and discarding reference points is that if it provides information that separates even one pose from a subgroup of poses, it will be included, and if it does not, it will be rejected and not included. . for example,
The reference point 17 and the reference point 23 are used to change the orientations 1 to IV to orientations 1, 11, 111, and 111, even though the pixel information "RO" is opposite.
Since they bring about the same information that is divided into two parts, if one is adopted, the other is not adopted.

以上の如き基準で、全ての姿勢から分離するまで参照点
を順次検討してゆくと、参照点17,19,20によつ
て姿勢1−1は識別することができる。
By examining the reference points one by one until they are separated from all postures using the above criteria, posture 1-1 can be identified by reference points 17, 19, and 20.

この時、各姿勢に対応する参照点17,19,20を組
合せた辞書パターンは、第1表のようになる。この時、
問題となるのは、姿勢1Vである。
At this time, the dictionary pattern that combines the reference points 17, 19, and 20 corresponding to each posture is as shown in Table 1. At this time,
The problem is the posture 1V.

姿勢1は参照点17,19,20が全て4『なので、あ
たかも部品がないかの如き判定を行つてしまう。この部
品なしの状態と姿勢1Vとの区別を行うためには、姿勢
1について部品の有無の情報を他から得なければならな
い。この時、部品がない場合も一つの姿勢であると考え
れば、参照点22も含めて全ての姿勢が識別されること
になり、辞書パターンは、第1表の如く参照点22につ
いての情報が追加される。かくして、辞書パターンが辞
書パターン作成部13内のメモリに記憶され、作成され
てゆく。次に、パターンの実際の比較に動作が移る。
In posture 1, reference points 17, 19, and 20 are all 4'', so the judgment is made as if there were no parts. In order to distinguish between this no-parts state and posture 1V, information about the presence or absence of parts for posture 1 must be obtained from another source. At this time, if we consider that even if there is no part, it is one posture, all postures including the reference point 22 will be identified, and the dictionary pattern will contain information about the reference point 22 as shown in Table 1. will be added. In this way, dictionary patterns are stored in the memory within the dictionary pattern creation section 13 and are created. The operation then moves on to the actual comparison of the patterns.

この比較では、上記の辞書パターンと実際の映像情報と
の比較をパターン比較部14によつて行う。その際、辞
書パターンの参照点に関して実際の映像情報があるかど
うかの探索を行い、該当する参照点に映像情報があれば
、その参照点に従つた識別が可能となる。識別装置は一
般に専用ハードでもよいが、汎用の計算機によつても可
能である。以下、汎用の計算機の事例をもとにより詳細
な説明を行う。参照点の決定と辞書パターン作成につい
て以下具体的に述べよう。
In this comparison, the pattern comparison section 14 compares the dictionary pattern and the actual video information. At this time, a search is performed to see if there is actual video information regarding the reference point of the dictionary pattern, and if there is video information at the relevant reference point, identification can be made according to that reference point. The identification device may generally be dedicated hardware, but may also be a general-purpose computer. A more detailed explanation will be given below based on an example of a general-purpose computer. Determination of reference points and creation of dictionary patterns will be described in detail below.

段階1。Stage 1.

参照不可画素を求めること。参照不可画素とは部品の輪
郭線がさしかかる画素で閾値(或いは反射光量に変動)
があれば、2値化した値が゛『になるか″rとなるかわ
からない画素のことである。
To find pixels that cannot be referenced. Non-referenceable pixels are pixels where the outline of the part touches the threshold value (or the amount of reflected light changes)
If there is, it is a pixel for which it is unclear whether the binarized value will be '' or 'r'.

第12図は姿勢1に対する参照不可画素を示している。
図で、斜線で示した画素の部分30,31,32,33
が参照不可画素である。次にこの参照不可画素の算出に
ついて述べる。以後、信号と閾値の変動を相対量として
、閾値の変動だけで表わすこととし、その閾値の変動量
をΔTとする。
FIG. 12 shows non-referenceable pixels for posture 1.
In the figure, pixel parts 30, 31, 32, 33 indicated by diagonal lines
is a non-referenceable pixel. Next, the calculation of the non-referenceable pixels will be described. Hereinafter, the fluctuations in the signal and the threshold value will be expressed as relative amounts, and only the fluctuations in the threshold value will be expressed, and the amount of fluctuation in the threshold value will be referred to as ΔT.

変動量ΔTにもかかわらず繰返して同一の情報(″『又
はn″)を得るためには、信号と閾値のレベル差がΔT
よりも大きくなければならない。このために、不確実な
情報をもたらす画素を以下の手順でさがしておき、これ
を参照しないようにする。作業用に用いる閾値をTMと
する。
In order to repeatedly obtain the same information ("or n") despite the amount of variation ΔT, the level difference between the signal and the threshold must be
must be larger than To this end, pixels that provide uncertain information are searched for in the following procedure and are not referenced. Let TM be the threshold value used for work.

これは、ΔTの変動を持つ。学習に際しては、TMより
も高い閾値THと低い閾値TLを用いる。但し、TH〉
TM+ΔT.T,〈TM−ΔTである。先ず、閾値T,
によつて画像を2値化する。この時、TLも変動してい
ると考えねばならないが、2値化した値が、″O″の画
素は、閾値TMで2値化した場合、必ず″0″になると
云える。次に閾値THによつて画像を2値化する。この
時、 n″となる画素はTMで2値化すると必ず″1″
になる。つま″り、ゝ07かN7かについて当てになら
ない/の(ま、T,によつて1且つTHによつてゝ『と
なる画素である。
This has a variation of ΔT. During learning, a higher threshold TH and a lower threshold TL than TM are used. However, TH〉
TM+ΔT. T, <TM−ΔT. First, the threshold T,
The image is binarized by At this time, it must be considered that TL is also changing, but it can be said that a pixel whose binarized value is "O" will always become "0" when binarized using the threshold TM. Next, the image is binarized using a threshold value TH. At this time, when the pixel that is n'' is binarized with TM, it will always be ``1''.
become. In other words, it is unreliable whether it is '07 or N7.' (Well, it is a pixel that is 1 by T and '' by TH.

これを参照不可画素とする。段階丁。画素情報を記憶す
ること。この画素情報の記憶は、実際の手順としては、
段階1と同時である。
This is assumed to be a non-referenceable pixel. Stage Ding. To memorize pixel information. The actual procedure for storing this pixel information is as follows:
Simultaneous with stage 1.

即ち、閾値T,(或いはTH)によつて2値化した各画
素の情報(″『又は″1″)をある姿勢の2値画像とし
て記憶しておくからである。次に、以上の段階1、丁で
の処理手順を具体的に説明しよう。
That is, the information of each pixel ("" or "1") binarized by the threshold T, (or TH) is stored as a binary image in a certain posture.Next, the above steps 1. Let's specifically explain the processing procedure at Ding.

先ず、閾値TLによる1画面分の2値画像を画像とり込
みメモリに記憶する。画像とり込みメモリ50のデータ
状態を第13図に示す。横方向と縦方向とのマトリツク
スで画素の位j置は設定されている。このメモリ50内
での画素情報を第14図に示す如くパターン記憶メモリ
51に書き写す。パターン記憶メモリ51では縦方向に
画素番号(位置)を設定し、横方向には、参照不可マー
クRUM、姿勢1,11,111,IVのデ一夕を設定
している。次に、閾値THによる2値画像を画像とり込
みメモリ50に第13図の如きフオーマツトのもとに取
り込み記憶させる(但し、この際、閾値TLによる2値
画像はクリアされる)。これを各画素毎にパターン記憶
メモリ51内の閾値T,による2値画像と比較し、異な
つていれば参照不可マークビツトを″1″にする。但し
、以上の処理手順の中で、TLとTHとはどちらを先に
やつてもよい。段階2。
First, one screen worth of binary image based on the threshold value TL is stored in an image capture memory. FIG. 13 shows the data state of the image capture memory 50. Pixel positions are set in a matrix in the horizontal and vertical directions. The pixel information in the memory 50 is copied to the pattern storage memory 51 as shown in FIG. In the pattern storage memory 51, pixel numbers (positions) are set in the vertical direction, and data of the non-reference mark RUM, postures 1, 11, 111, and IV are set in the horizontal direction. Next, the binary image based on the threshold value TH is captured and stored in the image capture memory 50 in the format shown in FIG. 13 (however, at this time, the binary image based on the threshold value TL is cleared). This is compared with the binary image based on the threshold value T in the pattern storage memory 51 for each pixel, and if there is a difference, the non-reference mark bit is set to "1". However, in the above processing procedure, either TL or TH may be performed first. Stage 2.

段階1、丁の操作を各姿勢について繰5り返すこと。こ
れによつて、パターン記憶メモリ51の内容は例えば、
第15図のようになる。
Step 1: Repeat the operation of the knife 5 times for each position. As a result, the contents of the pattern storage memory 51 are, for example,
The result will be as shown in Figure 15.

この結果を実際の事例で示したものが第16図であり、
斜線部が参照不可画素となる。段階3。
Figure 16 shows this result using an actual example.
The shaded areas are pixels that cannot be referenced. Stage 3.

各画素を参照順序に従つて検討してゆくこと。今、参照
順序を(1、1)、・・・・・・・・・(1、25)、
(2、1)、・・・・・・・・・(2、25)、 (3
、1)・・・・・・・・・(3、25)、・・・・・・
・・・の如きものとする。
Consider each pixel in reference order. Now, the reference order is (1, 1), ...... (1, 25),
(2, 1), ...... (2, 25), (3
,1)・・・・・・(3,25),・・・・・・
It shall be something like...

但し、この5参照順序は一例である。検討してゆく上で
の規則(アルゴリズム)は、(イ)参照不可画素RUM
は検討しない。
However, this five reference order is an example. The rules (algorithm) to be considered are (a) Unreferenceable pixels RUM
will not be considered.

(ロ)全ての姿勢についてゞ『をとる画素、例えば第1
5図の画素(1、1)及びすべてn″をとる画素は検討
しない。
(b) For all postures, the pixel that takes ``, for example, the first
Pixel (1,1) in Figure 5 and all pixels with n'' are not considered.

(ハ) 1度採用した画素と同一パターン、例えば第1
5図の画素(1、10)と(1、11)をとる画素は以
後検討しない。
(c) The same pattern as the pixel used once, for example, the first pixel.
The pixels having pixels (1, 10) and (1, 11) in FIG. 5 will not be considered hereinafter.

とする。shall be.

次に、検射手順を具体的に説明する。Next, the detection procedure will be specifically explained.

参照不可マークがついているかどうかのチエツタを行う
。ついていれば、次の画素へ移る。参照不可マークがつ
いていなければ、パターン記憶メモリ51の(参照不可
マーク以外の)すべてのビツトが″O″或いば1″かど
うかチエツクする。そうであれば、次の画素へ移る。そ
うでなければ、以前に参照点として採用した画素と同一
か否かのチエツクを行う。そうであれば、次の画素に移
る。そうでなければ次の処理に移る。以上の処理過程を
第15図、第16図の事例に従えば、画素(1、1)〜
(1、9)まではとばされて処理され、画素(1、10
)に達する。
Check whether there is a mark that cannot be referenced. If it is, move on to the next pixel. If there is no non-referenceable mark, check whether all bits in the pattern storage memory 51 (other than the non-referenceable mark) are "O" or 1. If so, move on to the next pixel. Yes. If not, check whether it is the same as the pixel previously adopted as a reference point. If so, move on to the next pixel. If not, move on to the next process. The above processing process is repeated in step 15. According to the example shown in Fig. 16, pixels (1, 1) ~
(1, 9) is skipped and processed, and the pixel (1, 10
).

又、今の場合、参照点として採用した画素は未だなく、
画素(1、10)が最初の参照となる。1度参照した画
素の内容を記憶するメモリを参照記憶メモリとする。
Also, in this case, there are no pixels adopted as reference points yet,
Pixel (1,10) is the first reference. A memory that stores the contents of a pixel that has been referenced once is referred to as a reference storage memory.

このメモリは初期状態では全ビツトがゝ07となつてい
るものとする。この画素(1、10)が姿勢1−1をど
のように分類するかを知るためには、姿勢分類メモリが
必要である。この姿勢分類メモリは、初期状態では全ビ
ツトゝ11′とする。即ち、全ビツトゝ17の時には姿
勢1−1Vが全然分類されていないことを示している。
次に、姿勢分類メモリと画素(1、10)の内容とのA
NDをとつて作業メモリに書き込む。
It is assumed that all bits of this memory are set to 07 in the initial state. A posture classification memory is required to know how this pixel (1, 10) classifies posture 1-1. In the initial state, all bits of this posture classification memory are 11'. That is, when all bits are 17, this indicates that postures 1-1V are not classified at all.
Next, A between the posture classification memory and the contents of pixel (1, 10)
Take the ND and write it into working memory.

この処理はまだ分類されていない姿勢群に対して画素(
1、10)の内容がどのような情報をもたらすかを知る
ための処理である。具体的には、画素(1、10)の1
100と姿勢分類メモリの1111とのANDをとつて
作業メモリへその結果を書き込むようにしている。作業
メモリへの書き込みデータは1100となる。次に、姿
勢分類メモリの″1″が立つているビツトに相当する作
業メモリのビツトの中に1つでも異なるものがあるかど
うかのチエツクを行う。
This process applies pixels (
This is a process to find out what kind of information the contents of 1 and 10) bring. Specifically, 1 of pixel (1, 10)
100 and 1111 in the posture classification memory are ANDed and the result is written into the working memory. The data written to the working memory is 1100. Next, a check is made to see if there is any difference among the bits in the working memory that correspond to the bits set to "1" in the posture classification memory.

全くなければ、次の画素へ移る。異なるものがあれば、
次の処理に移り、参照点として採用される。上述の事例
では、姿勢分類メモリには、ビツト1〜ビツト4までN
7が立つている故、作業メモリのビツト1〜ビツト4を
比較して異なるものがあるか否かを調べる。この事例で
は、ビツト3,4が0、ビツト1,2が1である。参照
点として採用時には、参照記憶メモリに画素(1、10
)の内容を書き込み、辞書パターンメモリに画素(1、
10)の内容を書き込む。
If there is none, move on to the next pixel. If there is something different,
Moving on to the next process, it is adopted as a reference point. In the above example, the pose classification memory contains N bits from bit 1 to bit 4.
7 is set, so bits 1 to 4 of the working memory are compared to see if there are any differences. In this case, bits 3 and 4 are 0 and bits 1 and 2 are 1. When adopted as a reference point, pixels (1, 10
) is written and the pixel (1,
10) Write the contents.

この参照記憶メモリ52、辞書パターンメモリ53のデ
ータ構成を第17図イ,口に示す。そして1番目の参照
点を(1、10)として設定する。次に、画素(1、1
0)によつて姿勢群がどのように分類されたかを知る。
The data structure of the reference storage memory 52 and dictionary pattern memory 53 is shown in FIG. Then, the first reference point is set as (1, 10). Next, pixel (1, 1
0) to find out how the pose groups were classified.

そのため、次の姿勢分類メモリとして、作業メモリ、該
作業メモリの゛1″と0『とを反転させたメモリとの2
つを用いる。具体例として画素(1、10)の事例では
姿勢分類メモリとしては1100及び0011の2つに
なる。1100は姿勢1,11が未だ分類されていない
ことを示し、0011は姿勢111とIとが未だ分類さ
れていないことを示している。
Therefore, as the next posture classification memory, a working memory and a memory in which ``1'' and 0'' of the working memory are reversed are used.
Use one. As a specific example, in the case of pixel (1, 10), there are two posture classification memories, 1100 and 0011. 1100 indicates that postures 1 and 11 have not been classified yet, and 0011 indicates that postures 111 and I have not yet been classified.

次の画素の検討に移る。Let's move on to consider the next pixel.

次の画素は(1、11)で゛あるがこれは(1、10)
と同一で゛あるため、採用されない。以下、検討されて
ゆき、画素(2、6)が次の参照点候補となる。画素(
2、6)の内容は1110である。このデータ1110
と上記2つの,姿勢分類メモリとのそれぞれについてA
NDを取り作業メモリに入れる。作業メモリの内の結果
は、姿勢分類メモリのデータ1100に対しては110
0、データ0011に対しては0010となる。この作
業メモリ内の2つのデータ1100、0010の中で゛
、11100は姿勢1,11との区別がつかないため、
姿勢1,11の分類には役立たない。データ0010は
姿勢111を分類可能としている。従つて、画素(2、
6)を参照点として採用する。この結果、参照記憶メモ
リは、画素(1、10)と(2、6)の2つ,になる。
更に、辞書パターンメモリに画素(2、6)の内容を書
き込む。姿勢分類に新たな情報がなかつた場合は姿勢分
類メモリはそのままであり、姿勢分類がなされた場合に
は、作業メモリ、及び作業メモリのうち以:前の姿勢分
類メモリでゝrが立つているビツトのN7、ゝ『を反転
させたものとになる。
The next pixel is (1, 11), but this is (1, 10)
It is not adopted because it is the same as . Hereinafter, the pixel (2, 6) will be considered as the next reference point candidate. Pixel (
The contents of 2 and 6) are 1110. This data 1110
A for each of the above two posture classification memories.
Take the ND and put it in working memory. The result in the working memory is 110 for the data 1100 in the posture classification memory.
0, and data 0011 becomes 0010. Among the two data 1100 and 0010 in this working memory, ゛ and 11100 are indistinguishable from postures 1 and 11, so
It is not useful for classifying postures 1 and 11. Data 0010 allows posture 111 to be classified. Therefore, pixels (2,
6) is adopted as a reference point. As a result, there are two reference storage memories, pixels (1, 10) and (2, 6).
Furthermore, the contents of pixel (2, 6) are written into the dictionary pattern memory. If there is no new information for posture classification, the posture classification memory remains as it is, and if posture classification is done, the working memory and the previous posture classification memory are set. Bit N7 is the inverted version of ``''.

従つて、上述の事例では姿勢分類メモリの内容1100
はそのまま持ち越し、内容0011は0010と000
1とになる。姿勢分類メモリに″17が1つしかなくな
,つたら、そのビツトに対応する姿勢は分類されたこと
を示すので、以後は画素の内容とのANDはとられない
。今の例では、姿勢111??::.Iは画素(1、1
0)と(2、6)を参照すれば決定できることを示す。
次に同様な過程を繰り返して画素(3、3)が次の参照
点候補となる。
Therefore, in the above example, the content 1100 of the pose classification memory
is carried over as is, and the content 0011 is changed to 0010 and 000.
It becomes 1. If there is only one "17" in the pose classification memory, it means that the pose corresponding to that bit has been classified, so the AND with the pixel contents will not be performed from now on.In the current example, the pose 111??::.I is pixel (1, 1
0) and (2, 6).
Next, the same process is repeated and pixel (3, 3) becomes the next reference point candidate.

画素(3、3)の内容は0110である。この画素(3
、3)の内容0110と3個の姿勢分類メモリの内容1
100、0010、0001とのそれぞれについてAN
Dをとる。但し、上記データの中で後記の2つのデータ
0010、0001は上述の事例でAND条件から除外
される。この結果、01110と1100とのAND条
件により、作業メモリには0100が得られる。このデ
ータは姿勢1?::.11とを分類するので、参照点と
して採用する。その際、参照記憶メモリに画素(3、3
)の内容を書込む。更に、辞書パターンメモリに画素(
3、3)の内容を書き込む。そして3番目の参照点とし
て画素(3、3)を選択する。この時の辞書パターン記
憶メモリ53は第18図となる。更に、姿勢分題メモリ
54は、第19図の如くなる〇以上の手順で姿勢1−1
を分類するのに必要な画素とそれらの画素情報を並べた
パターンがどの姿勢に対応するかを示す辞書パターンが
得られる。
The content of pixel (3, 3) is 0110. This pixel (3
, 3) contents 0110 and contents 1 of the three posture classification memories
AN for each of 100, 0010, 0001
Take D. However, among the above data, the two data 0010 and 0001 described later are excluded from the AND condition in the above case. As a result, 0100 is obtained in the working memory by the AND condition of 01110 and 1100. Is this data posture 1? ::. 11, so it is used as a reference point. At that time, pixels (3, 3
). Furthermore, pixels (
3. Write the contents of 3). Then, pixel (3, 3) is selected as the third reference point. The dictionary pattern storage memory 53 at this time is shown in FIG. Furthermore, the posture division memory 54 stores posture 1-1 in accordance with the above steps as shown in FIG.
A dictionary pattern is obtained that indicates which pose corresponds to a pattern in which the pixels necessary for classifying the pixels and their pixel information are arranged.

ここで、1つ問題となるのは姿勢1に対応する辞書パタ
ーンが0000であることである。
One problem here is that the dictionary pattern corresponding to posture 1 is 0000.

これは、どの画素も2値化情報が゛『であるから、部品
が撮像視野内に無い場合と区別がつかない。部品の有無
を他の検出手段(例えば、マイクロスイツチ等)で検出
できれば問題ないが、それができない場合、または確認
をとりたい場合は次の如き手順が更に必要となる。段階
4。
This is because the binarized information for every pixel is ``'', so it is difficult to distinguish this from the case where the component is not within the imaging field of view. There is no problem if the presence or absence of the component can be detected by other detection means (for example, a micro switch, etc.), but if this is not possible or if confirmation is desired, the following procedure is additionally required. Stage 4.

辞書パターンにすべてのビツトが零のものかあるかどう
かのチエツク。すべてのビツトがNゝ07のものがある
時には、必ずn″となる画素を1つ選び、参照点として
採用する。
Checks whether all bits in the dictionary pattern are zero. When there is a pixel in which all bits are N07, one pixel that always has n'' is selected and used as a reference point.

上述の事例では、姿勢1に対応する辞書パターンが00
0であるから、姿勢1Vの時必ず″rとなる画素を選ぶ
。このうち、参照順序で1番早いのは、画素(6、2)
であることから、これを4番目の参照点とする。この結
果の辞書パターン記憶メモリ53の実際例を第20図に
示す。次に、以上の処理をフローチヤートによつて実現
する事例を簡単に説明する。
In the above example, the dictionary pattern corresponding to posture 1 is 00.
0, so when the attitude is 1V, select a pixel that always becomes "r". Among these, the earliest in the reference order is pixel (6, 2).
Therefore, this is set as the fourth reference point. An actual example of the resulting dictionary pattern storage memory 53 is shown in FIG. Next, an example of implementing the above processing using a flowchart will be briefly described.

この処理フローチヤートは計算機によつても実現できる
。第21図乃至第27図が全体のフローチヤートを示す
。かかるフローチヤートでの各種変数について以下列挙
する。尚、第29図乃至第31図はその際の各種変数の
説明図である。○メモリ BCi.j〕 :画像とり込みメモリ (Buffer
MemOry)のi行j列。
This processing flowchart can also be realized by a computer. 21 to 27 show the overall flowchart. Various variables in this flowchart are listed below. Incidentally, FIGS. 29 to 31 are explanatory diagrams of various variables at that time. ○Memory BCi. j〕: Image capture memory (Buffer
MemOry), row i and column j.

1ビツト 1:行の最大数 J:列 ″ P(1.j):パターン記憶メモリにおける画素(1.
j)のとるパターン。
1 bit 1: Maximum number of rows J: Column ″P(1.j): Pixel (1.j) in pattern storage memory.
The pattern taken by j).

NビツトP〔(1.j)、n〕 :P(1.j)の第n
ビツト。
N bit P [(1.j), n]: nth bit of P(1.j)
Bit.

1ビツト N:姿勢の数 R(q):q番目の参照記憶メモl)。1 bit N: Number of postures R(q): qth reference storage memory l).

NビツトQ:参照記憶メモリの個数(=参照点の個数)
S(1):1番目の姿勢分類メモリ、NビットL:姿勢
分類メモリの個数W(1):l番目の作業メモl).N
ビツトWCl.k〕 :W(1)の第kビツト。
N bit Q: Number of reference storage memories (=number of reference points)
S(1): 1st posture classification memory, N bits L: Number of posture classification memories W(1): lth work memo l). N
BIT WCl. k]: k-th bit of W(1).

1ビツトSS(1)、WW(1):S(1)、W(1)
の一時記憶に用いるメモl几D(n) :姿勢nに相当
する辞書パターンメモl几QビツトDCn.Q〕 :D
(n)の第Qビツト。
1 bit SS (1), WW (1): S (1), W (1)
Memory used for temporary storage D(n): Dictionary pattern memory corresponding to posture n Q bits DCn. Q] :D
Q-th bit of (n).

1ビツト1(Q):Q番目の参照点(参照画素)の行数
1 bit 1 (Q): Row number of Q-th reference point (reference pixel).

J(Q):Q番目の参照点(参照画素)の列数。Oフラ
グFCi.j〕 :画素(1.j)が参照不可であるこ
とを示す。
J(Q): Number of columns of the Q-th reference point (reference pixel). O flag FCi. j]: Indicates that the pixel (1.j) cannot be referenced.

1ビツト FFCl〕 :l番目の姿勢分類メモリが分割されるこ
とを示す。
1 bit FFCl]: Indicates that the l-th posture classification memory is divided.

1ビツト。1 bit.

(そのとき参照したP(1.j)が姿勢分類に新たな
情報をもたらすことを示す。)Oカウンタ n) i〜 j)q) l)m) r 以上の本発明によれば、参照点を自動的に設定すること
によつて辞書パターンが設定でき、この辞書パターンと
リアルな値との比較によつて部品の形状、姿勢の識別が
可能になつた。
(Indicates that the P(1.j) referenced at that time brings new information to the pose classification.) By automatically setting a dictionary pattern, a dictionary pattern can be set, and by comparing this dictionary pattern with real values, it has become possible to identify the shape and orientation of a part.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図乃至第4図は部品の各種姿勢を示す図、第5図は
各種姿勢に対する検出事例を示す図、第6図は画素事例
を示す図、第7図は本発明の実施例図、第8図、第9図
は参照点の説明図、第10図は画像走査事例図、第11
図は辞書パターンの説明図、第12図は境界領域の除外
事例を示す図、第13図、第14図、第15図、第17
図イ,口、第]8図、第]9図、第20図は各種メモリ
のデータ構成図、第16図は具体的なパターン事例図、
第21図乃至第27図は処理フローチヤート図、第28
図乃至第31図は上記フローチヤートの各種変数の説明
図である。 9・・・・・・撮像装置、10・・・・・・識別装置、
11・・・・・・表示装置、12・・・・・・制御装置
、13・・・・・・辞書パターン作成部、14・・・・
・・パターン比較部。
1 to 4 are diagrams showing various postures of parts, FIG. 5 is a diagram showing detection examples for various postures, FIG. 6 is a diagram showing pixel examples, and FIG. 7 is a diagram showing an embodiment of the present invention. Figures 8 and 9 are explanatory diagrams of reference points, Figure 10 is an image scanning example diagram, and Figure 11 is an illustration of reference points.
The figure is an explanatory diagram of the dictionary pattern, Figure 12 is a diagram showing an example of boundary area exclusion, Figures 13, 14, 15, and 17.
Figures 8, 9, and 20 are data configuration diagrams of various memories, and Figure 16 is a diagram of specific pattern examples.
Figures 21 to 27 are process flowcharts, Figure 28
31 to 31 are explanatory diagrams of various variables in the above flowchart. 9... Imaging device, 10... Identification device,
11...Display device, 12...Control device, 13...Dictionary pattern creation section, 14...
...Pattern comparison section.

Claims (1)

【特許請求の範囲】[Claims] 1 位置決めされた部品の種類、姿勢を撮像し、該撮像
して得られた映像信号を用いて上記部品の種類、姿勢を
識別するようにした部品識別方法に於いて、識別対象と
するすべての姿勢に対する部品及び背景の全映像信号を
重ね合せて得られる重ね合せ映像内の部品の輪郭線によ
つて構成される複数の閉じた部分領域内に、参照点候補
を設定し、該参照点候補の中から部品の識別に関して同
一の情報をもたらさないものを参照点として選択し、該
選択された参照点の映像情報を組合せて辞書パターンを
作成し、該得られた辞書パターンと上記参照点のリアル
な映像情報の組合せパターンを上記辞書パターンと比較
して部品の種類、姿勢を識別させるようにした部品識別
方法。
1 In a parts identification method in which the type and orientation of the positioned part is imaged and the video signal obtained by the imaging is used to identify the type and orientation of the part, all of the parts to be identified are Reference point candidates are set within a plurality of closed partial regions formed by the outline of the component in a superimposed image obtained by superimposing all video signals of the component and the background for the posture, and the reference point candidates are Among them, those that do not provide the same information regarding the identification of parts are selected as reference points, the video information of the selected reference points is combined to create a dictionary pattern, and the obtained dictionary pattern and the above reference points are combined. A component identification method that identifies the type and orientation of a component by comparing a combination pattern of real video information with the dictionary pattern.
JP54115658A 1979-09-11 1979-09-11 Part identification method Expired JPS5952472B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP54115658A JPS5952472B2 (en) 1979-09-11 1979-09-11 Part identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP54115658A JPS5952472B2 (en) 1979-09-11 1979-09-11 Part identification method

Publications (2)

Publication Number Publication Date
JPS5640981A JPS5640981A (en) 1981-04-17
JPS5952472B2 true JPS5952472B2 (en) 1984-12-19

Family

ID=14668089

Family Applications (1)

Application Number Title Priority Date Filing Date
JP54115658A Expired JPS5952472B2 (en) 1979-09-11 1979-09-11 Part identification method

Country Status (1)

Country Link
JP (1) JPS5952472B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58114889A (en) * 1981-12-26 1983-07-08 富士通株式会社 Control system of attitude
JP3451749B2 (en) * 1994-10-14 2003-09-29 ダイキン工業株式会社 Ring work supply method and apparatus

Also Published As

Publication number Publication date
JPS5640981A (en) 1981-04-17

Similar Documents

Publication Publication Date Title
US4272756A (en) Method of pattern recognition and apparatus thereof
US8265350B2 (en) Method and apparatus for detecting and processing specific pattern from image
JP3515199B2 (en) Defect inspection equipment
WO2010115464A1 (en) Two-dimensional symbol code and method for reading the symbol code
JPS58201185A (en) Position detector
CN112001219A (en) Multi-angle multi-face recognition attendance checking method and system
JP5294798B2 (en) Image processing apparatus and image processing method
JPS5952472B2 (en) Part identification method
CN116311391A (en) High-low precision mixed multidimensional feature fusion fingerprint retrieval method
JPS6249481A (en) Method and apparatus for digitalizing image
JPH04232575A (en) Local hierarchical processing method for shift of focal point in image
JPH07121713A (en) Pattern recognition method
JPS5941230B2 (en) Contour extraction method
JPH0224323B2 (en)
KR910007348B1 (en) Machine vision process and apparatus for reading a plurality of separated figures
JPS634379A (en) Pattern matching device
JP3371614B2 (en) Recognition device
JPH0224322B2 (en)
JPS638512B2 (en)
JPH0581430A (en) Detection of edge
JP2967591B2 (en) How to divide compound figures
JPS59212981A (en) Extracting method of feature of picture
JPH04177483A (en) Pattern matching system
JPH0145102B2 (en)
JPH0927895A (en) Image compositing device