JPH1011576A - Component shape recognizing method - Google Patents

Component shape recognizing method

Info

Publication number
JPH1011576A
JPH1011576A JP8161906A JP16190696A JPH1011576A JP H1011576 A JPH1011576 A JP H1011576A JP 8161906 A JP8161906 A JP 8161906A JP 16190696 A JP16190696 A JP 16190696A JP H1011576 A JPH1011576 A JP H1011576A
Authority
JP
Japan
Prior art keywords
picture
data
neural network
edge
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8161906A
Other languages
Japanese (ja)
Inventor
Yasuhiro Nagai
靖泰 永井
Shin Miyaji
伸 宮治
Minoru Higashihara
稔 東原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP8161906A priority Critical patent/JPH1011576A/en
Publication of JPH1011576A publication Critical patent/JPH1011576A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To speedily and precisely recognize a shape by encoding picture data of a fetched component picture, inputting encoded data to a neural network and outputting a category from the neural network so as to reduce an arithmetic quantity between picture information. SOLUTION: The picture of the component is inputted from a picture input system 7. The inputted picture is temporarily read in a frame memory 4 and read at a proper timing by the command of a CPU 2 to extract the picture of a specified edge or corner part. Data of these edge or corner part pictures is outputted to each small area previously fixed. Then the read picture data in each small are is DCT-transformed through a DCT circuit 5 to obtain a compressed picture removed of high frequency components. Compressed picture data in each small area obtained like this is inputted to a neural network 6 along a horizontal scanning line. Then the category of plural edges and corners is decided.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はチップマウンタ等の
非常に小さな部品の形状認識技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technology for recognizing the shape of a very small component such as a chip mounter.

【0002】[0002]

【従来の技術】チップマウンタによるチップのような小
部品をマウントする際の該小部品の形状を認識する方法
として従来から行われている方法は、撮像した電子部品
の画像を濃淡画像あるいは2値画像に変換して保存し、
保存された画像より抽出されたエッジあるいはコーナ画
像を、ランレングスコード化処理やチェーンコード化処
理等を施すことにより、エッジあるいはコーナの特徴を
計測し、その比較により部品の形状を決定するものであ
る。
2. Description of the Related Art Conventionally, as a method of recognizing the shape of a small component such as a chip by a chip mounter when mounting the small component, a captured image of an electronic component is converted into a grayscale image or a binary image. Convert to image and save,
The edge or corner image extracted from the saved image is subjected to run-length coding or chain coding to measure the characteristics of the edge or corner and determine the shape of the part by comparison. is there.

【0003】斯かる従来の方法では種々の演算で処理す
る情報量が多く、部品形状認識に多くの時間を費やすと
いう問題点があった。
In such a conventional method, there is a problem that a large amount of information is processed by various operations, and a lot of time is spent for recognition of the component shape.

【0004】[0004]

【発明が解決しようとする課題】本発明は上記従来技術
の問題点に鑑みなされたものであり、形状認識に用いる
画像情報間の演算量を減らし、高速で高精度の形状認識
を行える部品形状位置認識方法を提供することを目的と
するものである。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems of the prior art, and has been made in consideration of the above problems. It is an object of the present invention to provide a position recognition method.

【0005】[0005]

【課題を解決するための手段】本発明は、取込まれた部
品画像の画像データを符号化し、符号化されたデータを
ニューラルネットの入力とし、該ニューラルネットから
カテゴリを出力する方法である。
SUMMARY OF THE INVENTION The present invention is a method for encoding image data of a captured part image, inputting the encoded data to a neural network, and outputting a category from the neural network.

【0006】前記カテゴリは、直線エッジ、凸エッジ、
凹エッジ、NGエッジあるいは直線コーナ、R面取りコ
ーナ、C面取りコーナ、NGコーナである。
The categories are straight edge, convex edge,
These are concave edges, NG edges or straight corners, R chamfer corners, C chamfer corners, and NG corners.

【0007】[0007]

【発明の実施の形態】以下本発明の部品形状認識方法そ
の一実施例について図面に基づき詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a component shape recognition method according to the present invention will be described below in detail with reference to the drawings.

【0008】図1は装置の一実施例を示すブロック回路
図である。同図において1はCPU(Central
Processing Unit)バスであり、該CP
Uバス1にCPU2、メインメモリ3、フレームメモリ
4、DCT(Discrete Cosine Tra
nsform)回路5、ニューラルネット6が接続され
ている。
FIG. 1 is a block circuit diagram showing one embodiment of the apparatus. In the figure, reference numeral 1 denotes a CPU (Central
Processing Unit) bus and the CP
CPU 2, main memory 3, frame memory 4, DCT (Discrete Cosine Tra)
nsform) circuit 5 and a neural network 6 are connected.

【0009】ここで、DCTというのは画像符号化の方
式の一つであり、画像符号化技術はデジタル画像通信・
記録の分野において、通信回線や記録媒体の効率化のた
めに必要不可欠となっているものである。
[0009] Here, DCT is one of the image coding methods, and the image coding technology is a digital image communication method.
In the field of recording, it is indispensable for improving the efficiency of communication lines and recording media.

【0010】特にDCTは対象となるデータ列を余弦波
形に分解したときのシーケンシ成分(フーリエ変換の周
波数成分に相当する)を抽出するものである(例えば画
像ラボ1990年10月号41頁〜45頁、テレビジョ
ン学会誌Vol.43,No.10(1989)pp.
1145〜1152を参照)。
In particular, DCT extracts a sequence component (corresponding to a frequency component of Fourier transform) when a target data sequence is decomposed into a cosine waveform (for example, Image Lab., October 1990, pp. 41-45). Page, Journal of the Institute of Television Engineers of Japan, Vol. 43, No. 10 (1989) pp.
1455-1152).

【0011】次に画像入力系7で得られた部品画像は一
旦前記フレームメモリ4に記憶され、DCT回路5によ
るDCT処理の時点でフレームメモリ4から読み出され
て、DCT回路5に入力される。
Next, the component image obtained by the image input system 7 is temporarily stored in the frame memory 4, read out from the frame memory 4 at the time of DCT processing by the DCT circuit 5, and input to the DCT circuit 5. .

【0012】前記DCT回路5では図2(a)の左図に
示すように取込んだ部品の原画像のうち高周波成分を全
て0に置き換えて右図のような圧縮されたデータを作成
する。
In the DCT circuit 5, as shown in the left diagram of FIG. 2 (a), all high-frequency components in the original image of the captured component are replaced with 0, and compressed data as shown in the right diagram is created.

【0013】電子部品画像においては、低周波成分を多
く含むため、変換後高周波成分を無視するような処理を
行っても画像の特性はそれほど失われない。従って少な
いデータ数でも十分精度の良いデータ照合が可能であ
る。
Since an electronic component image contains many low-frequency components, even if a process for ignoring the high-frequency components after conversion is performed, the characteristics of the image are not largely lost. Therefore, even with a small number of data, sufficiently accurate data collation can be performed.

【0014】実際の部品画像では上記図2(a)は図2
(b)ようになりDCT回路の出力は図2(b)の右図
のような電力分布画像となる。かかる電力分布画像は数
1で表わされるDCTの表式の第0シーケンシから第M
−1シーケンシ(Mが大きいほど高周波になる)をX、
Y方向にマトリックス状に配置したものとなっており、
各シーケンシは図3に示すような波形になっている。
In the actual part image, FIG.
2B, the output of the DCT circuit is a power distribution image as shown in the right diagram of FIG. 2B. Such a power distribution image is obtained from the 0th sequence to the Mth sequence in the DCT expression represented by Expression 1.
-1 sequence (the higher the M, the higher the frequency)
It is arranged in a matrix in the Y direction,
Each sequence has a waveform as shown in FIG.

【0015】[0015]

【数1】 (Equation 1)

【0016】前記DCT回路5で処理された圧縮済みの
データは、前記ニューラルネット6の入力層の入力とな
り、該ニューラルネット6の出力層には、各エッジまた
は各コーナのカテゴリを用意し、各カテゴリに対する出
力値の大小によって取込部品のエッジまたはコーナの属
性が特定される。
The compressed data processed by the DCT circuit 5 is input to an input layer of the neural network 6, and a category of each edge or each corner is prepared in an output layer of the neural network 6, The edge or corner attribute of the captured part is specified by the magnitude of the output value for the category.

【0017】次に本発明の部品形状認識装置の操作を図
4のフローチャートに従って説明する。まずステップS
1において画像入力系7により部品の画像を入力する。
入力された画像(512×512画素)は一旦フレーム
メモリ4に取込まれ、CPU2の指令により適当なタイ
ミングで読み出され、ステップS11によって特定され
たエッジまたはコーナ部分の画像が抽出される。
Next, the operation of the component shape recognition apparatus of the present invention will be described with reference to the flowchart of FIG. First, step S
In 1, an image of a component is input by the image input system 7.
The input image (512 × 512 pixels) is once taken into the frame memory 4, read out at an appropriate timing according to a command from the CPU 2, and an image of the edge or corner portion specified in step S 11 is extracted.

【0018】これらエッジまたはコーナ部分画像につい
て予め定められた小領域(64×64画素)毎にそのデ
ータを出力する(ステップS2)。そしてステップS3
で読み出された小領域毎の画像データをDCT回路5を
介してDCT変換し、高周波成分が除かれた圧縮画像
(32×32画素)を得る。
The data is output for each predetermined small area (64 × 64 pixels) for these edge or corner partial images (step S2). And step S3
The DCT circuit 5 performs DCT conversion on the image data of each small area read by the DCT circuit 5 to obtain a compressed image (32 × 32 pixels) from which high-frequency components have been removed.

【0019】こうして得られた小領域毎の圧縮画像デー
タは、水平方向の走査ラインに沿ってニューラルネット
6の入力となる(ステップS4)。水平方向走査ライン
の任意の一列の圧縮データがニューラルネット6の入力
として入力され、ニューラルネットが起動してその入力
された走査ラインのデータが直線エッジ、凸エッジ、凹
エッジ、NGエッジ(これらのどれにも該当しないエッ
ジ)にマッチするかのマッチ度が算出され、いずれのエ
ッジであるかはこのマッチ度の最も高いものとして決定
される(ステップS5)。
The compressed image data for each small area thus obtained is input to the neural network 6 along a horizontal scanning line (step S4). An arbitrary row of compressed data of the horizontal scanning line is input as an input to the neural network 6, and the neural network is activated and the input scanning line data is converted into a straight edge, a convex edge, a concave edge, and an NG edge (these The degree of matching to match the edge that does not correspond to any of them is calculated, and which edge is determined as the one having the highest degree of matching (step S5).

【0020】以上の走査が水平方向走査ライン毎に順に
実行され、全部品画像データに対する処理の後、複数個
のエッジのカテゴリが決定される。また同様にして、複
数個のコーナのカテゴリが決定される。
The above-described scanning is sequentially performed for each horizontal scanning line. After processing all the component image data, a plurality of edge categories are determined. Similarly, a plurality of corner categories are determined.

【0021】ところで部品画像を小領域に分割して夫々
DCT変換すると、各領域の境界付近での画像データが
離散的になり、精度が悪くなる。このため、前記各小領
域を原画像から互いに重なりを有して分割し、各領域の
境界付近のデータを平滑処理することによって、DCT
変換後の各領域の圧縮データに連続性を持たせることが
望ましい。
When the component image is divided into small areas and DCT-transformed, the image data near the boundaries of each area becomes discrete, resulting in poor accuracy. For this reason, the DCT is performed by dividing each of the small areas from the original image so as to overlap each other and smoothing data near the boundaries of the respective areas.
It is desirable to give continuity to the compressed data of each area after conversion.

【0022】[0022]

【発明の効果】本発明は以上の説明のように、DCTに
よる圧縮されたデータによってニューラルネットを起動
し、このニューラルネットの処理によりエッジまたはコ
ーナのカテゴリを決定するため、画像データの高周波成
分の省略によるメモリの節約が行え、エッジまたはコー
ナの形状認識の高い精度が得られ、高速且つ高精度の部
品位置認識が行える効果が期待できる。
As described above, according to the present invention, the neural network is activated by the data compressed by the DCT, and the edge or corner category is determined by the processing of the neural network. It is possible to save the memory by omitting it, obtain high accuracy of edge or corner shape recognition, and expect an effect that high-speed and high-precision component position recognition can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明装置のハードウエア構成を示すブロック
図である。
FIG. 1 is a block diagram showing a hardware configuration of a device of the present invention.

【図2】(a)、(b)はDCT処理の概念を示す図で
ある。
FIGS. 2A and 2B are diagrams showing the concept of DCT processing.

【図3】DCTの各シーケンシの波形(抜粋)を示す図
である。
FIG. 3 is a diagram showing a waveform (extract) of each sequence of the DCT.

【図4】本発明方法を説明するフローチャート及びステ
ータスを示す概念図である。
FIG. 4 is a conceptual diagram showing a flowchart and status explaining the method of the present invention.

【符号の説明】 1 CPUバス 2 CPU 3 メインメモリ 4 フレームメモリ 5 DCT回路 6 ニューラルネット 7 画像入力系[Description of Signs] 1 CPU bus 2 CPU 3 Main memory 4 Frame memory 5 DCT circuit 6 Neural network 7 Image input system

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 取込まれた部品画像の画像データを符号
化し、符号化されたデータをニューラルネットの入力と
し、該ニューラルネットからカテゴリを出力する部品形
状認識方法。
1. A component shape recognition method for encoding image data of a captured component image, inputting the encoded data to a neural network, and outputting a category from the neural network.
【請求項2】 前記カテゴリは直線エッジ、凸エッジ、
凹エッジ、NGエッジである上記請求項1記載の部品形
状認識方法。
2. The category includes a straight edge, a convex edge,
The component shape recognition method according to claim 1, wherein the component shape is a concave edge or an NG edge.
【請求項3】 前記カテゴリは直角コーナ、R面取りコ
ーナ、C面取りコーナ、NGコーナである上記請求項1
または2記載の部品形状認識方法。
3. The category according to claim 1, wherein the categories are a right angle corner, an R chamfer corner, a C chamfer corner, and an NG corner.
Or the component shape recognition method according to 2.
JP8161906A 1996-06-21 1996-06-21 Component shape recognizing method Pending JPH1011576A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8161906A JPH1011576A (en) 1996-06-21 1996-06-21 Component shape recognizing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8161906A JPH1011576A (en) 1996-06-21 1996-06-21 Component shape recognizing method

Publications (1)

Publication Number Publication Date
JPH1011576A true JPH1011576A (en) 1998-01-16

Family

ID=15744274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8161906A Pending JPH1011576A (en) 1996-06-21 1996-06-21 Component shape recognizing method

Country Status (1)

Country Link
JP (1) JPH1011576A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1887512A1 (en) * 2005-06-02 2008-02-13 Matsushita Electric Industrial Co., Ltd. Automatic part teaching device
JP2018060296A (en) * 2016-10-03 2018-04-12 グローリー株式会社 Image processing apparatus, image processing system, and image processing method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1887512A1 (en) * 2005-06-02 2008-02-13 Matsushita Electric Industrial Co., Ltd. Automatic part teaching device
EP1887512A4 (en) * 2005-06-02 2008-08-13 Matsushita Electric Ind Co Ltd Automatic part teaching device
US8233724B2 (en) 2005-06-02 2012-07-31 Panasonic Corporation Automatic component teaching device
JP2018060296A (en) * 2016-10-03 2018-04-12 グローリー株式会社 Image processing apparatus, image processing system, and image processing method

Similar Documents

Publication Publication Date Title
JP3878401B2 (en) Image processing apparatus, image processing method, and recording medium recording the same
JPH02277185A (en) Extracting method for rectangle coordinates
JP2000165648A (en) Image processing method, its device and recording medium
CN114387450A (en) Picture feature extraction method and device, storage medium and computer equipment
JP3062382B2 (en) Image processing apparatus and method
US20130343655A1 (en) Apparatus and method extracting feature information of a source image
JPH1011576A (en) Component shape recognizing method
JPS62131382A (en) Vector conversion system for binary picture
WO2003063082A1 (en) Moving picture search apparatus
JPH07118002B2 (en) Image processing device
JPH10187978A (en) Component form recognizing method
JP2993007B2 (en) Image area identification device
JP2822792B2 (en) Image noise removal device
CN113705430B (en) Form detection method, device, equipment and storage medium based on detection model
JP3058951B2 (en) Image pattern recognition device
US20240160111A1 (en) Digital direct recording device comprising real time analysis and correction of recorded artwork by dividing the artwork into submodules
JP2713930B2 (en) Image processing method
JP2002251613A (en) Method and device for recognizing graphic
JPH09311940A (en) Parts recognition method and device
JP2621868B2 (en) Image feature extraction device
JPH09147099A (en) Gradation conversion processing system for digital image
JPH09265530A (en) Dictionary generating method and color image recognizing method
CN118038476A (en) Navigation data form positioning method, system, equipment and storage medium
JPH05165955A (en) Image processing method
JP2998518B2 (en) Pattern inspection equipment