JP4744234B2 - Component positioning method and apparatus - Google Patents

Component positioning method and apparatus Download PDF

Info

Publication number
JP4744234B2
JP4744234B2 JP2005241489A JP2005241489A JP4744234B2 JP 4744234 B2 JP4744234 B2 JP 4744234B2 JP 2005241489 A JP2005241489 A JP 2005241489A JP 2005241489 A JP2005241489 A JP 2005241489A JP 4744234 B2 JP4744234 B2 JP 4744234B2
Authority
JP
Japan
Prior art keywords
recognition
order
component
user
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005241489A
Other languages
Japanese (ja)
Other versions
JP2007059546A (en
Inventor
公子 藤江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP2005241489A priority Critical patent/JP4744234B2/en
Publication of JP2007059546A publication Critical patent/JP2007059546A/en
Application granted granted Critical
Publication of JP4744234B2 publication Critical patent/JP4744234B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、部品の位置決め方法及び装置に係り、特に、電子部品実装機に用いるのに好適な、撮像された部品の画像を処理して、部品の辺やコーナー等の特徴物から部品を効率良く位置決めすることが可能な、部品の位置決め方法及び装置に関する。   The present invention relates to a component positioning method and apparatus, and in particular, processes an image of an imaged component suitable for use in an electronic component mounter, and efficiently processes the component from features such as a side and a corner of the component. The present invention relates to a component positioning method and apparatus that can be well positioned.

電子部品の実装機では、フィーダから供給される電子部品を吸着ノズルで吸着し、吸着ノズルを回路基板上の所定位置に移動させて電子部品を基板に搭載している。この場合、電子部品は、必ずしも正しい姿勢で吸着されるわけではないので、電子部品を回路基板に搭載する際に、実装直前に画像認識部においてCCDカメラ等の撮像装置で部品の画像データを取得し、画像処理を行なって、吸着中心と部品中心のずれ、並びに、吸着傾きを検出して、部品搭載の位置決めを行ない、精度良く電子部品を実装している。   In an electronic component mounting machine, an electronic component supplied from a feeder is sucked by a suction nozzle, and the suction nozzle is moved to a predetermined position on a circuit board to mount the electronic component on the substrate. In this case, since the electronic component is not necessarily picked up in a correct posture, when mounting the electronic component on the circuit board, the image recognition unit acquires image data of the component with an imaging device such as a CCD camera immediately before mounting. Then, image processing is performed to detect the deviation between the suction center and the component center, and the suction inclination, thereby positioning the components and mounting the electronic components with high accuracy.

ここで、従来の部品位置決め装置は、部品形状毎に、それに特化した認識アルゴリズムを備えているため、ユーザが部品の種類を選択し、それに応じた部品データ(部品や、リード、ボール端子、コーナー、辺、マーク等の特徴物のサイズ、位置、個数、検査条件等)を入力すれば、部品を正しく位置決めできるようになっている。   Here, since the conventional part positioning device has a recognition algorithm specialized for each part shape, the user selects the type of the part, and the part data (part, lead, ball terminal, If the size, position, number, inspection conditions, etc. of features such as corners, sides, marks, etc.) are input, the parts can be positioned correctly.

又、QFPやBGAのような決まりきった形状の定型部品ではない異形部品についても、特許文献1で提案されているように、部品の特徴物を複数組合せて1つの部品の位置決めデータを定義することができ、正しく部品を位置決めできる。   In addition, as for a deformed part which is not a fixed part of a fixed shape such as QFP or BGA, as proposed in Patent Document 1, a plurality of feature parts are combined to define positioning data of one part. And correctly position the part.

この時、部品を定義する特徴物を、どの順番で認識するかという情報は、個々の認識アルゴリズム内に組み込まれており、部品の認識処理を行なう際に、ユーザが、これを意識する必要は無かった。   At this time, information on the order in which the feature defining the part is recognized is incorporated in each recognition algorithm, and it is not necessary for the user to be aware of this when performing the part recognition process. There was no.

特開2001−209792号公報JP 2001-209792 A

しかしながら、従来の部品位置決め装置のように、部品の特徴物の認識順序が固定され、ユーザが指定できないと、次のような問題点があった。   However, as in the conventional component positioning apparatus, if the recognition order of component features is fixed and cannot be specified by the user, there are the following problems.

(1)認識エラーや誤認識の発生
図1(A)に示す如く、例えば部品10の4辺のリード端子11A〜11Dの内、特定端子11Aだけ材質が異なり、映りが暗くなる等の事情で特徴物の映りが不鮮明の場合や、図1(B)に示す如く、部品10のボディに印刷されたマーク12や配線14の飛び出し等によるノイズの映り込みが多い場合等に認識エラーが発生したり、図1(C)に示す如く、特徴物(端子11A)と類似した形状(類似物とも称する)16が同一ピッチで隣接している場合に、特徴物と類似物とを正しく判断することができず、認識が安定しなかったりする。
(1) Occurrence of recognition error or misrecognition As shown in FIG. 1A, for example, the material of the lead terminal 11A to 11D on the four sides of the component 10 is different from that of the specific terminal 11A, and the image becomes dark. A recognition error occurs when the reflection of a feature object is unclear, or when there is a lot of noise reflection due to the mark 12 printed on the body of the component 10 or the jumping out of the wiring 14 as shown in FIG. In addition, as shown in FIG. 1C, when a shape (also referred to as a similar object) 16 similar to the characteristic object (terminal 11A) is adjacent at the same pitch, the characteristic object and the similar object are correctly determined. Cannot be recognized and recognition is not stable.

これは、実装機における部品の位置決め機能では、余分なタクトを避けるため、部品の認識途中でエラーが発生した場合は、その時点で図2(A)に示す如くエラー終了するからである。そのため、最初に認識しようとする特徴物の画質が、図1(A)、(B)に示すように劣悪であったり、図1(C)に示すように紛らわしい形状である場合には、この特徴物の認識が正常に行なえず、結果として部品の位置決めに失敗するという現象が発生し易い。   This is because, in the component positioning function in the mounting machine, in order to avoid excessive tact, if an error occurs during component recognition, the error ends as shown in FIG. For this reason, if the image quality of the feature to be recognized first is poor as shown in FIGS. 1A and 1B or a confusing shape as shown in FIG. It is easy to generate a phenomenon that the feature cannot be recognized normally, and as a result, the positioning of the component fails.

この場合、図2(B)に示す如く、画質が劣悪であったり、紛らわしい形状の特徴物の認識順を後回しにすることができれば、正しく認識できた他の特徴物の位置情報等を用いて、正しく位置決めできる可能性もある。   In this case, as shown in FIG. 2 (B), if the recognition order of the feature having a poor image quality or a confusing shape can be postponed, the position information of other feature that can be recognized correctly is used. There is also a possibility that positioning can be performed correctly.

しかしながら、図1のような画質の悪さ、類似形状の有無等の情報は、ユーザの指定した部品データから部品位置決め装置が事前に判断するのは難しいため、内部の認識アルゴリズムの強化だけでは対応し切れなかった。   However, information such as the poor image quality and the presence / absence of a similar shape as shown in FIG. 1 is difficult to determine in advance by the component positioning device from the component data specified by the user. I couldn't cut it.

(2)エラー原因の特定のし難さ
又、部品位置決め装置は、認識エラーが発生した際に、エラーを発生させた特徴物やエラー原因を出力する機能を備えている。しかしながら認識エラーが発生した直接原因が真のエラー原因とは限らない場合が多々ある。ユーザレベルで真のエラー原因を見極め、これを取り除くためには、エラーに至った認識処理の過程や、検出処理が正常に行なえない要因をユーザ自身が把握できている必要がある。
(2) Difficulty in identifying the cause of the error The component positioning device has a function of outputting the feature that caused the error and the cause of the error when a recognition error occurs. However, there are many cases where the direct cause of the recognition error is not always the true cause of the error. In order to determine the true error cause at the user level and remove it, it is necessary for the user to be able to grasp the process of recognition processing that led to the error and the factor that the detection process cannot be performed normally.

従来の部品位置決め装置のように、部品の特徴物の認識順序が固定で行なっている場合、ユーザには、どの順番で部品の特徴物を認識しているか分からないため、エラー時に認識処理過程がどうなっているのか把握できなかった。また従来の部品位置決め装置にはエラーになり易い要因をユーザに通知する機能がなかったため、ユーザは具体的なエラー要因を把握することができなかった。   When the recognition order of component features is fixed as in the conventional component positioning device, the user does not know in which order the feature of the component is recognized. I couldn't figure out what happened. In addition, since the conventional component positioning device does not have a function of notifying the user of factors that are likely to cause errors, the user cannot grasp specific error factors.

請求項1の発明は、複数の特徴物を持つ部品の位置決め方法において、特徴物を認識する順序をユーザが指定し、該ユーザが指定した順序に従って、特徴物を認識し、画像処理するようして、前記課題(1)を解決したものである。また、ユーザが認識順を指定できない場合に、部品の認識処理と同一のアルゴリズムで事前に同一の特徴物の集合である特徴物グループを個々に認識実行させた際の認識状態、類似物の存在有無、特徴物濃度、背景濃度、ノイズ成分の有無、認識速度から評価値を算出し、該評価値の高い順に従って認識順を割り振ることで最適な認識順序を取得し、この最適な認識順序で部品データを作成し、最適な認識順序で部品認識するようにして、最適な認識順が分からないユーザでも効率良く部品認識できるようにしたものである。又、前記手段により得られた最適な認識順序と各項目の評価値をユーザに通知するようにして、前記課題(2)を解決したものである。 According to the first aspect of the present invention, in the method for positioning a part having a plurality of features, a user designates an order of recognizing the features, recognizes the features according to the order designated by the user, and performs image processing. Thus, the problem (1) is solved. In addition, when the user cannot specify the recognition order, the recognition state when a feature group that is a set of the same feature is individually recognized and executed in advance by the same algorithm as the part recognition process, and the presence of similar items An evaluation value is calculated from the presence / absence, feature density, background density, presence / absence of noise components, and recognition speed, and the optimal recognition order is obtained by assigning the recognition order in descending order of the evaluation value. By creating component data and recognizing components in the optimum recognition order, even a user who does not know the optimum recognition order can efficiently recognize the components. Further, the problem (2) is solved by notifying the user of the optimum recognition order obtained by the means and the evaluation value of each item.

請求項の発明は、前記ユーザの指定した認識順序が実際には認識し難いものであった場合には、前記最適認識順の取得方法によって自動的に認識順を取得し、以降の認識時に反映させるようにして、前記課題(1)を解決したものである。 In the invention of claim 2 , when the recognition order designated by the user is actually difficult to recognize, the recognition order is automatically acquired by the acquisition method of the optimum recognition order, and at the time of subsequent recognition The problem (1) is solved by reflecting.

請求項3の発明は、複数の特徴物を持つ部品の位置決め装置において、特徴物を認識する順序をユーザが指定する手段と、該ユーザが指定した順序に従って、特徴物を認識し、画像処理する手段と、を備えた部品の位置決め装置であって、部品の認識処理と同一のアルゴリズムで事前に同一の特徴物の集合である特徴物グループを個々に認識実行させた際の認識状態、類似物の存在有無、特徴物濃度、背景濃度、ノイズ成分の有無、認識速度から評価値を算出し、該評価値の高い順に従って最適な認識順序を取得する機能と、前記機能により取得した最適な認識順で部品認識する機能と、前記機能により取得した最適な認識順と評価値をユーザへ通知する機能を備えたことを特徴とする部品の位置決め装置を提供するものである。 According to a third aspect of the present invention, in a part positioning apparatus having a plurality of features, the user designates the order of recognizing the features, and recognizes the features and performs image processing according to the order designated by the user. And a recognition state when a feature group that is a set of the same feature is individually recognized and executed in advance by the same algorithm as the component recognition process. The evaluation value is calculated from the presence / absence of the image, the density of the feature object, the background density, the presence / absence of the noise component, and the recognition speed, and the optimum recognition order obtained according to the highest evaluation value and the optimum recognition obtained by the function The present invention provides a component positioning apparatus provided with a function of recognizing parts in order and a function of notifying a user of an optimal recognition order and evaluation values acquired by the function.

請求項1及びの発明によれば、ユーザレベルで部品の特徴物の認識順を指定できるので、(1)ノイズ、映りの不鮮明さ、特徴物位置やサイズのばらつき等による認識し辛さ、類似物による誤検出の可能性等、ユーザしか把握できないような情報を反映させた部品データを作成してもらうことができ、認識し難い特徴物の認識順序を下げることで、認識率を向上させることができる。又、(2)エラーが発生した際に、どの順序で何を認識した際にエラーが発生したかを、ユーザ自身が判断することができる。更に、(3)エラーが発生した際は、エラー原因に沿った特徴物グループの認識順序を下げれば部品認識が可能になることがあるが、これをユーザが判断して操作することが可能となる。 According to the first and second aspects of the invention, since the recognition order of the feature of the part can be specified at the user level, (1) it is difficult to recognize due to noise, unclearness of the reflection, feature position and size variation, Improve recognition rate by lowering the recognition order of difficult-to-recognize features by creating part data that reflects information that only the user can grasp, such as the possibility of false detection by similar objects be able to. In addition, (2) when an error occurs, the user can determine which error occurred when what was recognized in what order. Furthermore, (3) when an error occurs, component recognition may be possible if the recognition order of the feature group along the cause of the error is lowered, but this can be determined and operated by the user. Become.

又、請求項1、3の最適認識順序取得機能を用いることで、部品の認識処理と同一のアルゴリズムで事前に同一の特徴物の集合である特徴物グループを個々に認識実行させた際の認識状態(正常か異常か)、類似物の存在有無、特徴物濃度、背景濃度、ノイズ成分の有無、認識速度から最適な認識順序を取得することができるので、短時間で認識率の面でもタクト面でも最適な部品認識データを作成することができる。様々な形状の部品でこの最適認識順取得機能を用いることでユーザ自身が部品認識装置の得手、不得手(認識が不安定になる要因)を習得することができ、結果的にこの機能に頼らなくても最適な認識順を独自に判断することができるようになり、この機能に頼らずに請求項1の前半部分の機能(特徴物を認識する順序をユーザが指定し、該ユーザが指定した順序に従って、特徴物を認識し、画像処理して部品の位置決めをする機能)を用いることができるようになる。 In addition, by using the optimum recognition order acquisition function according to claims 1 and 3 , recognition is performed when individual feature groups that are a set of the same feature are recognized and executed in advance by the same algorithm as the part recognition processing. Since the optimal recognition order can be acquired from the state (normal or abnormal), presence / absence of similar objects, feature density, background density, presence / absence of noise components, and recognition speed, it can be tacted in terms of recognition rate in a short time. The most suitable part recognition data can be created. By using this optimal recognition order acquisition function for parts of various shapes, the user can learn the pros and cons of the component recognition device (factors that make the recognition unstable), and as a result, rely on this function. The optimum recognition order can be independently determined without the need, and the function (the order in which the features are recognized is specified by the user without relying on this function). The function of recognizing the feature object and performing image processing to position the component in accordance with the sequence described above can be used.

又、請求項によれば、ユーザの設定した認識順では認識し難い場合には自動的に最適な認識順序に変更することができるため、仮にユーザが最適だと判断した認識順序と実際の最適な認識順序が一致しない場合でも正しく認識ができるようになる。 Further, according to the second aspect , when it is difficult to recognize in the recognition order set by the user, the recognition order can be automatically changed to the optimum recognition order. Even when the optimum recognition order does not match, it can be recognized correctly.

常に新しい形状の部品が流通する中、いかに早く新形状の部品を実装可能にできるかが基板製造の時間を大きく左右する。こういった意味では、請求項2にある最適認識順序の取得機能はユーザの操作効率を上げるだけでなく、画像処理の癖の習得に役立ち、請求項1の認識順の直接指定機能を使いこなせるようになるため、更なる効率化につながる。しかも請求項3にあるようにユーザが指定した認識順では認識し難い場合でも自動的に最適な認識順に置換されるので、出戻り作業が発生せず効率的な生産を行なうことができる。   As parts with new shapes are always on the market, how quickly new parts can be mounted greatly affects the time required for board production. In this sense, the acquisition function of the optimal recognition order in claim 2 not only increases the user's operation efficiency, but also helps to acquire image processing habits, so that the direct specification function of the recognition order of claim 1 can be used. Therefore, it leads to further efficiency. In addition, even if it is difficult to recognize in the recognition order specified by the user as in claim 3, since it is automatically replaced in the optimal recognition order, return work does not occur and efficient production can be performed.

以下図面を参照して、本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図3に、本発明を実施するための電子部品位置検出装置の実施形態を示す。   FIG. 3 shows an embodiment of an electronic component position detection apparatus for carrying out the present invention.

図3において、10は電子部品、28は、該電子部品10を吸着するための吸着ノズル、30は、多数の照明ランプを備えた照明装置32、レンズ34、例えばCCDカメラでなる撮像装置36を含む部品検出部、40は、CPU42、A/Dコンバータ44、部品データ格納メモリ46、画像メモリ48、エラー画像メモリ50を含む画像処理装置、60は、入力画像や処理画像を表示するためのモニタである。   In FIG. 3, 10 is an electronic component, 28 is a suction nozzle for sucking the electronic component 10, and 30 is an illumination device 32 provided with a number of illumination lamps, a lens 34, for example, an imaging device 36 comprising a CCD camera. A component detection unit 40 includes an image processing apparatus 40 including a CPU 42, an A / D converter 44, a component data storage memory 46, an image memory 48, and an error image memory 50. A monitor 60 displays an input image and a processed image. It is.

以下動作を説明する。   The operation will be described below.

ユーザは、認識させたい部品10のデータを、実装機本体へ入力する。このときユーザは、部品10の特徴物の認識順序を指定することができる。   The user inputs data of the component 10 to be recognized to the mounting machine body. At this time, the user can specify the recognition order of the feature of the component 10.

例えば、図4のような部品10(ここでは、QFP、BGA等の定形部品ではなく、いわゆる異形部品の例を示す)に、上辺リード列L0、左下コーナーC1、右下コーナーC2を認識させ、部品10の位置決めを行ないたいとする。このとき、ユーザは、C2コーナーの内側にマーク12が印刷されていること、又、それ故に部品10を撮像した際にC2コーナー内部が暗く映ること、そして、画質が悪い場合は認識率が悪いことを把握していることが多い。従って、この場合は、C2コーナーを一番最後に認識するような認識順序を定義して、部品データを作成することができる。   For example, let the component 10 as shown in FIG. 4 (here, an example of a so-called irregular component, not a regular component such as QFP or BGA) recognize the upper side lead row L0, the lower left corner C1, and the lower right corner C2, Assume that the component 10 is to be positioned. At this time, the user recognizes that the mark 12 is printed on the inside of the C2 corner, and therefore the interior of the C2 corner appears dark when the part 10 is imaged, and the recognition rate is poor when the image quality is poor. I often know that. Therefore, in this case, it is possible to create a part data by defining a recognition order for recognizing the C2 corner last.

部品データを受信した実装機本体は、これを前記画像処理装置40へ送信する。画像処理装置40は、受信データの整合性を検査し、認識順序が指定されている場合は、ユーザの指定してきた認識順序で各特徴物データをリンクし、部品データ格納メモリ46へ格納する。   The mounter body that has received the component data transmits it to the image processing apparatus 40. The image processing apparatus 40 checks the consistency of the received data. If the recognition order is designated, the feature processing data is linked in the recognition order designated by the user and stored in the component data storage memory 46.

例えば、図4の部品で、ユーザがL0、C1、C2の順序で認識を行なうように定義した場合は、図5に示すようなリンク構造で管理することができる。ここで、図5の特徴物グループ情報と特徴物情報は、それぞれ特許文献1で提案したエレメントグループ情報、エレメント情報に相当するもので、詳細な説明は省略する。   For example, in the case of the components shown in FIG. 4, when the user defines that the recognition is performed in the order of L0, C1, and C2, the link structure as shown in FIG. 5 can be used for management. Here, the feature object group information and the feature object information in FIG. 5 correspond to the element group information and element information proposed in Patent Document 1, respectively, and detailed description thereof will be omitted.

部品の認識処理は、実装機本体が、画像処理装置40に対して、認識実行コマンドを送信してくると始まる。該認識実行コマンドには、部品ID、部品種別(QFP、BGA、異形部品等)、カメラチャンネル等の情報が含まれる。   The component recognition process starts when the mounter body transmits a recognition execution command to the image processing apparatus 40. The recognition execution command includes information such as a component ID, a component type (QFP, BGA, irregularly shaped component, etc.), a camera channel, and the like.

画像処理装置40は、指定チャンネルのカメラ36で部品10を撮像し、その画像を画像メモリ48へ格納する。又、部品データ格納メモリ46から、該当する部品データを取り出し、認識実行ルーチンへ渡す。   The image processing apparatus 40 captures the part 10 with the camera 36 of the designated channel and stores the image in the image memory 48. Also, the corresponding part data is taken out from the part data storage memory 46 and transferred to the recognition execution routine.

ここで、図4のような異形部品で認識順序が指定されている場合の認識処理手順を図6に示す。図5に示した如く部品データにリンクされている順序で認識を行ない、全ての特徴物の認識が完了したら、部品中心や傾きを算出する。画像処理装置40は、この部品中心や傾きを実装機本体へ送信して、認識処理を終了する。   Here, FIG. 6 shows a recognition processing procedure in the case where the recognition order is specified for the odd-shaped parts as shown in FIG. As shown in FIG. 5, the recognition is performed in the order linked to the component data, and when the recognition of all the feature objects is completed, the component center and the inclination are calculated. The image processing apparatus 40 transmits the component center and inclination to the mounter body, and ends the recognition process.

本発明のように認識順序をユーザが指定できる機能は、慣れたユーザにとっては操作性、機能性共に向上するが、不慣れなユーザや、面倒な設定を敬遠するユーザには、逆に使いこなすのが面倒な機能になる。   The function that allows the user to specify the recognition order as in the present invention improves both operability and functionality for a familiar user, but it can be used conversely for an unfamiliar user or a user who refrains from troublesome settings. It becomes a troublesome function.

そこで、部品認識のテスト機能として、最適認識順取得機能を設けることができる。これは、ユーザが指定した部品データでは、どの順序で特徴物グループを認識すれば良いかを画像処理装置40が判断し、この認識順序を実際の認識処理に反映させるために、部品データを、その認識順のリンク構造に書き換える機能である。   Therefore, an optimum recognition order acquisition function can be provided as a component recognition test function. This is because the image processing apparatus 40 determines in which order the feature group should be recognized in the component data designated by the user, and in order to reflect this recognition order in the actual recognition processing, This is a function to rewrite the link structure in the recognition order.

この機能は以下の2つのタイミングで動作する。1つ目として、通常の部品認識と同様に、画像処理装置40に部品データを送信し、その後に最適認識順取得コマンドを送信することで動作する。この時ユーザは、部品データで認識順を指定する必要は無いが、ある特徴物グループだけの順序を部分的に指定することは可能である。最適認識順取得コマンドには、認識実行コマンドと同様に、部品ID、部品種別、カメラチャンネル等の情報が含まれ、その他に、実行回数や動作モード(自動取得した最適認識順を単にユーザに通知するだけか、ユーザに通知した上で、実際の部品認識に反映させるかを選択)を指定することができる。   This function operates at the following two timings. First, as in normal component recognition, operation is performed by transmitting component data to the image processing apparatus 40 and then transmitting an optimum recognition order acquisition command. At this time, the user does not need to specify the recognition order in the part data, but can specify the order of a certain feature group partly. Like the recognition execution command, the optimum recognition order acquisition command includes information such as the component ID, component type, and camera channel. In addition, the number of executions and the operation mode (automatically acquired optimal recognition sequence is simply notified to the user). It is possible to specify whether or not to reflect it in actual part recognition).

前記画像処理装置40は、最適認識順通知コマンドを受信すると、最適な認識順を取得し、これを部品データ構造に反映させる。又、この結果は、ユーザに通知される。   When receiving the optimum recognition order notification command, the image processing apparatus 40 acquires the optimum recognition order and reflects this in the component data structure. This result is notified to the user.

この最適認識順取得コマンドは、撮影済みの画像に対しても実行可能である。例えば、認識中にエラーが発生した場合、エラー画像をエラー画像メモリ50に保存しておき、例えばエラーが頻発するようになった場合は、このエラー画像に対して最適認識順取得機能を動作させることも可能である。   This optimum recognition order acquisition command can be executed on a captured image. For example, if an error occurs during recognition, the error image is stored in the error image memory 50. For example, if an error occurs frequently, the optimum recognition order acquisition function is operated on the error image. It is also possible.

2つ目として、ユーザが認識順を指定した部品データを画像処理装置に送信後、第1回目の認識がエラーになった場合に、そのエラー画像を用いて自動で動作する。初回での認識エラーが発生した場合、認識順序指定が正しくなかったことが考えられる。そこで最適認識順取得機能を用いて正しい認識順序を取得し、以降の認識時には自動で取得した認識順序が有効になるように変更する。但し、この処理が不要な場合は部品データで動作しない設定にすることができる。   Secondly, after the component data in which the user designates the recognition order is transmitted to the image processing apparatus, when the first recognition results in an error, it automatically operates using the error image. If a recognition error occurs for the first time, the recognition order may have been specified incorrectly. Therefore, the correct recognition order is acquired by using the optimum recognition order acquisition function, and the recognition order automatically acquired is changed to be valid at the time of subsequent recognition. However, when this process is not necessary, it is possible to set so as not to operate with the component data.

又、位置決めアルゴリズムによっては、ユーザの指令通りに認識を実行すると、認識処理に余分な時間がかかったり、認識エラーが発生してしまう可能性がある。そのため、本実施形態では、ユーザが指定してきた順序を、自動的に修正する機能も備えている。   Depending on the positioning algorithm, if recognition is performed according to a user's command, recognition processing may take extra time or a recognition error may occur. For this reason, the present embodiment also has a function of automatically correcting the order designated by the user.

即ち、図7に例示するように、同一の特徴物グループが複数定義されている場合に、個々の特徴物グループ単位で認識を行なおうとすると、認識エラーになってしまう場合がある。例えば、図7に示す部品10のリード端子の認識順を、ユーザがL0、L1、L2の順で定義したとする。この場合、最初に認識指定されたL0の両隣りには、別グループのリード端子L1、L2が隣接している。ここで、リード検出処理に、特開2000−232299号公報で提案されている電極検出アルゴリズムを用いるとすると、検出しようとするリードグループの左右どちらか一方に十分な背景が存在する必要がある。つまり、検出アルゴリズム上、L0を一番最初に認識することができない場合が存在してしまう。この場合に、二番目に指定されているL1を先に検出するように変更する。すると、L1を検出した結果を用いてL0を予測位置決めできるようになり、部品の位置決めを正しく行なうことができるようになる。   That is, as illustrated in FIG. 7, when a plurality of the same feature group is defined, if recognition is performed in units of individual feature groups, a recognition error may occur. For example, assume that the user defines the order of recognition of the lead terminals of the component 10 shown in FIG. 7 in the order of L0, L1, and L2. In this case, another group of lead terminals L1 and L2 are adjacent to both sides of L0 that is initially designated for recognition. Here, if the electrode detection algorithm proposed in Japanese Patent Laid-Open No. 2000-232299 is used for the lead detection process, it is necessary that a sufficient background exists on either the left or right side of the lead group to be detected. That is, there may be a case where L0 cannot be recognized first on the detection algorithm. In this case, it changes so that L2 designated 2nd may be detected first. Then, L0 can be predicted and positioned using the result of detecting L1, and the components can be correctly positioned.

このような検出アルゴリズム上の都合による認識順序の制約は、検出アルゴリズムの改良と共に変化する。即ち、同じ部品データをユーザが指定しても、プログラムのバージョンにより最適な補正方法が異なる場合があるため、この認識順自動補正機能で補正された認識順序をユーザに通知する必要はない。   The restriction of the recognition order due to the convenience of the detection algorithm changes with the improvement of the detection algorithm. That is, even if the same part data is specified by the user, the optimal correction method may differ depending on the version of the program, so there is no need to notify the user of the recognition order corrected by this recognition order automatic correction function.

次に、前記最適認識順取得機能は、図8に示すような手順に従って実行される。   Next, the optimum recognition order acquisition function is executed according to a procedure as shown in FIG.

即ち、まずステップ100で、該当する部品データを取り出す。   That is, first, in step 100, relevant part data is extracted.

次にステップ102で、撮像装置36により部品10を撮像し、その画像を画像メモリ48に格納する。   Next, in step 102, the component 10 is imaged by the imaging device 36 and the image is stored in the image memory 48.

次いでステップ104で、個々の特徴物グループ単独で認識させる。これは、グループ間の位置関係に頼らずに認識できるかどうかの判断を行なうためのものなので、認識対象の特徴物グループ以外に、どのような特徴物グループがどこに存在しているかという情報は全く用いずに認識させる。このとき用いる認識アルゴリズムは、部品認識時に用いるものと同じである。   Next, in step 104, each individual feature group is recognized alone. This is for determining whether or not recognition is possible without relying on the positional relationship between the groups, so there is absolutely no information on what feature groups exist in addition to the feature groups to be recognized. Recognize without using. The recognition algorithm used at this time is the same as that used for component recognition.

ステップ106で正常に特徴物を検出できたと判断されたときは、ステップ108に進み、検出した特徴物の周辺に、検出したい特徴物と同じような形状を持つ類似物があるかどうかを確認する。類似形状を持つ状態とは、例えば図9に示すような状態のことである。これも認識処理と同様のアルゴリズムを用いることで実現できる。   If it is determined in step 106 that the feature has been detected normally, the process proceeds to step 108, and it is confirmed whether there is a similar object having the same shape as the feature to be detected around the detected feature. . The state having a similar shape is a state as shown in FIG. 9, for example. This can also be realized by using the same algorithm as the recognition process.

以上の認識や類似物の存在有無の結果を踏まえて、ステップ110で、特徴物グループの認識し易さを判定する。認識し易さは、周辺に類似物が存在するかどうか、特徴物や背景の濃度状態、ノイズの有無、認識速度のそれぞれについて評価し、図10に示す如く点数化する。   Based on the above recognition and the result of the presence / absence of the similar object, in step 110, the ease of recognizing the feature object group is determined. The ease of recognition is evaluated for each of the presence of similar objects in the vicinity, the density state of the feature object and the background, the presence / absence of noise, and the recognition speed, and scored as shown in FIG.

ここで、類似物の有無は、図9(A)〜(C)に示した如く、類似物が近くに存在する程、該検出の危険性が高いため、認識し難いと判断する。他にも、例えば図9(D)〜(G)のような形状の部品で類似物があると判断する。   Here, the presence / absence of a similar substance is determined to be difficult to recognize because the closer the similar thing is, the higher the risk of detection, as shown in FIGS. 9 (A) to 9 (C). In addition, for example, it is determined that there are similar parts having shapes as shown in FIGS.

又、特徴物濃度は、高い程認識し易いと判断できる。従って、特徴物の平均濃度値を求め、図11に例示する如く、デフォルトの2値化閾値を基準とした3段階のグループに場合分けすることができる。   Further, it can be determined that the higher the feature density, the easier it is to recognize. Therefore, the average density value of the feature can be obtained and divided into three groups based on the default binarization threshold as illustrated in FIG.

又、背景濃度は、低い程認識し易いと判断できる。従って、特徴物グループ周辺の背景の平均濃度を求め、図12に例示する如く、デフォルトの2値化閾値を基準とした3段階のグループに場合分けすることができる。   Further, it can be determined that the lower the background density is, the easier it is to recognize. Therefore, the average density of the background around the feature object group can be obtained and divided into three groups based on the default binarization threshold as illustrated in FIG.

又、ノイズの有無は、ノイズが少ない程認識し易いと判断できる。特徴物の形状によっては、検出処理中にノイズの有無を判断することができる場合があるので、この場合は、ノイズの有無を記録する。一方、検出処理中にノイズの有無を判断できない特徴物グループの場合は、ノイズの有無不明とする。   Further, it can be determined that the presence or absence of noise is more easily recognized as the noise is smaller. Depending on the shape of the feature, it may be possible to determine the presence or absence of noise during the detection process. In this case, the presence or absence of noise is recorded. On the other hand, in the case of a feature group in which the presence / absence of noise cannot be determined during the detection process, the presence / absence of noise is unknown.

又、認識速度は、認識時間が短い程、認識し易いと判断することができる。従って、個々の特徴物グループの認識毎に認識にかかる時間を測定し、全ての特徴物グループの認識を終えた後で、認識時間が早いものから順に、高い評点を与えていくことができる。   The recognition speed can be determined to be easier to recognize as the recognition time is shorter. Therefore, it is possible to measure the time required for recognition for each recognition of each feature group, and after completing the recognition of all the feature groups, it is possible to give high scores in order from the earliest recognition time.

ステップ112で全特徴物グループの認識実行を確認後、全てが正常認識した場合は、ステップ114で、検出位置の妥当性を検査する。ここでは、検出結果の相互位置関係を調べる。このとき、図13に示すように、指定されている座標とずれて検出したものがあれば、この特徴物グループは正しく検出できていないので、認識し易さ評価値をゼロに設定し直す。ずれて検出してしまった特徴物グループの周辺に類似物が存在しているかどうかは既に調査済みであり、類似物が近くに存在している場合は類似物の誤検出によるもの、類似物が近くに存在していない場合はユーザの指定座標自体の誤りによるものと判断できる。ここで座標ミスの可能性があると一度でも判断された場合は、最後の結果出力時に、この旨の警告メッセージを付加する。   After confirming the recognition of all the feature object groups in step 112, if all are recognized normally, in step 114, the validity of the detected position is checked. Here, the mutual positional relationship of the detection results is examined. At this time, as shown in FIG. 13, if there is an object detected with a deviation from the designated coordinates, this feature group has not been detected correctly, and the recognition ease evaluation value is reset to zero. It has already been investigated whether there is a similar object around the feature group that has been detected in a shifted manner, and if there is a similar object nearby, it is due to false detection of the similar object. If it does not exist in the vicinity, it can be determined that this is due to an error in the coordinates designated by the user. If it is determined that there is a possibility of a coordinate error, a warning message to that effect is added when the final result is output.

前出ステップ102の撮像からステップ114の相互位置検査までの処理は、ステップ116で、ユーザが指定した実行回数分繰り返す。   The processing from the imaging in step 102 to the mutual position inspection in step 114 is repeated in step 116 for the number of executions designated by the user.

最後に、認識し易さ評価値の高い順に認識を行なえるように、ステップ118で部品データ構造を変更する。そして、ステップ120でその順番をユーザに通知する。   Finally, in step 118, the part data structure is changed so that recognition can be performed in descending order of evaluation value. In step 120, the order is notified to the user.

この時、認識し易さ評価値と、これを算出するために用いた各評価点(類似物の存在有無、特徴物濃度、背景濃度、ノイズの有無、検出時間)もユーザに通知する。このデータを繰り返し取得することによりユーザは特徴物を検出し易い条件や逆に特徴物の検出を妨げる要因を習得し易くなる。   At this time, the user is also notified of the evaluation value for ease of recognition and the evaluation points used to calculate the recognition value (presence / absence of similar substances, feature density, background density, presence / absence of noise, detection time). By repeatedly acquiring this data, it becomes easier for the user to learn the conditions that make it easy to detect a feature and, conversely, factors that hinder the detection of the feature.

なお、認識順序がユーザにより指定されていない場合は、例えば特許文献1で記載された手法により認識することができる。   In addition, when the recognition order is not designated by the user, it can be recognized by the method described in Patent Document 1, for example.

又、例示しなかった定形部品も同様に特徴物グループ(例えばQFP部品の場合、各辺のリード列)毎に認識順を指定することが可能である。認識する際は、認識順により認識位置情報を取得してから認識をするようにすれば、ユーザの指定通りに容易に認識できる。   In addition, it is also possible to specify the recognition order for each of the feature parts (for example, in the case of QFP parts, the lead row on each side) for the fixed parts not illustrated. When recognizing, if recognition is performed after obtaining the recognition position information in the recognition order, it can be easily recognized as specified by the user.

本実施形態においては、ユーザが指定した認識順序が、認識アルゴリズム上認識し辛かったり、誤検出やエラーになる可能性がある場合は、内部で認識順序や特徴物グループの構成を変更して認識するようにしたので、ユーザは内部の難しい認識アルゴリズムを意識しないで認識順を指定することができる。又、認識順序を外部指定できるようにしたことにより、逆に認識率が低下するのを防止している。   In this embodiment, if the recognition order specified by the user is difficult to recognize in the recognition algorithm, or there is a possibility of erroneous detection or an error, the recognition order and the structure of the feature group are changed and recognized internally. As a result, the user can specify the recognition order without being aware of the difficult internal recognition algorithm. In addition, since the recognition order can be designated externally, the recognition rate is prevented from decreasing.

又、どの特徴物から認識すれば良いか判断つかないような部品を認識させたい場合や、判断するのが面倒な場合には、最適認識順取得コマンドを用いて最適な認識順を自動取得することができる。   Also, if you want to recognize parts that cannot be determined from which feature to recognize, or if it is troublesome to determine, automatically obtain the optimal recognition order using the optimal recognition order acquisition command. be able to.

又、部品認識エラーが発生した際は、エラー画像に対し最適認識順取得コマンドを用いて認識順を変更することで、エラー化を回避することができるようになる場合がある。これにより、ユーザが行なえるエラー対策機能が向上する。   In addition, when a component recognition error occurs, it may be possible to avoid an error by changing the recognition order using an optimum recognition order acquisition command for the error image. This improves the error countermeasure function that can be performed by the user.

又、最適認識順取得コマンドでは、ユーザが指定した特徴物グループの認識を一通り実行するので、このとき検出した座標の矛盾関係から、ユーザの特徴物座標指定ミスを判断し、ユーザに指摘することができる。   In addition, since the optimum recognition order acquisition command executes recognition of the feature group designated by the user as a whole, it judges the feature feature coordinate designation error of the user from the inconsistency relationship of the detected coordinates and points out to the user. be able to.

認識エラーや誤認識が発生する部品の例を示す平面図Plan view showing examples of parts that cause recognition errors and misrecognitions 認識順序による(A)検出失敗例と(B)検出成功例を比較して示す図The figure which compares and shows the (A) detection failure example by the recognition order, and the (B) detection success example 本発明を実施するための電子部品位置検出装置の実施形態を示す、一部斜視図を含むブロック図1 is a block diagram including a partial perspective view showing an embodiment of an electronic component position detecting device for carrying out the present invention. 前記実施形態における認識に用いた異形部品の例を示す平面図The top view which shows the example of the odd-shaped component used for the recognition in the said embodiment 図4の部品でユーザが定義した順に従って管理されるリンク構造の例を示す図The figure which shows the example of the link structure managed according to the order which the user defined with the components of FIG. 図4のような異形部品で認識順序が指定されている場合の認識処理の手順を示す流れ図The flowchart which shows the procedure of the recognition process in case the recognition order is designated by the odd shape components like FIG. 前記実施形態における認識順序の自動補正機能を説明するための部品の平面図Plan view of parts for explaining the automatic correction function of the recognition order in the embodiment 前記実施形態における最適認識順序取得機能の処理手順を示す流れ図The flowchart which shows the process sequence of the optimal recognition order acquisition function in the said embodiment. 前記最適認識順序取得機能で用いる類似度を説明するための図The figure for demonstrating the similarity used with the said optimal recognition order acquisition function 同じく点数化の例を示す図The figure which similarly shows the example of scoring 同じく特徴物濃度の場合分けの例を示す図The figure which shows the example of the case classification of the feature object density similarly 同じく背景濃度の場合分けの例を示す図The figure which also shows the example of the case classification of the background density 同じく検出結果の指定が異なる例を示す図The figure which shows the example where designation of the detection result differs similarly

符号の説明Explanation of symbols

10…部品
11A〜11D…端子
12…マーク
14…配線
16…類似物
18…穴
28…吸着ノズル
30…部品検出部
32…照明装置
34…レンズ
36…撮像装置
40…画像処理装置
42…CPU
46…部品データ格納メモリ
48…画像メモリ
50…エラー画像メモリ
52…モニタ
DESCRIPTION OF SYMBOLS 10 ... Components 11A-11D ... Terminal 12 ... Mark 14 ... Wiring 16 ... Similarity 18 ... Hole 28 ... Adsorption nozzle 30 ... Component detection part 32 ... Illumination device 34 ... Lens 36 ... Imaging device 40 ... Image processing device 42 ... CPU
46 ... Part data storage memory 48 ... Image memory 50 ... Error image memory 52 ... Monitor

Claims (3)

複数の特徴物を持つ部品の位置決め方法において、
特徴物を認識する順序をユーザが指定し、
該ユーザが指定した順序に従って、特徴物を認識し、画像処理する部品の位置決め方法であって、
部品の認識処理と同一のアルゴリズムで事前に同一の特徴物の集合である特徴物グループを個々に認識実行させた際の認識状態、類似物の存在有無、特徴物濃度、背景濃度、ノイズ成分の有無、認識速度から評価値を算出し、該評価値の高い順に従って最適な認識順序を取得する機能と、前記機能により取得した最適な認識順で部品認識する機能と、前記機能により取得した最適な認識順と評価値をユーザへ通知する機能を備えたことを特徴とする部品の位置決め方法。
In a method for positioning a component having a plurality of features,
The user specifies the order in which features are recognized,
A method for positioning a component for recognizing a feature and performing image processing according to an order designated by the user,
The recognition state, presence / absence of similar objects, feature density, background density, and noise component when individual feature groups that are the same feature set are recognized and executed in advance using the same algorithm as the part recognition process. A function that calculates an evaluation value from the presence / absence and recognition speed, acquires an optimal recognition order in descending order of the evaluation value, a function that recognizes components in the optimal recognition order acquired by the function, and an optimal acquired by the function A component positioning method having a function of notifying a user of a recognition order and an evaluation value.
前記ユーザの指定した認識順序が、実際の認識画像では認識し難い場合は、請求項1記載の最適認識順序取得機能を用いて内部で最適な認識順序に変更し、部品の位置決めを行なう機能を備えたことを特徴とする請求項1に記載の部品の位置決め方法。   If the recognition order designated by the user is difficult to recognize in an actual recognition image, a function for positioning the component by changing to an optimal recognition order internally using the optimum recognition order acquisition function according to claim 1 is provided. The component positioning method according to claim 1, further comprising: a component positioning method according to claim 1. 複数の特徴物を持つ部品の位置決め装置において、
特徴物を認識する順序をユーザが指定する手段と、
該ユーザが指定した順序に従って、特徴物を認識し、画像処理する手段と、
を備えた部品の位置決め装置であって、
部品の認識処理と同一のアルゴリズムで事前に同一の特徴物の集合である特徴物グループを個々に認識実行させた際の認識状態、類似物の存在有無、特徴物濃度、背景濃度、ノイズ成分の有無、認識速度から評価値を算出し、該評価値の高い順に従って最適な認識順序を取得する機能と、前記機能により取得した最適な認識順で部品認識する機能と、前記機能により取得した最適な認識順と評価値をユーザへ通知する機能を備えたことを特徴とする部品の位置決め装置。
In a positioning device for parts having a plurality of features,
Means for the user to specify the order in which features are recognized;
Means for recognizing features and processing them according to the order specified by the user;
A component positioning device comprising:
The recognition state, presence / absence of similar objects, feature density, background density, and noise component when individual feature groups that are the same feature set are recognized and executed in advance using the same algorithm as the part recognition process. A function that calculates an evaluation value from the presence / absence and recognition speed, acquires an optimal recognition order in descending order of the evaluation value, a function that recognizes components in the optimal recognition order acquired by the function, and an optimal acquired by the function A component positioning apparatus having a function of notifying a user of a recognition order and an evaluation value.
JP2005241489A 2005-08-23 2005-08-23 Component positioning method and apparatus Active JP4744234B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005241489A JP4744234B2 (en) 2005-08-23 2005-08-23 Component positioning method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005241489A JP4744234B2 (en) 2005-08-23 2005-08-23 Component positioning method and apparatus

Publications (2)

Publication Number Publication Date
JP2007059546A JP2007059546A (en) 2007-03-08
JP4744234B2 true JP4744234B2 (en) 2011-08-10

Family

ID=37922786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005241489A Active JP4744234B2 (en) 2005-08-23 2005-08-23 Component positioning method and apparatus

Country Status (1)

Country Link
JP (1) JP4744234B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016016933A1 (en) 2014-07-28 2016-02-04 富士機械製造株式会社 Component data handling device, component data handling method, and component mounting system
KR102482130B1 (en) * 2016-01-25 2022-12-27 한화정밀기계 주식회사 Method for recognizing component

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001156499A (en) * 1999-11-24 2001-06-08 Toshiba Corp Method of alignment, apparatus therefor and bonding apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001156499A (en) * 1999-11-24 2001-06-08 Toshiba Corp Method of alignment, apparatus therefor and bonding apparatus

Also Published As

Publication number Publication date
JP2007059546A (en) 2007-03-08

Similar Documents

Publication Publication Date Title
EP1388738A1 (en) Inspection data producing method and board inspection apparatus using the method
JP2013243273A (en) Component suction operation monitoring device and component presence detection device
CN113506243A (en) PCB welding defect detection method and device and storage medium
JP4744234B2 (en) Component positioning method and apparatus
JP2008300456A (en) Inspection system for inspection subject
JP4613466B2 (en) Mounting component inspection method and apparatus
JP5158686B2 (en) Adsorption part front / back determination device and adsorption part front / back determination method
US7593571B2 (en) Component edge detecting method, computer-readable recording medium and component inspection apparatus
JP4551651B2 (en) Component recognition method and apparatus
JP2004325146A (en) Method and device for recognizing part
JP4757701B2 (en) Electronic component suction position correction method and apparatus
JP4566686B2 (en) Method and apparatus for determining shape of object
JP4681984B2 (en) Component positioning method and apparatus
JP2005116869A (en) Reference mark position detector and reference mark position detection program
JP4380864B2 (en) Component detection method and apparatus
JP4614487B2 (en) Component position detection method, component position detection device, component data storage method and device
JP4491630B2 (en) Electronic component lead direction discrimination method and apparatus
TWI549097B (en) A method of detecting images of appearance of electronic components and computer readable media thereof
JP4008722B2 (en) Method and apparatus for detecting floating electrode of electronic component
JP4150262B2 (en) Component recognition method and apparatus
JP2006234793A (en) Part position detecting method and device
JP6418739B2 (en) Evaluation device, surface mounter, evaluation method
JPH09167232A (en) Segment extraction method
EP4250892A1 (en) Image processing device, mounting device, mounting system, image processing method, and mounting method
JP6822207B2 (en) Inspection equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101028

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110419

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110510

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4744234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150