JP2007200990A - Part recognition method, part recognition apparatus and surface mounter - Google Patents

Part recognition method, part recognition apparatus and surface mounter Download PDF

Info

Publication number
JP2007200990A
JP2007200990A JP2006015186A JP2006015186A JP2007200990A JP 2007200990 A JP2007200990 A JP 2007200990A JP 2006015186 A JP2006015186 A JP 2006015186A JP 2006015186 A JP2006015186 A JP 2006015186A JP 2007200990 A JP2007200990 A JP 2007200990A
Authority
JP
Japan
Prior art keywords
component
scanning direction
suction
main scanning
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006015186A
Other languages
Japanese (ja)
Other versions
JP4704218B2 (en
Inventor
Hiroshi Saijo
洋志 西城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
Original Assignee
Yamaha Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd filed Critical Yamaha Motor Co Ltd
Priority to JP2006015186A priority Critical patent/JP4704218B2/en
Publication of JP2007200990A publication Critical patent/JP2007200990A/en
Application granted granted Critical
Publication of JP4704218B2 publication Critical patent/JP4704218B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a part recognition method by which a high speed part checking operation is established and the operational efficiency of a surface mounter be also improved even if there is any displacement of positional relationship between a part suction position and the imaging center of a line sensor, and to provide a part recognition apparatus and a surface mounter. <P>SOLUTION: A part supplied from a part supply is sucked by a head unit, and the head unit is moved in a sub-scanning direction to a line sensor. In this case, it is judged whether the whole sucked part can pass through a main scanning direction recognition area. If it is judged that it can pass through, the head unit is moved as it is in the sub-scanning direction to image the sucked part and recognize the part even when the part suction position is offset in the main scanning direction to the central position of the main scanning direction part recognition area. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、ヘッドユニットに吸着された部品を実装に先立って認識するための部品認識方法及び同装置、並びに同装置を組み込んだ表面実装機に関するものである。   The present invention relates to a component recognition method and apparatus for recognizing a component attracted by a head unit prior to mounting, and a surface mounter incorporating the apparatus.

従来から移動可能なヘッドユニットによりIC等の電子部品(以下、部品と称す)を部品供給部から取り出してプリント基板上の所定位置に実装する表面実装機(以下、実装機と称す)が一般的に知られている。   Conventionally, a surface mounting machine (hereinafter referred to as a mounting machine) that takes out an electronic component such as an IC (hereinafter referred to as a part) from a component supply unit and mounts it at a predetermined position on a printed circuit board by a movable head unit. Known to.

この種の実装機では、不良部品の選別や実装位置の補正等を行うため、部品の実装に先立って搬送途中の吸着部品についてカメラ等の撮像手段により撮像し画像認識を行っている。具体的には、撮像手段としてラインセンサを用いる場合、ラインセンサの画像素子が並ぶ方向を主走査方向、これと交差する方向を副走査方向とし、部品供給部から供給された部品をヘッドユニットに吸着させ、この吸着部品がラインセンサを横切るように前記ヘッドユニットを副走査方向に移動(認識走査)させて吸着部品の撮像を行っている(例えば特許文献1参照)。   In this type of mounting machine, in order to select a defective part, correct a mounting position, and the like, an image pickup unit such as a camera picks up an image of a suction part that is being conveyed prior to mounting the part and performs image recognition. Specifically, when a line sensor is used as the imaging means, the direction in which the image sensors of the line sensor are arranged is the main scanning direction, and the direction intersecting this is the sub-scanning direction, and the component supplied from the component supply unit is used as the head unit. The head unit is moved in the sub-scanning direction (recognition scanning) so that the suction component crosses the line sensor, and the suction component is imaged (see, for example, Patent Document 1).

供給された部品を吸着ヘッドによって吸着する部品吸着位置と、ラインセンサの画像中心とが主走査方向に位置ずれしている場合、主走査方向に移動させて吸着部品とラインセンサとの間の主走査方向の位置合わせをしてから副走査方向に移動させると、部品吸着してから部品を吸着したヘッドユニットがラインセンサを通過するまでに時間がかかってしまう。あるいは移動の初期において、主走査方向に移動させつつ同時に副走査方向にも移動させ、移動の中期においては主走査方向の移動を停止して主走査方向の位置合わせをするとともに、副走査方向には継続して移動させることも考えられるが、主走査方向の移動において加速減速を経て吸着部品をラインセンサの画像中心に位置合わせするには、加速度や減速度を小さくする必要があり、部品吸着位置とラインセンサとの間の副走査方向の距離が短いときには、副走査方向の移動速度を高められず、部品吸着してから部品を吸着したヘッドユニットがラインセンサを通過するまでに時間がかかってしまう。   When the component suction position where the supplied component is sucked by the suction head and the image center of the line sensor are misaligned in the main scanning direction, the main part between the suction component and the line sensor is moved by moving in the main scanning direction. If the position in the scanning direction is adjusted and then moved in the sub-scanning direction, it takes time until the head unit that has picked up the component passes through the line sensor. Alternatively, in the initial stage of the movement, the movement in the main scanning direction is performed simultaneously with the movement in the sub scanning direction, and in the middle of the movement, the movement in the main scanning direction is stopped and the alignment in the main scanning direction is performed. However, in order to align the suction component with the center of the image of the line sensor through acceleration and deceleration in the movement in the main scanning direction, it is necessary to reduce acceleration and deceleration. When the distance in the sub-scanning direction between the position and the line sensor is short, the moving speed in the sub-scanning direction cannot be increased, and it takes time until the head unit that has picked up the part passes the line sensor after picking up the part. End up.

そこで部品吸着位置と、ラインセンサの撮像中心とを主走査方向の位置を一致させ、副走査方向に一直線上に配置することが考えられる。これにより、ヘッドユニットが部品吸着後、部品吸着位置からそのまま副走査方向のみに加速し所定速度で移動させるだけで吸着部品の撮像ができるので、部品吸着してから部品を吸着したヘッドユニットがラインセンサを通過できるまでに時間を短縮させることができ、実装機の稼働効率を向上させることができる。
特開2003−218592号公報
Therefore, it is conceivable that the component suction position and the imaging center of the line sensor are aligned in the main scanning direction and arranged in a straight line in the sub scanning direction. As a result, after the head unit is picked up, the picked-up part can be imaged by simply accelerating from the picked-up position in the sub-scanning direction and moving it at a predetermined speed. The time until the sensor can pass can be shortened, and the operating efficiency of the mounting machine can be improved.
JP 2003-218582 A

しかしながら、部品吸着位置とラインセンサの撮像中心とが副走査方向に一直線上になるように装置設備を設置した場合であっても、部品を吸着したヘッドユニットをそのまま副走査方向に移動させて部品認識することができない場合がある。すなわち、部品供給装置の設計誤差などによる部品供給位置のずれに応じて部品吸着位置を補正した場合等、部品吸着位置とラインセンサの撮像中心との位置関係がずれてしまう場合があり、このような場合には、ヘッドユニットの吸着ヘッドの軸中心が、ラインセンサの撮像中心を通る認識走査線上に位置するようにヘッドユニットを主走査方向に移動させる必要があり、上述したように、部品吸着してから部品を吸着したヘッドユニットがラインセンサを通過するまでに時間がかかってしまうため、結果として稼働効率の低下を招く要因となっていた。   However, even when the equipment is installed so that the component suction position and the imaging center of the line sensor are in a straight line in the sub-scanning direction, the component can be moved directly in the sub-scanning direction by moving the head unit that sucks the component. It may not be recognized. That is, the positional relationship between the component suction position and the imaging center of the line sensor may be shifted, such as when the component suction position is corrected according to the shift of the component supply position due to the design error of the component supply device. In this case, it is necessary to move the head unit in the main scanning direction so that the axis center of the suction head of the head unit is positioned on the recognition scanning line passing through the imaging center of the line sensor. After that, it takes time until the head unit that has sucked the components passes through the line sensor, resulting in a decrease in operating efficiency.

本発明は、上記の問題点に鑑みてなされたものであり、部品吸着位置とラインセンサの撮像中心との位置関係がずれてしまう場合であっても、部品認識動作の高速化を図り実装機の稼働効率を向上させることのできる部品認識方法、同装置および表面実装機を提供することを目的としている。   The present invention has been made in view of the above-described problems. Even when the positional relationship between the component suction position and the imaging center of the line sensor is deviated, the mounting machine is designed to speed up the component recognition operation. An object of the present invention is to provide a component recognition method, an apparatus and a surface mounter capable of improving the operation efficiency.

上記課題を解決するために、本発明の部品認識方法は、部品吸着用のヘッドを有するヘッドユニットに部品を吸着させ、ラインセンサを有する撮像装置に対し副走査方向に前記ヘッドユニットを移動させることにより、吸着部品を撮像し部品認識処理を行う部品認識方法において、前記部品供給部から供給された部品を前記ヘッドにより吸着し、この部品吸着位置から前記ヘッドユニットをラインセンサに対して副走査方向に移動させた場合に、前記吸着部品全体が前記撮像装置によって撮像可能な主走査方向部品認識領域内を通過できるか否かを判断する判断処理を行い、前記判断処理により前記吸着部品全体が前記主走査方向部品認識領域内を通過できると判断した場合には、主走査方向部品認識領域の中心位置に対して前記部品吸着位置が主走査方向にオフセットしている状態であっても、その状態を保ったまま前記ヘッドユニットを副走査方向に移動させることにより吸着部品を撮像して部品を認識するオフセット認識処理を行うことを特徴としている。   In order to solve the above-described problems, in the component recognition method of the present invention, a component is attracted to a head unit having a component suction head, and the head unit is moved in the sub-scanning direction with respect to an imaging device having a line sensor. In the component recognition method for picking up the picked-up component and performing component recognition processing, the component supplied from the component supply unit is picked up by the head, and the head unit is moved from the component pick-up position to the line sensor in the sub-scanning direction. A determination process is performed to determine whether or not the entire suction component can pass through the main-scanning direction component recognition region that can be imaged by the imaging device. If it is determined that the component can pass through the main scanning direction component recognition area, the component suction position with respect to the center position of the main scanning direction component recognition area Even if the head is offset in the main scanning direction, an offset recognition process for recognizing the part by imaging the suction part by moving the head unit in the sub-scanning direction while maintaining the state is performed. It is a feature.

また、上記課題を解決するために、本発明の部品認識装置は、部品吸着用のヘッドを有するヘッドユニットと、このヘッドユニットに吸着された吸着部品を撮像するラインセンサを有する撮像装置と、前記ラインセンサに対して前記ヘッドユニットを副走査方向に移動させる駆動手段と、これらを統括制御する制御手段と、を備え、前記制御手段は、前記部品供給部から供給された部品を前記ヘッドにより吸着させるとともに、この部品吸着位置から前記ヘッドユニットをラインセンサに対して副走査方向に移動させた場合に、前記吸着部品全体が前記撮像装置によって撮像可能な主走査方向部品認識領域内を通過できるか否かを判断する判断処理を行い、前記判断処理により前記吸着部品全体が前記主走査方向部品認識領域内を通過できると判断した場合には、主走査方向部品認識領域の中心位置に対して前記部品吸着位置が主走査方向にオフセットしている状態であっても、その状態を保ったまま前記ヘッドユニットを副走査方向に移動させることにより吸着部品を撮像して部品を認識するオフセット認識処理を行うことを特徴としている。   In order to solve the above problems, a component recognition apparatus according to the present invention includes a head unit having a component suction head, an image pickup device having a line sensor that images the suction component sucked by the head unit, Drive means for moving the head unit in the sub-scanning direction with respect to the line sensor, and control means for comprehensively controlling these, the control means sucks the component supplied from the component supply unit by the head. In addition, when the head unit is moved in the sub-scanning direction with respect to the line sensor from the component suction position, can the suction component as a whole pass through the main scanning direction component recognition area that can be imaged by the imaging device? A determination process is performed to determine whether or not the entire suction component can pass through the main scanning direction component recognition area by the determination process. If it is determined, even if the component suction position is offset in the main scanning direction with respect to the center position of the component recognition area in the main scanning direction, the head unit is moved in the sub-scanning direction while maintaining that state. It is characterized in that an offset recognition process for recognizing a part by picking up an image of the picked-up part is performed.

また、上記課題を解決するために、本発明の表面実装機は、実装用ヘッドを有する移動可能なヘッドユニットにより部品を吸着して基板上の所定位置に実装する表面実装機において、上記部品認識装置を備えたことを特徴としている。   In order to solve the above problems, the surface mounting machine of the present invention is a surface mounting machine in which a component is picked up by a movable head unit having a mounting head and mounted at a predetermined position on a substrate. It is characterized by having a device.

この部品認識方法、同装置および表面実装機によれば、前記部品供給部から供給された部品を吸着する吸着位置からヘッドユニットを撮像装置(ラインセンサ)に対して副走査方向に移動させた場合に、吸着部品が主走査方向部品認識領域内を通過できる場合には、主走査方向部品認識領域の中心位置に対して前記部品吸着位置が主走査方向にオフセットしている状態であっても、その状態を保ったままヘッドユニットを副走査方向に移動させるため、従来のように、部品吸着位置がラインセンサの撮像中心を通る認識走査線上に位置するように、主走査方向にヘッドユニットを移動させる必要がない。したがって、部品吸着位置を認識走査線上に位置するように移動させる時間を短縮できるため、部品認識動作の高速化を図ることができる。   According to the component recognition method, the apparatus, and the surface mounter, when the head unit is moved in the sub-scanning direction with respect to the imaging device (line sensor) from the suction position for sucking the component supplied from the component supply unit In addition, when the suction part can pass through the main scanning direction part recognition area, even if the part suction position is offset in the main scanning direction with respect to the center position of the main scanning direction part recognition area, In order to move the head unit in the sub-scanning direction while maintaining this state, the head unit is moved in the main scanning direction so that the component suction position is located on the recognition scanning line passing through the imaging center of the line sensor, as in the past. There is no need to let them. Therefore, the time for moving the component suction position so as to be positioned on the recognition scanning line can be shortened, so that the speed of the component recognition operation can be increased.

また、前記オフセット認識処理は、前記判断処理において副走査方向にヘッドユニットを移動させることにより前記吸着部品の全体又はその一部が前記主走査方向部品認識領域内を通過できないと判断した場合には、前記吸着部品全体が前記主走査方向部品認識領域内を通過できるオフセット認識可能位置に前記吸着部品が位置するように前記ヘッドユニットを移動させ、そのオフセット認識可能位置から副走査方向にヘッドユニットを移動させることにより吸着部品を撮像して認識することが好ましい。   When the offset recognition process determines that the whole or a part of the suction component cannot pass through the main-scanning direction component recognition area by moving the head unit in the sub-scanning direction in the determination process. The head unit is moved so that the suction component is positioned at an offset recognizable position where the entire suction component can pass through the main scanning direction component recognition area, and the head unit is moved from the offset recognizable position in the sub-scanning direction. It is preferable to pick up and recognize the suction component by moving it.

この構成によれば、ヘッドユニットを副走査方向に移動させると吸着部品が主走査方向部品認識領域内を通過できない場合には、前記吸着部品全体が前記主走査方向部品認識領域内を通過できるオフセット認識可能位置までヘッドユニットを移動させてから副走査方向に認識走査させることによって吸着部品の認識が行われる。したがって、従来のように、ラインセンサの撮像中心位置(主走査方向部品認識領域の中心位置)を通る認識走査線上までヘッドユニットを移動させて部品認識を行う必要がなく、ヘッドユニットを認識走査線上に位置するように移動させる時間を短縮でき、部品認識動作の高速化を図ることができる。   According to this configuration, when the suction part cannot pass through the main scanning direction part recognition area when the head unit is moved in the sub-scanning direction, the entire suction part can pass through the main scanning direction part recognition area. The suction unit is recognized by moving the head unit to the recognizable position and then performing recognition scanning in the sub-scanning direction. Therefore, unlike the conventional case, it is not necessary to move the head unit to the recognition scanning line that passes through the imaging center position of the line sensor (the center position of the component recognition area in the main scanning direction) and perform the component recognition. It is possible to shorten the time required for movement so as to be positioned in the position, and to speed up the component recognition operation.

また、前記判断処理の具体的な態様としては、前記判断処理は、前記部品吸着位置と、前記主走査方向部品認識領域の中心位置との位置関係から主走査方向のオフセット量を算出し、このオフセット量に基づいて吸着部品全体が前記主走査方向部品認識領域内を通過できるか否かを判断する構成としてもよい。   As a specific aspect of the determination process, the determination process calculates an offset amount in the main scanning direction from the positional relationship between the component suction position and the center position of the component recognition area in the main scanning direction. It may be configured to determine whether or not the entire suction component can pass through the main scanning direction component recognition area based on the offset amount.

また、前記部品認識処理は、前記判断処理により、前記主走査方向部品認識領域の中心位置と吸着部品の中心位置とを一致させた状態から、前記吸着部品を主走査方向に移動させた場合に前記吸着部品が前記主走査方向部品認識領域内に含まれる移動量の限界値であるオフセット限界値を算出し、このオフセット限界値に基づいて吸着部品全体が前記主走査方向部品認識領域内を通過できるか否かを判断するとともに、前記オフセット認識可能位置は、主走査方向部品認識領域の中心位置から主走査方向にオフセット限界値分移動した位置に設定されるように構成してもよい。   The component recognition processing is performed when the suction component is moved in the main scanning direction from the state in which the center position of the main scanning direction component recognition region and the center position of the suction component are matched by the determination processing. The suction component calculates an offset limit value that is a limit value of the amount of movement included in the main scanning direction component recognition region, and the entire suction component passes through the main scanning direction component recognition region based on the offset limit value. It may be determined whether or not the offset can be recognized, and the offset recognizable position may be set to a position moved from the center position of the main scanning direction component recognition area by an offset limit value in the main scanning direction.

この構成によれば、吸着部品が部品領域内を通過できるか否かを判断できるとともに、主走査方向におけるオフセット認識可能位置までの移動距離が最小となるため、より効果的に部品認識動作の高速化を図ることができる。   According to this configuration, it can be determined whether or not the suction component can pass through the component region, and the moving distance to the offset recognizable position in the main scanning direction is minimized, so that the component recognition operation can be performed more effectively. Can be achieved.

本発明の部品認識方法、同装置および表面実装機によれば、部品吸着位置と撮像装置の撮像中心位置との位置関係がずれてしまう場合であっても、ヘッドユニットの移動量を減らすことにより、部品認識動作の高速化を図り実装機の稼働効率を向上させることができる。   According to the component recognition method, the apparatus, and the surface mounter of the present invention, even if the positional relationship between the component suction position and the imaging center position of the imaging device is shifted, the movement amount of the head unit is reduced. In addition, it is possible to increase the operating efficiency of the mounting machine by speeding up the component recognition operation.

本発明の第1の実施の形態について図面に基づいて説明する。   A first embodiment of the present invention will be described with reference to the drawings.

図1及び図2は、本発明に係る部品認識装置が適用される表面実装機を概略的に示している。なお、これらの図中には、方向を明確にするためにX軸、Y軸及びZ軸を示しており、X軸方向が本発明の副走査方向であり、Y軸方向が本発明の主走査方向である。   1 and 2 schematically show a surface mounter to which a component recognition apparatus according to the present invention is applied. In these drawings, the X axis, the Y axis, and the Z axis are shown to clarify the direction, the X axis direction is the sub-scanning direction of the present invention, and the Y axis direction is the main axis of the present invention. The scanning direction.

同図に示すように、実装機の基台1上には、プリント基板搬送用のコンベア2がX軸方向に配置され、プリント基板3(単に基板3という)がこのコンベア2上を搬送されて所定の装着作業位置で停止されるようになっている。上記コンベア2の側方には部品供給部4A,4Bがそれぞれ配置されている。部品供給部4A,4Bはそれぞれ多数列のテープフィーダーを備えている。各テープフィーダーは、それぞれIC、トランジスタ、コンデンサ等の小片状のチップ部品w(図4、5参照)を所定間隔おきに収納、保持したテープがリールから導出されるように構成されており、後述するヘッドユニット5により部品wが取り出されるに伴い間欠的に部品wを繰り出すように構成されている。なお、各部品供給部4A,4Bは、X軸方向に分割された単位供給部4A−1,4A−2及び4B−1,4B−2から構成され、各単位供給部4A−1,4A−2,4B−1,4B−2にそれぞれテープフィーダーが配設されている。   As shown in the figure, a printed circuit board conveyer 2 is arranged on the base 1 of the mounting machine in the X-axis direction, and a printed circuit board 3 (simply referred to as a substrate 3) is conveyed on the conveyor 2. It is stopped at a predetermined mounting work position. Component supply units 4A and 4B are arranged on the sides of the conveyor 2, respectively. Each of the component supply units 4A and 4B includes multiple rows of tape feeders. Each tape feeder is configured such that small pieces of chip parts w (see FIGS. 4 and 5) such as ICs, transistors and capacitors are stored at predetermined intervals, and the held tapes are led out from the reels. The component w is intermittently fed out as the component w is taken out by a head unit 5 described later. Each component supply unit 4A, 4B is composed of unit supply units 4A-1, 4A-2 and 4B-1, 4B-2 divided in the X-axis direction, and each unit supply unit 4A-1, 4A-. Tape feeders are disposed at 2, 4B-1 and 4B-2, respectively.

上記基台1の上方には、部品装着用のヘッドユニット5が装備されている。このヘッドユニット5は、部品供給部4A,4Bと基板3が位置する部品装着部とにわたって移動可能とされ、当実施形態ではX軸方向およびY軸方向(水平面上でX軸と直交する方向)に移動することができるようになっている。   Above the base 1, a component mounting head unit 5 is provided. The head unit 5 is movable across the component supply units 4A and 4B and the component mounting unit on which the substrate 3 is located. In this embodiment, the X-axis direction and the Y-axis direction (direction orthogonal to the X-axis on the horizontal plane). Can be moved to.

すなわち、上記基台1上には、Y軸方向の固定レール7と、Y軸サーボモータ9により回転駆動されるボールねじ軸8とが配設され、上記固定レール7上にヘッドユニット支持部材11が配置され、この支持部材11に設けられたナット部分12が上記ボールねじ軸8に螺合している。また、上記支持部材11には、X軸方向のガイド部材13と、X軸サーボモータ15により駆動されるボールねじ軸14とが配設され、上記ガイド部材13にヘッドユニット5が移動可能に保持され、このヘッドユニット5に設けられたナット部分(図示せず)がボールねじ軸14に螺合している。そして、Y軸サーボモータ9の作動により上記支持部材11がY軸方向に移動するとともに、X軸サーボモータ15の作動によりヘッドユニット5が支持部材11に対してX軸方向に移動するようになっている。   That is, a fixed rail 7 in the Y-axis direction and a ball screw shaft 8 that is rotationally driven by a Y-axis servomotor 9 are disposed on the base 1, and a head unit support member 11 is disposed on the fixed rail 7. And a nut portion 12 provided on the support member 11 is screwed onto the ball screw shaft 8. The support member 11 is provided with a guide member 13 in the X-axis direction and a ball screw shaft 14 driven by an X-axis servo motor 15, and the head unit 5 is movably held by the guide member 13. A nut portion (not shown) provided on the head unit 5 is screwed onto the ball screw shaft 14. The support member 11 is moved in the Y-axis direction by the operation of the Y-axis servo motor 9, and the head unit 5 is moved in the X-axis direction with respect to the support member 11 by the operation of the X-axis servo motor 15. ing.

また、Y軸サーボモータ9及びX軸サーボモータ15には、それぞれロータリエンコーダ10,16が設けられており、これらによって上記ヘッドユニット5の移動位置検出がなされるようになっている。   The Y-axis servo motor 9 and the X-axis servo motor 15 are provided with rotary encoders 10 and 16, respectively, so that the moving position of the head unit 5 can be detected.

上記ヘッドユニット5には、図2に示すように、部品吸着用のノズル部材20aを先端に備えたヘッド20が設けられ、当実施形態ではX軸方向に8つのヘッド20が並べて設けられている。各ヘッド20は、それぞれ、ヘッドユニット5のフレームに対して昇降及びノズル中心軸回りの回転が可能とされ、昇降駆動機構や回転駆動機構により駆動されるようになっている。上記昇降駆動機構は、例えば、各ヘッド20を同時に上下動させる全体昇降用のZ軸サーボモータ17と、各ヘッド20を個別に一定ストロークだけ昇降させる所定数(8個)のエアシリンダ(図示せず)とを備え、それらを併用することにより、各ヘッド20を所定の上昇位置と下降位置とにわたって昇降させるように構成されている。また、回転駆動機構は、1個の回転用のR軸サーボモータ19aとこのサーボモータ19aの回転を各ヘッドに伝える伝動機構とから構成されている。Z軸サーボモータ17およびR軸サーボモータ19aには、それぞれロータリエンコーダ18,19bが設けられている。   As shown in FIG. 2, the head unit 5 is provided with a head 20 provided with a nozzle member 20a for component suction at the tip, and in this embodiment, eight heads 20 are provided side by side in the X-axis direction. . Each head 20 can be moved up and down and rotated around the central axis of the nozzle with respect to the frame of the head unit 5, and is driven by a lift drive mechanism or a rotation drive mechanism. The elevating drive mechanism includes, for example, an entire elevating Z-axis servo motor 17 that moves the heads 20 up and down simultaneously, and a predetermined number (eight) of air cylinders that elevate and lower each head 20 individually by a fixed stroke. And by using them together, each head 20 is configured to move up and down between a predetermined ascending position and a descending position. The rotation drive mechanism is composed of a single R-axis servomotor 19a for rotation and a transmission mechanism that transmits the rotation of the servomotor 19a to each head. The Z-axis servo motor 17 and the R-axis servo motor 19a are provided with rotary encoders 18 and 19b, respectively.

また、コンベア2の両側には、それぞれ、ヘッドユニット5の各ヘッド20に吸着された部品wを基板3への実装に先だって認識するための撮像ユニット21が配設されている。   In addition, on both sides of the conveyor 2, imaging units 21 for recognizing the components w attracted by the heads 20 of the head unit 5 prior to mounting on the substrate 3 are disposed.

撮像ユニット21(撮像装置)は、図1に示すように、部品供給部4A(又は4B)を構成する単位供給部4A−1,4A−2(又は4B−1,4B−2)の間に配置されており、ヘッド20に吸着された部品w(吸着部品w)を撮像するカメラ23と、部品撮像用の照明を提供する照明装置24とを備えている。   As shown in FIG. 1, the imaging unit 21 (imaging device) is provided between the unit supply units 4A-1 and 4A-2 (or 4B-1 and 4B-2) constituting the component supply unit 4A (or 4B). A camera 23 that images the component w (suction component w) that is disposed and is attracted to the head 20 and an illumination device 24 that provides illumination for component imaging are provided.

各カメラ23は、それぞれY軸方向(主走査方向)に複数の撮像素子が並ぶリニアセンサ(ラインセンサ)を備えたカメラで、各ラインセンサの素子の配列方向と直交するX軸方向(副走査方向)にヘッドユニット5が移動することにより、各カメラ23によりヘッド20に吸着された部品wの画像を副走査方向に順次取込むようになっている。そして撮像ユニット21のカメラ23は、吸着部品wをその真下から撮像するようにZ軸方向上向きに配置されている。また、このカメラのレンズには、レンズ歪み(ディストーション)の少ないレンズ(例えばテレセントリックレンズ等)が使用されており、Y軸方向に亘って歪みの影響を極力少なくして撮像できるようになっている。本発明では、このカメラ23が吸着部品wを撮像できる主走査方向における視野領域を主走査方向部品認識領域25としている。   Each camera 23 is a camera provided with a linear sensor (line sensor) in which a plurality of image sensors are arranged in the Y-axis direction (main scanning direction), and the X-axis direction (sub-scanning) orthogonal to the array direction of the elements of each line sensor. The head unit 5 moves in the direction), and the images of the parts w sucked by the heads 20 by the cameras 23 are sequentially taken in the sub-scanning direction. The camera 23 of the imaging unit 21 is arranged upward in the Z-axis direction so as to capture the suction component w from directly below. In addition, a lens (for example, a telecentric lens) with little lens distortion (distortion) is used as a lens of this camera, and imaging can be performed with as little influence of distortion as possible in the Y-axis direction. . In the present invention, the visual field area in the main scanning direction in which the camera 23 can pick up the suction component w is set as the main scanning direction component recognition area 25.

また、上記照明装置24は、光源としてLEDランプを備えており、詳しく図示していないが、像入射用の空間を有したドーム型フレームの内面に多数のLEDランプを備えた構成となっている。   The illumination device 24 includes an LED lamp as a light source. Although not shown in detail, the illumination device 24 includes a large number of LED lamps on the inner surface of a dome-shaped frame having an image incident space. .

図3は上記実装機の制御系をブロック図で示している。   FIG. 3 is a block diagram showing the control system of the mounting machine.

この実装機は、論理演算を実行する周知のCPU、そのCPUを制御する種々のプログラムなどを予め記憶するROMおよび装置動作中に種々のデータを一時的に記憶するRAM等から構成される制御装置30(本発明の制御手段)を有している。   This mounting machine includes a known CPU that executes logical operations, a ROM that stores various programs for controlling the CPU in advance, a RAM that temporarily stores various data during operation of the apparatus, and the like. 30 (control means of the present invention).

この制御装置30は、その機能構成として主制御部31、記憶部32、照明制御部33、カメラ制御部34(撮像制御手段)、画像処理部35、軸制御部36および入力部37を含んでいる。   The control device 30 includes a main control unit 31, a storage unit 32, an illumination control unit 33, a camera control unit 34 (imaging control means), an image processing unit 35, an axis control unit 36, and an input unit 37 as functional configurations. Yes.

主制御部31は、実装機の動作を統括的に制御するもので、予め記憶されたプログラムに従ってヘッドユニット5等を作動させるべく軸制御部36を介してサーボモータ9,15等の駆動を制御する。また、撮像ユニット21による部品wの撮像に際しては、ヘッドユニット5に部品wの種類に応じて最適となるように部品認識を実行すべく照明制御部33およびカメラ制御部34に向けて制御信号を出力する。そして、主制御部31は部品wの種類に応じてカメラ23の焦点を合わせるべく、軸制御部36を介して全体昇降用のZ軸サーボモータ17の駆動を制御する。   The main control unit 31 controls the operation of the mounting machine in an integrated manner, and controls the drive of the servo motors 9 and 15 and the like via the axis control unit 36 so as to operate the head unit 5 and the like according to a program stored in advance. To do. Further, when imaging the component w by the imaging unit 21, a control signal is sent to the illumination control unit 33 and the camera control unit 34 in order to execute component recognition so that the head unit 5 is optimized according to the type of the component w. Output. Then, the main control unit 31 controls the driving of the Z-axis servo motor 17 for raising and lowering the whole through the axis control unit 36 in order to focus the camera 23 in accordance with the type of the component w.

また、主制御部31は、演算部31a、判定部31b、認識処理部31cを備えており、ヘッドユニット5と撮像ユニット21との位置関係から、吸着部品wを撮像するためのヘッドユニット5の移動経路を決定するとともに、吸着部品wの認識処理を行うものである。   The main control unit 31 includes a calculation unit 31a, a determination unit 31b, and a recognition processing unit 31c. From the positional relationship between the head unit 5 and the imaging unit 21, the main control unit 31 includes a head unit 5 for imaging the suction component w. The moving path is determined, and the suction component w recognition process is performed.

演算部31aは、ヘッドユニット5(ヘッド20)の位置情報、後述の記憶部32におけるデータあるいは入力部37から入力された入力データ等に基づいて所定の演算処理を行うものである。   The calculation unit 31a performs predetermined calculation processing based on position information of the head unit 5 (head 20), data in the storage unit 32 described later, input data input from the input unit 37, and the like.

判定部31bは、演算部31aにより得られた演算結果に基づいて、判定処理を行うものである。具体的には、部品吸着位置から吸着部品wを副走査方向に移動させた場合に、吸着部品w全体が主走査方向部品認識領域25に含まれるか否かの判断を行い、認識処理方法(後述するオフセット認識処理及び通常認識処理)の決定を行うものである。ここで、部品吸着位置とは、部品供給部4A,4Bから供給される部品wをヘッドユニット5のヘッド20により吸着される位置であり、部品wを吸着する最終ヘッド20におけるノズル部材20aの軸中心位置で決定される。この部品吸着位置は、初期的には装置の設備調整データとして決定されるものであり、実装中に実装する部品毎に手動で位置情報(位置座標)を入力したり、カメラ23等により吸着ポイントを撮像・ティーチングを行い予備的に位置情報を設定してもよい。また、実装中に得られる画像認識結果からノズル部材20a中心位置からの部品wのずれの統計結果(平均、加重平均等)を次の部品吸着位置の決定に使用する吸着位置補正手段により求められる位置情報であってもよい。   The determination unit 31b performs determination processing based on the calculation result obtained by the calculation unit 31a. Specifically, when the suction component w is moved in the sub-scanning direction from the component suction position, it is determined whether or not the entire suction component w is included in the main scanning direction component recognition area 25, and the recognition processing method ( An offset recognition process and a normal recognition process (to be described later) are determined. Here, the component suction position is a position where the component w supplied from the component supply units 4A and 4B is sucked by the head 20 of the head unit 5, and the axis of the nozzle member 20a in the final head 20 that sucks the component w. Determined by the center position. The component suction position is initially determined as equipment adjustment data of the apparatus, and position information (position coordinates) is manually input for each component to be mounted during mounting, or the suction point is determined by the camera 23 or the like. The position information may be set in advance by performing imaging and teaching. Further, a statistical result (average, weighted average, etc.) of the deviation of the component w from the center position of the nozzle member 20a is obtained from the image recognition result obtained during mounting by the suction position correcting means used for determining the next component suction position. It may be position information.

認識処理部31cは、前記判定部31bの判断に基づいて、吸着部品wの認識処理を実行するものである。具体的には、判定部31bにより選択された認識処理方法に基づいて、軸制御部36を介して各サーボモータを駆動制御してヘッドユニット5を移動させ、照明制御部33及びカメラ制御部34を制御してノズル部材20aに吸着した吸着部品wを撮像する。そして、得られた画像データから前記演算部31aによって補正量を算出し、その結果に基づいて軸制御部36に制御信号を出力し各サーボモータを駆動制御する。   The recognition processing unit 31c executes the recognition process of the suction component w based on the determination of the determination unit 31b. Specifically, based on the recognition processing method selected by the determination unit 31b, each servo motor is driven and controlled via the axis control unit 36 to move the head unit 5, and the illumination control unit 33 and camera control unit 34 are moved. And picks up the picked-up component w picked up by the nozzle member 20a. Then, the calculation unit 31a calculates a correction amount from the obtained image data, and based on the result, a control signal is output to the axis control unit 36 to drive and control each servo motor.

記憶部32は、部品wの種類とその種類に対応する部品認識に必要な画像認識データ、正規の部品吸着位置からのずれ量(吸着誤差)を記憶するものである。ここで、吸着誤差は、初期的にはユーザー入力による固定値、または供給規格から求められた固定値を使用する。また、実装中に得られる画像認識結果の統計結果(標準偏差σ、最大値等)を使用するものであってもよい。   The storage unit 32 stores the type of the component w, the image recognition data necessary for component recognition corresponding to the type, and the deviation amount (suction error) from the normal component suction position. Here, initially, a fixed value obtained by user input or a fixed value obtained from a supply standard is used as the adsorption error. Further, statistical results (standard deviation σ, maximum value, etc.) of image recognition results obtained during mounting may be used.

入力部37はタッチパネル、キーボード等からなる入力手段であって、各種部品データ、吸着位置情報、吸着誤差情報等がこの入力部37を操作することにより制御装置(主制御部31)に入力できるようになっている。   The input unit 37 is an input unit including a touch panel, a keyboard, and the like. Various component data, suction position information, suction error information, and the like can be input to the control device (main control unit 31) by operating the input unit 37. It has become.

照明制御部33およびカメラ制御部34は、それぞれ前記撮像ユニット21の照明装置24およびカメラ23の駆動を制御するものである。   The illumination control unit 33 and the camera control unit 34 control the driving of the illumination device 24 and the camera 23 of the imaging unit 21, respectively.

画像処理部35は、撮像ユニット21の各カメラ23から出力される画像信号に所定の処理を施すことにより部品認識に適した画像データを生成して主制御部31に出力するものである。   The image processing unit 35 performs predetermined processing on the image signal output from each camera 23 of the imaging unit 21 to generate image data suitable for component recognition and output the image data to the main control unit 31.

なお、この制御装置30の構成については、各軸サーボモータ15,9,17,19a及びエンコーダ16,10,18,19b等により本発明の駆動手段が構成され、主制御部31及び軸制御部36により駆動制御手段が構成されている。   As for the configuration of the control device 30, the driving means of the present invention is constituted by the servo motors 15, 9, 17, 19a and the encoders 16, 10, 18, 19b, etc., and the main control unit 31 and the axis control unit. The drive control means is constituted by 36.

ここで、図4、図5は、部品wと撮像ユニット21とのXY座標上における位置関係を模式的に表した模式図である。図4は、部品wと主走査方向部品認識領域25との位置関係が、部品吸着位置Pからヘッドユニット5を副走査方向に移動させると部品w全体が主走査方向部品認識領域25に入る場合を示しており、図5は、部品吸着位置Pからヘッドユニット5を副走査方向に移動させると、部品wの一部又は全てが主走査方向部品認識領域25に入らない場合を示している。   Here, FIGS. 4 and 5 are schematic views schematically showing the positional relationship between the component w and the imaging unit 21 on the XY coordinates. FIG. 4 shows a case in which the positional relationship between the component w and the main scanning direction component recognition area 25 is that the entire component w enters the main scanning direction component recognition area 25 when the head unit 5 is moved in the sub-scanning direction from the component suction position P. FIG. 5 shows a case where part or all of the component w does not enter the main scanning direction component recognition area 25 when the head unit 5 is moved from the component suction position P in the sub-scanning direction.

図4、図5では、部品供給部4A,4Bにより供給された部品wに対する部品吸着位置をPとしており、その部品wのサイズ(寸法)をC、その部品吸着位置のずれ量(吸着誤差)をTとしている。また、カメラ23による主走査方向部品認識領域25の中心位置をM、主走査方向部品認識領域25のサイズ(寸法)をAとしている。そして、主走査方向部品認識領域25をX軸方向に横切るようにヘッドユニット5(部品w)を移動させることにより部品wの撮像が行われるが、この方向を副走査方向(副走査方向)とし、主走査方向部品認識領域25の中心位置Mを通って副走査方向に延びる仮想線(一点鎖線)を認識走査線αとしている。   4 and 5, the component suction position for the component w supplied by the component supply units 4A and 4B is P, the size (dimension) of the component w is C, and the deviation amount (suction error) of the component suction position. Is T. Further, the center position of the main scanning direction component recognition area 25 by the camera 23 is M, and the size (dimension) of the main scanning direction component recognition area 25 is A. The component w is imaged by moving the head unit 5 (component w) so as to cross the main recognition direction component recognition area 25 in the X-axis direction. This direction is defined as the sub-scanning direction (sub-scanning direction). An imaginary line (one-dot chain line) extending in the sub-scanning direction through the center position M of the main-scanning-direction component recognition area 25 is defined as a recognition scanning line α.

この図4、図5を参照しつつ上記制御装置30の制御に基づく部品wの実装動作について図6、図7のフローチャートに基づいて説明する。ここで図6は、実装動作を示すメインルーチンであり、図7は、部品認識補正を示すサブルーチンである。   The mounting operation of the component w based on the control of the control device 30 will be described based on the flowcharts of FIGS. 6 and 7 with reference to FIGS. Here, FIG. 6 is a main routine showing the mounting operation, and FIG. 7 is a subroutine showing component recognition correction.

図6において、実装動作が開始されると、部品wを実装する対象となる基板3が搬入され(ステップS1)、所定の固定手段によって基板3が固定される(ステップS2)。次に、この基板3に対する実装作業が終了したか否かが判断され(ステップS3)、終了していないと判断された場合には実装作業を行うべく、部品wを基板3に実装する際の位置基準となるプリント基板補正マーク(フィデューシャルマーク)の認識が行われる(ステップS4)。そして、実装すべき部品wが収納された部品供給部4A,4B(テープフィーダー)の部品取出部にヘッドユニット5を移動させて各ヘッド20に部品wを吸着させる(ステップS5)。このとき、部品wを最後に吸着するヘッド20(最終ヘッド20と称す)の吸着位置が本発明の部品吸着位置となる。なお、本実施形態では、ヘッドユニット5に複数の部品wが吸着する場合について説明するが、単一の部品wを吸着するヘッドユニット5であってもよい。   In FIG. 6, when the mounting operation is started, the substrate 3 to be mounted with the component w is carried in (step S1), and the substrate 3 is fixed by a predetermined fixing means (step S2). Next, it is determined whether or not the mounting operation on the board 3 has been completed (step S3). If it is determined that the mounting operation has not been completed, the component w is mounted when the component w is mounted on the board 3 in order to perform the mounting operation. A printed circuit board correction mark (fiducial mark) serving as a position reference is recognized (step S4). Then, the head unit 5 is moved to the component take-out portion of the component supply unit 4A, 4B (tape feeder) in which the component w to be mounted is accommodated, and the component w is attracted to each head 20 (step S5). At this time, the suction position of the head 20 that sucks the component w last (referred to as the final head 20) is the component suction position of the present invention. In the present embodiment, a case where a plurality of components w are attracted to the head unit 5 will be described. However, the head unit 5 that attracts a single component w may be used.

次に、ステップS6において、ヘッドユニット5に吸着した吸着部品wの認識及び補正が行われる。具体的には、後述する図7のサブルーチンの処理が行われる。そして図6におけるステップS6の部品認識補正が行われた後、ステップS7において基板3に対し部品wの実装が行われる。そして、ステップS8において、部品wの実装についてエラーの有無が判断され、エラーがあった場合にはステップS8でYESと判断され実装した部品wの廃棄が行われる(ステップS9)。   Next, in step S6, the suction component w sucked on the head unit 5 is recognized and corrected. Specifically, processing of a subroutine shown in FIG. 7 described later is performed. Then, after the component recognition correction in step S6 in FIG. 6 is performed, the component w is mounted on the board 3 in step S7. In step S8, it is determined whether there is an error in mounting the component w. If there is an error, YES is determined in step S8, and the mounted component w is discarded (step S9).

また、ステップS8においてNOと判断された場合、あるいはステップS9で実装部品wの廃棄が行われた後は、ステップS3に戻って部品実装中の基板3において部品wの実装がすべて終了したか否かの判断が行われ、実装すべき部品wが残っている場合にはステップS3でNOに進み、ステップS4〜S9が繰り返される。そして、当該基板3について実装作業がすべて終了した場合には、ステップS3においてYESと判断され、当該基板3の固定が解除されるとともに(ステップS10)、基板3が搬出されて(ステップS11)、実装動作は終了する。   If NO is determined in step S8, or after the mounted component w is discarded in step S9, the process returns to step S3 to determine whether or not all the components w have been mounted on the board 3 on which components are being mounted. If there is a part w to be mounted, the process proceeds to NO in step S3, and steps S4 to S9 are repeated. When all the mounting operations for the board 3 are completed, it is determined as YES in step S3, the board 3 is unlocked (step S10), and the board 3 is unloaded (step S11). The mounting operation ends.

上記ステップS6の部品認識処理としては、各吸着対象部品w、単位供給部4A−1、4A−2、4B−1、4B−2のテープフィーダー位置、さらには吸着に使用されるいずれかのヘッド20とのこれらの組み合わせ(吸着組み合わせ)ごとに、過去のデータから求められて、あるいは初期値として記憶部32に格納された各吸着誤差t1、・・、tn、tn+1、・・のデータから、これから部品認識される各吸着部品wについての該当吸着組み合わせに対応する吸着誤差を読み出し、各吸着部品wの吸着誤差T1、・・Tm(ここで、mは各ヘッドに吸着された部品wの数)として取得する(ステップS21)。ここで本実施形態では、さらに、各吸着部品w1について部品サイズの1/2に対応する吸着誤差T1を加えた値L1を求め、同様にm番目までのそれぞれの値L2、・・Lmを求める。この値L1・・Lmはそれぞれのヘッド20の中心から吸着ずれを起こした場合としての部品のY軸方向最外部までの距離を示すので、各ヘッド20がカメラ23(ラインセンサ)のY軸方向の撮像中心(=主走査方向部品認識領域25の中心位置M)を通過したとしてY軸方向正の方向及び負の方向にそれぞれこの値L1・・Lmだけオフセットした位置を各吸着部品wのY軸方向両側の最外部が通過する可能性を示している。このステップS21では、この値L1・・Lmの内最大値を最大通過オフセット値Lmaxとして求め、この最大通過オフセット値Lmaxから、該当部品のサイズの1/2を引いたものを吸着誤差Tとして求める。   As the component recognition processing in step S6, each suction target component w, the tape feeder positions of the unit supply units 4A-1, 4A-2, 4B-1, 4B-2, and any head used for suction For each of these combinations with 20 (adsorption combinations), from the data of the respective adsorption errors t1, ···, tn, tn + 1, ··· obtained from past data or stored in the storage unit 32 as initial values, The suction error corresponding to the corresponding suction combination for each suction component w to be recognized is read out, and suction errors T1,... Tm of each suction component w (where m is the number of parts w sucked by each head) ) (Step S21). Here, in the present embodiment, a value L1 obtained by adding a suction error T1 corresponding to ½ of the component size is obtained for each suction component w1, and each of the values L2,. . This value L1 ·· Lm indicates the distance from the center of each head 20 to the outermost part in the Y-axis direction of the component as a result of occurrence of suction displacement, so that each head 20 is in the Y-axis direction of the camera 23 (line sensor) The positions offset by this value L1... Lm in the positive and negative directions in the Y-axis direction, assuming that the image pickup center (= center position M of the main scanning direction component recognition area 25) has passed. The possibility of passing the outermost part on both sides in the axial direction is shown. In this step S21, the maximum value among the values L1... Lm is obtained as the maximum passage offset value Lmax, and the suction error T obtained by subtracting 1/2 of the size of the corresponding part from the maximum passage offset value Lmax. .

また、ステップS22,S23において、最終ヘッド20の前記部品吸着位置P及び主走査方向部品認識領域25の中心位置Mを取得し、これらのデータに基づいてオフセット量Dを算出する(ステップS24)。ここで、オフセット量とは、部品吸着位置Pと主走査方向部品認識領域25の中心位置MとのY軸方向における差分であり、算出式D=P−Mによって算出される。具体的には、部品吸着位置P及び主走査方向部品認識領域25の中心位置MにおけるそれぞれのY軸方向位置によって演算される(ステップS24)。   In steps S22 and S23, the component suction position P of the final head 20 and the center position M of the main scanning direction component recognition area 25 are acquired, and an offset amount D is calculated based on these data (step S24). Here, the offset amount is a difference in the Y-axis direction between the component suction position P and the center position M of the main scanning direction component recognition area 25, and is calculated by the calculation formula D = P−M. Specifically, the calculation is performed based on the component suction position P and the Y-axis direction position at the center position M of the main-scanning direction component recognition area 25 (step S24).

次に、記憶部32、入力部37から取得したデータ及びオフセット量Dにより、最終ヘッド20が部品wを吸着する部品吸着位置における部品w全体が、その位置からそのまま副走査方向にヘッドユニット5を移動させた場合に主走査方向部品認識領域25に含まれるか否かを判断する(ステップS25)。具体的には、図4,5を参照して、認識走査線αから部品wのY軸方向端部までの距離と、認識走査線αから主走査方向部品認識領域25のY軸方向端部までの距離とを比較することによって判断する。すなわち、算出式C/2+T+|D|<A/2が成立するか否かによって判断する。ここで、Cには最大通過オフセット値Lmaxとなる部品wの部品サイズのY軸方向寸法Cy、Tには吸着誤差のY軸方向成分Ty、Aには主走査方向部品認識領域25のY軸方向寸法Ayが入力される。すなわち、C/2+Tは最大通過オフセット値Lmaxそのものとなる。そして、その認識走査線αから部品wのY軸方向端部までの距離が、認識走査線αから主走査方向部品認識領域25のY軸方向端部までの距離(Ay/2)よりも小さい場合には、副走査方向にヘッドユニット5を移動させると、吸着部品wの全体が主走査方向部品認識領域25内に含まれると判断される。   Next, with the data acquired from the storage unit 32 and the input unit 37 and the offset amount D, the entire component w at the component suction position where the final head 20 sucks the component w is moved from the position to the head unit 5 in the sub-scanning direction. If it is moved, it is determined whether or not it is included in the main scanning direction component recognition area 25 (step S25). Specifically, referring to FIGS. 4 and 5, the distance from the recognition scanning line α to the end of the component w in the Y-axis direction, and the recognition scanning line α to the end of the main recognition direction component recognition area 25 in the Y-axis direction. Judgment is made by comparing the distance to. That is, the determination is made based on whether or not the calculation formula C / 2 + T + | D | <A / 2 is satisfied. Here, C is the Y-axis direction dimension Cy of the component size of the component w having the maximum passing offset value Lmax, T is the Y-axis direction component Ty of the suction error, and A is the Y-axis of the main-scanning direction component recognition area 25. The direction dimension Ay is input. That is, C / 2 + T is the maximum passage offset value Lmax itself. The distance from the recognition scanning line α to the end of the component w in the Y-axis direction is smaller than the distance (Ay / 2) from the recognition scanning line α to the end of the main scanning direction component recognition area 25 in the Y-axis direction. In this case, when the head unit 5 is moved in the sub-scanning direction, it is determined that the entire suction component w is included in the main-scanning direction component recognition area 25.

このようにステップS25において、吸着部品w全体が主走査方向部品認識領域25内に含まれると判断される場合(図4の場合)には、YESの方向に進み、オフセット認識処理が行われる(ステップS26)。また、吸着部品w全体又は一部が主走査方向部品認識領域25から外れると判断される場合(図5の場合)には、NOの方向に進み通常認識処理が行われる(ステップS27)。   As described above, when it is determined in step S25 that the entire suction component w is included in the main scanning direction component recognition area 25 (in the case of FIG. 4), the process proceeds in the YES direction, and offset recognition processing is performed ( Step S26). If it is determined that all or part of the suction component w is out of the main scanning direction component recognition area 25 (in the case of FIG. 5), the process proceeds in the NO direction and normal recognition processing is performed (step S27).

ここで、例えば、図4の位置関係である場合、すなわち、オフセット認識処理される場合について、図8に示すフローチャートに従って説明する。   Here, for example, the case of the positional relationship of FIG. 4, that is, the case of the offset recognition processing will be described according to the flowchart shown in FIG. 8.

前記オフセット認識処理(ステップS26)とは、部品吸着位置Pが主走査方向部品認識領域25の中心位置Mに対してオフセットしている場合でも、部品供給部4A,4Bから供給された部品wがヘッドユニット5のヘッド20により吸着される部品吸着位置から、そのままヘッドユニット5を副走査方向に移動させることによって、吸着部品wを撮像して部品認識を行うものである。   In the offset recognition process (step S26), even when the component suction position P is offset with respect to the center position M of the component recognition area 25 in the main scanning direction, the component w supplied from the component supply units 4A and 4B is used. By moving the head unit 5 in the sub-scanning direction as it is from the component suction position sucked by the head 20 of the head unit 5, the suction component w is imaged and component recognition is performed.

具体的には、ステップS31において、ノズル部材20aの軸中心位置が、主走査方向部品認識領域25の中心位置Mからオフセット量を加味した位置になるようにヘッドユニット5を移動させる。すなわち、主走査方向部品認識領域25の中心位置MのY軸方向位置(My)にオフセット量Dを加算した位置(オフセット認識可能位置P’)まで移動させる。図4の場合、オフセット量D=P−Mであるため、オフセット認識可能位置P’=Pとなり、実質的に主走査方向の移動は伴わず、ステップS32に進む。ここで、オフセット認識可能位置とは、主走査方向部品認識領域25の中心位置に対して前記部品吸着位置Pが主走査方向にオフセットしている状態であっても、その状態を保ったままヘッドユニット5を副走査方向に移動させた場合に、吸着部品wの全体が主走査方向部品認識領域25を通過できる位置である。   Specifically, in step S31, the head unit 5 is moved so that the axial center position of the nozzle member 20a is a position that takes into account the offset amount from the center position M of the main scanning direction component recognition area 25. That is, the position is moved to a position (offset recognizable position P ′) obtained by adding the offset amount D to the Y-axis direction position (My) of the center position M of the main scanning direction component recognition area 25. In the case of FIG. 4, since the offset amount D = P−M, the offset recognizable position P ′ = P, and the process proceeds to step S32 substantially without moving in the main scanning direction. Here, the offset recognizable position refers to the head while maintaining the state even when the component suction position P is offset in the main scanning direction with respect to the center position of the main scanning direction component recognition area 25. When the unit 5 is moved in the sub-scanning direction, the entire suction component w can pass through the main-scanning direction component recognition area 25.

なお、図8のルーチンは後述の実施形態2でも用いられ、特にステップS31は実施形態2で必要なものであるが、当実施形態では上述のようにオフセット認識可能位置P’までの主走査方向の移動は実質的に行われないため、ステップS31は省略してもよい。   Note that the routine of FIG. 8 is also used in the second embodiment to be described later. In particular, step S31 is necessary in the second embodiment, but in this embodiment, the main scanning direction to the offset recognizable position P ′ as described above. Since step S31 is not substantially performed, step S31 may be omitted.

次にステップS32〜S34において、オフセット認識位置P’から副走査方向にヘッドユニット5を一定速度で移動させて、吸着部品wの画像の取り込みが行われる。すなわち、図4の移動経路(1)に従って移動することによって、ヘッドユニット5に吸着された全ての部品wがカメラ23で撮像され、得られた画像データを基に各吸着部品wの認識結果が取得される。   Next, in steps S32 to S34, the head unit 5 is moved at a constant speed from the offset recognition position P 'in the sub-scanning direction, and the image of the suction component w is captured. That is, by moving along the movement path (1) in FIG. 4, all the parts w sucked by the head unit 5 are imaged by the camera 23, and the recognition result of each sucking part w is obtained based on the obtained image data. To be acquired.

次に、ステップS35において、認識位置補正機構の有無の判断が行われる。すなわち、部品認識後においては、ノズル部材20aの軸中心と吸着部品wの中心との位置補正演算処理が行われるが、オフセット認識処理では、ノズル部材20aが主走査方向部品認識領域25の中心からオフセットした位置を通過するため、オフセット量Dを加味した補正を行う必要がある。一方、ノズル部材20aの位置を確認できるマーカーがヘッドユニット5に付されており、吸着部品wとマーカーとが同時に撮像される場合(認識位置補正機構ありの場合)には、補正処理においてオフセット量Dを加味する必要はなく、マーカーを基準とした座標系によって補正が行われる。したがって、ステップS35ではこのような認識位置補正機構の有無を判断し、認識位置補正機構がある場合には、オフセット量Dを加味せずマーカーを基準とした補正量が位置補正演算処理に加味されることとなる(ステップS36)。また、認識位置補正機構がない場合には、補正量にオフセット量Dが加味されて補正演算処理が行われる(ステップS37)。このようにしてオフセット認識処理は終了する。   Next, in step S35, the presence / absence of a recognition position correction mechanism is determined. That is, after component recognition, position correction calculation processing between the center of the nozzle member 20a and the center of the suction component w is performed. In the offset recognition processing, the nozzle member 20a is moved from the center of the main scanning direction component recognition region 25. In order to pass through the offset position, it is necessary to perform correction in consideration of the offset amount D. On the other hand, when the marker for confirming the position of the nozzle member 20a is attached to the head unit 5 and the suction component w and the marker are imaged at the same time (when the recognition position correction mechanism is provided), the offset amount is corrected in the correction process. It is not necessary to consider D, and correction is performed by a coordinate system based on the marker. Accordingly, in step S35, the presence / absence of such a recognition position correction mechanism is determined. If there is a recognition position correction mechanism, the correction amount based on the marker is added to the position correction calculation process without taking the offset amount D into account. (Step S36). If there is no recognition position correction mechanism, the correction calculation process is performed by adding the offset amount D to the correction amount (step S37). In this way, the offset recognition process ends.

一方、図5の位置関係である場合には、ステップS27において、図9に示されるフローチャートに従って通常認識処理が行われる。通常認識処理は、ノズル部材20aによって供給された部品wを吸着した後、ノズル部材20aの軸中心位置が主走査方向部品認識領域25の中心位置を通る認識走査線α上に位置するようにヘッドユニット5を移動させ、さらにこの位置から副走査方向に移動させることによって吸着部品wを撮像して部品認識を行うものである。   On the other hand, in the case of the positional relationship of FIG. 5, the normal recognition process is performed in step S27 according to the flowchart shown in FIG. In the normal recognition process, after sucking the component w supplied by the nozzle member 20a, the head is positioned so that the axial center position of the nozzle member 20a is positioned on the recognition scanning line α passing through the center position of the main scanning direction component recognition area 25. By moving the unit 5 and further moving from this position in the sub-scanning direction, the suction component w is imaged and component recognition is performed.

具体的には、ステップS41において、部品wを吸着するノズル部材20aの軸中心位置が認識走査線α上となるようにヘッドユニット5を移動させる。すなわち、ノズル部材20aの軸中心のY軸方向位置がMyになるように移動させる(通常認識位置)。   Specifically, in step S41, the head unit 5 is moved so that the axial center position of the nozzle member 20a that adsorbs the component w is on the recognition scanning line α. In other words, the nozzle member 20a is moved so that the Y-axis direction position of the axis center of the nozzle member 20a becomes My (normal recognition position).

次にステップS42〜S44において、通常認識位置から副走査方向にヘッドユニット5を一定速度で移動させて、すなわち、図5の移動経路(2)に従ってヘッドユニット5(ヘッド20)は移動させて、吸着部品wの画像の取り込みを行うことにより吸着部品wの認識結果が取得される。   Next, in steps S42 to S44, the head unit 5 is moved at a constant speed from the normal recognition position in the sub-scanning direction, that is, the head unit 5 (head 20) is moved according to the movement path (2) in FIG. The recognition result of the suction component w is acquired by capturing the image of the suction component w.

次にステップS45において、認識位置補正機構の有無の判断が行われる。通常認識の場合、ノズル部材20aの軸中心位置を主走査方向部品認識領域25の中心位置Myに一致させているため、得られた画像の座標系を基準としてノズル部材20aの中心と吸着部品wの中心との位置補正演算処理が行われる。一方、ノズル部材20aの位置を確認できるマーカーがヘッドユニット5に付されており、吸着部品wとマーカーとが同時に撮像される場合(認識位置補正機構ありの場合)には、位置補正演算処理においてマーカーを基準とした座標系によって補正が行われる。したがって、認識位置補正機構がある場合には、マーカーを基準とした追加補正量が位置補正演算処理に加味されることとなり(ステップS46)、認識位置補正機構がない場合には、追加補正量の演算はなく、そのまま補正演算処理がなされ通常認識は終了する。   Next, in step S45, the presence / absence of a recognition position correction mechanism is determined. In the case of normal recognition, since the axial center position of the nozzle member 20a coincides with the central position My of the main scanning direction component recognition area 25, the center of the nozzle member 20a and the suction component w are obtained based on the coordinate system of the obtained image. The position correction calculation process with respect to the center is performed. On the other hand, when the head unit 5 is provided with a marker for confirming the position of the nozzle member 20a and the suction component w and the marker are imaged at the same time (when the recognition position correction mechanism is provided), in the position correction calculation process Correction is performed by a coordinate system based on the marker. Therefore, if there is a recognition position correction mechanism, an additional correction amount based on the marker is added to the position correction calculation process (step S46). If there is no recognition position correction mechanism, the additional correction amount There is no calculation, the correction calculation process is performed as it is, and the normal recognition ends.

このように、上記実施形態において、部品供給部4A,4Bにおいてヘッド20により吸着した部品吸着位置Pからヘッドユニット5により吸着部品wを副走査方向に移動させた場合に、吸着部品wの全体が主走査方向部品認識領域25に含まれる吸着部品w(オフセット認識可能部品)に対して、部品吸着位置Pが主走査方向部品認識領域の中心位置Mからオフセットした状態であっても、その状態を保って吸着部品wを副走査方向に移動させて部品認識(オフセット認識処理)を行うことにより、部品認識動作の高速化を図ることができる。すなわち、従来のようにオフセット認識可能部品に対して、認識走査線α上に移動させた後、副走査方向に移動させて部品認識を行う通常認識処理を行う場合に比べて、吸着位置を前記認識走査線α上に移動させる時間を短縮することができる。   Thus, in the above embodiment, when the suction component w is moved in the sub-scanning direction by the head unit 5 from the component suction position P sucked by the head 20 in the component supply units 4A and 4B, the entire suction component w is obtained. Even if the component suction position P is offset from the center position M of the main scanning direction component recognition region with respect to the suction component w (component capable of offset recognition) included in the main scanning direction component recognition region 25, the state is changed. By keeping the suction component w in the sub-scanning direction and performing component recognition (offset recognition processing), the component recognition operation can be speeded up. That is, as compared with the conventional case where the offset recognition component is moved on the recognition scanning line α and then moved in the sub-scanning direction to perform normal recognition processing for component recognition, the suction position is It is possible to shorten the time required to move the recognition scanning line α.

以上のようにして、部品認識がされる毎に、吸着誤差データが取得できるので、この吸着誤差データを吸着組み合わせ毎に所定数蓄積された時点で統計処理し、そのデータ中の最大値を求め、あるいは平均値μと標準偏差σ及び標準偏差σの所定数倍、例えば3σ、4.5σを求め、この最大値、μ+3σあるいはμ+4.5σの何れかの値を、上記ステップS21で使用する各吸着誤差t1、・・、tn、tn+1、・・のデータとして置き換えて記憶部32に格納するようにしてもよい。   As described above, each time component recognition is performed, suction error data can be acquired. Therefore, statistical processing is performed when a predetermined number of suction error data is accumulated for each suction combination, and the maximum value in the data is obtained. Alternatively, an average value μ, a standard deviation σ, and a predetermined multiple of the standard deviation σ, for example, 3σ, 4.5σ, are obtained, and this maximum value, any one of μ + 3σ or μ + 4.5σ, is used in step S21. .., Tn, tn + 1,... May be replaced and stored in the storage unit 32.

また、上記実施形態では、図5に示す位置関係の場合、通常認識処理を行うものについて説明したが、部品吸着位置にかかわらず、常にオフセット認識処理を行うものであってもよい。   In the above embodiment, the case where the normal recognition process is performed in the case of the positional relationship shown in FIG. 5 has been described. However, the offset recognition process may always be performed regardless of the component suction position.

すなわち、上記実施形態(実施形態1と称す)における図6のステップS6において、実施形態2では、図10に示すフローチャートに従って部品認識処理を行う。なお、実施形態1と構成が同じであるものについては説明を省略するものとする。   That is, in step S6 of FIG. 6 in the above-described embodiment (referred to as Embodiment 1), in Embodiment 2, component recognition processing is performed according to the flowchart shown in FIG. Note that description of components having the same configurations as those of the first embodiment will be omitted.

まず、ステップS51において、上記で説明したようにステップS21と同様に吸着誤差Tを取得する。   First, in step S51, as described above, the suction error T is acquired as in step S21.

次にステップS52において、オフセット限界値Sを演算する。ここで、オフセット限界値Sとは、主走査方向部品認識領域25の中心位置Mと吸着部品wの中心位置とを一致させた状態から吸着部品wをY軸方向に移動(オフセット)させた場合に、この吸着部品wが前記主走査方向部品認識領域25内に含まれる移動量の限界値である。具体的には、算出式S=(A−C)/2−Tによって求められる。ここで、Aには主走査方向部品認識領域25のY軸方向寸法Ay、Cには吸着部品wのY軸方向寸法Cy、Tには吸着誤差のY軸方向成分Tyを入力することによって算出される。   Next, in step S52, an offset limit value S is calculated. Here, the offset limit value S is a case where the suction component w is moved (offset) in the Y-axis direction from the state where the center position M of the component recognition area 25 in the main scanning direction matches the center position of the suction component w. In addition, the suction component w is a limit value of the amount of movement included in the main scanning direction component recognition area 25. Specifically, it is obtained by the calculation formula S = (A−C) / 2−T. Here, A is calculated by inputting the Y-axis direction dimension Ay of the main scanning direction component recognition area 25, C is the Y-axis direction dimension Cy of the suction component w, and T is the Y-axis direction component Ty of the suction error. Is done.

次に、ステップS53〜S55において、上記実施形態と同様にオフセット量Dが算出される。   Next, in steps S53 to S55, the offset amount D is calculated as in the above embodiment.

そして、ステップS56において、前記オフセット限界値の絶対値|S|とオフセット量の絶対値|D|との大小を比較される。これにより、実際のオフセット量Dがオフセット限界値Sよりも大きい場合には、吸着部品wを副走査方向に移動させると吸着部品wの全体あるいはその一部が主走査方向部品認識領域25に含まれない場合、すなわち図5の位置関係であることが判断できる。   In step S56, the absolute value | S | of the offset limit value is compared with the absolute value | D | of the offset amount. As a result, when the actual offset amount D is larger than the offset limit value S, if the suction component w is moved in the sub-scanning direction, the entire suction component w or a part thereof is included in the main scanning direction component recognition area 25. In other words, it can be determined that the positional relationship shown in FIG.

そして、実際のオフセット量Dがオフセット限界値Sよりも大きい場合(図5の位置関係である場合)には、ステップS56においてYESの方向に進み、部品吸着位置Pと主走査方向部品認識領域25の中心位置Mとの位置関係(Y軸方向における位置関係)が判断される(ステップS57)。そして、主走査方向部品認識領域25の中心位置M(My)よりも部品吸着位置P(Py)がY軸正方向側に位置する場合には、オフセット量Dは、オフセット限界値(S)とされる(ステップS58)。一方、主走査方向部品認識領域25の中心位置M(My)よりも部品吸着位置P(Py)がY軸負方向に位置する場合には、オフセット量Dは、オフセット限界値(−S)とされ(ステップS60)、図8におけるオフセット認識処理が行われる(ステップS59)。そして、この場合のオフセット認識処理は、図8におけるステップS31において、オフセット認識可能位置P’がM−S(My−S)となり(図5参照)、この位置から認識走査されることにより吸着部品wは認識される。   If the actual offset amount D is larger than the offset limit value S (in the case of the positional relationship in FIG. 5), the process proceeds in the YES direction in step S56, and the component suction position P and the main scanning direction component recognition area 25 are detected. The positional relationship with the center position M (positional relationship in the Y-axis direction) is determined (step S57). When the component suction position P (Py) is located on the Y axis positive direction side with respect to the center position M (My) of the main scanning direction component recognition area 25, the offset amount D is equal to the offset limit value (S). (Step S58). On the other hand, when the component suction position P (Py) is positioned in the negative Y-axis direction from the center position M (My) of the main recognition direction component recognition area 25, the offset amount D is equal to the offset limit value (-S). Then, the offset recognition process in FIG. 8 is performed (step S59). In the offset recognition process in this case, in step S31 in FIG. 8, the offset recognizable position P ′ becomes MS (My-S) (see FIG. 5), and the picked-up component is recognized and scanned from this position. w is recognized.

具体的には、図5に示すように、ノズル部材20aの軸中心位置のY軸方向位置が、My−S(オフセット認識可能位置P’)となるように移動させる。そして、オフセット認識可能位置P’から副走査方向にヘッドユニット5を移動させることにより、吸着部品wにおける部品吸着部側端部(図5の下方側)が主走査方向部品認識領域25の端部(図5の下方側)とほぼ一致した状態、あるいは近接した状態で主走査方向部品認識領域25を通過する。すなわち、部品吸着位置Pにおける部品wは、主走査方向における必要最小限の移動量によって部品wの認識が行うことができる。そして、上記実施形態1と同様にして図8に示すオフセット処理が行われ部品認識は終了する。   Specifically, as shown in FIG. 5, the Y-axis direction position of the axial center position of the nozzle member 20a is moved to My-S (offset recognizable position P ′). Then, by moving the head unit 5 from the offset recognizable position P ′ in the sub-scanning direction, the component suction portion side end (the lower side in FIG. 5) of the suction component w is the end of the main scanning direction component recognition region 25. It passes through the main-scanning direction component recognition area 25 in a state substantially coincident with (close to the lower side of FIG. 5) or in a close state. That is, the component w at the component suction position P can be recognized by the minimum necessary movement amount in the main scanning direction. Then, the offset process shown in FIG. 8 is performed in the same manner as in the first embodiment, and the component recognition ends.

一方、実際のオフセット量Dがオフセット限界値Sよりも小さい場合(図4の位置関係である場合)には、ステップS57においてNOと判断され、オフセット量Dは、実際のオフセット量Dとされる。そして、上記実施形態1と同様にして図8に示すオフセット処理が行われ(ステップS59)本実施形態2の部品認識は終了する。   On the other hand, when the actual offset amount D is smaller than the offset limit value S (in the case of the positional relationship of FIG. 4), NO is determined in step S57, and the offset amount D is set to the actual offset amount D. . Then, the offset process shown in FIG. 8 is performed in the same manner as in the first embodiment (step S59), and the component recognition in the second embodiment is completed.

このように、部品吸着位置にかかわらずオフセット認識処理を行う実施形態2では、部品吸着位置Pと主走査方向部品認識領域25との位置関係に関わらずオフセット認識処理を行うため、部品吸着位置Pと主走査方向部品認識領域25とが図5の位置関係になる場合には、通常認識を行う実施形態1に比べて、ヘッドユニット5の主走査方向への移動量を軽減させることができる。したがって、ヘッドユニット5の移動量を極力減らして部品認識動作の高速化を図ることができる。   As described above, in the second embodiment in which the offset recognition process is performed regardless of the component suction position, the offset recognition process is performed regardless of the positional relationship between the component suction position P and the component recognition area 25 in the main scanning direction. 5 and the main scanning direction component recognition area 25 are in the positional relationship shown in FIG. 5, the amount of movement of the head unit 5 in the main scanning direction can be reduced as compared with the first embodiment in which normal recognition is performed. Therefore, the movement amount of the head unit 5 can be reduced as much as possible to increase the speed of the component recognition operation.

また、上記実施形態によれば、部品吸着装置の設計誤差等による部品供給位置のずれに応じて部品供給位置を補正した場合、特殊な形状の部品wを吸着する場合、あるいは、部品wに対し安定した吸着を行うために、正規の吸着位置からずらして(オフセットさせて)吸着する必要がある場合であっても、オフセット認識処理を行うことにより、稼働効率を低下させずに部品wを基板3に実装させることができる。   Further, according to the above-described embodiment, when the component supply position is corrected according to the shift of the component supply position due to the design error of the component suction device, when the component w with a special shape is sucked, or with respect to the component w Even when it is necessary to shift (offset) from the normal suction position in order to perform stable suction, the component w can be printed on the board without lowering operating efficiency by performing offset recognition processing. 3 can be implemented.

また、上記実施形態によれば、小さな部品wを認識する場合にはオフセット認識処理することにより、より効果的にヘッドユニット5の移動量を低減させて実装の高速化を図ることができる。   Further, according to the above-described embodiment, when the small component w is recognized, the offset recognition process is performed, so that the movement amount of the head unit 5 can be more effectively reduced and the mounting speed can be increased.

また、上記実施形態によれば、部品吸着位置Pと主走査方向部品認識領域25の中心位置Mとを副走査方向において一直線上に配置されない場合であっても、部品wを認識することができるため、装置設備の調整や組み付け作業が容易となる。   Further, according to the above embodiment, the component w can be recognized even when the component suction position P and the center position M of the component recognition area 25 in the main scanning direction are not arranged on a straight line in the sub-scanning direction. Therefore, adjustment and assembly work of equipment are facilitated.

また、上記実施形態2では、部品吸着位置Pと主走査方向部品認識領域25とが図5の位置関係において、オフセット限界値Sを用いてオフセット可能な限界位置においてオフセット認識処理を行う場合について説明したが、オフセット認識できる位置、すなわち、認識走査線αよりも部品認識位置P側におけるオフセット認識可能位置に吸着部品wを位置させるものであればよい。この場合であっても、認識走査線α上まで移動させる通常認識処理に比べて移動量を低減させて実装の高速化を図ることができる。   In the second embodiment, the case where the offset recognition process is performed at the limit position where the offset position value P can be offset using the offset limit value S in the positional relationship of FIG. However, what is necessary is just to position the suction component w at a position where the offset can be recognized, that is, at an offset recognizable position on the component recognition position P side of the recognition scanning line α. Even in this case, the amount of movement can be reduced compared to the normal recognition process of moving to the recognition scanning line α, and the mounting speed can be increased.

本発明に係る部品実装方法が適用される表面実装機の一例を示す平面図である。It is a top view which shows an example of the surface mounting machine with which the component mounting method concerning this invention is applied. 上記表面実装機のヘッドユニット部分を示す概略的な正面図である。It is a schematic front view which shows the head unit part of the said surface mounting machine. 表面実装機の制御系を示す概略的なブロック構成図である。It is a schematic block diagram which shows the control system of a surface mounter. 部品と主走査方向部品認識領域25との位置関係を模式的に表した模式図である。FIG. 6 is a schematic diagram schematically showing a positional relationship between a part and a main scanning direction part recognition area 25. 部品と主走査方向部品認識領域25との別の位置関係を模式的に表した模式図である。FIG. 6 is a schematic diagram schematically showing another positional relationship between a part and a main scanning direction part recognition area 25. 実装動作を示すフローチャートである。It is a flowchart which shows mounting operation. 部品認識補正処理を示すフローチャートである。It is a flowchart which shows a component recognition correction process. オフセット認識処理を示すフローチャートである。It is a flowchart which shows an offset recognition process. 通常認識処理を示すフローチャートである。It is a flowchart which shows a normal recognition process. 他の実施形態における部品認識補正処理を示すフローチャートである。It is a flowchart which shows the components recognition correction | amendment process in other embodiment.

符号の説明Explanation of symbols

5 ヘッドユニット
20 ヘッド
20a ノズル部材
23 カメラ
25 主走査方向部品認識領域
30 制御装置
31a 演算部
31b 判定部
31c 認識処理部
DESCRIPTION OF SYMBOLS 5 Head unit 20 Head 20a Nozzle member 23 Camera 25 Main scanning direction component recognition area 30 Control apparatus 31a Operation part 31b Determination part 31c Recognition process part

Claims (7)

部品吸着用のヘッドを有するヘッドユニットに部品を吸着させ、ラインセンサを有する撮像装置に対し副走査方向に前記ヘッドユニットを移動させることにより、吸着部品を撮像し部品認識処理を行う部品認識方法において、
前記部品供給部から供給された部品を前記ヘッドにより吸着し、この部品吸着位置から前記ヘッドユニットをラインセンサに対して副走査方向に移動させた場合に、前記吸着部品全体が前記撮像装置によって撮像可能な主走査方向部品認識領域内を通過できるか否かを判断する判断処理を行い、
前記判断処理により前記吸着部品全体が前記主走査方向部品認識領域内を通過できると判断した場合には、主走査方向部品認識領域の中心位置に対して前記部品吸着位置が主走査方向にオフセットしている状態であっても、その状態を保ったまま前記ヘッドユニットを副走査方向に移動させることにより吸着部品を撮像して部品を認識するオフセット認識処理を行うことを特徴とする部品認識方法。
In a component recognition method for picking up a component on a head unit having a component suction head and moving the head unit in the sub-scanning direction with respect to an imaging device having a line sensor, and imaging the picked-up component and performing component recognition processing ,
When the component supplied from the component supply unit is sucked by the head and the head unit is moved in the sub-scanning direction with respect to the line sensor from the component suction position, the entire suction component is imaged by the imaging device. Perform a determination process to determine whether it can pass through the possible main scanning direction part recognition area,
When it is determined by the determination process that the entire suction component can pass through the main scanning direction component recognition region, the component suction position is offset in the main scanning direction with respect to the center position of the main scanning direction component recognition region. A component recognition method comprising: performing an offset recognition process for capturing a picked-up component and recognizing the component by moving the head unit in the sub-scanning direction while the state is maintained.
前記オフセット認識処理は、前記判断処理において副走査方向にヘッドユニットを移動させることにより前記吸着部品の全体又はその一部が前記主走査方向部品認識領域内を通過できないと判断した場合には、前記吸着部品全体が前記主走査方向部品認識領域内を通過できるオフセット認識可能位置に前記吸着部品が位置するように前記ヘッドユニットを移動させ、そのオフセット認識可能位置から副走査方向にヘッドユニットを移動させることにより吸着部品を撮像して認識することを特徴とする請求項1に記載の部品認識方法。   When the offset recognition process determines that the entire suction part or part of the suction part cannot pass through the main scanning direction part recognition area by moving the head unit in the sub-scanning direction in the determination process, The head unit is moved so that the suction component is located at an offset recognizable position where the entire suction component can pass through the main scanning direction component recognition area, and the head unit is moved from the offset recognizable position in the sub-scanning direction. The component recognition method according to claim 1, wherein the suction component is imaged and recognized. 前記判断処理は、前記部品吸着位置と、前記主走査方向部品認識領域の中心位置との位置関係から主走査方向のオフセット量を算出し、このオフセット量に基づいて吸着部品全体が前記主走査方向部品認識領域内を通過できるか否かを判断することを特徴とする請求項1又は2に記載の部品認識方法。   In the determination process, an offset amount in the main scanning direction is calculated from a positional relationship between the component suction position and the center position of the component recognition area in the main scanning direction. Based on the offset amount, the entire suction component is calculated in the main scanning direction. The component recognition method according to claim 1, wherein it is determined whether or not the component recognition region can be passed. 前記部品認識処理は、前記判断処理により、前記主走査方向部品認識領域の中心位置と吸着部品の中心位置とを一致させた状態から、前記吸着部品を主走査方向に移動させた場合に前記吸着部品が前記主走査方向部品認識領域内に含まれる移動量の限界値であるオフセット限界値を算出し、このオフセット限界値に基づいて吸着部品全体が前記主走査方向部品認識領域内を通過できるか否かを判断するとともに、前記オフセット認識可能位置は、主走査方向部品認識領域の中心位置から主走査方向にオフセット限界値分移動した位置に設定されることを特徴とする請求項1又は2に記載の部品認識方法。   The component recognition processing is performed when the suction component is moved in the main scanning direction from the state in which the center position of the component recognition area in the main scanning direction matches the center position of the suction component by the determination processing. An offset limit value, which is a limit value of the amount of movement of the part included in the main scanning direction part recognition area, is calculated, and based on this offset limit value, can the entire suction part pass through the main scanning direction part recognition area? The offset recognizable position is set to a position moved from the center position of the main scanning direction component recognition area by an offset limit value in the main scanning direction. The component recognition method described. 部品吸着用のヘッドを有するヘッドユニットと、
このヘッドユニットに吸着された吸着部品を撮像するラインセンサを有する撮像装置と、
前記ラインセンサに対して前記ヘッドユニットを副走査方向に移動させる駆動手段と、
これらを統括制御する制御手段と、
を備え、
前記制御手段は、前記部品供給部から供給された部品を前記ヘッドにより吸着させるとともに、この部品吸着位置から前記ヘッドユニットをラインセンサに対して副走査方向に移動させた場合に、前記吸着部品全体が前記撮像装置によって撮像可能な主走査方向部品認識領域内を通過できるか否かを判断する判断処理を行い、
前記判断処理により前記吸着部品全体が前記主走査方向部品認識領域内を通過できると判断した場合には、主走査方向部品認識領域の中心位置に対して前記部品吸着位置が主走査方向にオフセットしている状態であっても、その状態を保ったまま前記ヘッドユニットを副走査方向に移動させることにより吸着部品を撮像して部品を認識するオフセット認識処理を行うことを特徴とする部品認識装置。
A head unit having a head for sucking parts;
An imaging device having a line sensor that images the suction component sucked by the head unit;
Driving means for moving the head unit in the sub-scanning direction with respect to the line sensor;
Control means for overall control of these,
With
The control means sucks the component supplied from the component supply unit by the head, and when the head unit is moved from the component suction position to the line sensor in the sub-scanning direction, Performs a determination process to determine whether or not the image can be passed through the main scanning direction component recognition area that can be imaged by the imaging device,
When it is determined by the determination process that the entire suction component can pass through the main scanning direction component recognition region, the component suction position is offset in the main scanning direction with respect to the center position of the main scanning direction component recognition region. A component recognition apparatus that performs offset recognition processing for recognizing a component by capturing the picked-up component by moving the head unit in the sub-scanning direction while maintaining the state.
前記制御手段は、前記判断処理において副走査方向にヘッドユニットを移動させることにより前記吸着部品の全体又はその一部が前記主走査方向部品認識領域内を通過できないと判断した場合には、前記吸着部品全体が前記主走査方向部品認識領域内を通過できるオフセット認識可能位置に前記ヘッドが位置するように前記ヘッドユニットを移動させ、そのオフセット認識可能位置から副走査方向にヘッドユニットを移動させることにより吸着部品を撮像して認識することを特徴とする請求項5に記載の部品認識装置。   If the control means determines that the entire suction part or a part of the suction part cannot pass through the main scanning direction part recognition area by moving the head unit in the sub-scanning direction in the determination process, the suction part By moving the head unit so that the head is positioned at an offset recognizable position where the entire part can pass through the component recognition area in the main scanning direction, and moving the head unit in the sub-scanning direction from the offset recognizable position The component recognition apparatus according to claim 5, wherein the suction component is imaged and recognized. 実装用ヘッドを有する移動可能なヘッドユニットにより部品を吸着して基板上の所定位置に実装する表面実装機において、請求項5又は請求項6に記載の部品認識装置を備えたことを特徴とする表面実装機。   A surface mounting machine that picks up a component by a movable head unit having a mounting head and mounts the component at a predetermined position on a substrate, comprising the component recognition device according to claim 5 or 6. Surface mount machine.
JP2006015186A 2006-01-24 2006-01-24 Component recognition method, apparatus and surface mounter Active JP4704218B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006015186A JP4704218B2 (en) 2006-01-24 2006-01-24 Component recognition method, apparatus and surface mounter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006015186A JP4704218B2 (en) 2006-01-24 2006-01-24 Component recognition method, apparatus and surface mounter

Publications (2)

Publication Number Publication Date
JP2007200990A true JP2007200990A (en) 2007-08-09
JP4704218B2 JP4704218B2 (en) 2011-06-15

Family

ID=38455304

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006015186A Active JP4704218B2 (en) 2006-01-24 2006-01-24 Component recognition method, apparatus and surface mounter

Country Status (1)

Country Link
JP (1) JP4704218B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012023251A1 (en) * 2010-08-17 2012-02-23 パナソニック株式会社 Component-mounting device and component-detection method
JP2012253200A (en) * 2011-06-03 2012-12-20 Hitachi High-Tech Instruments Co Ltd Arithmetic device, component mounting device, and program
CN102879142A (en) * 2011-07-13 2013-01-16 中国科学院理化技术研究所 Device and method for measuring motor efficiency

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012023251A1 (en) * 2010-08-17 2012-02-23 パナソニック株式会社 Component-mounting device and component-detection method
JP2012043874A (en) * 2010-08-17 2012-03-01 Panasonic Corp Component mounting device and component detection method
CN102812794A (en) * 2010-08-17 2012-12-05 松下电器产业株式会社 Component-mounting device and component-detection method
US9001202B2 (en) 2010-08-17 2015-04-07 Panasonic Intellectual Property Management Co., Ltd. Component mounting apparatus and component detection method
JP2012253200A (en) * 2011-06-03 2012-12-20 Hitachi High-Tech Instruments Co Ltd Arithmetic device, component mounting device, and program
CN102879142A (en) * 2011-07-13 2013-01-16 中国科学院理化技术研究所 Device and method for measuring motor efficiency
CN102879142B (en) * 2011-07-13 2014-09-10 中国科学院理化技术研究所 Device and method for measuring motor efficiency

Also Published As

Publication number Publication date
JP4704218B2 (en) 2011-06-15

Similar Documents

Publication Publication Date Title
CN107926154B (en) Component mounting apparatus
KR101051106B1 (en) Electronic component mounting device and electronic component mounting method
JP4801558B2 (en) Mounting machine and component imaging method thereof
US7624497B2 (en) Component recognition apparatus for chip mounter
JP4343710B2 (en) Surface mount machine
CN105848462B (en) Component mounting device and component mounting method
JP4122170B2 (en) Component mounting method and component mounting apparatus
JP4704218B2 (en) Component recognition method, apparatus and surface mounter
JP4921346B2 (en) Adsorption position correction method in component mounting apparatus
JP2005347412A (en) Sucked state inspection apparatus, surface mounter, and part testing apparatus
JPH11289199A (en) Electronic parts recognizing device
JP2013236011A (en) Component mounting device
JP4351083B2 (en) Surface mount machine
JP3499316B2 (en) Calibration data detection method for mounting machine and mounting machine
JP2007103436A (en) Part mounting method and part mounting apparatus
JP4401792B2 (en) Component recognition method, apparatus and surface mounter
JP2003142891A (en) Electronic component mounting apparatus
JP4358015B2 (en) Surface mount machine
JP2000312100A (en) Component recognition unit of surface-mounting machine
JP2003243899A (en) Mounting device and mounting method
JP4339141B2 (en) Surface mount machine
KR101332005B1 (en) Apparatus and method of mounting component
JP4386425B2 (en) Surface mount machine
JP4368709B2 (en) Surface mount machine
JP2009206378A (en) Electronic component mounting apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110309

R150 Certificate of patent or registration of utility model

Ref document number: 4704218

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250