JP2023098300A - Position detection device, positioning device, welding device, position detection program, and position detection method - Google Patents

Position detection device, positioning device, welding device, position detection program, and position detection method Download PDF

Info

Publication number
JP2023098300A
JP2023098300A JP2021214972A JP2021214972A JP2023098300A JP 2023098300 A JP2023098300 A JP 2023098300A JP 2021214972 A JP2021214972 A JP 2021214972A JP 2021214972 A JP2021214972 A JP 2021214972A JP 2023098300 A JP2023098300 A JP 2023098300A
Authority
JP
Japan
Prior art keywords
image
matching
registered
position detection
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021214972A
Other languages
Japanese (ja)
Inventor
匡隆 池尻
Masataka Ikejiri
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidec Corp
Original Assignee
Nidec Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidec Corp filed Critical Nidec Corp
Priority to JP2021214972A priority Critical patent/JP2023098300A/en
Publication of JP2023098300A publication Critical patent/JP2023098300A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Connection Of Plates (AREA)
  • Image Analysis (AREA)

Abstract

To provide a position detection device that can maintain the accuracy of position detection for a target with low shape reproducibility.SOLUTION: In the position detection device, a control unit 104 includes: an image storage unit 115 that stores a registered image of each of a plurality of first time sections based on a photographed image of a target in each of the first time sections; a pattern matching unit 112 that performs pattern matching of the registered image of each of the first time sections and a photographed image of the target obtained in a second time section different from the plurality of first time sections to obtain a matching position of the target for each registered image; and a position determination unit (consultation unit 113) that determines a detected position of the target based on the matching position of each registered image.SELECTED DRAWING: Figure 2

Description

本発明は、位置検出装置、位置決め装置、溶接装置、位置検出プログラムおよび位置検出方法に関する。 The present invention relates to a position detection device, a positioning device, a welding device, a position detection program, and a position detection method.

従来、パターンマッチングによる位置検出の技術がある。 Conventionally, there is a technique of position detection by pattern matching.

例えば特許文献1には、指紋認識装置において、入力指紋画像と複数の辞書に登録されている辞書画像とを順次照合して、いずれかの辞書と照合合格となったとき、一方の辞書を他方の辞書に登録されている辞書画像に更新し、他方の辞書を入力指紋画像から抽出された辞書画像に更新する技術の提案がある。 For example, in Patent Document 1, in a fingerprint recognition device, an input fingerprint image is sequentially compared with dictionary images registered in a plurality of dictionaries. There is proposed a technique for updating one dictionary with a dictionary image registered in one dictionary and updating the other dictionary with a dictionary image extracted from an input fingerprint image.

特開平7-271981号公報JP-A-7-271981

しかし、形状の再現性が低い対象物の場合には、パターンマッチングに成功した場合であっても新たな辞書画像として登録するのに適さない場合がある。
そこで、本発明は、形状の再現性が低い対象物についても位置検出の精度を保つことを目的とする。
However, in the case of an object with low shape reproducibility, even if pattern matching is successful, it may not be suitable for registration as a new dictionary image.
SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to maintain the accuracy of position detection even for an object whose shape has low reproducibility.

本発明に係る位置検出装置の一態様は、複数の第1時間区間それぞれにおける対象物の撮影画像に基づいた当該第1時間区間毎の登録画像を記憶する画像記憶部と、上記第1時間区間毎の登録画像と、上記複数の第1時間区間とは異なる第2時間区間で得られた上記対象物の撮影画像とのパターンマッチングを行って、当該登録画像毎に当該対象物のマッチング位置を得るマッチング部と、上記登録画像毎の上記マッチング位置に基づいて上記対象物の検出位置を決定する位置決定部と、を備える。 One aspect of the position detection device according to the present invention is an image storage unit that stores registered images for each of the first time intervals based on captured images of an object in each of a plurality of first time intervals; pattern matching is performed between each registered image and the photographed images of the object obtained in a second time interval different from the plurality of first time intervals, and matching positions of the object are determined for each of the registered images. and a position determination unit that determines the detection position of the object based on the matching position for each of the registered images.

また、本発明に係る位置決め装置の一態様は、上記位置検出装置と、上記位置検出装置によって得られた上記検出位置を基準として位置決め対象を位置決めする位置決め機構と、を備える。 Further, one aspect of a positioning device according to the present invention includes the position detection device and a positioning mechanism that positions an object to be positioned using the detection position obtained by the position detection device as a reference.

また、本発明に係る溶接装置の一態様は、上記位置検出装置と、上記位置検出装置によって得られた上記検出位置を基準として溶接個所を位置決めする位置決め機構と、上記位置決め機構で位置決めされた溶接個所を溶接する溶接部と、を備える。
また、本発明に係る位置検出プログラムの一態様は、コンピュータを、上記位置検出装置における各構成要素として機能させる。
Further, one aspect of the welding apparatus according to the present invention includes the position detection device, a positioning mechanism for positioning a welding point with reference to the detection position obtained by the position detection device, and a weld positioned by the positioning mechanism. and a welding part for welding the part.
Further, one aspect of the position detection program according to the present invention causes a computer to function as each component in the position detection device.

また、本発明に係る位置検出方法の一態様は、複数の第1時間区間それぞれにおける対象物の撮影画像に基づいた当該第1時間区間毎の登録画像と、上記複数の第1時間区間とは異なる第2時間区間で得られた上記対象物の撮影画像とのパターンマッチングを行って、当該登録画像毎に当該対象物のマッチング位置を得るマッチング過程と、上記登録画像毎の前記マッチング位置に基づいて上記対象物の検出位置を決定する位置決定過程と、を経る。 Further, one aspect of the position detection method according to the present invention is a registered image for each first time interval based on a photographed image of an object in each of the plurality of first time intervals, and the plurality of first time intervals. a matching process of performing pattern matching with photographed images of the object obtained in different second time intervals to obtain a matching position of the object for each registered image; and a position determination step of determining the detected position of the object.

本発明によれば、形状の再現性が低い対象物についても位置検出の精度を保つことができる。 According to the present invention, the accuracy of position detection can be maintained even for an object whose shape has low reproducibility.

図1は、本発明の溶接装置の一実施形態を模式的に示す図である。FIG. 1 is a diagram schematically showing one embodiment of the welding device of the present invention. 図2は、制御部の機能構造を示す機能ブロック図である。FIG. 2 is a functional block diagram showing the functional structure of the controller. 図3は、制御部における位置制御の処理手順を示すフローチャートである。FIG. 3 is a flow chart showing the processing procedure of position control in the control unit. 図4は、カメラで得られる撮影画像の一例を示す図である。FIG. 4 is a diagram showing an example of a photographed image obtained by a camera. 図5は、画像記憶部に記憶された登録画像の一例を示す図である。FIG. 5 is a diagram showing an example of a registered image stored in an image storage unit. 図6は、合議による検出位置の決定例を示す図である。FIG. 6 is a diagram showing an example of determination of detection positions by consensus. 図7は、画像登録部による登録画像更新の処理手順を示すフローチャートである。FIG. 7 is a flow chart showing a processing procedure for updating a registered image by the image registration unit.

以下、添付の図面を参照しながら、本開示の位置検出装置、位置決め装置、溶接装置、位置検出プログラムおよび位置検出方法の実施形態を詳細に説明する。但し、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするため、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。また、先に説明した図に記載の要素については、後の図の説明において適宜に参照する場合がある。 Hereinafter, embodiments of a position detection device, a positioning device, a welding device, a position detection program, and a position detection method of the present disclosure will be described in detail with reference to the accompanying drawings. However, in order to avoid unnecessary redundancy in the following description and facilitate the understanding of those skilled in the art, more than necessary detailed description may be omitted. For example, detailed descriptions of well-known matters and redundant descriptions of substantially the same configurations may be omitted. In addition, the elements described in the previously described figures may be appropriately referred to in the description of later figures.

<溶接装置の構造>
図1は、本発明の溶接装置の一実施形態を模式的に示す図である。
本実施形態の溶接装置100はレーザ溶接機であり、ワーク300の銅線301の先端にレーザ光105を照射して溶接する。
<Structure of Welding Device>
FIG. 1 is a diagram schematically showing one embodiment of the welding device of the present invention.
The welding device 100 of this embodiment is a laser welder, and irradiates the tip of the copper wire 301 of the workpiece 300 with a laser beam 105 to weld the workpiece 300 .

ワーク300の銅線301は、溶接前にブレード200によって切断され、その切断された先端部分にレーザ光105が照射される。銅線301の切断箇所の形状は、いずれのワーク300でもある程度は似通った形状となる。但し、切断箇所の形状は、例えば一日の間に形状の揺らぎを生じるとともに、数日ないしは数週間といった時間スケールで経時変化を生じる。つまり、銅線301の切断箇所の形状は再現性が低い。 The copper wire 301 of the workpiece 300 is cut by the blade 200 before welding, and the cut tip portion is irradiated with the laser beam 105 . The shape of the cut portion of the copper wire 301 is similar to some extent in any workpiece 300 . However, the shape of the cut portion fluctuates, for example, within a day, and also changes over time on a time scale of several days to several weeks. That is, the shape of the cut portion of the copper wire 301 has low reproducibility.

溶接装置100は、カメラ101と、溶接部102と、位置決めアーム103と、制御部104とを備える。 Welding device 100 includes camera 101 , welding section 102 , positioning arm 103 , and control section 104 .

カメラ101は、ワーク300を撮影して画像データを出力する。
溶接部102は、レーザ光105を出射して溶接を行う。
位置決めアーム103は、ワーク300に対して溶接部102を位置決めする。
カメラ101、溶接部102および位置決めアーム103は、制御部104に有線あるいは無線で接続される。
A camera 101 photographs the workpiece 300 and outputs image data.
The welding part 102 emits a laser beam 105 for welding.
Positioning arm 103 positions welded portion 102 with respect to workpiece 300 .
The camera 101, the welding part 102 and the positioning arm 103 are connected to the control part 104 by wire or wirelessly.

制御部104は、カメラ101で得られる画像データに基づいて銅線301の位置を検出し、位置決めアーム103を制御することで、検出された位置に対して溶接部102を位置決めさせる。 Control unit 104 detects the position of copper wire 301 based on image data obtained by camera 101, and controls positioning arm 103 to position welded portion 102 at the detected position.

制御部104は、本発明の位置検出装置の一実施形態に相当する。本実施形態では制御部104が例えばパーソナルコンピュータによって実現され、パーソナルコンピュータには、本発明の位置検出プログラムの一実施形態が組み込まれる。 The control unit 104 corresponds to one embodiment of the position detection device of the present invention. In this embodiment, the control unit 104 is implemented by, for example, a personal computer, and the personal computer incorporates an embodiment of the position detection program of the present invention.

制御部104と位置決めアーム103とを併せたものが、本発明の位置決め装置の一実施形態に相当する。位置決めアーム103は、本発明にいう位置決め機構の一例に相当し、制御部104によって得られた検出位置を基準として位置決め対象(例えば溶接部102)を位置決めする。 A combination of the control unit 104 and the positioning arm 103 corresponds to one embodiment of the positioning device of the present invention. The positioning arm 103 corresponds to an example of the positioning mechanism according to the present invention, and positions an object to be positioned (for example, the welded portion 102) on the basis of the detected position obtained by the control section 104.

図2は、制御部104の機能構造を示す機能ブロック図である。図2に示す機能ブロック図は、本発明の位置検出プログラムの一実施形態におけるプログラム構造も表す。位置検出プログラムの一実施形態は、コンピュータを、図2に示す各機能ブロックに相当する各構成要素として機能させる。 FIG. 2 is a functional block diagram showing the functional structure of the control section 104. As shown in FIG. The functional block diagram shown in FIG. 2 also represents the program structure in one embodiment of the location detection program of the present invention. One embodiment of the position detection program causes a computer to function as each component corresponding to each functional block shown in FIG.

制御部104は、画像取得部111と、パターンマッチング部112と、合議部113と、位置制御部114と、画像記憶部115と、画像登録部116とを備える。
画像取得部111はカメラ101から、ワーク300の撮影画像として画像データを取得する。
The control unit 104 includes an image acquisition unit 111 , a pattern matching unit 112 , a discussion unit 113 , a position control unit 114 , an image storage unit 115 and an image registration unit 116 .
An image acquisition unit 111 acquires image data as a photographed image of the workpiece 300 from the camera 101 .

パターンマッチング部112は、カメラ101で得られる撮影画像と、画像記憶部115に記憶された登録画像とのパターンマッチングを行ってマッチング位置を得る。登録画像としては、過去にカメラ101で撮影されたワーク300の撮影画像における銅線301の画像が記憶される。また、画像記憶部115には複数の登録画像が記憶され、パターンマッチング部112は、各登録画像を用いてパターンマッチングを行って、それぞれのマッチング位置を得る。なお、パターンマッチング部は、単にマッチング部と言われることもある。 The pattern matching unit 112 performs pattern matching between the captured image obtained by the camera 101 and the registered image stored in the image storage unit 115 to obtain matching positions. As the registered image, an image of the copper wire 301 in the captured image of the workpiece 300 captured by the camera 101 in the past is stored. The image storage unit 115 stores a plurality of registered images, and the pattern matching unit 112 performs pattern matching using each registered image to obtain each matching position. Note that the pattern matching section is sometimes simply referred to as a matching section.

合議部113は、複数の登録画像それぞれのマッチング位置に基づいた合議により、銅線301の検出位置を決定する。
画像登録部116は、画像記憶部115に記憶された登録画像を必要に応じて更新し、新たにカメラ101で撮影された銅線301の画像を登録画像として画像記憶部115に記憶させる。画像登録部116は、自動的に登録画像を更新するとともに、溶接装置100のユーザによるリセット指示を受けた場合には、登録画像を自動的な更新よりも大幅に更新する。
The discussion unit 113 decides the detection position of the copper wire 301 through discussion based on the matching positions of each of the plurality of registered images.
The image registration unit 116 updates the registered image stored in the image storage unit 115 as necessary, and stores a new image of the copper wire 301 captured by the camera 101 in the image storage unit 115 as a registered image. Image registration unit 116 automatically updates the registered image, and when receiving a reset instruction from the user of welding apparatus 100, updates the registered image to a greater extent than the automatic update.

<位置制御の処理手順>
図3は、制御部104における位置制御の処理手順を示すフローチャートである。図4は、カメラ101で得られる撮影画像の一例を示す図である。図5は、画像記憶部115に記憶された登録画像の一例を示す図である。図6は、合議による検出位置の決定例を示す図である。以下、図4~図6を適宜参照しながら、図3のフローチャートが示す処理手順について説明する。
<Position control processing procedure>
FIG. 3 is a flowchart showing the processing procedure of position control in the control unit 104. As shown in FIG. FIG. 4 is a diagram showing an example of a photographed image obtained by the camera 101. As shown in FIG. FIG. 5 is a diagram showing an example of a registered image stored in the image storage unit 115. As shown in FIG. FIG. 6 is a diagram showing an example of determination of detection positions by consensus. Hereinafter, the processing procedure shown in the flowchart of FIG. 3 will be described with reference to FIGS. 4 to 6 as appropriate.

図3のフローチャートが示す位置制御の処理は、ワーク300に対する溶接の度に実行される。
位置制御の処理が開始されると、先ずステップS101で、画像取得部111によってカメラ101から撮影画像が取得される。図4に示すように、撮影画像310には銅線301が写るとともに、図1では図示が省略されたカシメ部分305も写る。銅線301にレーザ光105が照射されることで銅線301がカシメ部分305に溶接される。従って、カシメ部分305も写った撮影画像310中で銅線301の位置を正確に検出することが求められる。
The position control process shown in the flowchart of FIG. 3 is executed each time the workpiece 300 is welded.
When the position control process is started, first, in step S<b>101 , a photographed image is acquired from the camera 101 by the image acquiring unit 111 . As shown in FIG. 4, the captured image 310 includes the copper wire 301 and the caulked portion 305, which is not shown in FIG. The copper wire 301 is welded to the crimped portion 305 by irradiating the copper wire 301 with the laser beam 105 . Therefore, it is required to accurately detect the position of the copper wire 301 in the captured image 310 including the caulked portion 305 .

銅線301の画像部分には、切断エッジ302と、切断エッジ302を間に挟んだ2面の切断面303が含まれる。切断エッジ302および切断面303の位置、傾き、曲率などは、銅線301の切断毎に揺らぐとともに、ブレード200の摩耗などに伴って経時的に変化する。この結果、切断エッジ302および切断面303の画像についても、揺らぎと経時変化が生じる。
このような再現性の低い銅線301の画像に対し、パターンマッチングによる正確な位置検出が求められる。
The image portion of the copper wire 301 includes a cutting edge 302 and two cut surfaces 303 with the cutting edge 302 therebetween. The position, inclination, curvature, and the like of the cutting edge 302 and the cutting surface 303 fluctuate each time the copper wire 301 is cut, and change over time as the blade 200 wears. As a result, the images of the cut edge 302 and the cut surface 303 also fluctuate and change over time.
Accurate position detection by pattern matching is required for such an image of the copper wire 301 with low reproducibility.

図3のステップS101で得られた撮影画像310に対し、ステップS102で、パターンマッチング部112によるパターンマッチングが実行される。パターンマッチング部112では、上述したように、画像記憶部115に記憶された複数の登録画像それぞれによるパターンマッチングが実行される。 In step S102, the pattern matching unit 112 performs pattern matching on the photographed image 310 obtained in step S101 of FIG. The pattern matching unit 112 performs pattern matching on each of the plurality of registered images stored in the image storage unit 115, as described above.

図5に示すように、画像記憶部115には、複数の登録画像121が登録される。図5には、一例としてaからfまでの6つの登録画像121が示される。各登録画像121は、基本的な形状に共通性があるものの、切断面303の反射などのパターンが異なっている。図3のステップS102では、このような複数の登録画像121がパターンマッチングに用いられ、登録画像121毎にマッチング位置が求められる。なお、登録画像121毎にマッチング位置を求める過程を「マッチング過程」と言うことがある。 As shown in FIG. 5, multiple registered images 121 are registered in the image storage unit 115 . FIG. 5 shows six registered images 121 from a to f as an example. Each registered image 121 has a common basic shape, but differs in patterns such as reflection of the cut surface 303 . In step S102 of FIG. 3, such a plurality of registered images 121 are used for pattern matching, and a matching position is obtained for each registered image 121. FIG. Note that the process of finding a matching position for each registered image 121 is sometimes called a "matching process".

各登録画像121としては、例えば1日間に溶接される各ワーク300についてカメラ101で撮影されて得られた複数の撮影画像310の平均画像が用いられる。つまり、画像記憶部115は、複数の第1時間区間それぞれ(例えば各1日間)における対象物(例えばワーク300)の撮影画像310に基づいた当該第1時間区間毎の登録画像121を記憶する。また、本実施形態において、登録画像121は、第1時間区間内で得られた複数の撮影画像の平均画像である。 As each registered image 121, for example, an average image of a plurality of photographed images 310 obtained by photographing each workpiece 300 welded in one day by the camera 101 is used. That is, the image storage unit 115 stores the registered image 121 for each first time interval based on the photographed image 310 of the object (for example, the work 300) in each of a plurality of first time intervals (for example, each one day). Further, in this embodiment, the registered image 121 is an average image of a plurality of shot images obtained within the first time interval.

但し、平均画像中の銅線301に相当する部分のみが切り出された画像が登録画像121として用いられる。撮影画像310の平均に際して撮影画像310同士は、各ワーク300の溶接時に検出された検出位置を基準として位置合わせされる。 However, an image obtained by cutting out only the portion corresponding to the copper wire 301 in the average image is used as the registered image 121 . When the photographed images 310 are averaged, the photographed images 310 are aligned with reference to the detection positions detected when the workpieces 300 are welded.

平均画像は、銅線301の形状における揺らぎが打ち消された画像となるので、各ワーク300における銅線301の画像とのパターンマッチングに成功する可能性が高く、登録画像121として適している。 Since the average image is an image in which fluctuations in the shape of the copper wire 301 are canceled, pattern matching with the image of the copper wire 301 in each workpiece 300 is highly likely to succeed, and is suitable as the registered image 121 .

パターンマッチング部112によるパターンマッチングの結果、図6に示すように、各登録画像121に対応したマッチング位置131が求められる。つまり、パターンマッチング部112は、第1時間区間毎の登録画像121と、複数の第1時間区間とは異なる第2時間区間(例えば他の1日内)で得られた対象物(例えばワーク300)の撮影画像310とのパターンマッチングを行って、当該登録画像121毎にワーク300のマッチング位置131を得る。 As a result of pattern matching by the pattern matching unit 112, a matching position 131 corresponding to each registered image 121 is obtained as shown in FIG. That is, the pattern matching unit 112 combines the registered image 121 for each first time interval with the target object (for example, the work 300) obtained in a second time interval (for example, within another day) different from the plurality of first time intervals. pattern matching with the photographed image 310 is performed to obtain the matching position 131 of the workpiece 300 for each registered image 121 .

図6に示す例では、いくつかのマッチング位置131(例えば登録画像a,b,e,fのマッチング位置131)は銅線301の位置に集まり、他のマッチング位置131(例えば登録画像c,dのマッチング位置131)は、銅線301とは異なる位置で互いにばらけている。複数のパターンの登録画像121が用いられることにより、銅線301の位置から外れたマッチング位置131も求められる場合がある。 In the example shown in FIG. 6, some matching positions 131 (eg, matching positions 131 in registered images a, b, e, f) cluster at copper wire 301, while other matching positions 131 (eg, registered images c, d The matching positions 131 ) of the are separated from each other at different positions than the copper wire 301 . A matching position 131 deviated from the position of the copper wire 301 may also be obtained by using the registered image 121 of a plurality of patterns.

銅線301の位置からマッチング位置131が外れる場合には、カシメ部分305などの画像と登録画像121が、偶々ある程度マッチしたためと考えられるので、マッチング位置131同士が集まる可能性は低い。逆に、複数のマッチング位置131が近くに集まっている場合には、銅線301の画像に対して複数の登録画像121それぞれがある程度以上にマッチしたためと考えられるので、銅線301の位置を示していると考えられる。 If the matching position 131 is deviated from the position of the copper wire 301, it is considered that the image of the crimped portion 305 and the registered image 121 coincidentally match each other to some extent. Conversely, when a plurality of matching positions 131 are gathered close to each other, it is considered that each of the plurality of registered images 121 matches the image of the copper wire 301 to a certain degree or more. It is thought that

従って、複数の登録画像121それぞれのマッチング位置131に基づいた合議部113における合議によって銅線301の正確な検出位置が決まる。合議部113は、本発明にいう位置決定部の一例に相当し、登録画像毎のマッチング位置131に基づいて対象物(例えばワーク300)の検出位置を決定する。マッチング位置に基づいて上記対象物の検出位置を決定する過程を「位置決定過程」と言うことがある。 Therefore, the accurate detection position of the copper wire 301 is determined by discussion in the discussion section 113 based on the matching positions 131 of each of the plurality of registered images 121 . The discussion section 113 corresponds to an example of the position determination section according to the present invention, and determines the detection position of the target object (for example, the work 300) based on the matching position 131 for each registered image. A process of determining the detected position of the object based on the matching position is sometimes called a "position determination process".

形状の再現性が低い対象物であっても、撮影画像310同士にはある程度の類似性が存在するので、登録画像毎に得られる複数のマッチング位置に基づいて検出位置が決定されることで精度の高い位置検出が実現される。 Even if the shape of the object is not reproducible, there is a certain degree of similarity between the captured images 310 . high position detection is realized.

具体的には、図3のステップS103で合議部113により、複数のマッチング位置131についてクラスタリングが行われる。即ち、複数のマッチング位置131のうち、相互の距離が所定距離内のものについて、図6に示すようにクラスタ132が形成される。所定距離内に他のマッチング位置131が存在しないマッチング位置131については単独のクラスタとなる。 Specifically, clustering is performed on a plurality of matching positions 131 by the discussion unit 113 in step S103 of FIG. That is, a cluster 132 is formed as shown in FIG. 6 for the matching positions 131 that are within a predetermined distance from each other. A matching position 131 that does not have another matching position 131 within a predetermined distance becomes a single cluster.

そして、クラスタリングの結果、最大数のマッチング位置131を含んだクラスタ132について、図3のステップS104で合議部113により、クラスタ132に属したマッチング位置131の平均位置が算出される。制御部104では、この平均位置が銅線301の検出位置として用いられる。 As a result of clustering, for the cluster 132 containing the maximum number of matching positions 131, the discussion unit 113 calculates the average position of the matching positions 131 belonging to the cluster 132 in step S104 of FIG. The control unit 104 uses this average position as the detection position of the copper wire 301 .

つまり、合議部113は、登録画像毎のマッチング位置131が分けられたクラスタ132のうち、最多のマッチング位置が属するクラスタ132における当該マッチング位置131の平均位置133を検出位置に決定する。最多マッチング位置の平均が検出位置となることで、対象物に経時的な形状変化が生じた場合にも、精度の高い位置検出が実現される。 That is, the discussion unit 113 determines the average position 133 of the matching positions 131 in the cluster 132 to which the largest number of matching positions belong among the clusters 132 into which the matching positions 131 for each registered image are divided, as the detection position. By using the average of the most matching positions as the detected position, highly accurate position detection is realized even when the shape of the object changes over time.

ステップS105では、このように求められた検出位置に基づいて、位置制御部114による位置決めアーム103の制御が行われ、溶接部102が銅線301に対して位置決めされる。その後、制御部104による溶接部102の制御でレーザ光105が銅線301に照射されて溶接が行われる。なお、位置決めされた部位を「溶接個所」と言うことがある。 In step S<b>105 , the positioning arm 103 is controlled by the position control section 114 based on the detected position thus obtained, and the welding section 102 is positioned with respect to the copper wire 301 . After that, the laser beam 105 is applied to the copper wire 301 under the control of the welding part 102 by the control part 104 to perform welding. In addition, the positioned part may be called a "welding part."

上述したように、銅線301の切断形状は経時的に変化する。このため、画像記憶部115に記憶された複数の登録画像121が固定されたままの場合、時間の経過とともに位置検出の精度が低下してしまう。そのため、画像登録部116では、登録画像の自動的な更新が行われる。 As described above, the cut shape of the copper wire 301 changes over time. Therefore, if the plurality of registered images 121 stored in the image storage unit 115 remain fixed, the accuracy of position detection deteriorates over time. Therefore, the image registration unit 116 automatically updates the registered image.

<登録画像更新の処理手順>
図7は、画像登録部116による登録画像更新の処理手順を示すフローチャートである。
図7のフローチャートが示す登録画像更新の処理は、例えば1日分の溶接が終了した時点で実行される。なお、1日分の溶接について溶接時毎の撮影画像310が画像記憶部115に記憶済みとする。
<Procedure for updating registered images>
FIG. 7 is a flowchart showing a processing procedure for updating a registered image by the image registration unit 116. As shown in FIG.
The registration image update process shown in the flowchart of FIG. 7 is executed, for example, when welding for one day is completed. It is assumed that the photographed images 310 for each welding time for one day of welding have already been stored in the image storage unit 115 .

登録画像更新の処理が開始されると、ステップS201で、検出位置を基準とした位置合わせにより1日分の撮影画像310における平均画像(銅線301の部分のみ)が作成される。また、ステップS202で、平均画像とのパターンマッチングにより、1日分の各撮影画像310について銅線301の位置検出が実行される。 When the registered image update process is started, in step S201, an average image (only the copper wire 301 portion) of the photographed images 310 for one day is created by alignment based on the detected position. Further, in step S202, position detection of the copper wire 301 is executed for each photographed image 310 for one day by pattern matching with the average image.

その後、ステップS201およびステップS202の処理(精錬処理)が、所定回数まで繰り返される(ステップS203;No)。なお、2回目以降の精錬処理では、ステップS201において、前回の精錬処理における検出位置を基準とした位置合わせが行われる。精錬処理が実行されることにより、撮影画像310同士の位置のばらつきが修正され、平均画像のぼやけが減少して明瞭なパターンの平均画像が得られる。 Thereafter, the processing (refining processing) of steps S201 and S202 is repeated a predetermined number of times (step S203; No). In the second and subsequent refining processes, alignment is performed in step S201 with reference to the detected position in the previous refining process. By performing the refining process, positional variations between the captured images 310 are corrected, blurring of the average image is reduced, and an average image with a clear pattern is obtained.

つまり、精錬処理は、本発明にいう平均画像更新部の処理に相当する。即ち、画像登録部116は精錬処理で、平均画像と、当該平均画像の作成に用いられた複数の撮影画像310それぞれとのパターンマッチングを行う(ステップS201)。そして、画像登録部116は精錬処理で、当該撮影画像310毎にマッチング位置に基づいた位置調整を行い、位置調整後の複数の撮影画像310から新たな平均画像を作成する(ステップS202)。 In other words, the refining process corresponds to the process of the average image updating section according to the present invention. That is, in the refinement process, the image registration unit 116 performs pattern matching between the average image and each of the plurality of photographed images 310 used to create the average image (step S201). Then, in refinement processing, the image registration unit 116 adjusts the position of each photographed image 310 based on the matching position, and creates a new average image from the plurality of photographed images 310 after position adjustment (step S202).

所定回数の精錬処理が終了すると(ステップS203;Yes)、ステップS204で、現在の登録画像とのパターンマッチングによる、図3のステップS102~ステップS104の手順での位置検出が、1日分の各撮影画像310について実行される。そして、登録画像による位置検出結果が、最終的な平均画像による位置検出結果を正解データとして比較され、正解率が求められる(ステップS205)。つまりステップS205では、第2時間区間で得られた対象物(例えばワーク300)の複数の撮影画像310に基づいた新規の登録画像(例えば平均画像)と当該複数の撮影画像310それぞれとのパターンマッチングで得られた複数のマッチング位置が正解データとされる。 When the refining process is completed a predetermined number of times (step S203; Yes), in step S204, position detection in the procedure of steps S102 to S104 in FIG. It is executed for the captured image 310 . Then, the position detection result based on the registered image is compared with the position detection result based on the final average image as correct data, and the accuracy rate is obtained (step S205). That is, in step S205, pattern matching is performed between each of the plurality of photographed images 310 and a new registered image (for example, an average image) based on the plurality of photographed images 310 of the object (for example, the workpiece 300) obtained in the second time interval. A plurality of matching positions obtained in (1) are used as correct data.

そして、ステップS205では、各撮影画像310について、登録画像による位置検出結果と正解データとの差が、銅線301の範囲内である場合には、登録画像による位置検出結果が正解であったとして、1日分の撮影画像310についての正解率が求められる。 Then, in step S205, for each photographed image 310, if the difference between the position detection result based on the registered image and the correct data is within the range of the copper wire 301, it is assumed that the position detection result based on the registered image is correct. , the accuracy rate for the photographed images 310 for one day is obtained.

求められた正解率が所定の正解率に達した場合(ステップS205;Yes)には、登録画像の更新は不要であり、そのまま、登録画像更新の処理が終了する。一方、正解率が所定の正解率に達しない場合(ステップS205;No)には、登録画像の更新が必要となり、精錬処理で最終的に得られた平均画像が新たな登録画像として画像記憶部115に記憶される(ステップS206)。 If the obtained accuracy rate reaches the predetermined accuracy rate (step S205; Yes), updating of the registered image is unnecessary, and the process of updating the registered image ends. On the other hand, when the accuracy rate does not reach the predetermined accuracy rate (step S205; No), the registered image needs to be updated, and the average image finally obtained by the refining process is used as the new registered image in the image storage unit. 115 (step S206).

つまり、画像登録部116は、正解データと、既存の登録画像による検出位置との一致率が基準の一致率に対して低い場合に、低率登録画像を新規の登録画像と入れ替える。これにより、登録画像の入れ替えが自動的に進む。 That is, the image registration unit 116 replaces the low-rate registered image with the new registered image when the matching rate between the correct data and the detection position based on the existing registered image is lower than the reference matching rate. As a result, the replacement of registered images automatically proceeds.

新たな登録画像の記憶に際し、既存の登録画像のうち、正解率の最も低い登録画像が画像記憶部115から削除され、登録画像更新の処理が終了する。つまり、ステップS206の処理は、本発明にいう登録画像更新部の処理に相当し、複数の既存の登録画像121のうち、複数の撮影画像310それぞれとのパターンマッチング結果と正解データとの一致率が最も低い低率登録画像を新規の登録画像と入れ替える。 When storing a new registered image, the registered image with the lowest accuracy rate among the existing registered images is deleted from the image storage unit 115, and the process of updating the registered image ends. In other words, the process of step S206 corresponds to the process of the registered image updating unit according to the present invention, and the rate of matching between the pattern matching result for each of the plurality of photographed images 310 among the plurality of existing registered images 121 and the correct data is calculated. The low-rate enrollment image with the lowest is replaced with the new enrollment image.

図5には、各登録画像における正解率の例122、123が示され、ある1日における正解データに対する正解率を示す第1例122では登録画像a,b,e,fの正解率が高い。これに対し、別の1日における正解データに対する正解率を示す第2例123では、登録画像c,d,fの正解率が高い。 FIG. 5 shows examples 122 and 123 of the accuracy rate for each registered image. In a first example 122 showing the accuracy rate for correct data on a certain day, the accuracy rate for the registered images a, b, e, and f is high. . On the other hand, in the second example 123 showing the accuracy rate for correct data on another day, the accuracy rate of registered images c, d, and f is high.

パターンが異なる登録画像121が登録されていることで、銅線301の切断形状に揺らぎなどの変化が生じても、複数の登録画像121におけるパターン内の変化であれば、複数の登録画像121による合議によって正確な位置検出が可能である。 By registering registered images 121 with different patterns, even if a change such as fluctuation occurs in the cutting shape of the copper wire 301 , if the change is within the pattern in the plurality of registered images 121 , the plurality of registered images 121 can be used. Accurate position detection is possible by consensus.

しかし、銅線301の切断形状の経時変化が進むと、合議によっても正解率が低下するので、その場合には、図7に示す手順により、登録画像121が自動的に更新される。例えば正解率の第2例123の場合、登録画像aにおける正解率が「0.00%」であるため、登録画像aが削除されて新たな登録画像である平均画像が記憶されることになる。 However, if the cut shape of the copper wire 301 changes over time, the correct answer rate will decrease even by discussion. In that case, the registration image 121 is automatically updated according to the procedure shown in FIG. For example, in the case of the second example 123 of the accuracy rate, since the accuracy rate in the registered image a is "0.00%", the registered image a is deleted and the average image as a new registered image is stored. .

上記手順で自動的に登録画像が更新されることで正解率が向上し、銅線301の切断形状の経時変化に対しても、位置検出の精度が保たれる。但し、ブレード200の摩耗が進んで交換された場合などには、銅線301の切断形状について、経時変化および揺らぎなどとは異なる大幅な変化が生じる。 By automatically updating the registered image by the above procedure, the accuracy rate is improved, and the accuracy of position detection is maintained even when the cut shape of the copper wire 301 changes with time. However, when the wear of the blade 200 progresses and the blade 200 is replaced, the cut shape of the copper wire 301 undergoes a significant change that is different from aging and fluctuation.

この場合には、図2に示すように、ユーザによるリセット指示が画像登録部116に与えられ、既存の登録画像121が、例えば最新の1つを除いてすべて削除される。そして、登録画像121が所定数(図5の例では6つ)に達するまで、1日ごとに、図7のステップS201~ステップS203の精錬処理で得られる平均画像が登録画像として画像記憶部115に追加される。 In this case, as shown in FIG. 2, a user's reset instruction is given to the image registration unit 116, and all existing registered images 121 are deleted except, for example, the latest one. Then, until the number of registered images 121 reaches a predetermined number (six in the example of FIG. 5), the average image obtained by the refining process in steps S201 to S203 in FIG. added to.

つまり、画像登録部116は、本発明にいう登録リセット部の一例として機能し、所定の指示を受けた場合に、画像記憶部115に記憶された登録画像121の全部、あるいは一部を残した他の全部を破棄して新たな登録画像を記憶させる。登録画像121がリセットされることで、制御部104による位置検出は、ブレード200の交換などに伴う銅線301の切断形状の大幅な変化にも速やかな対応が可能となる。 That is, the image registration unit 116 functions as an example of the registration reset unit according to the present invention, and when receiving a predetermined instruction, the image registration unit 116 leaves all or part of the registered images 121 stored in the image storage unit 115. All others are discarded and a new registered image is stored. By resetting the registered image 121, the position detection by the control unit 104 can quickly cope with a large change in the cut shape of the copper wire 301 due to replacement of the blade 200 or the like.

なお、ここでは、本発明の位置検出装置、位置決め装置、位置検出プログラムおよび位置検出方法における使用方法の一例として溶接装置が挙げられるが、本発明の位置検出装置、位置決め装置、位置検出プログラムおよび位置検出方法の使用方法は上記に限定されず、工作機器または光学機器など広範囲に使用可能である。 Here, a welding device is given as an example of the usage of the position detection device, the positioning device, the position detection program, and the position detection method of the present invention. The method of use of the detection method is not limited to the above, and can be used in a wide range of applications such as machine tools and optical equipment.

また、本発明の位置検出装置は、コンピュータにプログラムが組み込まれた形態には限定されず、図2に示す機能構造がハードウェアで実現された形態であってもよい。 Further, the position detection device of the present invention is not limited to a form in which a program is installed in a computer, and may be in a form in which the functional structure shown in FIG. 2 is realized by hardware.

上述した実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した実施の形態ではなくて請求の範囲によって示され、請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The above-described embodiments should be considered illustrative and not restrictive in all respects. The scope of the present invention is indicated by the scope of the claims rather than the above-described embodiments, and is intended to include all modifications within the scope and meaning equivalent to the scope of the claims.

100 :溶接装置
101 :カメラ
102 :溶接部
103 :位置決めアーム
104 :制御部
105 :レーザ光
200 :ブレード
300 :ワーク
301 :銅線
111 :画像取得部
112 :パターンマッチング部
113 :合議部
114 :位置制御部
115 :画像記憶部
116 :画像登録部
302 :切断エッジ
303 :切断面
305 :カシメ部分
310 :撮影画像
121 :登録画像
131 :マッチング位置
132 :クラスタ
133 :平均位置
100: Welding device 101: Camera 102: Welding part 103: Positioning arm 104: Control part 105: Laser light 200: Blade 300: Work 301: Copper wire 111: Image acquisition part 112: Pattern matching part 113: Conference part 114: Position Control unit 115 : Image storage unit 116 : Image registration unit 302 : Cut edge 303 : Cut surface 305 : Crimped portion 310 : Photographed image 121 : Registered image 131 : Matching position 132 : Cluster 133 : Average position

Claims (11)

複数の第1時間区間それぞれにおける対象物の撮影画像に基づいた当該第1時間区間毎の登録画像を記憶する画像記憶部と、
前記第1時間区間毎の登録画像と、前記複数の第1時間区間とは異なる第2時間区間で得られた前記対象物の撮影画像とのパターンマッチングを行って、当該登録画像毎に当該対象物のマッチング位置を得るマッチング部と、
前記登録画像毎の前記マッチング位置に基づいて前記対象物の検出位置を決定する位置決定部と、
を備える位置検出装置。
an image storage unit that stores a registered image for each first time interval based on the photographed image of the object in each of the plurality of first time intervals;
performing pattern matching between the registered image for each of the first time intervals and the photographed images of the object obtained in a second time interval different from the plurality of first time intervals, and performing pattern matching on the object for each of the registered images; a matching unit for obtaining a matching position of an object;
a position determination unit that determines the detection position of the object based on the matching position for each of the registered images;
A position detection device comprising:
前記位置決定部は、前記登録画像毎の前記マッチング位置が分けられたクラスタのうち、最多のマッチング位置が属するクラスタにおける当該マッチング位置の平均を前記検出位置に決定する請求項1に記載の位置検出装置。 2. The position detection according to claim 1, wherein the position determination unit determines, as the detection position, an average of the matching positions in a cluster to which the largest number of matching positions belong among the clusters into which the matching positions for each registered image are divided. Device. 前記登録画像は、前記第1時間区間内で得られた複数の撮影画像の平均画像である請求項1または2に記載の位置検出装置。 3. The position detection device according to claim 1, wherein said registered image is an average image of a plurality of photographed images obtained within said first time interval. 前記平均画像と、当該平均画像の作成に用いられた前記複数の撮影画像それぞれとのパターンマッチングを行い、当該撮影画像毎にマッチング位置に基づいた位置調整を行い、位置調整後の複数の撮影画像から新たな平均画像を作成する平均画像更新部を備えた請求項3に記載の位置検出装置。 Pattern matching is performed between the average image and each of the plurality of captured images used to create the average image, position adjustment is performed for each captured image based on the matching position, and a plurality of captured images after position adjustment are performed. 4. The position detection device according to claim 3, further comprising an average image updating unit that creates a new average image from the average image. 前記第2時間区間で得られた前記対象物の複数の撮影画像に基づいた新規の登録画像と当該複数の撮影画像それぞれとのパターンマッチングで得られた複数のマッチング位置を正解データとし、前記複数の登録画像のうち、前記複数の撮影画像それぞれとのパターンマッチング結果と前記正解データとの一致率が最も低い低率登録画像を前記新規の登録画像と入れ替える登録画像更新部を備えた請求項1から4のいずれか1項に記載の位置検出装置。 A plurality of matching positions obtained by pattern matching between each of the plurality of photographed images and a new registered image based on the plurality of photographed images of the object obtained in the second time interval are set as correct data, and the plurality of 2. A registered image updating unit that replaces a low-rate registered image with the lowest matching rate between a pattern matching result of each of said plurality of photographed images and said correct data among registered images of said new registered image with said new registered image. 5. The position detection device according to any one of 4 to 4. 前記登録画像更新部は、前記正解データと前記検出位置との一致率が基準の一致率に対して低い場合に、前記低率登録画像を前記新規の登録画像と入れ替える請求項5に記載の位置検出装置。 6. The position according to claim 5, wherein the registered image update unit replaces the low-ratio registered image with the new registered image when a matching rate between the correct data and the detected position is lower than a reference matching rate. detection device. 所定の指示を受けた場合に、前記画像記憶部に記憶された前記登録画像の全部、あるいは一部を残した他の全部を破棄して新たな登録画像を記憶させる登録リセット部を備えた請求項1から6のいずれか1項に記載の位置検出装置。 Claims comprising a registration reset section for discarding all or part of the registered images stored in the image storage section and storing a new registered image when a predetermined instruction is received. Item 7. The position detection device according to any one of Items 1 to 6. 請求項1から7のいずれか1項に記載の位置検出装置と、
前記位置検出装置によって得られた前記検出位置を基準として位置決め対象を位置決めする位置決め機構と、
を備える位置決め装置。
A position detection device according to any one of claims 1 to 7;
a positioning mechanism that positions an object to be positioned with reference to the detected position obtained by the position detecting device;
A positioning device comprising:
請求項1から7のいずれか1項に記載の位置検出装置と、
前記位置検出装置によって得られた前記検出位置を基準として溶接個所を位置決めする位置決め機構と、
前記位置決め機構で位置決めされた溶接個所を溶接する溶接部と、
を備えた溶接装置。
A position detection device according to any one of claims 1 to 7;
a positioning mechanism that positions a welded portion based on the detected position obtained by the position detecting device;
a welding portion that welds the welding portion positioned by the positioning mechanism;
Welding equipment with
コンピュータを、請求項1から7のいずれか1項に記載の位置検出装置における各構成要素として機能させる位置検出プログラム。 A position detection program that causes a computer to function as each component in the position detection device according to any one of claims 1 to 7. 複数の第1時間区間それぞれにおける対象物の撮影画像に基づいた当該第1時間区間毎の登録画像と、前記複数の第1時間区間とは異なる第2時間区間で得られた前記対象物の撮影画像とのパターンマッチングを行って、当該登録画像毎に当該対象物のマッチング位置を得るマッチング過程と、
前記登録画像毎の前記マッチング位置に基づいて前記対象物の検出位置を決定する位置決定過程と、
を経る位置検出方法。
A registered image for each first time interval based on a photographed image of an object in each of a plurality of first time intervals, and an image of the object obtained in a second time interval different from the plurality of first time intervals. a matching process of performing pattern matching with an image to obtain a matching position of the object for each registered image;
a position determination process of determining a detection position of the object based on the matching position for each of the registered images;
location detection method via
JP2021214972A 2021-12-28 2021-12-28 Position detection device, positioning device, welding device, position detection program, and position detection method Pending JP2023098300A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021214972A JP2023098300A (en) 2021-12-28 2021-12-28 Position detection device, positioning device, welding device, position detection program, and position detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021214972A JP2023098300A (en) 2021-12-28 2021-12-28 Position detection device, positioning device, welding device, position detection program, and position detection method

Publications (1)

Publication Number Publication Date
JP2023098300A true JP2023098300A (en) 2023-07-10

Family

ID=87071748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021214972A Pending JP2023098300A (en) 2021-12-28 2021-12-28 Position detection device, positioning device, welding device, position detection program, and position detection method

Country Status (1)

Country Link
JP (1) JP2023098300A (en)

Similar Documents

Publication Publication Date Title
KR102430186B1 (en) Substrate defect inspection apparatus, sensitivity parameter value adjustment method for substrate defect inspection and storage medium
KR102317464B1 (en) Apparatus for inspecting components mounted on printed circuit board, operating method thereof, and computer-readable recording medium
CN110087828B (en) Information processing apparatus and processing failure determination method
US20200331096A1 (en) Device and method for learning focal position offset of laser processing apparatus, and laser processing system correcting focal position offset
JP2000009991A (en) Device and method of automatic focusing
US11239046B2 (en) Charged particle beam apparatus
JP2023098300A (en) Position detection device, positioning device, welding device, position detection program, and position detection method
US10163240B2 (en) Microscope and image pasting method
US11361936B2 (en) Charged particle beam apparatus
CN115003452A (en) Image processing apparatus, machine tool, and image processing method
JP2003220483A (en) Laser beam machining device and deviation correction method for use therein
US8828770B2 (en) Apparatus and method for correcting position of laser beam for use in manufacturing biosensor with fine pattern
JPH10122817A (en) Alignment method of mask in laser mask repair
JP2007229786A (en) Laser machining system and focussing control method
CN110893515A (en) Machining condition adjustment device and machine learning device
JP2005056231A (en) Image processor
KR102640271B1 (en) System for optimizing feedrate based on cutting force and method for optimizing feedrate using the same
CN115096201A (en) Non-contact deformation detection method and related equipment
US7225051B1 (en) Closed-loop feedback for maximizing Cpk in progressive forming operations
CN111917971B (en) Image capturing parameter optimization and adjustment system and method
JPH091338A (en) Method and device for automatically recognizing weld seam
KR20200122658A (en) Workpiece-origin Self Detection Unit of Mobile Machine Tool and Method of the Same
JP7253088B2 (en) Image processing device, machine tool and image processing method
JP6908479B2 (en) MEMS manufacturing system and MEMS manufacturing method
EP4223447A1 (en) Laser processing device, control method, storage medium, and product manufacturing method