JP2014014857A - Image processing method, and image processing system - Google Patents

Image processing method, and image processing system Download PDF

Info

Publication number
JP2014014857A
JP2014014857A JP2012155378A JP2012155378A JP2014014857A JP 2014014857 A JP2014014857 A JP 2014014857A JP 2012155378 A JP2012155378 A JP 2012155378A JP 2012155378 A JP2012155378 A JP 2012155378A JP 2014014857 A JP2014014857 A JP 2014014857A
Authority
JP
Japan
Prior art keywords
sputter
region
moving
area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012155378A
Other languages
Japanese (ja)
Inventor
Hidenobu Ishida
英伸 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Corp
Original Assignee
Suzuki Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Corp filed Critical Suzuki Motor Corp
Priority to JP2012155378A priority Critical patent/JP2014014857A/en
Publication of JP2014014857A publication Critical patent/JP2014014857A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing method, and image processing system capable of accurately recognizing a shape of a bead and reducing a calculation load of image processing.SOLUTION: An image processing method for recognizing a shape of a bead on the basis of a plurality of pieces of image data obtained by consecutively photographing and acquiring a welded area during welding includes: a step for binarizing each acquired image data so that a spatter area candidate being a candidate for a bright area corresponding to a spatter can clearly appear; a step for performing XOR operation processing of image data with respect to image data acquired before and after the image so as to extract a spatter area including a spatter area candidate changing between a plurality of pieces of the binarized image data; a step for determining whether the spatter area candidate is a movement spatter area; and a step for removing a spatter range including the movement spatter area in the case that the spatter area candidate is the movement spatter area. An image processing system uses the method.

Description

本発明は、溶接中の溶接領域を連続的に撮影かつ取り込んだ複数の画像データに基づいて、前記溶接領域に形成されるビードの形状を認識する画像処理方法に関し、かつその方法を用いた画像処理システムに関する。   The present invention relates to an image processing method for recognizing the shape of a bead formed in a welding region based on a plurality of image data obtained by continuously photographing and capturing a welding region being welded, and an image using the method. It relates to a processing system.

従来より、溶接中の溶接領域を、カメラ、光センサ等によって連続的に撮影かつ取り込んだ複数の画像に基づいて、溶接領域のビードの形状を認識する画像処理が行われている。しかしながら、金属等を溶接する際には必然的にスパッタが発生する。このスパッタの発生量、発生タイミング、飛散方向等を予測することは困難であり、このようなスパッタがビードに重なった場合、画像処理においてビードの形状を高い精度で認識することが難しくなるという問題がある。   Conventionally, image processing for recognizing the shape of a bead in a welding area is performed based on a plurality of images obtained by continuously capturing and capturing a welding area during welding with a camera, an optical sensor, or the like. However, spattering inevitably occurs when welding metals or the like. It is difficult to predict the spatter generation amount, generation timing, scattering direction, and the like, and when such spatter overlaps the bead, it is difficult to recognize the bead shape with high accuracy in image processing. There is.

スパッタの画像処理について、例えば、特許文献1では、アーク溶接中の溶接領域を連続的に撮影かつ取り込んだ画像において、アーク放電部に対して画像幅方向両側に検出線を設定し、この検出線を通過するスパッタを検出することによって、スパッタの個数及び大きさを算出している。   Regarding image processing of spatter, for example, in Patent Document 1, in an image obtained by continuously photographing and capturing a welding area during arc welding, detection lines are set on both sides in the image width direction with respect to the arc discharge portion. By detecting the spatter passing through the number of spatters, the number and size of the sputters are calculated.

特開2009− 28775号公報JP 2009-28775 A

しかしながら、特許文献1の画像処理では、スパッタの位置を把握することができず、取り込んだ画像からスパッタを除いて画像処理を実施することはできない。そのため、このような画像処理においては、ビードの形状を高い精度で認識できなくなっている。   However, in the image processing of Patent Document 1, the position of spatter cannot be grasped, and image processing cannot be performed by removing spatter from the captured image. Therefore, in such image processing, the bead shape cannot be recognized with high accuracy.

また、スパッタの位置及び飛散方向を正確に認識しようとした場合、スパッタの位置及び飛散方向を算出し、かつ算出したスパッタの位置及び飛散方向に関するデータを保管するという処理を施す必要がある。そのため、このような処理によって計算負荷が増加するという問題がある。   Further, when it is attempted to accurately recognize the position and scattering direction of the sputter, it is necessary to perform a process of calculating the position and scattering direction of the spatter and storing data relating to the calculated position and scattering direction of the sputter. Therefore, there is a problem that the calculation load increases due to such processing.

本発明はこのような実状に鑑みてなされたものであって、その目的は、ビードの形状を正確に認識でき、かつ画像処理の計算負荷を低減できる画像処理方法及び画像処理システムを提供することにある。   The present invention has been made in view of such a situation, and an object thereof is to provide an image processing method and an image processing system capable of accurately recognizing the shape of a bead and reducing the calculation load of image processing. It is in.

課題を解決するために、本発明の一態様に係る画像処理方法は、溶接中の溶接領域を連続的に撮影かつ取り込んだ複数の画像データに基づいて、前記溶接領域に形成されるビードの形状を認識する画像処理方法であって、前記取り込んだ複数の画像データのそれぞれを、移動スパッタ又は静止スパッタに相当する明領域の候補であるスパッタ領域候補を浮かび上がらせるように二値化するステップと、前記二値化された複数の画像データ間で変化するスパッタ領域候補を含んだスパッタ範囲を抽出するように、前記二値化された画像データ間を該画像データの前に又は次に取り込んだ画像データに対してXOR演算処理するステップと、前記スパッタ領域候補が、細長形状の移動スパッタに相当する移動スパッタ領域であるか否かを判定するステップと、前記スパッタ領域候補が前記移動スパッタ領域であると判定された場合、前記移動スパッタ領域を含んだスパッタ範囲を除去するステップとを含む。   In order to solve the problem, an image processing method according to an aspect of the present invention provides a shape of a bead formed in a welding region based on a plurality of image data obtained by continuously photographing and capturing a welding region during welding. An image processing method for recognizing each of the plurality of captured image data so that a sputter region candidate that is a bright region candidate corresponding to moving sputter or stationary sputter is highlighted, and An image captured before or next to the binarized image data so as to extract a sputter range including a sputter region candidate that changes between the binarized image data. A step of performing an XOR operation on the data, and determining whether or not the sputter region candidate is a moving sputter region corresponding to a slender moving sputter. If a step, the sputtered area candidate is determined to the a mobile sputter area, and removing the sputtered range including the moving sputtering zone.

本発明の一態様に係る画像処理方法では、前記移動スパッタ領域を含んだスパッタ範囲を除去するステップは、前記移動スパッタ領域内の複数の代表中心点を算出し、前記算出した代表中心点に基づいた線分近似フィッティングによって、前記移動スパッタ領域の幅中心を通る中心線を算出し、前記中心線を算出した移動スパッタ領域を含んだスパッタ範囲を記憶し、かつ前記記憶したスパッタ範囲を前記画像データから除去することを含む。   In the image processing method according to an aspect of the present invention, the step of removing the sputtering area including the moving sputtering area calculates a plurality of representative center points in the moving sputtering area, and based on the calculated representative center points. A center line passing through the center of the width of the moving sputter region is calculated by approximate fitting of the line segment, the sputter range including the moving sputter region where the center line is calculated is stored, and the stored sputter range is stored as the image data. Removing from.

本発明の一態様に係る画像処理方法では、前記代表中心点の算出は、前記画像上に楕円形状のカット用楕円領域を形成し、前記カット用楕円領域を、その長径方向を前記移動スパッタ領域の長手方向に対して直交するように方向転換し、前記カット用楕円領域の図心と前記移動スパッタ領域の図心とを一致させ、前記カット用楕円領域を表す二値化データを、前記移動スパッタ領域を表す二値化データに対して反対になるように変換し、前記移動スパッタ領域を分離するように、前記変換したカット用楕円領域の二値化データと前記移動スパッタ領域の二値化データとの間でAND演算処理を実施し、前記AND演算処理により分離された移動スパッタ領域のそれぞれの図心を算出し、かつ前記分離前の移動スパッタ領域の図心、及び前記分離された移動スパッタ領域のそれぞれの図心を代表中心点として定義することを含む。   In the image processing method according to the aspect of the present invention, the calculation of the representative center point is performed by forming an elliptical cutting ellipse area on the image, the major axis direction of the cutting ellipse area being the moving sputter area. The direction is changed so as to be orthogonal to the longitudinal direction, the centroid of the cutting ellipse region and the centroid of the moving sputter region are matched, and the binarized data representing the cutting ellipse region is moved to The binarization data representing the sputter region is converted so as to be opposite, and the converted binarization data of the cut elliptical region and the binarization of the moving sputter region are separated so as to separate the moving sputter region. AND operation processing is performed on the data, the centroids of the moving sputter regions separated by the AND operation processing are calculated, and the centroids of the moving sputter regions before the separation Each centroid moving sputtering region that is includes defining as representative central point.

本発明の一態様に係る画像処理方法は、前記スパッタ領域候補が前記移動スパッタ領域ではないと判定された場合、前記スパッタ領域候補が静止スパッタに相当する静止スパッタ領域であるか否かを判定するステップと、前記スパッタ領域候補が前記静止スパッタ領域であると判定された場合、前記静止スパッタ領域を含んだスパッタ範囲を記憶し、かつ前記記憶したスパッタ範囲を除去するステップとをさらに含む。   In the image processing method according to one aspect of the present invention, when it is determined that the sputter region candidate is not the moving sputter region, it is determined whether or not the sputter region candidate is a static sputter region corresponding to a static sputter. And a step of storing a sputter range including the static sputter region and removing the stored sputter range when it is determined that the sputter region candidate is the static sputter region.

本発明の一態様に係る画像処理方法では、前記スパッタ領域候補が前記静止スパッタ領域であるか否かの判定にて、前記スパッタ領域候補と前記ビードに相当するビード領域との間の最短距離が所定の長さ以上である場合に、前記スパッタ領域候補が前記静止スパッタ領域であると判定する。   In the image processing method according to an aspect of the present invention, in determining whether the sputter region candidate is the stationary sputter region, a shortest distance between the sputter region candidate and a bead region corresponding to the bead is determined. When the length is equal to or longer than a predetermined length, it is determined that the sputter region candidate is the stationary sputter region.

本発明の一態様に係る画像処理方法では、前記スパッタ領域候補が前記静止スパッタ領域であるか否かの判定にて、前記スパッタ領域候補が等方的形状である場合に、前記スパッタ領域候補が前記静止スパッタ領域であると判定する。   In the image processing method according to an aspect of the present invention, when the sputter region candidate has an isotropic shape in the determination as to whether or not the sputter region candidate is the stationary sputter region, It is determined that the region is the static sputtering region.

本発明の一態様に係る画像処理システムは、上述した画像処理方法を用いる。   An image processing system according to one embodiment of the present invention uses the above-described image processing method.

本発明によれば、以下の効果を得ることができる。本発明の一態様に係る画像処理方法は、溶接中の溶接領域を連続的に撮影かつ取り込んだ複数の画像データに基づいて、前記溶接領域に形成されるビードの形状を認識する画像処理方法であって、前記取り込んだ複数の画像データのそれぞれを、移動スパッタ又は静止スパッタに相当する明領域の候補であるスパッタ領域候補を浮かび上がらせるように二値化するステップと、前記二値化された複数の画像データ間で変化するスパッタ領域候補を含んだスパッタ範囲を抽出するように、前記二値化された画像データを該画像データの前に又は次に取り込んだ画像データに対してXOR演算処理するステップと、前記スパッタ領域候補が、細長形状の移動スパッタに相当する移動スパッタ領域であるか否かを判定するステップと、前記スパッタ領域候補が前記移動スパッタ領域であると判定された場合、前記移動スパッタ領域を含んだスパッタ範囲を除去するステップとを含む。また、本発明の一態様に係る画像処理方法では、前記移動スパッタ領域を含んだスパッタ範囲を除去するステップは、前記移動スパッタ領域内の複数の代表中心点を算出し、前記算出した代表中心点に基づいた線分近似フィッティングによって、前記移動スパッタ領域の幅中心を通る中心線を算出し、前記中心線を算出した移動スパッタ領域を含んだスパッタ範囲を記憶し、かつ前記記憶したスパッタ範囲を前記画像データから除去することを含む。そのため、画像上の移動スパッタ領域が除去されて、移動スパッタの影響を受けずにビードの形状を正確に認識することができる。特に、移動スパッタがビードと重なった場合、移動スパッタがビードに重なるタイミング前後の画像を用いることによって、ビードの形状を正確に認識することができる。また、移動スパッタ領域が画像データから除去されて、ビードの形状認識に必要とされる画像データのみが画像処理されることになるので、画像処理の計算負荷を低減することができる。   According to the present invention, the following effects can be obtained. An image processing method according to an aspect of the present invention is an image processing method for recognizing the shape of a bead formed in a welding region based on a plurality of image data obtained by continuously capturing and capturing a welding region during welding. Each of the plurality of captured image data is binarized so that a sputter region candidate that is a bright region candidate corresponding to moving sputter or stationary sputter emerges, and the binarized plural The binarized image data is subjected to an XOR operation on the image data captured before or next to the image data so as to extract a sputter range including a sputter region candidate that changes between the image data. Determining whether or not the sputter region candidate is a moving sputter region corresponding to a slender moving sputter; and If the frequency candidate is determined to the a mobile sputter area, and removing the sputtered range including the moving sputtering zone. Further, in the image processing method according to one aspect of the present invention, the step of removing the sputtering range including the moving sputter region calculates a plurality of representative center points in the moving sputter region, and the calculated representative center points The center line passing through the width center of the moving sputter region is calculated by line segment approximation fitting based on the above, the sputter range including the moving sputter region where the center line is calculated is stored, and the stored sputter range is Including removal from the image data. Therefore, the moving sputter region on the image is removed, and the bead shape can be accurately recognized without being affected by the moving spatter. In particular, when the moving sputter overlaps with the bead, the shape of the bead can be accurately recognized by using images before and after the timing when the moving sputter overlaps with the bead. Further, since the moving sputter region is removed from the image data and only the image data required for bead shape recognition is subjected to image processing, the calculation load of image processing can be reduced.

本発明の一態様に係る画像処理方法では、前記代表中心点の算出は、前記画像上に楕円形状のカット用楕円領域を形成し、前記カット用楕円領域を、その長径方向を前記移動スパッタ領域の長手方向に対して直交するように方向転換し、前記カット用楕円領域の図心と前記移動スパッタ領域の図心とを一致させ、前記カット用楕円領域を表す二値化データを、前記移動スパッタ領域を表す二値化データに対して反対になるように変換し、前記移動スパッタ領域を分離するように、前記変換したカット用楕円領域の二値化データと前記移動スパッタ領域の二値化データとの間でAND演算処理を実施し、前記AND演算処理により分離された移動スパッタ領域のそれぞれの図心を算出し、かつ前記分離前の移動スパッタ領域の図心、及び前記分離された移動スパッタ領域のそれぞれの図心を代表中心点として定義することを含む。そのため、線分近似フィッティングに用いられる移動スパッタ領域の代表中心点が簡単に算出されて、画像処理の計算負荷を低減することができる。   In the image processing method according to the aspect of the present invention, the calculation of the representative center point is performed by forming an elliptical cutting ellipse area on the image, the major axis direction of the cutting ellipse area being the moving sputter area. The direction is changed so as to be orthogonal to the longitudinal direction, the centroid of the cutting ellipse region and the centroid of the moving sputter region are matched, and the binarized data representing the cutting ellipse region is moved to The binarization data representing the sputter region is converted so as to be opposite, and the converted binarization data of the cut elliptical region and the binarization of the moving sputter region are separated so as to separate the moving sputter region. AND operation processing is performed on the data, the centroids of the moving sputter regions separated by the AND operation processing are calculated, and the centroids of the moving sputter regions before the separation Each centroid moving sputtering region that is includes defining as representative central point. Therefore, the representative center point of the moving sputter region used for line segment approximation fitting can be easily calculated, and the calculation load of image processing can be reduced.

本発明の一態様に係る画像処理方法は、前記スパッタ領域候補が前記移動スパッタ領域ではないと判定された場合、前記スパッタ領域候補が静止スパッタに相当する静止スパッタ領域であるか否かを判定するステップと、前記スパッタ領域候補が前記静止スパッタ領域であると判定された場合、前記静止スパッタ領域を含んだスパッタ範囲を記憶し、かつ前記記憶したスパッタ範囲を除去するステップとをさらに含む。そのため、画像上の静止スパッタ領域が除去されて、静止スパッタの影響を受けずにビードの形状を正確に認識することができる。また、静止スパッタ領域が画像データから除去されて、ビードの形状認識に必要とされる画像データのみが画像処理されることになるので、画像処理の計算負荷を低減することができる。   In the image processing method according to one aspect of the present invention, when it is determined that the sputter region candidate is not the moving sputter region, it is determined whether or not the sputter region candidate is a static sputter region corresponding to a static sputter. And a step of storing a sputter range including the static sputter region and removing the stored sputter range when it is determined that the sputter region candidate is the static sputter region. Therefore, the static sputter region on the image is removed, and the bead shape can be accurately recognized without being affected by the static sputter. In addition, since the static sputter region is removed from the image data and only the image data required for bead shape recognition is subjected to image processing, the calculation load of image processing can be reduced.

本発明の一態様に係る画像処理方法では、前記スパッタ領域候補が前記静止スパッタ領域であるか否かの判定にて、前記スパッタ領域候補と前記ビードに相当するビード領域との間の最短距離が所定の長さ以上である場合に、前記スパッタ領域候補が前記静止スパッタ領域であると判定する。また、本発明の一態様に係る画像処理方法では、前記スパッタ領域候補が前記静止スパッタ領域であるか否かの判定にて、前記スパッタ領域候補が等方的形状である場合に、前記スパッタ領域候補が前記静止スパッタ領域であると判定する。
そのため、静止スパッタ領域が正確に判別されて、静止スパッタ領域を確実に除去できる。よって、ビードの形状を正確に認識することができる。
In the image processing method according to an aspect of the present invention, in determining whether the sputter region candidate is the stationary sputter region, a shortest distance between the sputter region candidate and a bead region corresponding to the bead is determined. When the length is equal to or longer than a predetermined length, it is determined that the sputter region candidate is the stationary sputter region. In the image processing method according to one aspect of the present invention, when the sputter region candidate has an isotropic shape in the determination as to whether or not the sputter region candidate is the stationary sputter region, It is determined that the candidate is the stationary sputtering region.
Therefore, the stationary sputter region can be accurately determined, and the stationary sputter region can be reliably removed. Therefore, the bead shape can be accurately recognized.

本発明の一態様に係る画像処理システムは、上述した画像処理方法を用いる。そのため、上述のようにビードの形状を正確に認識でき、かつ画像処理の計算負荷を低減できる。   An image processing system according to one embodiment of the present invention uses the above-described image processing method. Therefore, the bead shape can be accurately recognized as described above, and the calculation load of image processing can be reduced.

溶接領域に形成されるビードの一例を示す模式図である。It is a schematic diagram which shows an example of the bead formed in a welding area | region. 本発明の第1実施形態に係る画像処理システムを示すブロック図である。1 is a block diagram illustrating an image processing system according to a first embodiment of the present invention. 本発明の第1実施形態における画像取り込み装置のレーザ照射部及びモニタ部を示す模式図である。It is a schematic diagram which shows the laser irradiation part and monitor part of the image capture device in 1st Embodiment of this invention. 黒体放射の輻射強度と波長との関係を示す図である。It is a figure which shows the relationship between the radiation intensity of a black body radiation, and a wavelength. シリコン系の半導体から作製される撮像素子の相対感度と撮像素子に入力される波長との関係を示す図である。It is a figure which shows the relationship between the relative sensitivity of the image pick-up element produced from a silicon-type semiconductor, and the wavelength input into an image pick-up element. 本発明の第1実施形態における溶接直後の時間経過と残熱発光の輝度との関係の一例を示す図である。It is a figure which shows an example of the relationship between the time passage just after welding in the 1st Embodiment of this invention, and the brightness | luminance of residual heat emission. 本発明の第1実施形態における画像処理装置の画像処理部を示すブロック図である。It is a block diagram which shows the image processing part of the image processing apparatus in 1st Embodiment of this invention. 本発明の第1実施形態において、実際のビードに対応してビード領域を表示した画像の一例を示す模式図である。In 1st Embodiment of this invention, it is a schematic diagram which shows an example of the image which displayed the bead area | region corresponding to the actual bead. 図9(a)は、移動スパッタを表示した画像の一例を示す模式図である。図9(b)は、図9(a)の次に取り込まれた画像の一例を示す模式図である。図9(c)は、図9(b)の次に取り込まれた画像の一例を示す模式図である。図9(d)は、図9(c)の次に取り込まれた画像の一例を示す模式図である。FIG. 9A is a schematic diagram illustrating an example of an image displaying moving sputtering. FIG. 9B is a schematic diagram illustrating an example of an image captured next to FIG. FIG. 9C is a schematic diagram illustrating an example of an image captured next to FIG. 9B. FIG. 9D is a schematic diagram illustrating an example of an image captured next to FIG. 9C. 図10(a)は、静止スパッタを表示した画像の一例を示す模式図である。図10(b)は、図10(a)の次に取り込まれた画像の一例を示す模式図である。図10(c)は、図10(b)の次に取り込まれた画像の一例を示す模式図である。図10(d)は、図10(c)の次に取り込まれた画像の一例を示す模式図である。FIG. 10A is a schematic diagram illustrating an example of an image displaying stationary sputtering. FIG. 10B is a schematic diagram illustrating an example of an image captured next to FIG. FIG. 10C is a schematic diagram illustrating an example of an image captured next to FIG. FIG. 10D is a schematic diagram illustrating an example of an image captured next to FIG. 図11(a)は、本発明の第1実施形態において、初期状態のカット用楕円領域を移動スパッタ領域と共に表示した画像の一例を示す模式図である。図11(b)は、図11(a)のカット用楕円領域を方向転換した状態にある画像の一例を示す模式図である。図11(c)は、図11(b)のカット用楕円領域の図心と移動スパッタ領域の図心とを一致させた状態にある画像の一例を示す模式図である。図11(d)は、図11(c)のカット用楕円領域によって移動スパッタ領域を分離した状態にある画像の一例を示す模式図である。図11(e)は、図11(d)の分離された移動スパッタ領域の図心を算出した状態にある画像の一例を示す模式図である。図11(f)は、図11(c)における分離前の移動スパッタ領域の図心、及び図11(e)における分離後の移動スパッタ領域の図心から成る代表中心点に基づいて中心線を形成した状態にある画像の一例を示す模式図である。FIG. 11A is a schematic diagram showing an example of an image in which an initial cut elliptical area is displayed together with a moving sputter area in the first embodiment of the present invention. FIG. 11B is a schematic diagram illustrating an example of an image in a state where the direction of the cutting elliptical region in FIG. FIG. 11C is a schematic diagram showing an example of an image in a state in which the centroid of the cutting elliptical region in FIG. 11B and the centroid of the moving sputter region coincide with each other. FIG. 11D is a schematic diagram showing an example of an image in a state where the moving sputter region is separated by the cut elliptical region of FIG. FIG.11 (e) is a schematic diagram which shows an example of the image in the state which calculated the centroid of the separated movement sputter | spatter area | region of FIG.11 (d). FIG. 11 (f) forms a center line based on the representative center point consisting of the centroid of the moving sputter region before separation in FIG. 11 (c) and the centroid of the moved sputter region after separation in FIG. 11 (e). It is a schematic diagram which shows an example of the image in the state which was made. 本発明の第1実施形態において、代表中心点を算出した静止スパッタを表示した画像の一例を示す模式図である。In 1st Embodiment of this invention, it is a schematic diagram which shows an example of the image which displayed the static sputtering which calculated the representative center point. 本発明の第1実施形態に係る画像処理方法に用いられるスパッタ除去方法の概要を説明するフローチャートである。It is a flowchart explaining the outline | summary of the sputter removal method used for the image processing method which concerns on 1st Embodiment of this invention. 図13の線分近似フィッティングを説明するフローチャートである。It is a flowchart explaining the line segment approximate fitting of FIG. 図13の静止スパッタの判定を説明するフローチャートである。14 is a flowchart for explaining determination of stationary sputtering in FIG. 13.

[第1実施形態]
本発明の第1実施形態に係る画像処理システム及び画像処理方法について説明する。
[First Embodiment]
An image processing system and an image processing method according to the first embodiment of the present invention will be described.

最初に、図1を参照して、画像処理を実施する対象である溶接部材Mの溶接領域Jに形成されるビードmについて説明する。略円弧状に形成されたビードmは、レーザ溶接の開始地点に形成される接合始端部分(以下、「始端部分」という)m1と、レーザ溶接の溶接終了地点に形成される接合終端部分(以下、「終端部分」という)m2と、始端部分m1及び終端部分m2間に形成される接合中間部分(以下、「中間部分」という)m3とを有している。本実施形態では、一例として、ビードmは略円弧状に形成されているが、直線状、L字状、波状等のようなその他の形状であってもよい。   Initially, with reference to FIG. 1, the bead m formed in the welding area J of the welding member M which is the object which performs image processing is demonstrated. The bead m formed in a substantially arc shape includes a joining start end portion (hereinafter referred to as “start end portion”) m1 formed at a laser welding start point and a joining end portion (hereinafter referred to as “laser welding end point”). , M2 and a joining intermediate portion (hereinafter referred to as “intermediate portion”) m3 formed between the start end portion m1 and the end portion m2. In the present embodiment, as an example, the bead m is formed in a substantially arc shape, but may have other shapes such as a linear shape, an L shape, a wave shape, and the like.

図2を参照すると、画像処理システム1は画像取り込み装置2を有しており、この画像取り込み装置2は、溶接用のレーザ光L1を溶接部材Mの溶接領域Jに照射可能とし、レーザ溶接時の残熱発光が生じている溶接領域Jを撮影し、かつ撮影した溶接領域Jの画像を取り込むように構成されている。また、画像処理システム1は、画像取り込み装置2に接続される画像処理装置3を有している。画像処理装置3は画像処理部4を有しており、画像処理部4は、画像取り込み装置2により取り込んだ溶接領域Jの画像に基づいてビードmの形状を認識するようになっている。画像処理装置3はビード形状判定部5を有しており、ビード形状判定部5は、画像処理部4により認識されたビードmの形状に基づいて、ビードmに発生する欠陥を判定するようになっている。   Referring to FIG. 2, the image processing system 1 includes an image capturing device 2. The image capturing device 2 can irradiate the welding region J of the welding member M with a laser beam L <b> 1 for welding. The welding region J where the residual heat emission occurs is photographed, and an image of the photographed welding region J is captured. The image processing system 1 also has an image processing device 3 connected to the image capturing device 2. The image processing device 3 includes an image processing unit 4, and the image processing unit 4 recognizes the shape of the bead m based on the image of the welding region J captured by the image capturing device 2. The image processing apparatus 3 includes a bead shape determination unit 5, and the bead shape determination unit 5 determines a defect occurring in the bead m based on the shape of the bead m recognized by the image processing unit 4. It has become.

ここで、図2及び図3を参照して、画像取り込み装置2の詳細を説明する。図2を参照すると、画像取り込み装置2はレーザ照射部6を有しており、このレーザ照射部6は、溶接部材Mの溶接領域Jに溶接用のレーザ光L1を照射可能とするように構成されている。画像取り込み装置2はモニタ部7を有しており、このモニタ部7はレーザを照射した溶接領域Jの画像を連続的に撮影するように構成されている。画像取り込み装置2は記憶部8を有しており、この記憶部8はモニタ部7により撮影した画像を連続的に記憶するように構成されている。画像取り込み装置2は画像取り込み部9を有しており、この画像取り込み部9は、記憶部8に記憶された画像を取り込むように構成されている。   Here, the details of the image capturing device 2 will be described with reference to FIGS. 2 and 3. Referring to FIG. 2, the image capturing device 2 includes a laser irradiation unit 6, and the laser irradiation unit 6 is configured to be able to irradiate the welding region J of the welding member M with the laser beam L <b> 1 for welding. Has been. The image capturing device 2 includes a monitor unit 7, and the monitor unit 7 is configured to continuously capture images of the welding region J irradiated with the laser. The image capturing device 2 includes a storage unit 8, and the storage unit 8 is configured to continuously store images taken by the monitor unit 7. The image capturing device 2 includes an image capturing unit 9, and the image capturing unit 9 is configured to capture an image stored in the storage unit 8.

図3を参照すると、レーザ照射部6はレーザ発振器6aを有しており、レーザ発振器6aはレーザ光L1を発射可能とするように構成されている。レーザ照射部6は略平板状のハーフミラー6bを有しており、ハーフミラー6bは、レーザ発振器6aから発射されたレーザ光L1の光路上に配置されている。このハーフミラー6bの表面6b1及び裏面6b2は、レーザ発振器6aから発射されるレーザ光L1の光路に対して、所定の角度θ1傾斜している。一例として、所定の角度θ1は45度であると好ましい。レーザ照射部6は溶接用集光レンズ6cを有しており、溶接用集光レンズ6cは、ハーフミラー6bを通過したレーザ光L1の光路上に配置され、かつこのレーザ光L1を溶接部材M上に集光するように構成されている。このようなレーザ照射部6においては、レーザ発振器6aから発射されたレーザ光L1が、ハーフミラー6bを通過し、かつ溶接用集光レンズ6cによって集光された後に、溶接部材Mに照射されることとなる。また、溶接部材Mに照射されたレーザ光L1の一部は反射して、この反射した光(以下、「モニタリング光」という)L2が、溶接用集光レンズ6cを通過し、かつハーフミラー6bによって角度を変えられた後に、モニタ部7に送られることとなる。   Referring to FIG. 3, the laser irradiation unit 6 includes a laser oscillator 6a, and the laser oscillator 6a is configured to be able to emit laser light L1. The laser irradiation unit 6 includes a substantially flat half mirror 6b, and the half mirror 6b is disposed on the optical path of the laser light L1 emitted from the laser oscillator 6a. The front surface 6b1 and the back surface 6b2 of the half mirror 6b are inclined at a predetermined angle θ1 with respect to the optical path of the laser light L1 emitted from the laser oscillator 6a. As an example, the predetermined angle θ1 is preferably 45 degrees. The laser irradiation unit 6 has a welding condensing lens 6c. The welding condensing lens 6c is disposed on the optical path of the laser light L1 that has passed through the half mirror 6b, and this laser light L1 is transmitted to the welding member M. It is comprised so that it may condense on. In such a laser irradiation unit 6, the laser beam L1 emitted from the laser oscillator 6a passes through the half mirror 6b and is collected by the welding condenser lens 6c, and then irradiated to the welding member M. It will be. Further, part of the laser light L1 irradiated to the welding member M is reflected, and this reflected light (hereinafter referred to as “monitoring light”) L2 passes through the welding condensing lens 6c and the half mirror 6b. After the angle is changed by, it is sent to the monitor unit 7.

モニタ部7は略平板状のミラー7aを有しており、ミラー7aは、レーザ照射部6のハーフミラー6cによって角度を変えられたモニタリング光L2の光路上に配置され、ミラー7aの反射面7a1は、このモニタリング光L2の光路に対して、所定の角度θ2傾斜している。モニタ部7は倍率調整レンズ7bを有しており、倍率調整レンズ7bは、撮影倍率を調整するように構成されている。この倍率調整レンズ7bは、ミラー7aにより反射されたモニタリング光L2の光路上に配置されている。モニタ部7は、後述するシリコン系の半導体から作製された撮像素子(以下、「Si系撮像素子」という)7fに対応するロングパスフィルタ(以下、「Si用ロングパスフィルタ」という)7cを有しており、Si用ロングパスフィルタ7cは、800nm以上の波長範囲で光を透過するように構成されている。このSi用ロングパスフィルタ7cは、倍率調整レンズ7bを通過したモニタリング光L2の光路上に配置されている。モニタ部7はNDフィルタ7dを有しており、NDフィルタ7dは、それを通過する光の量を減少するように構成されている。このNDフィルタ7dは、Si用ロングパスフィルタ7cを通過したモニタリング光L2の光路上に配置されている。モニタ部7は撮像用集光レンズ7eを有しており、撮像用集光レンズ7eは、NDフィルタ7dを通過したモニタリング光L2の光路上に配置され、かつこのモニタリング光L2を、後述するSi系撮像素子7fの撮像面上に集光するように構成されている。モニタ部7はSi系撮像素子7fを有しており、Si系撮像素子7fは、モニタリング光L2をアナログ電気信号に変換するように構成されている。また、Si系撮像素子7fは、200nm〜1100nmの波長範囲において光に対する感度を有している。モニタ部7はアンプ7gを有しており、アンプ7gは、Si系撮像素子7fから送られるアナログ電気信号を増幅するように構成されている。モニタ部7はA/D変換器7hを有しており、A/D変換器7hはアンプ7gにより増幅されたアナログ電気信号をデジタル電気信号に変換するように構成されている。このA/D変換器7hにより変換されたデジタル電気信号が記憶部8に送られることとなる。なお、モニタ部7のフレームレートは、50Hz以上かつ1000Hz以下になっている。   The monitor unit 7 includes a substantially flat mirror 7a. The mirror 7a is disposed on the optical path of the monitoring light L2 whose angle is changed by the half mirror 6c of the laser irradiation unit 6, and the reflection surface 7a1 of the mirror 7a. Is inclined at a predetermined angle θ2 with respect to the optical path of the monitoring light L2. The monitor unit 7 has a magnification adjustment lens 7b, and the magnification adjustment lens 7b is configured to adjust the photographing magnification. The magnification adjusting lens 7b is disposed on the optical path of the monitoring light L2 reflected by the mirror 7a. The monitor unit 7 includes a long-pass filter (hereinafter referred to as “Si long-pass filter”) 7c corresponding to an imaging element (hereinafter referred to as “Si-based imaging element”) 7f manufactured from a silicon-based semiconductor, which will be described later. The Si long pass filter 7c is configured to transmit light in a wavelength range of 800 nm or more. The Si long pass filter 7c is disposed on the optical path of the monitoring light L2 that has passed through the magnification adjusting lens 7b. The monitor unit 7 has an ND filter 7d, and the ND filter 7d is configured to reduce the amount of light passing therethrough. The ND filter 7d is disposed on the optical path of the monitoring light L2 that has passed through the Si long pass filter 7c. The monitor unit 7 includes an imaging condenser lens 7e. The imaging condenser lens 7e is disposed on the optical path of the monitoring light L2 that has passed through the ND filter 7d, and this monitoring light L2 is supplied to Si described later. The system imaging device 7f is configured to collect light on the imaging surface. The monitor unit 7 includes a Si image sensor 7f, and the Si image sensor 7f is configured to convert the monitoring light L2 into an analog electric signal. The Si-based image sensor 7f has sensitivity to light in a wavelength range of 200 nm to 1100 nm. The monitor unit 7 has an amplifier 7g, and the amplifier 7g is configured to amplify an analog electric signal sent from the Si-based image sensor 7f. The monitor unit 7 includes an A / D converter 7h, and the A / D converter 7h is configured to convert the analog electric signal amplified by the amplifier 7g into a digital electric signal. The digital electric signal converted by the A / D converter 7h is sent to the storage unit 8. The frame rate of the monitor unit 7 is 50 Hz or more and 1000 Hz or less.

Si系撮像素子7fの撮像面の条件について説明する。Si系撮像素子7fの撮像面がビードm全体を配置した領域に対して著しく大きい場合、画像上で表示されるビードmが少ないピクセル数によって表されるので、ビードmの形状を正確に認識できなくなる。そのため、Si系撮像素子7fの撮像面が略正方形状に形成されていると想定した場合、撮像面の一辺の長さをdとし、溶接用集光レンズ6cの焦点距離をf1とし、撮像用集光レンズ7eの焦点距離をf2とし、倍率調整レンズ7bの倍率をsとし、ビードm全体を配置した領域の最大長さをlとすると、Si系撮像素子7fの撮像面の一辺の長さは、次の式(1)の条件を満たすと好ましい。   The conditions of the imaging surface of the Si-based imaging element 7f will be described. When the imaging surface of the Si-based image sensor 7f is significantly larger than the area where the entire bead m is arranged, the bead m displayed on the image is represented by a small number of pixels, so that the shape of the bead m can be accurately recognized. Disappear. Therefore, assuming that the imaging surface of the Si-based imaging element 7f is formed in a substantially square shape, the length of one side of the imaging surface is d, the focal length of the welding condenser lens 6c is f1, and the imaging surface When the focal length of the condenser lens 7e is f2, the magnification of the magnification adjusting lens 7b is s, and the maximum length of the region where the entire bead m is arranged is l, the length of one side of the imaging surface of the Si imaging element 7f. Is preferable to satisfy the condition of the following formula (1).

Figure 2014014857
Figure 2014014857

Si用ロングパスフィルタ7cを透過する光の波長範囲について説明する。レーザ溶接中に発生するプラズマ光は、原子の軌道電子により発生する遷移発光の成分を多く含んでおり、この遷移発光の波長範囲は、典型的には、可視域に相当する200nm〜780nmの範囲になっている。一方で、黒体放射の輻射強度と波長との関係は、黒体放射の式を用いて絶対温度を1200K、1000K、及び800Kとして計算した場合、図4に示したグラフのようになっている。図4のグラフでは、絶対温度を1200Kとした場合の計算結果を実線A1で示し、絶対温度を1000Kとした場合の計算結果を破線A2で示し、かつ絶対温度を800Kとした場合の計算結果を一点鎖線A3で示している。図4のグラフを参照すると、黒体放射の輻射強度は、波長が長くなるに連れて高くなっている。また、黒体放射の輻射強度は、温度が高くなるに連れて高くなっている。そのため、高い温度を有する残熱発光に含まれる黒体放射の輻射強度が高くなることが確認できる。   The wavelength range of light passing through the Si long pass filter 7c will be described. Plasma light generated during laser welding contains many components of transition emission generated by orbital electrons of atoms, and the wavelength range of this transition emission is typically in the range of 200 nm to 780 nm corresponding to the visible range. It has become. On the other hand, the relationship between the radiation intensity of black body radiation and the wavelength is as shown in the graph of FIG. 4 when the absolute temperature is calculated as 1200 K, 1000 K, and 800 K using the black body radiation equation. . In the graph of FIG. 4, the calculation result when the absolute temperature is 1200K is indicated by a solid line A1, the calculation result when the absolute temperature is 1000K is indicated by a broken line A2, and the calculation result when the absolute temperature is 800K. This is indicated by a one-dot chain line A3. Referring to the graph of FIG. 4, the radiant intensity of blackbody radiation increases as the wavelength increases. Further, the radiation intensity of black body radiation increases as the temperature increases. Therefore, it can be confirmed that the radiation intensity of the black body radiation included in the residual heat emission having a high temperature is increased.

また、Si系撮像素子7fの相対感度と、Si系撮像素子7fに入力される光の波長との関係は、典型的には、図5に示すようになっている。図5に示すように、Si系撮像素子7fの感度は、600nm以上の波長範囲で低下しており、Si系撮像素子7fは、800nm〜1100nmの波長範囲において、低い強度の光を感知し難く、かつ高い強度の光を感知する傾向にある。   Further, the relationship between the relative sensitivity of the Si image sensor 7f and the wavelength of light input to the Si image sensor 7f is typically as shown in FIG. As shown in FIG. 5, the sensitivity of the Si-based image sensor 7f decreases in the wavelength range of 600 nm or more, and the Si-based image sensor 7f hardly senses low intensity light in the wavelength range of 800 nm to 1100 nm. , And tends to sense high intensity light.

そこで、プラズマ光に多く含まれる遷移発光の波長範囲の上限値780nmと、波長のバラツキとを考慮して、Si用ロングパスフィルタ7cを透過する光の波長範囲は、800nm以上に定められている。そのため、Si系撮像素子7fには、800nm以上の波長範囲で光が送られて、Si系撮像素子7fは、入力される光を800nm〜1100nmの波長範囲で感知することとなる。このような波長範囲では、Si系撮像素子7fは、低い輻射強度を有する遷移発光の成分を含んだプラズマ光を感知し難い一方で、高い輻射強度を有する黒体放射による発光の成分を多く含む残熱発光を感知し易くなっている。なお、Si用ロングパスフィルタ7cは、800nmより小さな波長の光を遮断するように構成されていると好ましい。しかしながら、Si系撮像素子7fは、800nm〜1100nmの波長範囲で光を感知できればよいので、例えば、Si用ロングパスフィルタ7cが、800nm、900nm、又は1000nmより小さな波長の光を遮断するように構成されていてもよい。   Therefore, in consideration of the upper limit 780 nm of the wavelength range of transition emission included in the plasma light and the variation in wavelength, the wavelength range of the light transmitted through the Si long pass filter 7c is set to 800 nm or more. Therefore, light is transmitted to the Si image sensor 7f in a wavelength range of 800 nm or more, and the Si image sensor 7f senses input light in a wavelength range of 800 nm to 1100 nm. In such a wavelength range, the Si-based imaging element 7f is difficult to detect plasma light including a transition light emission component having a low radiation intensity, but includes a large amount of a light emission component due to black body radiation having a high radiation intensity. Residual heat emission is easily detected. Note that the Si long-pass filter 7c is preferably configured to block light having a wavelength shorter than 800 nm. However, the Si imaging element 7f only needs to be able to sense light in the wavelength range of 800 nm to 1100 nm. For example, the Si long-pass filter 7c is configured to block light having a wavelength smaller than 800 nm, 900 nm, or 1000 nm. It may be.

また、モニタ部7のフレームレートの範囲について説明する。溶接開始付近では発生するプラズマが大きな領域を占めているので、溶接を既に終えているビードmを観察できないことが多い。そのため、溶接開始から一定時間経過後に、記憶部8に画像を蓄積することが有効である。また、ビードm全体を画像処理の対象とするためには、連続して取得した複数の画像の一部を用いればよいので、このような複数の画像の一部を取得すればよい。また、画像処理に用いる画像は、完全に連続している必要はない。ビードmの終端部分m2においては、高速で複数の画像を撮影しない場合に、金属が冷えるので、画像の撮影は高サンプリングにする必要がある。その一方で、溶接開始から溶接終了までの間の途中観察において、高サンプリングで画像の撮影をした場合、ほとんど変化がない複数の画像が取得されることとなる。このような複数の画像において同様の特性を計算することは無駄になるので、モニタ部7のフレームレートは、計算処理時間の短縮、記憶部8の容量の節約等を考慮して定めることが好ましい。そこで、フレームレートの上限値が高くなるに連れて、撮影される画像の数量が増加することによって、ビードmの形状を認識する精度が高くなる一方で、1秒間に撮影される画像の数量が1000フレームより大きい場合(すなわち、フレームレートが1000Hzより大きい場合)、画像処理の計算負荷が増加することとなることを考慮して、フレームレートの上限値は1000Hzに定められている。   The range of the frame rate of the monitor unit 7 will be described. Since the generated plasma occupies a large area near the start of welding, the bead m that has already been welded cannot often be observed. Therefore, it is effective to store an image in the storage unit 8 after a certain time has elapsed since the start of welding. Further, in order to set the entire bead m as a target of image processing, it is only necessary to use a part of a plurality of images acquired in succession. Therefore, a part of the plurality of images may be acquired. Also, the images used for image processing need not be completely continuous. In the terminal portion m2 of the bead m, when a plurality of images are not captured at a high speed, the metal cools down. Therefore, it is necessary to capture images at a high sampling rate. On the other hand, when an image is captured at a high sampling rate during observation from the start of welding to the end of welding, a plurality of images with almost no change are acquired. Since it is useless to calculate similar characteristics in such a plurality of images, it is preferable to determine the frame rate of the monitor unit 7 in consideration of shortening the calculation processing time, saving the capacity of the storage unit 8, and the like. . Therefore, as the upper limit of the frame rate increases, the number of images to be captured increases, so that the accuracy of recognizing the shape of the bead m increases, while the number of images to be captured per second increases. When the frame rate is greater than 1000 frames (that is, when the frame rate is greater than 1000 Hz), the upper limit value of the frame rate is set to 1000 Hz in consideration of an increase in calculation load of image processing.

その一方で、フレームレートの下限値が低い場合、1つの画像を撮影するタイミングから次の画像を撮影するタイミングまでの間に、撮影しようとするビードmの溶接領域Jが移動して、モニタ部7により捕らえられた撮影範囲から外れるおそれがある。この場合、ビードmを正確に撮影することができなくなる。そこで、フレームレートの下限値は、次のような条件を満たす必要がある。   On the other hand, when the lower limit value of the frame rate is low, the welding region J of the bead m to be photographed moves from the timing of photographing one image to the timing of photographing the next image, and the monitor unit There is a risk of deviating from the shooting range captured by 7. In this case, the bead m cannot be accurately photographed. Therefore, the lower limit value of the frame rate needs to satisfy the following conditions.

フレームレートをfとし、溶接に用いられるレーザ光L1の移動速度をVmとし、かつ撮影範囲の中心から撮影範囲内と撮影範囲外との間の境界までの最短距離をRmとした場合、フレームレートは、次の式(2)の条件を満たすと好ましい。   When the frame rate is f, the moving speed of the laser beam L1 used for welding is Vm, and the shortest distance from the center of the shooting range to the boundary between the shooting range and the shooting range is Rm, the frame rate Preferably satisfies the condition of the following expression (2).

Figure 2014014857
Figure 2014014857

典型的な条件において、Vmは0.133m/sec(8m/min)になり、かつRmは0.002m(2mm)になるので、式(2)よりfを約67Hzより大きくする必要がある。さらに、レーザ光L1の移動速度のバラツキを考慮して、フレームレートの下限値は50Hzに定められている。   Under typical conditions, Vm is 0.133 m / sec (8 m / min) and Rm is 0.002 m (2 mm). Therefore, it is necessary to make f larger than about 67 Hz from the equation (2). Furthermore, the lower limit value of the frame rate is set to 50 Hz in consideration of variations in the moving speed of the laser light L1.

図6を参照すると、画像取り込み部9は、溶接終了直後から所定の時間内に生じる残熱発光の画像を取り込むように構成されている。具体的には、画像取り込み部9は、画像の平均輝度Gが所定の取り込み開始輝度閾値g1以上である場合に、画像の取り込みを開始し、画像の平均輝度Gが所定の取り込み終了輝度閾値g2以下である場合に、残熱発光が終了したと認識して、画像の取り込みを終了するように構成されている。   Referring to FIG. 6, the image capturing unit 9 is configured to capture an image of residual heat emission that occurs within a predetermined time immediately after the end of welding. Specifically, the image capturing unit 9 starts capturing an image when the average brightness G of the image is equal to or higher than a predetermined capture start brightness threshold g1, and the average brightness G of the image is a predetermined capture end brightness threshold g2. In the following cases, it is configured to recognize that the residual heat emission has ended and end the image capture.

ここで、画像取り込み装置2の好ましい形態の一例を説明する。残熱発光は、溶接終了直後から数十ms(ミリ秒)間生じた後に減衰するので、溶接終了直後から約20ms間に生じる光であると好ましい。この場合、モニタ部7には、フレームレート約500Hz(周期2ms)の高速度カメラが用いられるとよく、約10枚(=20ms÷2ms)の画像が取り込まれることとなる。また、モニタ部7には、高ダイナミックレンジカメラが用いられると好ましく、信号検出のダイナミックレンジが広く、かつ計測可能な輝度の範囲が広くなっているので、溶接中及び溶接直後の画像を撮影できる。画像取り込み部9では、画像の取り込みを開始する開始輝度閾値g1が、溶接中及び溶接直後の平均輝度Gの中間値となっていると好ましい。画像の取り込みを終了する終了輝度閾値g2は、開始輝度閾値g1より小さく、かつ残熱発光を確認できない程に暗くなった状態の画像の平均輝度Gより大きくなっていると好ましい。   Here, an example of a preferable form of the image capturing device 2 will be described. The residual heat emission is attenuated after being generated for several tens of milliseconds (milliseconds) immediately after the end of welding. In this case, a high-speed camera with a frame rate of about 500 Hz (cycle 2 ms) is preferably used for the monitor unit 7 and about 10 images (= 20 ms ÷ 2 ms) are captured. Moreover, it is preferable that a high dynamic range camera is used for the monitor unit 7, and since the signal detection dynamic range is wide and the measurable luminance range is wide, it is possible to take images during and immediately after welding. . In the image capturing unit 9, it is preferable that the start luminance threshold value g <b> 1 for starting image capturing is an intermediate value of the average luminance G during and immediately after welding. The end luminance threshold value g2 for completing the image capture is preferably smaller than the start luminance threshold value g1 and larger than the average luminance G of the image that has become so dark that residual heat emission cannot be confirmed.

次に、図7及び図8を参照して、画像処理装置3の画像処理部4の詳細を説明する。図7を参照すると、画像処理部4はビード認識手段10を有しており、このビード認識手段10は、画像取り込み装置2によって取り込んだ画像に基づいて、ビード領域候補を認識するようになっている。ビード領域候補は、所定の輪郭輝度閾値hより残熱発光の輝度Hが大きい明領域となっており、輪郭輝度閾値hは、ビードmの輪郭線を識別可能とするように設定されている。なお、ビード領域Eは、図8に示すように、複数のビード領域点eから構成されている。また、ビード領域Eは、ビードmの始端部分m1に対応する始端部分E1、ビードmの終端部分m2に対応する中間部分E2、及びビードmの中間部分m3に対応する終端部分E3を有している。一例として、ビード領域点eは、画像上で1つ以上のピクセルにより表され、複数のビード領域点eは、互いに隣接して配置されるか、又はピクセル単位の間隔で配置されているとよい。   Next, details of the image processing unit 4 of the image processing apparatus 3 will be described with reference to FIGS. 7 and 8. Referring to FIG. 7, the image processing unit 4 includes a bead recognition unit 10, which recognizes a bead area candidate based on the image captured by the image capturing device 2. Yes. The bead area candidate is a bright area in which the residual heat emission luminance H is higher than a predetermined contour luminance threshold value h, and the contour luminance threshold value h is set so that the contour line of the bead m can be identified. In addition, the bead area | region E is comprised from the some bead area | region point e, as shown in FIG. The bead region E has a start end portion E1 corresponding to the start end portion m1 of the bead m, an intermediate portion E2 corresponding to the end portion m2 of the bead m, and an end portion E3 corresponding to the intermediate portion m3 of the bead m. Yes. As an example, the bead area point e is represented by one or more pixels on the image, and the plurality of bead area points e may be arranged adjacent to each other or arranged at intervals of a pixel unit. .

画像処理部4はビード判別手段11を有しており、このビード判別手段11は、複数のビード領域候補が認識された場合に、複数のビード領域候補から実際のビードに対応するビード領域Eを選択するようになっている。また、ビード判別手段11は、各ビード領域候補のアスペクト比(縦横比)を計算し、このアスペクト比に基づいて、複数のビード領域候補から実際のビードmに対応するビード領域Eを選択するようになっていると好ましい。例えば、アスペクト比が一般的なビードmの横長形状に対応する値より大きくなっている場合に、このようなビード領域候補が実際のビードmに相当すると認識する設定であるとよい。実際のビードmと、溶接時に飛散するスパッタとにそれぞれ対応するビード領域候補が認識された場合、スパッタに対応するビード領域候補は、等方的な形状に形成されるのに対して、ビードmは横長形状に形成されることとなる。そのため、実際のビードmに対応するビード領域Eが正確に判別されることとなる。さらに、スパッタに対応するビード領域候補が、等方的な形状に形成されていない場合を考慮して、ビード判別手段11は、複数のビード領域候補が時間を前後して取り込んだ画像において移動しているか、又は停止しているかを判定し、かつ停止しているビード領域候補が実際のビードmに対応するビード領域Eであると認識するようになっているとよい。   The image processing unit 4 includes a bead discriminating unit 11. The bead discriminating unit 11 selects a bead area E corresponding to an actual bead from the plurality of bead area candidates when the plurality of bead area candidates are recognized. It comes to choose. Further, the bead discriminating unit 11 calculates the aspect ratio (aspect ratio) of each bead area candidate, and selects a bead area E corresponding to the actual bead m from the plurality of bead area candidates based on the aspect ratio. It is preferable that For example, when the aspect ratio is larger than a value corresponding to a horizontally long shape of a general bead m, it may be set to recognize that such a bead area candidate corresponds to an actual bead m. When the bead area candidates corresponding to the actual bead m and the spatter scattered during welding are recognized, the bead area candidates corresponding to the spatter are formed in an isotropic shape, whereas the bead m Is formed in a horizontally long shape. Therefore, the bead area E corresponding to the actual bead m is accurately determined. Further, in consideration of the case where the bead area candidates corresponding to the spatter are not formed in an isotropic shape, the bead discriminating means 11 moves in an image in which a plurality of bead area candidates are captured before and after the time. It is preferable to determine whether or not the bead area candidate that is stopped is the bead area E corresponding to the actual bead m.

ここで、図9(a)〜図9(d)、及び図10(a)〜10(d)を参照して、移動スパッタ及び静止スパッタを表示した画像について説明する。図9(a)〜図9(d)を参照すると、画像上には、移動スパッタに相当する細長形状の移動スパッタ領域N1と、ビードmに相当するビード領域Eとが表示されている。移動スパッタ領域N1は、図9(a)〜図9(d)に示されるように、画像の周縁領域から画像の中央領域に向かって移動している。図9(d)では、移動スパッタ領域N1はビード領域Eと重なっている。図10(a)〜図10(d)を参照すると、画像上には、静止スパッタに相当する略円形状の静止スパッタ領域N2と、ビードmに相当するビード領域Eとが表示されている。静止スパッタ領域N2は、図10(a)に示されるように、初期状態で細長形状になっている。しかしながら、静止スパッタ領域N2は、図10(b)及び図10(c)に示されるように、その一端を基準として短くなるように変化する。その後、静止スパッタ領域N2は、図10(d)に示されるように略円形状に変化する。   Here, with reference to FIGS. 9A to 9D and FIGS. 10A to 10D, images displaying moving sputtering and stationary sputtering will be described. Referring to FIGS. 9A to 9D, an elongated moving sputter region N1 corresponding to moving spatter and a bead region E corresponding to bead m are displayed on the image. As shown in FIGS. 9A to 9D, the moving sputter region N1 moves from the peripheral region of the image toward the central region of the image. In FIG. 9D, the moving sputter region N1 overlaps the bead region E. Referring to FIGS. 10A to 10D, a substantially circular stationary sputter region N2 corresponding to stationary sputter and a bead region E corresponding to bead m are displayed on the image. As shown in FIG. 10A, the stationary sputter region N2 has an elongated shape in the initial state. However, as shown in FIGS. 10B and 10C, the static sputtering region N2 changes so as to be shorter with respect to one end thereof. Thereafter, the static sputtering region N2 changes to a substantially circular shape as shown in FIG.

さらに、画像処理部4は、ビード領域候補からビード領域Eを判別した後に、移動スパッタ領域N1及び静止スパッタ領域N2を除去するために、次のように構成されている。図7を参照すると、画像処理部4は二値化手段12を有しており、二値化手段12は取り込んだ複数の画像のデータのそれぞれを、所定の二値化閾値にて二値化するようになっている。なお、二値化閾値は、スパッタ領域候補を画像上で浮かび上がらせるように設定されているとよく、特に、この二値化閾値は、予めスパッタ領域を明確に浮かび上がらせることができる値を実際に確認し、この確認結果に基づいて定められているとよい。なお、スパッタ領域候補は、上述のように残熱発光の輝度Hが輪郭輝度閾値hより大きい明領域であるとよい。画像処理部4はXOR演算手段13を有しており、XOR演算手段13は、二値化された複数の画像データ間で変化するスパッタ領域候補を含んだスパッタ範囲を抽出可能とするように、二値化された画像データを当該画像データの前に又は次に取り込んだ画像データに対してXOR演算処理するようになっている。画像処理部4はノイズ処理手段14を有しており、ノイズ処理手段14は、XOR演算処理された複数の画像データに含まれるノイズを除去するようになっている。画像処理部4は移動スパッタ判定手段15を有しており、移動スパッタ判定手段15は、スパッタ領域候補が細長形状の移動スパッタに相当する移動スパッタ領域N1であるか否かを判定するようになっている。画像処理部4は代表中心点算出要素16を有しており、代表中心点算出要素16は、図11(f)に示すように、スパッタ領域候補が移動スパッタ領域N1であると判定された場合に、移動スパッタ領域N1の代表中心点r1を算出するようになっている。   Further, the image processing unit 4 is configured as follows in order to remove the moving sputter region N1 and the stationary sputter region N2 after discriminating the bead region E from the bead region candidates. Referring to FIG. 7, the image processing unit 4 includes a binarization unit 12, and the binarization unit 12 binarizes each of a plurality of captured image data with a predetermined binarization threshold. It is supposed to be. It should be noted that the binarization threshold is preferably set so that the sputter region candidate is raised on the image, and in particular, this binarization threshold is a value that can clearly raise the sputter region in advance. It is good to confirm and to determine based on this confirmation result. The sputter region candidate may be a bright region in which the residual heat emission luminance H is larger than the contour luminance threshold h as described above. The image processing unit 4 includes an XOR operation unit 13, and the XOR operation unit 13 can extract a sputter range including a sputter region candidate that changes between a plurality of binarized image data. The binarized image data is subjected to an XOR operation on the image data captured before or next to the image data. The image processing unit 4 includes a noise processing unit 14, and the noise processing unit 14 is configured to remove noise included in a plurality of image data subjected to the XOR operation process. The image processing unit 4 has a moving sputter determination unit 15, and the moving sputter determination unit 15 determines whether or not the sputter region candidate is a moving sputter region N 1 corresponding to a slender shaped mobile sputter. ing. The image processing unit 4 has a representative center point calculation element 16, and when the representative center point calculation element 16 determines that the sputter region candidate is the moving sputter region N <b> 1 as shown in FIG. In addition, the representative center point r1 of the moving sputter region N1 is calculated.

再び図7を参照すると、画像処理部4は中心線形成手段17を有しており、中心線形成手段17は、図11(f)に示すように、複数の代表中心点r1に基づいた線分近似フィッティングによって、移動スパッタ領域N1の幅中心を通る中心線R1を算出するようになっている。一例として、線分近似フィッティングには一次関数が用いられるとよい。この一次関数は、複数の代表中心点r1がXY座標上に位置する場合、次のような式に基づいて定義されるとよい。複数の代表中心点r1におけるX座標の最大値をXmaxとし、複数の代表中心点r1におけるX座標の最小値をXminとした場合、X座標の変化量はDX=Xmax−Xminとなる。複数の代表中心点r1におけるY座標の最大値をYmaxとし、複数の代表中心点r1におけるY座標の最小値をYminとした場合、Y座標の変化量をDY=Ymax−Yminとなる。DXがDY以上の場合、一次関数は、Y=aX+b(a,bは係数)によって定義される一方で、DXがDYより小さい場合、一次関数は、X=aY+b(a,bは係数)によって定義される。   Referring to FIG. 7 again, the image processing unit 4 has a center line forming unit 17, and the center line forming unit 17 is a line based on a plurality of representative center points r1, as shown in FIG. A center line R1 passing through the width center of the moving sputter region N1 is calculated by minute approximation fitting. As an example, a linear function may be used for line segment approximation fitting. This linear function may be defined based on the following equation when a plurality of representative center points r1 are located on the XY coordinates. When the maximum value of the X coordinate at the plurality of representative center points r1 is Xmax and the minimum value of the X coordinate at the plurality of representative center points r1 is Xmin, the change amount of the X coordinate is DX = Xmax−Xmin. When the maximum value of the Y coordinate at the plurality of representative center points r1 is Ymax and the minimum value of the Y coordinate at the plurality of representative center points r1 is Ymin, the amount of change in the Y coordinate is DY = Ymax−Ymin. When DX is greater than or equal to DY, the linear function is defined by Y = aX + b (a and b are coefficients), whereas when DX is less than DY, the linear function is X = aY + b (a and b are coefficients). Defined.

図7を参照すると、画像処理部4は移動スパッタ記憶手段18を有しており、移動スパッタ記憶手段18は中心線R1を算出した移動スパッタ領域を含んだスパッタ範囲を記憶するようになっている。一例として、記憶される中心線R1は、aX+bY+c=0(a,b,cは係数)によって定義される一次関数として記憶されるとよい。画像処理部4は移動スパッタ除去手段19を有しており、移動スパッタ除去手段19は記憶したスパッタ範囲を画像データから除去するようになっている。画像処理部4は静止スパッタ判定要素20を有しており、静止スパッタ判定要素20は、移動スパッタ判定手段15によってスパッタ領域候補が移動スパッタ領域N1でないと判定された場合に、スパッタ領域候補が静止スパッタに相当する静止スパッタ領域N2であるか否かを判定するようになっている。画像処理部4は代表中心点算出手段21を有しており、代表中心点算出手段21は、図12に示すように、静止スパッタ領域N2の図心を代表中心点r2として算出するようになっている。再び図7を参照すると、画像処理部4は静止スパッタ記憶手段22を有しており、静止スパッタ記憶手段22は、スパッタ領域候補が静止スパッタ領域N2であると判定された場合、静止スパッタ領域N2を含んだスパッタ範囲を記憶するようになっている。画像処理部4は静止スパッタ除去手段23を有しており、静止スパッタ除去手段23は、記憶したスパッタ範囲を除去するようになっている。   Referring to FIG. 7, the image processing unit 4 has a moving sputter storage unit 18, and the moving sputter storage unit 18 stores a sputter range including a moving sputter region where the center line R <b> 1 is calculated. . As an example, the stored center line R1 may be stored as a linear function defined by aX + bY + c = 0 (a, b, and c are coefficients). The image processing unit 4 has a moving spatter removing unit 19. The moving spatter removing unit 19 removes the stored sputter range from the image data. The image processing unit 4 includes a stationary sputter determination element 20. When the moving sputter determination unit 15 determines that the sputter area candidate is not the moving sputter area N 1, the sputter area candidate is stationary. It is determined whether or not it is a static sputtering region N2 corresponding to sputtering. The image processing unit 4 includes a representative center point calculating unit 21. The representative center point calculating unit 21 calculates the centroid of the stationary sputtering region N2 as the representative center point r2, as shown in FIG. ing. Referring to FIG. 7 again, the image processing unit 4 has a stationary sputter storage unit 22, and the stationary sputter storage unit 22 determines that the sputter region candidate is the static sputter region N 2. The sputter range including is memorized. The image processing unit 4 has a stationary sputter removing unit 23, and the stationary spatter removing unit 23 removes the stored sputtering range.

図7及び図11(a)〜図11(f)を参照して、代表中心点算出要素16の詳細を説明する。図7を参照すると、代表中心点算出要素16は楕円形成手段24を有しており、楕円形成手段24は、図11(a)に示すように、画像上に楕円形状の明領域であるカット用楕円領域Zを形成するようになっている。図7を参照すると、代表中心点算出要素16は方向転換手段25を有しており、方向転換手段25は、図11(b)に示すように、カット用楕円領域Zを、その長径方向を移動スパッタ領域の長手方向に対して直交するように方向転換するようになっている。図7を参照すると、代表中心点算出要素16は楕円移動手段26を有しており、楕円移動手段26は、図11(c)に示すように、カット用楕円領域Zの図心Czと移動スパッタ領域N1の図心Cn1とを一致させるようになっている。図7を参照すると、代表中心点算出要素16は二値化データ逆転手段27を有しており、二値化逆転手段27は、カット用楕円領域Zを表す二値化データを、移動スパッタ領域N1を表す二値化データに対して反対に変換するようになっている。図7を参照すると、代表中心点算出要素16はAND演算手段28を有しており、AND演算手段28は、図11(d)に示すように、移動スパッタ領域N1を分離するように、カット用楕円領域Zの二値化データと移動スパッタ領域N1の二値化データとの間でAND演算処理を実施するようになっている。図7を参照すると、代表中心点算出要素16は代表中心点定義手段29を有しており、代表中心点定義手段29は、図11(e)に示すように、分離前の移動スパッタ領域N1の図心Cn1、及び分離された移動スパッタ領域N1’のそれぞれの図心Cn1’を代表中心点r1として算出するようになっている。図11(f)に示すように、このように算出された代表中心点r1に基づいて、中心線R1が形成されることとなる。   Details of the representative center point calculation element 16 will be described with reference to FIGS. 7 and 11A to 11F. Referring to FIG. 7, the representative center point calculation element 16 has an ellipse forming unit 24. The ellipse forming unit 24 cuts an elliptical bright area on the image as shown in FIG. An ellipse area Z is formed. Referring to FIG. 7, the representative center point calculating element 16 has a direction changing means 25, and the direction changing means 25, as shown in FIG. The direction is changed so as to be orthogonal to the longitudinal direction of the moving sputter region. Referring to FIG. 7, the representative center point calculating element 16 has an ellipse moving means 26, and the ellipse moving means 26 moves with the centroid Cz of the cutting ellipse area Z as shown in FIG. The centroid Cn1 of the sputter region N1 is made to coincide. Referring to FIG. 7, the representative center point calculating element 16 has binarized data reversing means 27. The binarized reversing means 27 converts the binarized data representing the cutting ellipse area Z into the moving sputter region. The binary data representing N1 is converted in reverse. Referring to FIG. 7, the representative center point calculating element 16 has an AND operation means 28, and the AND operation means 28 is cut so as to separate the moving sputter region N1 as shown in FIG. 11 (d). An AND operation process is performed between the binarized data of the elliptical area Z for use and the binarized data of the moving sputtering area N1. Referring to FIG. 7, the representative center point calculating element 16 has a representative center point defining means 29, and the representative center point defining means 29 is, as shown in FIG. The centroid Cn1 and the centroid Cn1 ′ of each of the separated moving sputter regions N1 ′ are calculated as the representative center point r1. As shown in FIG. 11F, the center line R1 is formed based on the representative center point r1 calculated in this way.

図7及び図12を参照して、静止スパッタ判定要素19の詳細を説明する。図7を参照すると、静止スパッタ判定要素19は距離判定手段29を有しており、距離判定手段29は、図12に示すように、ビード領域Eの周縁とスパッタ領域候補の周縁との間における最短距離dが所定の長さ以上である場合に、スパッタ領域候補が静止スパッタ領域N2であると判定するようになっている。一例として、このような所定の長さの下限値は、ビードmの一部であるか否かが明確になる条件として、予め定められたビードmの幅、又は算出されたビード領域Eの幅であるとよい。また、一例として、所定の長さの上限値は、ビード領域Eから取り込まれた画像の周縁までの最大長さであるとよい。図7を参照すると、静止スパッタ判定要素20は形状判定手段31を有しており、形状判定手段31は、スパッタ領域候補が等方的な形状である場合に、スパッタ領域候補が静止スパッタ領域N2であると判定するようになっている。スパッタ領域候補が等方的な形状であるか否かの判断基準の一例として、スパッタ領域候補のアスペクト比が、1/2以上かつ2以下に設定されているとよい。   Details of the stationary sputter determination element 19 will be described with reference to FIGS. 7 and 12. Referring to FIG. 7, the stationary sputter determination element 19 includes a distance determination unit 29, and the distance determination unit 29 is located between the periphery of the bead region E and the periphery of the sputter region candidate as shown in FIG. 12. When the shortest distance d is equal to or longer than a predetermined length, it is determined that the sputter region candidate is the stationary sputter region N2. As an example, such a lower limit value of the predetermined length is a predetermined width of the bead m or a calculated width of the bead region E as a condition for clarifying whether or not the predetermined length is a part of the bead m. It is good to be. As an example, the upper limit value of the predetermined length may be the maximum length from the bead area E to the periphery of the captured image. Referring to FIG. 7, the stationary sputter determination element 20 includes a shape determination unit 31, and the shape determination unit 31 determines that the sputter region candidate is a static sputter region N <b> 2 when the sputter region candidate has an isotropic shape. It is determined to be. As an example of a criterion for determining whether or not a sputter region candidate has an isotropic shape, the aspect ratio of the sputter region candidate may be set to ½ or more and 2 or less.

ここで、本実施形態の画像処理システム1を用いて溶接領域Jに形成されるビードmの形状を認識する方法を説明する。最初に、画像取り込み装置2における画像取り込み方法について説明する。画像取り込み装置2のレーザ照射部6において、レーザ発振器6aがレーザ光L1を発射する。レーザ発振器6aから発射されたレーザ光L1は、ハーフミラー6bを通過し、かつ溶接用集光ミラー6cによって集光された後に、溶接部材Mの溶接領域Jに照射される。その後、溶接部材Mの溶接領域Jに照射されたレーザ光L1によりビードmを形成した部分から残熱発光が出射してモニタリング光L2となる。このモニタリング光L2が、溶接用集光レンズ6cを通過し、かつハーフミラー6bによって角度を変えられた後に、モニタ部7に送られる。   Here, a method for recognizing the shape of the bead m formed in the welding region J using the image processing system 1 of the present embodiment will be described. First, an image capturing method in the image capturing device 2 will be described. In the laser irradiation unit 6 of the image capturing device 2, a laser oscillator 6a emits a laser beam L1. The laser beam L1 emitted from the laser oscillator 6a passes through the half mirror 6b and is collected by the welding condensing mirror 6c, and then irradiated to the welding region J of the welding member M. Thereafter, residual heat emission is emitted from the portion where the bead m is formed by the laser light L1 irradiated to the welding region J of the welding member M, and becomes the monitoring light L2. The monitoring light L2 passes through the welding condenser lens 6c and is sent to the monitor unit 7 after the angle is changed by the half mirror 6b.

画像取り込み装置2のモニタ部7において、レーザ照射部6から送られたモニタリング光L2は、ミラー7aによって角度を変えられた後に、倍率調整レンズ7bに送られる。モニタリング光L2が倍率調整レンズ6bを通過する際、その倍率が調整される。倍率調整レンズ7bにより倍率調整されたモニタリング光L2は、Si用ロングパスフィルタ7cに送られる。Si用ロングパスフィルタ7cにおいて、モニタリング光L2の800nmより小さな波長成分が遮断され、かつモニタリング光L2の800nmより大きな波長成分がSi用ロングパスフィルタ7cを透過する。Si用ロングパスフィルタ7cを通過したモニタリング光L2は、NDフィルタ7dに送られる。NDフィルタ7dにおいて、モニタリング光L2の光の量が、画像処理装置3の画像処理部4によってビードmの形状を明確に認識可能とするように減少する。NDフィルタ7dを通過したモニタリング光L2は、撮像用集光レンズ7eに送られる。撮像用集光レンズ7eにおいて、モニタリング光L2が集光される。撮影用集光レンズ7eにより集光されたモニタリング光L2は、Si系撮像素子7fに照射される。Si系撮像素子7fにおいて、モニタリング光L2における800nm〜1100nmの波長範囲の成分が感知され、感知されたモニタリング光L2がアナログ電気信号に変換され、このアナログ電気信号はアンプ7gに送られる。アンプ7gにおいて、アナログ電気信号は増幅され、増幅されたアナログ電気信号はA/D変換器7hに送られる。A/D変換器7hにおいて、アナログ電気信号はデジタル電気信号に変換され、このデジタル電気信号は記憶部8に送られる。記憶部8において、デジタル電気信号は1つの画像として記憶される。このようにSi系撮像素子7fにモニタリング光L2を照射し、Si系撮像素子7fによりモニタリング光L2をアナログ電気信号に変換し、A/D変換器7hによりアナログ電気信号をデジタル電気信号に変換し、かつこのデジタル電気信号を1つの画像として記憶する動作は、50Hzより大きくかつ1000Hzより小さなフレームレートに基づいて連続的に実施される。さらに、記憶部8に記憶された画像は画像取り込み部9に取り込まれる。   In the monitor unit 7 of the image capturing device 2, the monitoring light L2 sent from the laser irradiation unit 6 is sent to the magnification adjusting lens 7b after the angle is changed by the mirror 7a. When the monitoring light L2 passes through the magnification adjusting lens 6b, the magnification is adjusted. The monitoring light L2 whose magnification is adjusted by the magnification adjusting lens 7b is sent to the Si long pass filter 7c. In the Si long pass filter 7c, a wavelength component smaller than 800 nm of the monitoring light L2 is blocked, and a wavelength component larger than 800 nm of the monitoring light L2 passes through the Si long pass filter 7c. The monitoring light L2 that has passed through the Si long pass filter 7c is sent to the ND filter 7d. In the ND filter 7d, the amount of the monitoring light L2 decreases so that the shape of the bead m can be clearly recognized by the image processing unit 4 of the image processing apparatus 3. The monitoring light L2 that has passed through the ND filter 7d is sent to the imaging condenser lens 7e. The monitoring light L2 is collected in the imaging condenser lens 7e. The monitoring light L2 collected by the photographing condenser lens 7e is irradiated to the Si-based image sensor 7f. In the Si-based imaging device 7f, the component in the wavelength range of 800 nm to 1100 nm in the monitoring light L2 is sensed, the sensed monitoring light L2 is converted into an analog electric signal, and this analog electric signal is sent to the amplifier 7g. In the amplifier 7g, the analog electric signal is amplified, and the amplified analog electric signal is sent to the A / D converter 7h. In the A / D converter 7h, the analog electric signal is converted into a digital electric signal, and this digital electric signal is sent to the storage unit 8. In the storage unit 8, the digital electric signal is stored as one image. In this way, the Si-based image sensor 7f is irradiated with the monitoring light L2, the Si-based image sensor 7f converts the monitoring light L2 into an analog electric signal, and the A / D converter 7h converts the analog electric signal into a digital electric signal. The operation of storing the digital electric signal as one image is continuously performed based on a frame rate larger than 50 Hz and smaller than 1000 Hz. Further, the image stored in the storage unit 8 is captured by the image capturing unit 9.

次に、ビード領域Eの認識方法について説明する。画像取り込み装置2の画像取り込み部8に取り込んだ画像に基づいて、所定の輪郭輝度閾値hより残熱発光の輝度Hが大きくなっているビード領域候補を認識する。ここで、複数のビード領域候補が認識された場合に、複数のビード領域候補から実際のビードmに対応するビード領域Eを判別する。   Next, a method for recognizing the bead area E will be described. Based on the image captured by the image capturing unit 8 of the image capturing device 2, a bead area candidate having a residual heat emission brightness H greater than a predetermined contour brightness threshold h is recognized. Here, when a plurality of bead area candidates are recognized, the bead area E corresponding to the actual bead m is determined from the plurality of bead area candidates.

さらに、図13のフローチャートを参照して、スパッタの除去方法について説明する。取り込んだ複数の画像データのそれぞれを、所定の二値化閾値にて二値化する(S1)。二値化された複数の画像データ間で変化しているスパッタ領域候補を含んだスパッタ範囲を抽出するように、二値化された画像データを該画像データの前に又は次に取り込んだ画像データに対してXOR演算処理する(S2)。XOR演算処理を実施した画像データのノイズを除去する(S3)。スパッタ領域候補が、細長形状の移動スパッタに相当する移動スパッタ領域N1であるか否かを判定する(S4)。スパッタ領域候補が移動スパッタ領域N1であると判定された場合(YES)、移動スパッタ領域N1の代表中心点r1を算出する(S5)。算出された代表中心点r1に基づいた一次関数フィッティングによって、移動スパッタ領域N1の幅中心を通る中心線R1を形成する(S6)。中心線R1を算出した移動スパッタ領域N1を含むスパッタ範囲を記憶し(S7)、記憶されたスパッタ範囲を除去し(S8)、スパッタ除去を終了する。   Further, a sputter removal method will be described with reference to the flowchart of FIG. Each of the plurality of captured image data is binarized with a predetermined binarization threshold (S1). Image data obtained by capturing binarized image data before or next to the image data so as to extract a sputter range including a sputter region candidate changing between a plurality of binarized image data. Is subjected to XOR operation processing (S2). The noise of the image data subjected to the XOR operation processing is removed (S3). It is determined whether or not the sputter region candidate is a moving sputter region N1 corresponding to the elongated sputter (S4). If it is determined that the sputter region candidate is the moving sputter region N1 (YES), the representative center point r1 of the moving sputter region N1 is calculated (S5). A center line R1 passing through the width center of the moving sputtering region N1 is formed by linear function fitting based on the calculated representative center point r1 (S6). The sputter range including the moving sputter region N1 for which the center line R1 is calculated is stored (S7), the stored sputter range is removed (S8), and the sputter removal is terminated.

その一方で、スパッタ領域候補が移動スパッタ領域N1でないと判定された場合(NO)、スパッタ領域候補が静止スパッタに相当する静止スパッタ領域N2であるか否かを判定する(S9)。スパッタ領域候補が静止スパッタ領域N2であると判定された場合(YES)、静止スパッタ領域N2の図心を代表中心点r2として算出する(S10)。代表中心点r2を算出したスパッタ範囲を記憶し(S11)、記憶したスパッタ範囲を除去し(S12)、スパッタ除去を終了する。一方で、スパッタ領域候補が静止スパッタ領域N2でないと判定された場合(NO)、そのままスパッタ除去を終了する。   On the other hand, if it is determined that the sputter region candidate is not the moving sputter region N1 (NO), it is determined whether or not the sputter region candidate is a static sputter region N2 corresponding to static sputter (S9). If it is determined that the sputter region candidate is the static sputter region N2 (YES), the centroid of the static sputter region N2 is calculated as the representative center point r2 (S10). The sputter range in which the representative center point r2 is calculated is stored (S11), the stored sputter range is removed (S12), and the sputter removal is terminated. On the other hand, if it is determined that the sputter region candidate is not the stationary sputter region N2 (NO), the sputter removal is finished as it is.

図14のフローチャートを参照して、移動スパッタ領域N1の代表中心点r1の算出について詳細を説明する。画像上に楕円形状の明領域であるカット用楕円領域Zを形成する(S21)。カット用楕円領域Zを、その長径方向を移動スパッタ領域N1の長手方向に対して直交するように方向転換する(S22)。カット用楕円領域Zの図心Czと移動スパッタ領域N1の図心Cn1とを一致させる(S23)。カット用楕円領域Zの二値化データを逆転させる(S24)。移動スパッタ領域N1を分離するように、カット用楕円領域Zの二値化データと移動スパッタ領域N1の二値化データとの間でAND演算処理を実施する(S25)。AND演算処理により分離された移動スパッタ領域N1’のそれぞれの図心Cn1’を算出する(S26)。分離前の移動スパッタ領域N1の図心Cn1、及び分離された移動スパッタ領域N1’のそれぞれの図心Cn1’を代表中心点r1として定義する(S27)。   The calculation of the representative center point r1 of the moving sputtering area N1 will be described in detail with reference to the flowchart of FIG. An elliptical area for cutting Z, which is an elliptical bright area, is formed on the image (S21). The cutting ellipse area Z is changed in direction so that the major axis direction thereof is orthogonal to the longitudinal direction of the moving sputtering area N1 (S22). The centroid Cz of the cutting ellipse area Z and the centroid Cn1 of the moving sputtering area N1 are matched (S23). The binarized data of the cutting ellipse area Z is reversed (S24). An AND operation process is performed between the binarized data of the cutting ellipse area Z and the binarized data of the moving sputter area N1 so as to separate the moving sputter area N1 (S25). Each centroid Cn1 'of the moving sputter region N1' separated by the AND operation processing is calculated (S26). The centroid Cn1 of the moving sputter region N1 before separation and the centroid Cn1 'of each of the separated moving sputter regions N1' are defined as representative central points r1 (S27).

図15のフローチャートを参照して、静止スパッタ領域N2の判定について詳細を説明する。スパッタ領域候補の周縁とビード領域Eの周縁との間における最短距離dを算出する(S31)。算出した最短距離dが所定の長さ以上であるか否かを判定する(S32)。最短距離dが所定の長さ以上であった場合(YES)、スパッタ領域候補が静止スパッタ領域N2であると判定し(S33)、静止スパッタ領域N2の判定を終了する。   Details of the determination of the static sputtering region N2 will be described with reference to the flowchart of FIG. The shortest distance d between the periphery of the sputter region candidate and the periphery of the bead region E is calculated (S31). It is determined whether or not the calculated shortest distance d is greater than or equal to a predetermined length (S32). If the shortest distance d is equal to or longer than the predetermined length (YES), it is determined that the sputtering area candidate is the stationary sputtering area N2 (S33), and the determination of the stationary sputtering area N2 is ended.

その一方で、最短距離dが所定の長さより小さかった場合(NO)、スパッタ領域候補が等方的形状であるか否かを判定する(S34)。スパッタ領域候補が等方的形状である場合(YES)、スパッタ領域候補が静止スパッタ領域N2であると判定し(S33)、静止スパッタ領域N2の判定を終了する。スパッタ領域候補が等方的形状でない場合(NO)、スパッタ領域候補が静止スパッタ領域N2でないと判定し(S35)、静止スパッタ領域N2の判定を終了する。   On the other hand, if the shortest distance d is smaller than the predetermined length (NO), it is determined whether or not the sputter region candidate has an isotropic shape (S34). If the sputter region candidate has an isotropic shape (YES), it is determined that the sputter region candidate is the static sputter region N2 (S33), and the determination of the static sputter region N2 is terminated. If the sputter region candidate is not isotropic (NO), it is determined that the sputter region candidate is not the static sputter region N2 (S35), and the determination of the static sputter region N2 is terminated.

以上のように本実施形態によれば、画像上の移動スパッタ領域N1が除去されて、移動スパッタの影響を受けずにビードmの形状を正確に認識することができる。特に、移動スパッタがビードmと重なった場合、移動スパッタがビードmに重なるタイミング前後の画像を用いることによって、ビードmの形状を正確に認識することができる。また、移動スパッタ領域N1が画像データから除去されて、ビードmの形状認識に必要とされる画像データのみが画像処理されることになるので、画像処理の計算負荷を低減することができる。   As described above, according to the present embodiment, the moving sputter region N1 on the image is removed, and the shape of the bead m can be accurately recognized without being affected by the moving sputter. In particular, when the moving sputter overlaps with the bead m, the shape of the bead m can be accurately recognized by using images before and after the timing when the moving sputter overlaps the bead m. Further, since the moving sputter region N1 is removed from the image data and only the image data required for the shape recognition of the bead m is subjected to image processing, the calculation load of image processing can be reduced.

本実施形態によれば、上述のように、線分近似フィッティングに用いられる移動スパッタ領域N1の代表中心点r1が簡単に算出されて、画像処理の計算負荷を低減することができる。   According to the present embodiment, as described above, the representative center point r1 of the moving sputter region N1 used for the line segment approximate fitting is simply calculated, and the calculation load of image processing can be reduced.

本実施形態によれば、画像上の静止スパッタ領域N2が除去されて、静止スパッタの影響を受けずにビードmの形状を正確に認識することができる。また、静止スパッタ領域N2が画像データから除去されて、ビードmの形状認識に必要とされる画像データのみが画像処理されることになるので、画像処理の計算負荷を低減することができる。   According to the present embodiment, the static sputter region N2 on the image is removed, and the shape of the bead m can be accurately recognized without being affected by the static sputter. Further, since the static sputter region N2 is removed from the image data and only the image data required for the shape recognition of the bead m is image-processed, the calculation load of image processing can be reduced.

本実施形態によれば、スパッタ領域候補が静止スパッタ領域N2であるか否かの判定では、スパッタ領域候補とビードmに相当するビード領域Eとの間の最短距離dが所定の長さ以上である場合に、前記スパッタ領域候補が前記静止スパッタ領域であると判定する。また、スパッタ領域候補が静止スパッタ領域N2であるか否かの判定では、スパッタ領域が等方的形状である場合に、スパッタ領域候補が静止スパッタ領域N2であると判定する。そのため、静止スパッタ領域N2が正確に判別されて、静止スパッタ領域N2を確実に除去できる。よって、ビードmの形状を正確に認識することができる。   According to the present embodiment, in determining whether or not the sputter region candidate is the stationary sputter region N2, the shortest distance d between the sputter region candidate and the bead region E corresponding to the bead m is a predetermined length or more. In some cases, it is determined that the sputter region candidate is the stationary sputter region. Further, in determining whether the sputter region candidate is the stationary sputter region N2, if the sputter region has an isotropic shape, it is determined that the sputter region candidate is the static sputter region N2. Therefore, the stationary sputter region N2 can be accurately determined and the stationary sputter region N2 can be reliably removed. Therefore, the shape of the bead m can be accurately recognized.

[第2実施形態]
本発明の第2実施形態に係る画像処理システムについて以下に説明する。第2実施形態は、基本的には、第1実施形態と同様になっている。第1実施形態と同様な要素は、第1実施形態と同様の符号および名称を用いて説明する。ここでは、第1実施形態と異なる構成について説明する。
[Second Embodiment]
An image processing system according to the second embodiment of the present invention will be described below. The second embodiment is basically the same as the first embodiment. Elements similar to those in the first embodiment will be described using the same symbols and names as those in the first embodiment. Here, a configuration different from the first embodiment will be described.

本実施形態では、第1実施形態におけるSi用ロングパスフィルタ7cの代わりに、後述するインジウムガリウムヒ素系の半導体から作製された撮像素子(以下、「InGaAs系撮像素子」という)に対応するInGaAs用ロングパスフィルタが設けられている。InGaAs用ロングパスフィルタは、1200nm以上の波長範囲で光を透過するように構成されている。本実施形態では、第1実施形態のSi系撮像素子7fの代わりに、InGaAs系撮像素子が設けられている。InGaAs系撮像素子は、800nm〜2600nmの波長範囲において光に対する感度を有している。InGaAs系撮像素子は、撮像器6fに送られたモニタリング光L2をアナログ電気信号に変換するように構成されている。また、InGaAs系撮像素子の撮像面の条件は、第1実施形態におけるSi系撮像素子7fの撮像面の条件と同様になっている。   In this embodiment, instead of the Si long-pass filter 7c in the first embodiment, an InGaAs long-pass corresponding to an image sensor (hereinafter referred to as “InGaAs-based image sensor”) manufactured from an indium gallium arsenide-based semiconductor described later. A filter is provided. The long pass filter for InGaAs is configured to transmit light in a wavelength range of 1200 nm or more. In the present embodiment, an InGaAs image sensor is provided instead of the Si image sensor 7f of the first embodiment. The InGaAs-based image sensor has sensitivity to light in a wavelength range of 800 nm to 2600 nm. The InGaAs-based image sensor is configured to convert the monitoring light L2 sent to the imager 6f into an analog electric signal. Further, the conditions of the imaging surface of the InGaAs imaging device are the same as the imaging surface conditions of the Si imaging device 7f in the first embodiment.

InGaAs用ロングパスフィルタを透過する光の波長範囲について説明する。上述したように、レーザ溶接中に発生するプラズマ光は、原子の軌道電子により発生する遷移発光の成分を多く含んでおり、この遷移発光の波長範囲は、典型的には、可視域に相当する200nm〜780nmの範囲になっている。一方で、黒体放射の輻射強度は、波長が長くなるに連れて高くなっている。また、黒体放射の輻射強度は、温度が高くなるに連れて高くなっている。そのため、高い温度を有する残熱発光に含まれる黒体放射の輻射強度が高くなることが確認できる。また、レーザ等の発光は、1060nm付近の波長成分を含んでいるので、InGaAs系撮像素子に入力される光は、1060nm周辺の波長範囲を避けることが好ましい。   The wavelength range of light transmitted through the long pass filter for InGaAs will be described. As described above, plasma light generated during laser welding contains many components of transition emission generated by orbital electrons of atoms, and the wavelength range of this transition emission typically corresponds to the visible range. It is in the range of 200 nm to 780 nm. On the other hand, the radiation intensity of blackbody radiation increases as the wavelength increases. Further, the radiation intensity of black body radiation increases as the temperature increases. Therefore, it can be confirmed that the radiation intensity of the black body radiation included in the residual heat emission having a high temperature is increased. In addition, since light emitted from a laser or the like includes a wavelength component around 1060 nm, it is preferable that the light input to the InGaAs-based image pickup device avoid a wavelength range around 1060 nm.

そこで、プラズマ光に多く含まれる遷移発光の波長範囲の上限値780nmと、レーザ等の発光波長に相当する1060nm付近の波長の光を避けることと、レーザ等の発光波長のバラツキとを考慮して、InGaAs用ロングパスフィルタを透過する光の波長範囲は、1200nm以上に定められている。そのため、InGaAs系撮像素子には、1200nm以上の波長範囲で光が送られて、InGaAs系撮像素子は、入力される光を1200nm〜2600nmの波長範囲で感知することとなる。なお、InGaAs用ロングパスフィルタは、1200nmより小さな波長の光を遮断するように構成されていると好ましい。しかしながら、InGaAs系撮像素子は、800nm〜2600nmの波長範囲で光を感知できればよいので、例えば、InGaAs用ロングパスフィルタが、1300nm、1400nm、1500nm、1600nm、1700nm、1800nm、又は1900nmより小さな波長の光を遮断するように構成されていてもよい。   Therefore, in consideration of the upper limit 780 nm of the wavelength range of transition emission included in plasma light, avoiding light having a wavelength near 1060 nm corresponding to the emission wavelength of laser, etc., and variations in emission wavelength of laser, etc. The wavelength range of light passing through the InGaAs long pass filter is set to 1200 nm or more. For this reason, light is sent to the InGaAs imaging device in a wavelength range of 1200 nm or more, and the InGaAs imaging device senses input light in the wavelength range of 1200 nm to 2600 nm. The InGaAs long-pass filter is preferably configured to block light having a wavelength shorter than 1200 nm. However, since the InGaAs-based imaging device only needs to be able to sense light in the wavelength range of 800 nm to 2600 nm, for example, a long pass filter for InGaAs emits light having a wavelength smaller than 1300 nm, 1400 nm, 1500 nm, 1600 nm, 1700 nm, 1800 nm, or 1900 nm. You may be comprised so that it may interrupt | block.

また、本実施形態の画像処理システム1を用いて溶接領域Jに形成されるビードmの形状を認識する方法は、本実施形態の上述した構成を除いて、第1実施形態と同様になっている。   Moreover, the method of recognizing the shape of the bead m formed in the welding region J using the image processing system 1 of the present embodiment is the same as that of the first embodiment except for the configuration described above of the present embodiment. Yes.

以上のように本実施形態によれば、第1実施形態と同様の効果が得られる。   As described above, according to the present embodiment, the same effects as those of the first embodiment can be obtained.

[第3実施形態]
本発明の第3実施形態に係る画像処理システムについて以下に説明する。第3実施形態は、基本的には、第1実施形態と同様になっている。第1実施形態と同様な要素は、第1実施形態と同様の符号および名称を用いて説明する。ここでは、第1実施形態と異なる構成について説明する。
[Third Embodiment]
An image processing system according to the third embodiment of the present invention will be described below. The third embodiment is basically the same as the first embodiment. Elements similar to those in the first embodiment will be described using the same symbols and names as those in the first embodiment. Here, a configuration different from the first embodiment will be described.

本実施形態では、第1実施形態におけるSi用ロングパスフィルタ7cの代わりに、Si用バンドパスフィルタが設けられている。Si用バンドパスフィルタは、800nm以上かつ1050nm以下の波長範囲で光を透過するように構成されている。   In the present embodiment, a Si band-pass filter is provided instead of the Si long-pass filter 7c in the first embodiment. The band pass filter for Si is configured to transmit light in a wavelength range of 800 nm or more and 1050 nm or less.

Si用バンドパスフィルタを透過する光の波長範囲について説明する。Si用バンドパスフィルタを透過する光の波長範囲の下限値は、第1実施形態におけるSi用ロングパスフィルタ7cを透過する光の波長範囲の下限値を800nmとしたことと同様の理由に基づいて、800nmに定められている。また、レーザ等の発光波長に相当する1060nm付近の波長の光を避けることと、レーザ等の発光波長のバラツキとを考慮して、Si用バンドパスフィルタを透過する光の波長範囲の上限値は、1050nmに定められている。   The wavelength range of light passing through the Si bandpass filter will be described. The lower limit value of the wavelength range of the light transmitted through the Si bandpass filter is based on the same reason that the lower limit value of the wavelength range of the light transmitted through the Si longpass filter 7c in the first embodiment is 800 nm. It is set to 800 nm. In addition, in consideration of avoiding light having a wavelength near 1060 nm, which corresponds to the emission wavelength of a laser, etc., and variations in the emission wavelength of the laser, etc., the upper limit value of the wavelength range of the light passing through the Si bandpass filter is It is set to 1050 nm.

本実施形態の画像処理システム1を用いて溶接領域Jに形成されるビードmの形状を認識する方法は、本実施形態の上述した構成を除いて、第1実施形態と同様になっている。   A method for recognizing the shape of the bead m formed in the welding region J using the image processing system 1 of the present embodiment is the same as that of the first embodiment except for the configuration described above of the present embodiment.

以上のように本実施形態によれば、第1実施形態と同様の効果が得られる。   As described above, according to the present embodiment, the same effects as those of the first embodiment can be obtained.

[第4実施形態]
本発明の第4実施形態に係る画像処理システムについて以下に説明する。第4実施形態は、基本的には、第2実施形態と同様になっている。第2実施形態と同様な要素は、第2実施形態と同様の符号および名称を用いて説明する。ここでは、第2実施形態と異なる構成について説明する。
[Fourth Embodiment]
An image processing system according to the fourth embodiment of the present invention will be described below. The fourth embodiment is basically the same as the second embodiment. The same elements as those of the second embodiment will be described using the same symbols and names as those of the second embodiment. Here, a configuration different from the second embodiment will be described.

本実施形態では、第2実施形態におけるInGaAs用ロングパスフィルタの代わりに、InGaAs用バンドパスフィルタが設けられている。InGaAs用バンドパスフィルタは、1200nm以上かつ2000nm以下の波長範囲で光を透過するように構成されている。   In this embodiment, an InGaAs band-pass filter is provided instead of the InGaAs long-pass filter in the second embodiment. The bandpass filter for InGaAs is configured to transmit light in a wavelength range of 1200 nm or more and 2000 nm or less.

InGaAs用バンドパスフィルタを透過する光の波長範囲について説明する。InGaAs用バンドパスフィルタを透過する光の波長範囲の下限値は、第2実施形態におけるInGaAs用ロングパスフィルタを透過する光の波長範囲の下限値を1200nmとしたことと同様の理由に基づいて、1200nmに定められている。また、長波長高感度タイプのInGaAs系撮像素子における光に対する感度の上限は2600nmとされ、短波長高感度タイプのInGaAs系撮像素子における光に対する感度の上限は1700nmとされている。さらに、短波長高感度タイプのInGaAs系撮像素子は、そのバンドギャップが緩やかに減少するために、1700nm〜2000nmの範囲においても一定の感度(応答性能)を有している。そのため、長波長高感度タイプ、短波長高感度タイプ等のあらゆるInGaAs系撮像素子に対応すべく、InGaAs用バンドパスフィルタを透過する光の波長範囲の上限値は2000nmに定められている。   The wavelength range of light that passes through the bandpass filter for InGaAs will be described. The lower limit value of the wavelength range of light passing through the InGaAs bandpass filter is 1200 nm based on the same reason that the lower limit value of the wavelength range of light passing through the InGaAs longpass filter in the second embodiment is set to 1200 nm. It is stipulated in. In addition, the upper limit of sensitivity to light in the long wavelength high sensitivity type InGaAs imaging device is 2600 nm, and the upper limit of sensitivity to light in the short wavelength high sensitivity type InGaAs imaging device is 1700 nm. Further, the short wavelength high sensitivity type InGaAs imaging device has a constant sensitivity (response performance) even in the range of 1700 nm to 2000 nm because its band gap gradually decreases. Therefore, the upper limit of the wavelength range of the light transmitted through the InGaAs band-pass filter is set to 2000 nm so as to correspond to all InGaAs-based image pickup devices such as the long wavelength high sensitivity type and the short wavelength high sensitivity type.

以上のように本実施形態によれば、第2実施形態と同様の効果が得られる。   As described above, according to the present embodiment, the same effects as those of the second embodiment can be obtained.

ここまで本発明の実施形態について述べたが、本発明は既述の実施形態に限定されるものではなく、本発明の技術的思想に基づいて各種の変形及び変更が可能である。   Although the embodiments of the present invention have been described so far, the present invention is not limited to the above-described embodiments, and various modifications and changes can be made based on the technical idea of the present invention.

例えば、本発明の第1変形例として、画像取り込み部3が、レーザ溶接以外の溶接を撮影かつ取り込むように構成されていてもよい。例えば、レーザ溶接以外の溶接は、アーク溶接、エレクトロスラグ溶接、電子ビーム溶接等であるとよい。   For example, as a first modification of the present invention, the image capturing unit 3 may be configured to capture and capture welding other than laser welding. For example, welding other than laser welding may be arc welding, electroslag welding, electron beam welding, or the like.

本発明の第2変形例として、画像取り込み部3が、溶接時の残熱発光以外のレーザによる発光を撮影かつ取り込むように構成されていてもよい。また、画像取り込み部3が、レーザ溶接以外の溶接を撮影かつ取り込む場合には、溶接時の残熱発光以外の発光を撮影かつ取り込むように構成されていてもよい。   As a second modification of the present invention, the image capturing unit 3 may be configured to capture and capture light emitted by a laser other than residual heat emission during welding. Further, when the image capturing unit 3 captures and captures welding other than laser welding, the image capturing unit 3 may be configured to capture and capture light emission other than residual heat emission during welding.

1 画像処理システム
3 画像処理装置
4 画像処理部
12 二値化手段
13 XOR演算手段
15 移動スパッタ判定手段
16 代表中心点算出要素
17 中心線形成手段
18 移動スパッタ記憶手段
19 移動スパッタ除去手段
20 静止スパッタ判定要素
21 代表中心点算出手段
22 静止スパッタ記憶手段
23 静止スパッタ除去手段
24 楕円形成手段
25 方向転換手段
26 楕円移動手段
27 二値化データ逆転手段
28 AND演算手段
29 代表点定義手段
30 距離判定手段
31 形状判定手段
M 溶接部材
J 溶接領域
m ビード
m1 接合始端部分(始端部分)
m2 接合終端部分(終端部分)
m3 接合中間部分(中間部分)
L1 レーザ光
L2 モニタリング光
θ1,θ2 角度
G 平均輝度
g1 開始輝度閾値
g2 終了輝度閾値
t 時間
E ビード領域
E1 始端部分
E2 終端部分
E3 中間部分
e ビード領域点
N1 移動スパッタ領域
N2 静止スパッタ領域
Z カット用楕円領域
Cn1,Cn1’,Cz 図心
r1,r2 代表中心点
R1 中心線
d 最短距離
A1 実線
A2 破線
A3 一点鎖線
S1〜S12,S21〜S27,S31〜S35 ステップ
DESCRIPTION OF SYMBOLS 1 Image processing system 3 Image processing apparatus 4 Image processing part 12 Binarization means 13 XOR operation means 15 Moving sputter determination means 16 Representative center point calculation element 17 Center line formation means 18 Moving spatter storage means 19 Moving spatter removal means 20 Stationary spatter Determination element 21 Representative center point calculation means 22 Static sputter storage means 23 Static spatter removal means 24 Ellipse formation means 25 Direction change means 26 Ellipse movement means 27 Binary data reversal means 28 AND operation means 29 Representative point definition means 30 Distance determination means 31 Shape determination means M Welding member J Welding area m Bead m1 Joining end part (starting part)
m2 Junction termination part (termination part)
m3 Joining middle part (middle part)
L1 Laser beam L2 Monitoring beam θ1, θ2 Angle G Average luminance g1 Start luminance threshold g2 End luminance threshold t Time E Bead region E1 End portion E2 End portion E3 Intermediate portion e Bead region point N1 Moving sputter region N2 Stationary sputter region Z For cutting Elliptical regions Cn1, Cn1 ′, Cz Centroids r1, r2 Representative center point R1 Center line d Shortest distance A1 Solid line A2 Broken line A3 Dash-dot lines S1 to S12, S21 to S27, S31 to S35 Steps

Claims (7)

溶接中の溶接領域を連続的に撮影かつ取り込んだ複数の画像データに基づいて、前記溶接領域に形成されるビードの形状を認識する画像処理方法であって、
前記取り込んだ複数の画像データのそれぞれを、移動スパッタ又は静止スパッタに相当する明領域の候補であるスパッタ領域候補を浮かび上がらせるように二値化するステップと、
前記二値化された複数の画像データ間で変化するスパッタ領域候補を含んだスパッタ範囲を抽出するように、前記二値化された画像データを該画像データの前に又は次に取り込んだ画像データに対してXOR演算処理するステップと、
前記スパッタ領域候補が、細長形状の移動スパッタに相当する移動スパッタ領域であるか否かを判定するステップと、
前記スパッタ領域候補が前記移動スパッタ領域であると判定された場合、前記移動スパッタ領域を含んだスパッタ範囲を除去するステップと
を含む画像処理方法。
An image processing method for recognizing the shape of a bead formed in the welding region based on a plurality of image data obtained by continuously capturing and capturing a welding region during welding,
Binarizing each of the captured plurality of image data so that a sputter region candidate that is a bright region candidate corresponding to moving sputter or stationary sputter is raised;
Image data obtained by capturing the binarized image data before or next to the image data so as to extract a sputter range including a sputter region candidate that changes between the binarized image data. Performing an XOR operation on
Determining whether or not the sputter region candidate is a moving sputter region corresponding to an elongated shaped mobile sputter;
And a step of removing a sputtering area including the moving sputtering area when it is determined that the sputtering area candidate is the moving sputtering area.
前記移動スパッタ領域を含んだスパッタ範囲を除去するステップは、
前記移動スパッタ領域内の複数の代表中心点を算出し、
前記算出した代表中心点に基づいた線分近似フィッティングによって、前記移動スパッタ領域の幅中心を通る中心線を算出し、
前記中心線を算出した移動スパッタ領域を含んだスパッタ範囲を記憶し、かつ
前記記憶したスパッタ範囲を前記画像データから除去すること
を含む、請求項1に記載の画像処理方法。
Removing the sputter area including the moving sputter region,
Calculating a plurality of representative center points in the moving sputter region;
By a line segment approximate fitting based on the calculated representative center point, a center line passing through the width center of the moving sputter region is calculated,
The image processing method according to claim 1, further comprising: storing a sputter range including a moving sputter region for which the center line is calculated; and removing the stored sputter range from the image data.
前記代表中心点の算出は、
前記画像上に楕円形状のカット用楕円領域を形成し、
前記カット用楕円領域を、その長径方向を前記移動スパッタ領域の長手方向に対して直交するように方向転換し、
前記カット用楕円領域の図心と前記移動スパッタ領域の図心とを一致させ、
前記カット用楕円領域を表す二値化データを、前記移動スパッタ領域を表す二値化データに対して反対に変換し、
前記移動スパッタ領域を分離するように、前記変換したカット用楕円領域の二値化データと前記移動スパッタ領域の二値化データとの間でAND演算処理を実施し、
前記AND演算処理により分離された移動スパッタ領域のそれぞれの図心を算出し、かつ
前記分離前の移動スパッタ領域の図心、及び前記分離された移動スパッタ領域のそれぞれの図心を代表中心点として定義すること
を含む、請求項2に記載の画像処理方法。
The calculation of the representative center point is as follows:
Forming an elliptical cut elliptical area on the image;
The elliptical area for cutting is redirected so that its major axis direction is orthogonal to the longitudinal direction of the moving sputter area,
The centroid of the elliptical area for cutting and the centroid of the moving sputter area are matched,
The binarized data representing the elliptical area for cutting is converted in reverse to the binarized data representing the moving sputter area,
An AND operation process is performed between the binarized data of the converted elliptical area for cutting and the binarized data of the moving sputter area so as to separate the moving sputter area,
Calculate each centroid of the moving sputter area separated by the AND operation processing, and use the centroid of the moving sputter area before separation and each centroid of the separated moving sputter area as a representative central point. The image processing method according to claim 2, comprising defining.
前記スパッタ領域候補が前記移動スパッタ領域ではないと判定された場合、前記スパッタ領域候補が静止スパッタに相当する静止スパッタ領域であるか否かを判定するステップと、
前記スパッタ領域候補が前記静止スパッタ領域であると判定された場合、前記静止スパッタ領域を含んだスパッタ範囲を記憶し、かつ前記記憶したスパッタ範囲を除去するステップと
をさらに含む請求項1〜3のいずれか一項に記載の画像処理方法。
If it is determined that the sputter region candidate is not the moving sputter region, determining whether the sputter region candidate is a stationary sputter region corresponding to a static sputter; and
4. The method according to claim 1, further comprising: storing a sputter range including the static sputter region and removing the stored sputter range when it is determined that the sputter region candidate is the static sputter region. The image processing method as described in any one of Claims.
前記スパッタ領域候補が前記静止スパッタ領域であるか否かの判定では、
前記スパッタ領域候補と前記ビードに相当するビード領域との間の最短距離が所定の長さ以上である場合に、前記スパッタ領域候補が前記静止スパッタ領域であると判定する請求項4に記載の画像処理方法。
In determining whether the sputter region candidate is the stationary sputter region,
The image according to claim 4, wherein when the shortest distance between the sputter region candidate and a bead region corresponding to the bead is equal to or longer than a predetermined length, the sputter region candidate is determined to be the stationary sputter region. Processing method.
前記スパッタ領域候補が前記静止スパッタ領域であるか否かの判定では、
前記スパッタ領域候補が等方的形状である場合に、前記スパッタ領域候補が前記静止スパッタ領域であると判定する請求項4又は5に記載の画像処理方法。
In determining whether the sputter region candidate is the stationary sputter region,
The image processing method according to claim 4, wherein when the sputter region candidate has an isotropic shape, the sputter region candidate is determined to be the stationary sputter region.
請求項1〜6のいずれか一項に記載の画像処理方法を用いた画像処理システム。   An image processing system using the image processing method according to claim 1.
JP2012155378A 2012-07-11 2012-07-11 Image processing method, and image processing system Pending JP2014014857A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012155378A JP2014014857A (en) 2012-07-11 2012-07-11 Image processing method, and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012155378A JP2014014857A (en) 2012-07-11 2012-07-11 Image processing method, and image processing system

Publications (1)

Publication Number Publication Date
JP2014014857A true JP2014014857A (en) 2014-01-30

Family

ID=50110023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012155378A Pending JP2014014857A (en) 2012-07-11 2012-07-11 Image processing method, and image processing system

Country Status (1)

Country Link
JP (1) JP2014014857A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016159348A (en) * 2015-03-05 2016-09-05 株式会社ダイヘン Image processing system, welding robot system and image processing method
WO2019239644A1 (en) * 2018-06-11 2019-12-19 パナソニックIpマネジメント株式会社 Welding condition setting assistance device
WO2020246416A1 (en) * 2019-06-06 2020-12-10 パナソニックIpマネジメント株式会社 Welding condition setting assistance device
US20210016383A1 (en) * 2018-04-20 2021-01-21 Taiyo Nippon Sanso Corporation Spatter counting method, computer program, and spatter counting device
WO2021230078A1 (en) * 2020-05-15 2021-11-18 パナソニックIpマネジメント株式会社 Welding condition setting assistance device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016159348A (en) * 2015-03-05 2016-09-05 株式会社ダイヘン Image processing system, welding robot system and image processing method
US20210016383A1 (en) * 2018-04-20 2021-01-21 Taiyo Nippon Sanso Corporation Spatter counting method, computer program, and spatter counting device
WO2019239644A1 (en) * 2018-06-11 2019-12-19 パナソニックIpマネジメント株式会社 Welding condition setting assistance device
WO2020246416A1 (en) * 2019-06-06 2020-12-10 パナソニックIpマネジメント株式会社 Welding condition setting assistance device
CN113950386A (en) * 2019-06-06 2022-01-18 松下知识产权经营株式会社 Welding condition setting auxiliary device
JP7394290B2 (en) 2019-06-06 2023-12-08 パナソニックIpマネジメント株式会社 Welding condition setting support device
US11922614B2 (en) 2019-06-06 2024-03-05 Panasonic Intellectual Property Management Co., Ltd. Welding condition setting assistance device
WO2021230078A1 (en) * 2020-05-15 2021-11-18 パナソニックIpマネジメント株式会社 Welding condition setting assistance device

Similar Documents

Publication Publication Date Title
JP5338890B2 (en) Laser welding welding position detection apparatus and welding position detection method
JP2014014857A (en) Image processing method, and image processing system
JP5830373B2 (en) Imaging device
US8946595B2 (en) Apparatus and method for determining shape of end of welding bead
JP3227650B2 (en) Laser welding machine and laser welding condition monitoring method
JP4300433B2 (en) Laser welding quality evaluation method and apparatus
JP2008126274A (en) Spatter recognition method and apparatus in arc welding
JP2018039028A (en) Laser processing machine and laser processing method
JP2010048587A (en) Pattern defect inspecting device and method
JP4179558B2 (en) Laser welding quality evaluation method and apparatus
JP2009139239A (en) Method for detecting surface flaw of band form, device and computer program thereof
JP2009072788A (en) Method and device for detecting spark of welding and method of manufacturing welded product
JP4491850B2 (en) Laser irradiation point detection device and seam position detection device in laser welding machine
JP5909872B2 (en) WELDING DEFECT DETECTING METHOD AND SYSTEM, ELECTRIC SEWING TUBE MANUFACTURING METHOD, AND WELDED PRODUCT MANUFACTURING METHOD
JP2014016304A (en) Image processing method and image processing system
WO2019203276A1 (en) Sputter counting method, computer program, and sputter counting device
JP2014016926A (en) Image processing system
JP2014014856A (en) Image processing method and image processing system
JP2014014855A (en) Image processing method and image processing system
CN117916767A (en) Detection of spatter during laser machining by artificial intelligence
JP2013164422A (en) Inspection device and inspection method
JP5881942B2 (en) Weld defect detection system, method for manufacturing ERW steel pipe, and method for manufacturing welded product
JP3263570B2 (en) Automatic focusing device
KR20140084612A (en) Strip edge monitoring system and method
JP5977526B2 (en) Image processing apparatus and image processing method