JP2014014857A - Image processing method, and image processing system - Google Patents
Image processing method, and image processing system Download PDFInfo
- Publication number
- JP2014014857A JP2014014857A JP2012155378A JP2012155378A JP2014014857A JP 2014014857 A JP2014014857 A JP 2014014857A JP 2012155378 A JP2012155378 A JP 2012155378A JP 2012155378 A JP2012155378 A JP 2012155378A JP 2014014857 A JP2014014857 A JP 2014014857A
- Authority
- JP
- Japan
- Prior art keywords
- sputter
- region
- moving
- area
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、溶接中の溶接領域を連続的に撮影かつ取り込んだ複数の画像データに基づいて、前記溶接領域に形成されるビードの形状を認識する画像処理方法に関し、かつその方法を用いた画像処理システムに関する。 The present invention relates to an image processing method for recognizing the shape of a bead formed in a welding region based on a plurality of image data obtained by continuously photographing and capturing a welding region being welded, and an image using the method. It relates to a processing system.
従来より、溶接中の溶接領域を、カメラ、光センサ等によって連続的に撮影かつ取り込んだ複数の画像に基づいて、溶接領域のビードの形状を認識する画像処理が行われている。しかしながら、金属等を溶接する際には必然的にスパッタが発生する。このスパッタの発生量、発生タイミング、飛散方向等を予測することは困難であり、このようなスパッタがビードに重なった場合、画像処理においてビードの形状を高い精度で認識することが難しくなるという問題がある。 Conventionally, image processing for recognizing the shape of a bead in a welding area is performed based on a plurality of images obtained by continuously capturing and capturing a welding area during welding with a camera, an optical sensor, or the like. However, spattering inevitably occurs when welding metals or the like. It is difficult to predict the spatter generation amount, generation timing, scattering direction, and the like, and when such spatter overlaps the bead, it is difficult to recognize the bead shape with high accuracy in image processing. There is.
スパッタの画像処理について、例えば、特許文献1では、アーク溶接中の溶接領域を連続的に撮影かつ取り込んだ画像において、アーク放電部に対して画像幅方向両側に検出線を設定し、この検出線を通過するスパッタを検出することによって、スパッタの個数及び大きさを算出している。
Regarding image processing of spatter, for example, in
しかしながら、特許文献1の画像処理では、スパッタの位置を把握することができず、取り込んだ画像からスパッタを除いて画像処理を実施することはできない。そのため、このような画像処理においては、ビードの形状を高い精度で認識できなくなっている。
However, in the image processing of
また、スパッタの位置及び飛散方向を正確に認識しようとした場合、スパッタの位置及び飛散方向を算出し、かつ算出したスパッタの位置及び飛散方向に関するデータを保管するという処理を施す必要がある。そのため、このような処理によって計算負荷が増加するという問題がある。 Further, when it is attempted to accurately recognize the position and scattering direction of the sputter, it is necessary to perform a process of calculating the position and scattering direction of the spatter and storing data relating to the calculated position and scattering direction of the sputter. Therefore, there is a problem that the calculation load increases due to such processing.
本発明はこのような実状に鑑みてなされたものであって、その目的は、ビードの形状を正確に認識でき、かつ画像処理の計算負荷を低減できる画像処理方法及び画像処理システムを提供することにある。 The present invention has been made in view of such a situation, and an object thereof is to provide an image processing method and an image processing system capable of accurately recognizing the shape of a bead and reducing the calculation load of image processing. It is in.
課題を解決するために、本発明の一態様に係る画像処理方法は、溶接中の溶接領域を連続的に撮影かつ取り込んだ複数の画像データに基づいて、前記溶接領域に形成されるビードの形状を認識する画像処理方法であって、前記取り込んだ複数の画像データのそれぞれを、移動スパッタ又は静止スパッタに相当する明領域の候補であるスパッタ領域候補を浮かび上がらせるように二値化するステップと、前記二値化された複数の画像データ間で変化するスパッタ領域候補を含んだスパッタ範囲を抽出するように、前記二値化された画像データ間を該画像データの前に又は次に取り込んだ画像データに対してXOR演算処理するステップと、前記スパッタ領域候補が、細長形状の移動スパッタに相当する移動スパッタ領域であるか否かを判定するステップと、前記スパッタ領域候補が前記移動スパッタ領域であると判定された場合、前記移動スパッタ領域を含んだスパッタ範囲を除去するステップとを含む。 In order to solve the problem, an image processing method according to an aspect of the present invention provides a shape of a bead formed in a welding region based on a plurality of image data obtained by continuously photographing and capturing a welding region during welding. An image processing method for recognizing each of the plurality of captured image data so that a sputter region candidate that is a bright region candidate corresponding to moving sputter or stationary sputter is highlighted, and An image captured before or next to the binarized image data so as to extract a sputter range including a sputter region candidate that changes between the binarized image data. A step of performing an XOR operation on the data, and determining whether or not the sputter region candidate is a moving sputter region corresponding to a slender moving sputter. If a step, the sputtered area candidate is determined to the a mobile sputter area, and removing the sputtered range including the moving sputtering zone.
本発明の一態様に係る画像処理方法では、前記移動スパッタ領域を含んだスパッタ範囲を除去するステップは、前記移動スパッタ領域内の複数の代表中心点を算出し、前記算出した代表中心点に基づいた線分近似フィッティングによって、前記移動スパッタ領域の幅中心を通る中心線を算出し、前記中心線を算出した移動スパッタ領域を含んだスパッタ範囲を記憶し、かつ前記記憶したスパッタ範囲を前記画像データから除去することを含む。 In the image processing method according to an aspect of the present invention, the step of removing the sputtering area including the moving sputtering area calculates a plurality of representative center points in the moving sputtering area, and based on the calculated representative center points. A center line passing through the center of the width of the moving sputter region is calculated by approximate fitting of the line segment, the sputter range including the moving sputter region where the center line is calculated is stored, and the stored sputter range is stored as the image data. Removing from.
本発明の一態様に係る画像処理方法では、前記代表中心点の算出は、前記画像上に楕円形状のカット用楕円領域を形成し、前記カット用楕円領域を、その長径方向を前記移動スパッタ領域の長手方向に対して直交するように方向転換し、前記カット用楕円領域の図心と前記移動スパッタ領域の図心とを一致させ、前記カット用楕円領域を表す二値化データを、前記移動スパッタ領域を表す二値化データに対して反対になるように変換し、前記移動スパッタ領域を分離するように、前記変換したカット用楕円領域の二値化データと前記移動スパッタ領域の二値化データとの間でAND演算処理を実施し、前記AND演算処理により分離された移動スパッタ領域のそれぞれの図心を算出し、かつ前記分離前の移動スパッタ領域の図心、及び前記分離された移動スパッタ領域のそれぞれの図心を代表中心点として定義することを含む。 In the image processing method according to the aspect of the present invention, the calculation of the representative center point is performed by forming an elliptical cutting ellipse area on the image, the major axis direction of the cutting ellipse area being the moving sputter area. The direction is changed so as to be orthogonal to the longitudinal direction, the centroid of the cutting ellipse region and the centroid of the moving sputter region are matched, and the binarized data representing the cutting ellipse region is moved to The binarization data representing the sputter region is converted so as to be opposite, and the converted binarization data of the cut elliptical region and the binarization of the moving sputter region are separated so as to separate the moving sputter region. AND operation processing is performed on the data, the centroids of the moving sputter regions separated by the AND operation processing are calculated, and the centroids of the moving sputter regions before the separation Each centroid moving sputtering region that is includes defining as representative central point.
本発明の一態様に係る画像処理方法は、前記スパッタ領域候補が前記移動スパッタ領域ではないと判定された場合、前記スパッタ領域候補が静止スパッタに相当する静止スパッタ領域であるか否かを判定するステップと、前記スパッタ領域候補が前記静止スパッタ領域であると判定された場合、前記静止スパッタ領域を含んだスパッタ範囲を記憶し、かつ前記記憶したスパッタ範囲を除去するステップとをさらに含む。 In the image processing method according to one aspect of the present invention, when it is determined that the sputter region candidate is not the moving sputter region, it is determined whether or not the sputter region candidate is a static sputter region corresponding to a static sputter. And a step of storing a sputter range including the static sputter region and removing the stored sputter range when it is determined that the sputter region candidate is the static sputter region.
本発明の一態様に係る画像処理方法では、前記スパッタ領域候補が前記静止スパッタ領域であるか否かの判定にて、前記スパッタ領域候補と前記ビードに相当するビード領域との間の最短距離が所定の長さ以上である場合に、前記スパッタ領域候補が前記静止スパッタ領域であると判定する。 In the image processing method according to an aspect of the present invention, in determining whether the sputter region candidate is the stationary sputter region, a shortest distance between the sputter region candidate and a bead region corresponding to the bead is determined. When the length is equal to or longer than a predetermined length, it is determined that the sputter region candidate is the stationary sputter region.
本発明の一態様に係る画像処理方法では、前記スパッタ領域候補が前記静止スパッタ領域であるか否かの判定にて、前記スパッタ領域候補が等方的形状である場合に、前記スパッタ領域候補が前記静止スパッタ領域であると判定する。 In the image processing method according to an aspect of the present invention, when the sputter region candidate has an isotropic shape in the determination as to whether or not the sputter region candidate is the stationary sputter region, It is determined that the region is the static sputtering region.
本発明の一態様に係る画像処理システムは、上述した画像処理方法を用いる。 An image processing system according to one embodiment of the present invention uses the above-described image processing method.
本発明によれば、以下の効果を得ることができる。本発明の一態様に係る画像処理方法は、溶接中の溶接領域を連続的に撮影かつ取り込んだ複数の画像データに基づいて、前記溶接領域に形成されるビードの形状を認識する画像処理方法であって、前記取り込んだ複数の画像データのそれぞれを、移動スパッタ又は静止スパッタに相当する明領域の候補であるスパッタ領域候補を浮かび上がらせるように二値化するステップと、前記二値化された複数の画像データ間で変化するスパッタ領域候補を含んだスパッタ範囲を抽出するように、前記二値化された画像データを該画像データの前に又は次に取り込んだ画像データに対してXOR演算処理するステップと、前記スパッタ領域候補が、細長形状の移動スパッタに相当する移動スパッタ領域であるか否かを判定するステップと、前記スパッタ領域候補が前記移動スパッタ領域であると判定された場合、前記移動スパッタ領域を含んだスパッタ範囲を除去するステップとを含む。また、本発明の一態様に係る画像処理方法では、前記移動スパッタ領域を含んだスパッタ範囲を除去するステップは、前記移動スパッタ領域内の複数の代表中心点を算出し、前記算出した代表中心点に基づいた線分近似フィッティングによって、前記移動スパッタ領域の幅中心を通る中心線を算出し、前記中心線を算出した移動スパッタ領域を含んだスパッタ範囲を記憶し、かつ前記記憶したスパッタ範囲を前記画像データから除去することを含む。そのため、画像上の移動スパッタ領域が除去されて、移動スパッタの影響を受けずにビードの形状を正確に認識することができる。特に、移動スパッタがビードと重なった場合、移動スパッタがビードに重なるタイミング前後の画像を用いることによって、ビードの形状を正確に認識することができる。また、移動スパッタ領域が画像データから除去されて、ビードの形状認識に必要とされる画像データのみが画像処理されることになるので、画像処理の計算負荷を低減することができる。 According to the present invention, the following effects can be obtained. An image processing method according to an aspect of the present invention is an image processing method for recognizing the shape of a bead formed in a welding region based on a plurality of image data obtained by continuously capturing and capturing a welding region during welding. Each of the plurality of captured image data is binarized so that a sputter region candidate that is a bright region candidate corresponding to moving sputter or stationary sputter emerges, and the binarized plural The binarized image data is subjected to an XOR operation on the image data captured before or next to the image data so as to extract a sputter range including a sputter region candidate that changes between the image data. Determining whether or not the sputter region candidate is a moving sputter region corresponding to a slender moving sputter; and If the frequency candidate is determined to the a mobile sputter area, and removing the sputtered range including the moving sputtering zone. Further, in the image processing method according to one aspect of the present invention, the step of removing the sputtering range including the moving sputter region calculates a plurality of representative center points in the moving sputter region, and the calculated representative center points The center line passing through the width center of the moving sputter region is calculated by line segment approximation fitting based on the above, the sputter range including the moving sputter region where the center line is calculated is stored, and the stored sputter range is Including removal from the image data. Therefore, the moving sputter region on the image is removed, and the bead shape can be accurately recognized without being affected by the moving spatter. In particular, when the moving sputter overlaps with the bead, the shape of the bead can be accurately recognized by using images before and after the timing when the moving sputter overlaps with the bead. Further, since the moving sputter region is removed from the image data and only the image data required for bead shape recognition is subjected to image processing, the calculation load of image processing can be reduced.
本発明の一態様に係る画像処理方法では、前記代表中心点の算出は、前記画像上に楕円形状のカット用楕円領域を形成し、前記カット用楕円領域を、その長径方向を前記移動スパッタ領域の長手方向に対して直交するように方向転換し、前記カット用楕円領域の図心と前記移動スパッタ領域の図心とを一致させ、前記カット用楕円領域を表す二値化データを、前記移動スパッタ領域を表す二値化データに対して反対になるように変換し、前記移動スパッタ領域を分離するように、前記変換したカット用楕円領域の二値化データと前記移動スパッタ領域の二値化データとの間でAND演算処理を実施し、前記AND演算処理により分離された移動スパッタ領域のそれぞれの図心を算出し、かつ前記分離前の移動スパッタ領域の図心、及び前記分離された移動スパッタ領域のそれぞれの図心を代表中心点として定義することを含む。そのため、線分近似フィッティングに用いられる移動スパッタ領域の代表中心点が簡単に算出されて、画像処理の計算負荷を低減することができる。 In the image processing method according to the aspect of the present invention, the calculation of the representative center point is performed by forming an elliptical cutting ellipse area on the image, the major axis direction of the cutting ellipse area being the moving sputter area. The direction is changed so as to be orthogonal to the longitudinal direction, the centroid of the cutting ellipse region and the centroid of the moving sputter region are matched, and the binarized data representing the cutting ellipse region is moved to The binarization data representing the sputter region is converted so as to be opposite, and the converted binarization data of the cut elliptical region and the binarization of the moving sputter region are separated so as to separate the moving sputter region. AND operation processing is performed on the data, the centroids of the moving sputter regions separated by the AND operation processing are calculated, and the centroids of the moving sputter regions before the separation Each centroid moving sputtering region that is includes defining as representative central point. Therefore, the representative center point of the moving sputter region used for line segment approximation fitting can be easily calculated, and the calculation load of image processing can be reduced.
本発明の一態様に係る画像処理方法は、前記スパッタ領域候補が前記移動スパッタ領域ではないと判定された場合、前記スパッタ領域候補が静止スパッタに相当する静止スパッタ領域であるか否かを判定するステップと、前記スパッタ領域候補が前記静止スパッタ領域であると判定された場合、前記静止スパッタ領域を含んだスパッタ範囲を記憶し、かつ前記記憶したスパッタ範囲を除去するステップとをさらに含む。そのため、画像上の静止スパッタ領域が除去されて、静止スパッタの影響を受けずにビードの形状を正確に認識することができる。また、静止スパッタ領域が画像データから除去されて、ビードの形状認識に必要とされる画像データのみが画像処理されることになるので、画像処理の計算負荷を低減することができる。 In the image processing method according to one aspect of the present invention, when it is determined that the sputter region candidate is not the moving sputter region, it is determined whether or not the sputter region candidate is a static sputter region corresponding to a static sputter. And a step of storing a sputter range including the static sputter region and removing the stored sputter range when it is determined that the sputter region candidate is the static sputter region. Therefore, the static sputter region on the image is removed, and the bead shape can be accurately recognized without being affected by the static sputter. In addition, since the static sputter region is removed from the image data and only the image data required for bead shape recognition is subjected to image processing, the calculation load of image processing can be reduced.
本発明の一態様に係る画像処理方法では、前記スパッタ領域候補が前記静止スパッタ領域であるか否かの判定にて、前記スパッタ領域候補と前記ビードに相当するビード領域との間の最短距離が所定の長さ以上である場合に、前記スパッタ領域候補が前記静止スパッタ領域であると判定する。また、本発明の一態様に係る画像処理方法では、前記スパッタ領域候補が前記静止スパッタ領域であるか否かの判定にて、前記スパッタ領域候補が等方的形状である場合に、前記スパッタ領域候補が前記静止スパッタ領域であると判定する。
そのため、静止スパッタ領域が正確に判別されて、静止スパッタ領域を確実に除去できる。よって、ビードの形状を正確に認識することができる。
In the image processing method according to an aspect of the present invention, in determining whether the sputter region candidate is the stationary sputter region, a shortest distance between the sputter region candidate and a bead region corresponding to the bead is determined. When the length is equal to or longer than a predetermined length, it is determined that the sputter region candidate is the stationary sputter region. In the image processing method according to one aspect of the present invention, when the sputter region candidate has an isotropic shape in the determination as to whether or not the sputter region candidate is the stationary sputter region, It is determined that the candidate is the stationary sputtering region.
Therefore, the stationary sputter region can be accurately determined, and the stationary sputter region can be reliably removed. Therefore, the bead shape can be accurately recognized.
本発明の一態様に係る画像処理システムは、上述した画像処理方法を用いる。そのため、上述のようにビードの形状を正確に認識でき、かつ画像処理の計算負荷を低減できる。 An image processing system according to one embodiment of the present invention uses the above-described image processing method. Therefore, the bead shape can be accurately recognized as described above, and the calculation load of image processing can be reduced.
[第1実施形態]
本発明の第1実施形態に係る画像処理システム及び画像処理方法について説明する。
[First Embodiment]
An image processing system and an image processing method according to the first embodiment of the present invention will be described.
最初に、図1を参照して、画像処理を実施する対象である溶接部材Mの溶接領域Jに形成されるビードmについて説明する。略円弧状に形成されたビードmは、レーザ溶接の開始地点に形成される接合始端部分(以下、「始端部分」という)m1と、レーザ溶接の溶接終了地点に形成される接合終端部分(以下、「終端部分」という)m2と、始端部分m1及び終端部分m2間に形成される接合中間部分(以下、「中間部分」という)m3とを有している。本実施形態では、一例として、ビードmは略円弧状に形成されているが、直線状、L字状、波状等のようなその他の形状であってもよい。 Initially, with reference to FIG. 1, the bead m formed in the welding area J of the welding member M which is the object which performs image processing is demonstrated. The bead m formed in a substantially arc shape includes a joining start end portion (hereinafter referred to as “start end portion”) m1 formed at a laser welding start point and a joining end portion (hereinafter referred to as “laser welding end point”). , M2 and a joining intermediate portion (hereinafter referred to as “intermediate portion”) m3 formed between the start end portion m1 and the end portion m2. In the present embodiment, as an example, the bead m is formed in a substantially arc shape, but may have other shapes such as a linear shape, an L shape, a wave shape, and the like.
図2を参照すると、画像処理システム1は画像取り込み装置2を有しており、この画像取り込み装置2は、溶接用のレーザ光L1を溶接部材Mの溶接領域Jに照射可能とし、レーザ溶接時の残熱発光が生じている溶接領域Jを撮影し、かつ撮影した溶接領域Jの画像を取り込むように構成されている。また、画像処理システム1は、画像取り込み装置2に接続される画像処理装置3を有している。画像処理装置3は画像処理部4を有しており、画像処理部4は、画像取り込み装置2により取り込んだ溶接領域Jの画像に基づいてビードmの形状を認識するようになっている。画像処理装置3はビード形状判定部5を有しており、ビード形状判定部5は、画像処理部4により認識されたビードmの形状に基づいて、ビードmに発生する欠陥を判定するようになっている。
Referring to FIG. 2, the
ここで、図2及び図3を参照して、画像取り込み装置2の詳細を説明する。図2を参照すると、画像取り込み装置2はレーザ照射部6を有しており、このレーザ照射部6は、溶接部材Mの溶接領域Jに溶接用のレーザ光L1を照射可能とするように構成されている。画像取り込み装置2はモニタ部7を有しており、このモニタ部7はレーザを照射した溶接領域Jの画像を連続的に撮影するように構成されている。画像取り込み装置2は記憶部8を有しており、この記憶部8はモニタ部7により撮影した画像を連続的に記憶するように構成されている。画像取り込み装置2は画像取り込み部9を有しており、この画像取り込み部9は、記憶部8に記憶された画像を取り込むように構成されている。
Here, the details of the
図3を参照すると、レーザ照射部6はレーザ発振器6aを有しており、レーザ発振器6aはレーザ光L1を発射可能とするように構成されている。レーザ照射部6は略平板状のハーフミラー6bを有しており、ハーフミラー6bは、レーザ発振器6aから発射されたレーザ光L1の光路上に配置されている。このハーフミラー6bの表面6b1及び裏面6b2は、レーザ発振器6aから発射されるレーザ光L1の光路に対して、所定の角度θ1傾斜している。一例として、所定の角度θ1は45度であると好ましい。レーザ照射部6は溶接用集光レンズ6cを有しており、溶接用集光レンズ6cは、ハーフミラー6bを通過したレーザ光L1の光路上に配置され、かつこのレーザ光L1を溶接部材M上に集光するように構成されている。このようなレーザ照射部6においては、レーザ発振器6aから発射されたレーザ光L1が、ハーフミラー6bを通過し、かつ溶接用集光レンズ6cによって集光された後に、溶接部材Mに照射されることとなる。また、溶接部材Mに照射されたレーザ光L1の一部は反射して、この反射した光(以下、「モニタリング光」という)L2が、溶接用集光レンズ6cを通過し、かつハーフミラー6bによって角度を変えられた後に、モニタ部7に送られることとなる。
Referring to FIG. 3, the
モニタ部7は略平板状のミラー7aを有しており、ミラー7aは、レーザ照射部6のハーフミラー6cによって角度を変えられたモニタリング光L2の光路上に配置され、ミラー7aの反射面7a1は、このモニタリング光L2の光路に対して、所定の角度θ2傾斜している。モニタ部7は倍率調整レンズ7bを有しており、倍率調整レンズ7bは、撮影倍率を調整するように構成されている。この倍率調整レンズ7bは、ミラー7aにより反射されたモニタリング光L2の光路上に配置されている。モニタ部7は、後述するシリコン系の半導体から作製された撮像素子(以下、「Si系撮像素子」という)7fに対応するロングパスフィルタ(以下、「Si用ロングパスフィルタ」という)7cを有しており、Si用ロングパスフィルタ7cは、800nm以上の波長範囲で光を透過するように構成されている。このSi用ロングパスフィルタ7cは、倍率調整レンズ7bを通過したモニタリング光L2の光路上に配置されている。モニタ部7はNDフィルタ7dを有しており、NDフィルタ7dは、それを通過する光の量を減少するように構成されている。このNDフィルタ7dは、Si用ロングパスフィルタ7cを通過したモニタリング光L2の光路上に配置されている。モニタ部7は撮像用集光レンズ7eを有しており、撮像用集光レンズ7eは、NDフィルタ7dを通過したモニタリング光L2の光路上に配置され、かつこのモニタリング光L2を、後述するSi系撮像素子7fの撮像面上に集光するように構成されている。モニタ部7はSi系撮像素子7fを有しており、Si系撮像素子7fは、モニタリング光L2をアナログ電気信号に変換するように構成されている。また、Si系撮像素子7fは、200nm〜1100nmの波長範囲において光に対する感度を有している。モニタ部7はアンプ7gを有しており、アンプ7gは、Si系撮像素子7fから送られるアナログ電気信号を増幅するように構成されている。モニタ部7はA/D変換器7hを有しており、A/D変換器7hはアンプ7gにより増幅されたアナログ電気信号をデジタル電気信号に変換するように構成されている。このA/D変換器7hにより変換されたデジタル電気信号が記憶部8に送られることとなる。なお、モニタ部7のフレームレートは、50Hz以上かつ1000Hz以下になっている。
The
Si系撮像素子7fの撮像面の条件について説明する。Si系撮像素子7fの撮像面がビードm全体を配置した領域に対して著しく大きい場合、画像上で表示されるビードmが少ないピクセル数によって表されるので、ビードmの形状を正確に認識できなくなる。そのため、Si系撮像素子7fの撮像面が略正方形状に形成されていると想定した場合、撮像面の一辺の長さをdとし、溶接用集光レンズ6cの焦点距離をf1とし、撮像用集光レンズ7eの焦点距離をf2とし、倍率調整レンズ7bの倍率をsとし、ビードm全体を配置した領域の最大長さをlとすると、Si系撮像素子7fの撮像面の一辺の長さは、次の式(1)の条件を満たすと好ましい。
The conditions of the imaging surface of the Si-based
Si用ロングパスフィルタ7cを透過する光の波長範囲について説明する。レーザ溶接中に発生するプラズマ光は、原子の軌道電子により発生する遷移発光の成分を多く含んでおり、この遷移発光の波長範囲は、典型的には、可視域に相当する200nm〜780nmの範囲になっている。一方で、黒体放射の輻射強度と波長との関係は、黒体放射の式を用いて絶対温度を1200K、1000K、及び800Kとして計算した場合、図4に示したグラフのようになっている。図4のグラフでは、絶対温度を1200Kとした場合の計算結果を実線A1で示し、絶対温度を1000Kとした場合の計算結果を破線A2で示し、かつ絶対温度を800Kとした場合の計算結果を一点鎖線A3で示している。図4のグラフを参照すると、黒体放射の輻射強度は、波長が長くなるに連れて高くなっている。また、黒体放射の輻射強度は、温度が高くなるに連れて高くなっている。そのため、高い温度を有する残熱発光に含まれる黒体放射の輻射強度が高くなることが確認できる。
The wavelength range of light passing through the Si
また、Si系撮像素子7fの相対感度と、Si系撮像素子7fに入力される光の波長との関係は、典型的には、図5に示すようになっている。図5に示すように、Si系撮像素子7fの感度は、600nm以上の波長範囲で低下しており、Si系撮像素子7fは、800nm〜1100nmの波長範囲において、低い強度の光を感知し難く、かつ高い強度の光を感知する傾向にある。
Further, the relationship between the relative sensitivity of the
そこで、プラズマ光に多く含まれる遷移発光の波長範囲の上限値780nmと、波長のバラツキとを考慮して、Si用ロングパスフィルタ7cを透過する光の波長範囲は、800nm以上に定められている。そのため、Si系撮像素子7fには、800nm以上の波長範囲で光が送られて、Si系撮像素子7fは、入力される光を800nm〜1100nmの波長範囲で感知することとなる。このような波長範囲では、Si系撮像素子7fは、低い輻射強度を有する遷移発光の成分を含んだプラズマ光を感知し難い一方で、高い輻射強度を有する黒体放射による発光の成分を多く含む残熱発光を感知し易くなっている。なお、Si用ロングパスフィルタ7cは、800nmより小さな波長の光を遮断するように構成されていると好ましい。しかしながら、Si系撮像素子7fは、800nm〜1100nmの波長範囲で光を感知できればよいので、例えば、Si用ロングパスフィルタ7cが、800nm、900nm、又は1000nmより小さな波長の光を遮断するように構成されていてもよい。
Therefore, in consideration of the upper limit 780 nm of the wavelength range of transition emission included in the plasma light and the variation in wavelength, the wavelength range of the light transmitted through the Si
また、モニタ部7のフレームレートの範囲について説明する。溶接開始付近では発生するプラズマが大きな領域を占めているので、溶接を既に終えているビードmを観察できないことが多い。そのため、溶接開始から一定時間経過後に、記憶部8に画像を蓄積することが有効である。また、ビードm全体を画像処理の対象とするためには、連続して取得した複数の画像の一部を用いればよいので、このような複数の画像の一部を取得すればよい。また、画像処理に用いる画像は、完全に連続している必要はない。ビードmの終端部分m2においては、高速で複数の画像を撮影しない場合に、金属が冷えるので、画像の撮影は高サンプリングにする必要がある。その一方で、溶接開始から溶接終了までの間の途中観察において、高サンプリングで画像の撮影をした場合、ほとんど変化がない複数の画像が取得されることとなる。このような複数の画像において同様の特性を計算することは無駄になるので、モニタ部7のフレームレートは、計算処理時間の短縮、記憶部8の容量の節約等を考慮して定めることが好ましい。そこで、フレームレートの上限値が高くなるに連れて、撮影される画像の数量が増加することによって、ビードmの形状を認識する精度が高くなる一方で、1秒間に撮影される画像の数量が1000フレームより大きい場合(すなわち、フレームレートが1000Hzより大きい場合)、画像処理の計算負荷が増加することとなることを考慮して、フレームレートの上限値は1000Hzに定められている。
The range of the frame rate of the
その一方で、フレームレートの下限値が低い場合、1つの画像を撮影するタイミングから次の画像を撮影するタイミングまでの間に、撮影しようとするビードmの溶接領域Jが移動して、モニタ部7により捕らえられた撮影範囲から外れるおそれがある。この場合、ビードmを正確に撮影することができなくなる。そこで、フレームレートの下限値は、次のような条件を満たす必要がある。 On the other hand, when the lower limit value of the frame rate is low, the welding region J of the bead m to be photographed moves from the timing of photographing one image to the timing of photographing the next image, and the monitor unit There is a risk of deviating from the shooting range captured by 7. In this case, the bead m cannot be accurately photographed. Therefore, the lower limit value of the frame rate needs to satisfy the following conditions.
フレームレートをfとし、溶接に用いられるレーザ光L1の移動速度をVmとし、かつ撮影範囲の中心から撮影範囲内と撮影範囲外との間の境界までの最短距離をRmとした場合、フレームレートは、次の式(2)の条件を満たすと好ましい。 When the frame rate is f, the moving speed of the laser beam L1 used for welding is Vm, and the shortest distance from the center of the shooting range to the boundary between the shooting range and the shooting range is Rm, the frame rate Preferably satisfies the condition of the following expression (2).
典型的な条件において、Vmは0.133m/sec(8m/min)になり、かつRmは0.002m(2mm)になるので、式(2)よりfを約67Hzより大きくする必要がある。さらに、レーザ光L1の移動速度のバラツキを考慮して、フレームレートの下限値は50Hzに定められている。 Under typical conditions, Vm is 0.133 m / sec (8 m / min) and Rm is 0.002 m (2 mm). Therefore, it is necessary to make f larger than about 67 Hz from the equation (2). Furthermore, the lower limit value of the frame rate is set to 50 Hz in consideration of variations in the moving speed of the laser light L1.
図6を参照すると、画像取り込み部9は、溶接終了直後から所定の時間内に生じる残熱発光の画像を取り込むように構成されている。具体的には、画像取り込み部9は、画像の平均輝度Gが所定の取り込み開始輝度閾値g1以上である場合に、画像の取り込みを開始し、画像の平均輝度Gが所定の取り込み終了輝度閾値g2以下である場合に、残熱発光が終了したと認識して、画像の取り込みを終了するように構成されている。
Referring to FIG. 6, the
ここで、画像取り込み装置2の好ましい形態の一例を説明する。残熱発光は、溶接終了直後から数十ms(ミリ秒)間生じた後に減衰するので、溶接終了直後から約20ms間に生じる光であると好ましい。この場合、モニタ部7には、フレームレート約500Hz(周期2ms)の高速度カメラが用いられるとよく、約10枚(=20ms÷2ms)の画像が取り込まれることとなる。また、モニタ部7には、高ダイナミックレンジカメラが用いられると好ましく、信号検出のダイナミックレンジが広く、かつ計測可能な輝度の範囲が広くなっているので、溶接中及び溶接直後の画像を撮影できる。画像取り込み部9では、画像の取り込みを開始する開始輝度閾値g1が、溶接中及び溶接直後の平均輝度Gの中間値となっていると好ましい。画像の取り込みを終了する終了輝度閾値g2は、開始輝度閾値g1より小さく、かつ残熱発光を確認できない程に暗くなった状態の画像の平均輝度Gより大きくなっていると好ましい。
Here, an example of a preferable form of the
次に、図7及び図8を参照して、画像処理装置3の画像処理部4の詳細を説明する。図7を参照すると、画像処理部4はビード認識手段10を有しており、このビード認識手段10は、画像取り込み装置2によって取り込んだ画像に基づいて、ビード領域候補を認識するようになっている。ビード領域候補は、所定の輪郭輝度閾値hより残熱発光の輝度Hが大きい明領域となっており、輪郭輝度閾値hは、ビードmの輪郭線を識別可能とするように設定されている。なお、ビード領域Eは、図8に示すように、複数のビード領域点eから構成されている。また、ビード領域Eは、ビードmの始端部分m1に対応する始端部分E1、ビードmの終端部分m2に対応する中間部分E2、及びビードmの中間部分m3に対応する終端部分E3を有している。一例として、ビード領域点eは、画像上で1つ以上のピクセルにより表され、複数のビード領域点eは、互いに隣接して配置されるか、又はピクセル単位の間隔で配置されているとよい。
Next, details of the
画像処理部4はビード判別手段11を有しており、このビード判別手段11は、複数のビード領域候補が認識された場合に、複数のビード領域候補から実際のビードに対応するビード領域Eを選択するようになっている。また、ビード判別手段11は、各ビード領域候補のアスペクト比(縦横比)を計算し、このアスペクト比に基づいて、複数のビード領域候補から実際のビードmに対応するビード領域Eを選択するようになっていると好ましい。例えば、アスペクト比が一般的なビードmの横長形状に対応する値より大きくなっている場合に、このようなビード領域候補が実際のビードmに相当すると認識する設定であるとよい。実際のビードmと、溶接時に飛散するスパッタとにそれぞれ対応するビード領域候補が認識された場合、スパッタに対応するビード領域候補は、等方的な形状に形成されるのに対して、ビードmは横長形状に形成されることとなる。そのため、実際のビードmに対応するビード領域Eが正確に判別されることとなる。さらに、スパッタに対応するビード領域候補が、等方的な形状に形成されていない場合を考慮して、ビード判別手段11は、複数のビード領域候補が時間を前後して取り込んだ画像において移動しているか、又は停止しているかを判定し、かつ停止しているビード領域候補が実際のビードmに対応するビード領域Eであると認識するようになっているとよい。
The
ここで、図9(a)〜図9(d)、及び図10(a)〜10(d)を参照して、移動スパッタ及び静止スパッタを表示した画像について説明する。図9(a)〜図9(d)を参照すると、画像上には、移動スパッタに相当する細長形状の移動スパッタ領域N1と、ビードmに相当するビード領域Eとが表示されている。移動スパッタ領域N1は、図9(a)〜図9(d)に示されるように、画像の周縁領域から画像の中央領域に向かって移動している。図9(d)では、移動スパッタ領域N1はビード領域Eと重なっている。図10(a)〜図10(d)を参照すると、画像上には、静止スパッタに相当する略円形状の静止スパッタ領域N2と、ビードmに相当するビード領域Eとが表示されている。静止スパッタ領域N2は、図10(a)に示されるように、初期状態で細長形状になっている。しかしながら、静止スパッタ領域N2は、図10(b)及び図10(c)に示されるように、その一端を基準として短くなるように変化する。その後、静止スパッタ領域N2は、図10(d)に示されるように略円形状に変化する。 Here, with reference to FIGS. 9A to 9D and FIGS. 10A to 10D, images displaying moving sputtering and stationary sputtering will be described. Referring to FIGS. 9A to 9D, an elongated moving sputter region N1 corresponding to moving spatter and a bead region E corresponding to bead m are displayed on the image. As shown in FIGS. 9A to 9D, the moving sputter region N1 moves from the peripheral region of the image toward the central region of the image. In FIG. 9D, the moving sputter region N1 overlaps the bead region E. Referring to FIGS. 10A to 10D, a substantially circular stationary sputter region N2 corresponding to stationary sputter and a bead region E corresponding to bead m are displayed on the image. As shown in FIG. 10A, the stationary sputter region N2 has an elongated shape in the initial state. However, as shown in FIGS. 10B and 10C, the static sputtering region N2 changes so as to be shorter with respect to one end thereof. Thereafter, the static sputtering region N2 changes to a substantially circular shape as shown in FIG.
さらに、画像処理部4は、ビード領域候補からビード領域Eを判別した後に、移動スパッタ領域N1及び静止スパッタ領域N2を除去するために、次のように構成されている。図7を参照すると、画像処理部4は二値化手段12を有しており、二値化手段12は取り込んだ複数の画像のデータのそれぞれを、所定の二値化閾値にて二値化するようになっている。なお、二値化閾値は、スパッタ領域候補を画像上で浮かび上がらせるように設定されているとよく、特に、この二値化閾値は、予めスパッタ領域を明確に浮かび上がらせることができる値を実際に確認し、この確認結果に基づいて定められているとよい。なお、スパッタ領域候補は、上述のように残熱発光の輝度Hが輪郭輝度閾値hより大きい明領域であるとよい。画像処理部4はXOR演算手段13を有しており、XOR演算手段13は、二値化された複数の画像データ間で変化するスパッタ領域候補を含んだスパッタ範囲を抽出可能とするように、二値化された画像データを当該画像データの前に又は次に取り込んだ画像データに対してXOR演算処理するようになっている。画像処理部4はノイズ処理手段14を有しており、ノイズ処理手段14は、XOR演算処理された複数の画像データに含まれるノイズを除去するようになっている。画像処理部4は移動スパッタ判定手段15を有しており、移動スパッタ判定手段15は、スパッタ領域候補が細長形状の移動スパッタに相当する移動スパッタ領域N1であるか否かを判定するようになっている。画像処理部4は代表中心点算出要素16を有しており、代表中心点算出要素16は、図11(f)に示すように、スパッタ領域候補が移動スパッタ領域N1であると判定された場合に、移動スパッタ領域N1の代表中心点r1を算出するようになっている。
Further, the
再び図7を参照すると、画像処理部4は中心線形成手段17を有しており、中心線形成手段17は、図11(f)に示すように、複数の代表中心点r1に基づいた線分近似フィッティングによって、移動スパッタ領域N1の幅中心を通る中心線R1を算出するようになっている。一例として、線分近似フィッティングには一次関数が用いられるとよい。この一次関数は、複数の代表中心点r1がXY座標上に位置する場合、次のような式に基づいて定義されるとよい。複数の代表中心点r1におけるX座標の最大値をXmaxとし、複数の代表中心点r1におけるX座標の最小値をXminとした場合、X座標の変化量はDX=Xmax−Xminとなる。複数の代表中心点r1におけるY座標の最大値をYmaxとし、複数の代表中心点r1におけるY座標の最小値をYminとした場合、Y座標の変化量をDY=Ymax−Yminとなる。DXがDY以上の場合、一次関数は、Y=aX+b(a,bは係数)によって定義される一方で、DXがDYより小さい場合、一次関数は、X=aY+b(a,bは係数)によって定義される。
Referring to FIG. 7 again, the
図7を参照すると、画像処理部4は移動スパッタ記憶手段18を有しており、移動スパッタ記憶手段18は中心線R1を算出した移動スパッタ領域を含んだスパッタ範囲を記憶するようになっている。一例として、記憶される中心線R1は、aX+bY+c=0(a,b,cは係数)によって定義される一次関数として記憶されるとよい。画像処理部4は移動スパッタ除去手段19を有しており、移動スパッタ除去手段19は記憶したスパッタ範囲を画像データから除去するようになっている。画像処理部4は静止スパッタ判定要素20を有しており、静止スパッタ判定要素20は、移動スパッタ判定手段15によってスパッタ領域候補が移動スパッタ領域N1でないと判定された場合に、スパッタ領域候補が静止スパッタに相当する静止スパッタ領域N2であるか否かを判定するようになっている。画像処理部4は代表中心点算出手段21を有しており、代表中心点算出手段21は、図12に示すように、静止スパッタ領域N2の図心を代表中心点r2として算出するようになっている。再び図7を参照すると、画像処理部4は静止スパッタ記憶手段22を有しており、静止スパッタ記憶手段22は、スパッタ領域候補が静止スパッタ領域N2であると判定された場合、静止スパッタ領域N2を含んだスパッタ範囲を記憶するようになっている。画像処理部4は静止スパッタ除去手段23を有しており、静止スパッタ除去手段23は、記憶したスパッタ範囲を除去するようになっている。
Referring to FIG. 7, the
図7及び図11(a)〜図11(f)を参照して、代表中心点算出要素16の詳細を説明する。図7を参照すると、代表中心点算出要素16は楕円形成手段24を有しており、楕円形成手段24は、図11(a)に示すように、画像上に楕円形状の明領域であるカット用楕円領域Zを形成するようになっている。図7を参照すると、代表中心点算出要素16は方向転換手段25を有しており、方向転換手段25は、図11(b)に示すように、カット用楕円領域Zを、その長径方向を移動スパッタ領域の長手方向に対して直交するように方向転換するようになっている。図7を参照すると、代表中心点算出要素16は楕円移動手段26を有しており、楕円移動手段26は、図11(c)に示すように、カット用楕円領域Zの図心Czと移動スパッタ領域N1の図心Cn1とを一致させるようになっている。図7を参照すると、代表中心点算出要素16は二値化データ逆転手段27を有しており、二値化逆転手段27は、カット用楕円領域Zを表す二値化データを、移動スパッタ領域N1を表す二値化データに対して反対に変換するようになっている。図7を参照すると、代表中心点算出要素16はAND演算手段28を有しており、AND演算手段28は、図11(d)に示すように、移動スパッタ領域N1を分離するように、カット用楕円領域Zの二値化データと移動スパッタ領域N1の二値化データとの間でAND演算処理を実施するようになっている。図7を参照すると、代表中心点算出要素16は代表中心点定義手段29を有しており、代表中心点定義手段29は、図11(e)に示すように、分離前の移動スパッタ領域N1の図心Cn1、及び分離された移動スパッタ領域N1’のそれぞれの図心Cn1’を代表中心点r1として算出するようになっている。図11(f)に示すように、このように算出された代表中心点r1に基づいて、中心線R1が形成されることとなる。
Details of the representative center
図7及び図12を参照して、静止スパッタ判定要素19の詳細を説明する。図7を参照すると、静止スパッタ判定要素19は距離判定手段29を有しており、距離判定手段29は、図12に示すように、ビード領域Eの周縁とスパッタ領域候補の周縁との間における最短距離dが所定の長さ以上である場合に、スパッタ領域候補が静止スパッタ領域N2であると判定するようになっている。一例として、このような所定の長さの下限値は、ビードmの一部であるか否かが明確になる条件として、予め定められたビードmの幅、又は算出されたビード領域Eの幅であるとよい。また、一例として、所定の長さの上限値は、ビード領域Eから取り込まれた画像の周縁までの最大長さであるとよい。図7を参照すると、静止スパッタ判定要素20は形状判定手段31を有しており、形状判定手段31は、スパッタ領域候補が等方的な形状である場合に、スパッタ領域候補が静止スパッタ領域N2であると判定するようになっている。スパッタ領域候補が等方的な形状であるか否かの判断基準の一例として、スパッタ領域候補のアスペクト比が、1/2以上かつ2以下に設定されているとよい。
Details of the stationary
ここで、本実施形態の画像処理システム1を用いて溶接領域Jに形成されるビードmの形状を認識する方法を説明する。最初に、画像取り込み装置2における画像取り込み方法について説明する。画像取り込み装置2のレーザ照射部6において、レーザ発振器6aがレーザ光L1を発射する。レーザ発振器6aから発射されたレーザ光L1は、ハーフミラー6bを通過し、かつ溶接用集光ミラー6cによって集光された後に、溶接部材Mの溶接領域Jに照射される。その後、溶接部材Mの溶接領域Jに照射されたレーザ光L1によりビードmを形成した部分から残熱発光が出射してモニタリング光L2となる。このモニタリング光L2が、溶接用集光レンズ6cを通過し、かつハーフミラー6bによって角度を変えられた後に、モニタ部7に送られる。
Here, a method for recognizing the shape of the bead m formed in the welding region J using the
画像取り込み装置2のモニタ部7において、レーザ照射部6から送られたモニタリング光L2は、ミラー7aによって角度を変えられた後に、倍率調整レンズ7bに送られる。モニタリング光L2が倍率調整レンズ6bを通過する際、その倍率が調整される。倍率調整レンズ7bにより倍率調整されたモニタリング光L2は、Si用ロングパスフィルタ7cに送られる。Si用ロングパスフィルタ7cにおいて、モニタリング光L2の800nmより小さな波長成分が遮断され、かつモニタリング光L2の800nmより大きな波長成分がSi用ロングパスフィルタ7cを透過する。Si用ロングパスフィルタ7cを通過したモニタリング光L2は、NDフィルタ7dに送られる。NDフィルタ7dにおいて、モニタリング光L2の光の量が、画像処理装置3の画像処理部4によってビードmの形状を明確に認識可能とするように減少する。NDフィルタ7dを通過したモニタリング光L2は、撮像用集光レンズ7eに送られる。撮像用集光レンズ7eにおいて、モニタリング光L2が集光される。撮影用集光レンズ7eにより集光されたモニタリング光L2は、Si系撮像素子7fに照射される。Si系撮像素子7fにおいて、モニタリング光L2における800nm〜1100nmの波長範囲の成分が感知され、感知されたモニタリング光L2がアナログ電気信号に変換され、このアナログ電気信号はアンプ7gに送られる。アンプ7gにおいて、アナログ電気信号は増幅され、増幅されたアナログ電気信号はA/D変換器7hに送られる。A/D変換器7hにおいて、アナログ電気信号はデジタル電気信号に変換され、このデジタル電気信号は記憶部8に送られる。記憶部8において、デジタル電気信号は1つの画像として記憶される。このようにSi系撮像素子7fにモニタリング光L2を照射し、Si系撮像素子7fによりモニタリング光L2をアナログ電気信号に変換し、A/D変換器7hによりアナログ電気信号をデジタル電気信号に変換し、かつこのデジタル電気信号を1つの画像として記憶する動作は、50Hzより大きくかつ1000Hzより小さなフレームレートに基づいて連続的に実施される。さらに、記憶部8に記憶された画像は画像取り込み部9に取り込まれる。
In the
次に、ビード領域Eの認識方法について説明する。画像取り込み装置2の画像取り込み部8に取り込んだ画像に基づいて、所定の輪郭輝度閾値hより残熱発光の輝度Hが大きくなっているビード領域候補を認識する。ここで、複数のビード領域候補が認識された場合に、複数のビード領域候補から実際のビードmに対応するビード領域Eを判別する。
Next, a method for recognizing the bead area E will be described. Based on the image captured by the
さらに、図13のフローチャートを参照して、スパッタの除去方法について説明する。取り込んだ複数の画像データのそれぞれを、所定の二値化閾値にて二値化する(S1)。二値化された複数の画像データ間で変化しているスパッタ領域候補を含んだスパッタ範囲を抽出するように、二値化された画像データを該画像データの前に又は次に取り込んだ画像データに対してXOR演算処理する(S2)。XOR演算処理を実施した画像データのノイズを除去する(S3)。スパッタ領域候補が、細長形状の移動スパッタに相当する移動スパッタ領域N1であるか否かを判定する(S4)。スパッタ領域候補が移動スパッタ領域N1であると判定された場合(YES)、移動スパッタ領域N1の代表中心点r1を算出する(S5)。算出された代表中心点r1に基づいた一次関数フィッティングによって、移動スパッタ領域N1の幅中心を通る中心線R1を形成する(S6)。中心線R1を算出した移動スパッタ領域N1を含むスパッタ範囲を記憶し(S7)、記憶されたスパッタ範囲を除去し(S8)、スパッタ除去を終了する。 Further, a sputter removal method will be described with reference to the flowchart of FIG. Each of the plurality of captured image data is binarized with a predetermined binarization threshold (S1). Image data obtained by capturing binarized image data before or next to the image data so as to extract a sputter range including a sputter region candidate changing between a plurality of binarized image data. Is subjected to XOR operation processing (S2). The noise of the image data subjected to the XOR operation processing is removed (S3). It is determined whether or not the sputter region candidate is a moving sputter region N1 corresponding to the elongated sputter (S4). If it is determined that the sputter region candidate is the moving sputter region N1 (YES), the representative center point r1 of the moving sputter region N1 is calculated (S5). A center line R1 passing through the width center of the moving sputtering region N1 is formed by linear function fitting based on the calculated representative center point r1 (S6). The sputter range including the moving sputter region N1 for which the center line R1 is calculated is stored (S7), the stored sputter range is removed (S8), and the sputter removal is terminated.
その一方で、スパッタ領域候補が移動スパッタ領域N1でないと判定された場合(NO)、スパッタ領域候補が静止スパッタに相当する静止スパッタ領域N2であるか否かを判定する(S9)。スパッタ領域候補が静止スパッタ領域N2であると判定された場合(YES)、静止スパッタ領域N2の図心を代表中心点r2として算出する(S10)。代表中心点r2を算出したスパッタ範囲を記憶し(S11)、記憶したスパッタ範囲を除去し(S12)、スパッタ除去を終了する。一方で、スパッタ領域候補が静止スパッタ領域N2でないと判定された場合(NO)、そのままスパッタ除去を終了する。 On the other hand, if it is determined that the sputter region candidate is not the moving sputter region N1 (NO), it is determined whether or not the sputter region candidate is a static sputter region N2 corresponding to static sputter (S9). If it is determined that the sputter region candidate is the static sputter region N2 (YES), the centroid of the static sputter region N2 is calculated as the representative center point r2 (S10). The sputter range in which the representative center point r2 is calculated is stored (S11), the stored sputter range is removed (S12), and the sputter removal is terminated. On the other hand, if it is determined that the sputter region candidate is not the stationary sputter region N2 (NO), the sputter removal is finished as it is.
図14のフローチャートを参照して、移動スパッタ領域N1の代表中心点r1の算出について詳細を説明する。画像上に楕円形状の明領域であるカット用楕円領域Zを形成する(S21)。カット用楕円領域Zを、その長径方向を移動スパッタ領域N1の長手方向に対して直交するように方向転換する(S22)。カット用楕円領域Zの図心Czと移動スパッタ領域N1の図心Cn1とを一致させる(S23)。カット用楕円領域Zの二値化データを逆転させる(S24)。移動スパッタ領域N1を分離するように、カット用楕円領域Zの二値化データと移動スパッタ領域N1の二値化データとの間でAND演算処理を実施する(S25)。AND演算処理により分離された移動スパッタ領域N1’のそれぞれの図心Cn1’を算出する(S26)。分離前の移動スパッタ領域N1の図心Cn1、及び分離された移動スパッタ領域N1’のそれぞれの図心Cn1’を代表中心点r1として定義する(S27)。 The calculation of the representative center point r1 of the moving sputtering area N1 will be described in detail with reference to the flowchart of FIG. An elliptical area for cutting Z, which is an elliptical bright area, is formed on the image (S21). The cutting ellipse area Z is changed in direction so that the major axis direction thereof is orthogonal to the longitudinal direction of the moving sputtering area N1 (S22). The centroid Cz of the cutting ellipse area Z and the centroid Cn1 of the moving sputtering area N1 are matched (S23). The binarized data of the cutting ellipse area Z is reversed (S24). An AND operation process is performed between the binarized data of the cutting ellipse area Z and the binarized data of the moving sputter area N1 so as to separate the moving sputter area N1 (S25). Each centroid Cn1 'of the moving sputter region N1' separated by the AND operation processing is calculated (S26). The centroid Cn1 of the moving sputter region N1 before separation and the centroid Cn1 'of each of the separated moving sputter regions N1' are defined as representative central points r1 (S27).
図15のフローチャートを参照して、静止スパッタ領域N2の判定について詳細を説明する。スパッタ領域候補の周縁とビード領域Eの周縁との間における最短距離dを算出する(S31)。算出した最短距離dが所定の長さ以上であるか否かを判定する(S32)。最短距離dが所定の長さ以上であった場合(YES)、スパッタ領域候補が静止スパッタ領域N2であると判定し(S33)、静止スパッタ領域N2の判定を終了する。 Details of the determination of the static sputtering region N2 will be described with reference to the flowchart of FIG. The shortest distance d between the periphery of the sputter region candidate and the periphery of the bead region E is calculated (S31). It is determined whether or not the calculated shortest distance d is greater than or equal to a predetermined length (S32). If the shortest distance d is equal to or longer than the predetermined length (YES), it is determined that the sputtering area candidate is the stationary sputtering area N2 (S33), and the determination of the stationary sputtering area N2 is ended.
その一方で、最短距離dが所定の長さより小さかった場合(NO)、スパッタ領域候補が等方的形状であるか否かを判定する(S34)。スパッタ領域候補が等方的形状である場合(YES)、スパッタ領域候補が静止スパッタ領域N2であると判定し(S33)、静止スパッタ領域N2の判定を終了する。スパッタ領域候補が等方的形状でない場合(NO)、スパッタ領域候補が静止スパッタ領域N2でないと判定し(S35)、静止スパッタ領域N2の判定を終了する。 On the other hand, if the shortest distance d is smaller than the predetermined length (NO), it is determined whether or not the sputter region candidate has an isotropic shape (S34). If the sputter region candidate has an isotropic shape (YES), it is determined that the sputter region candidate is the static sputter region N2 (S33), and the determination of the static sputter region N2 is terminated. If the sputter region candidate is not isotropic (NO), it is determined that the sputter region candidate is not the static sputter region N2 (S35), and the determination of the static sputter region N2 is terminated.
以上のように本実施形態によれば、画像上の移動スパッタ領域N1が除去されて、移動スパッタの影響を受けずにビードmの形状を正確に認識することができる。特に、移動スパッタがビードmと重なった場合、移動スパッタがビードmに重なるタイミング前後の画像を用いることによって、ビードmの形状を正確に認識することができる。また、移動スパッタ領域N1が画像データから除去されて、ビードmの形状認識に必要とされる画像データのみが画像処理されることになるので、画像処理の計算負荷を低減することができる。 As described above, according to the present embodiment, the moving sputter region N1 on the image is removed, and the shape of the bead m can be accurately recognized without being affected by the moving sputter. In particular, when the moving sputter overlaps with the bead m, the shape of the bead m can be accurately recognized by using images before and after the timing when the moving sputter overlaps the bead m. Further, since the moving sputter region N1 is removed from the image data and only the image data required for the shape recognition of the bead m is subjected to image processing, the calculation load of image processing can be reduced.
本実施形態によれば、上述のように、線分近似フィッティングに用いられる移動スパッタ領域N1の代表中心点r1が簡単に算出されて、画像処理の計算負荷を低減することができる。 According to the present embodiment, as described above, the representative center point r1 of the moving sputter region N1 used for the line segment approximate fitting is simply calculated, and the calculation load of image processing can be reduced.
本実施形態によれば、画像上の静止スパッタ領域N2が除去されて、静止スパッタの影響を受けずにビードmの形状を正確に認識することができる。また、静止スパッタ領域N2が画像データから除去されて、ビードmの形状認識に必要とされる画像データのみが画像処理されることになるので、画像処理の計算負荷を低減することができる。 According to the present embodiment, the static sputter region N2 on the image is removed, and the shape of the bead m can be accurately recognized without being affected by the static sputter. Further, since the static sputter region N2 is removed from the image data and only the image data required for the shape recognition of the bead m is image-processed, the calculation load of image processing can be reduced.
本実施形態によれば、スパッタ領域候補が静止スパッタ領域N2であるか否かの判定では、スパッタ領域候補とビードmに相当するビード領域Eとの間の最短距離dが所定の長さ以上である場合に、前記スパッタ領域候補が前記静止スパッタ領域であると判定する。また、スパッタ領域候補が静止スパッタ領域N2であるか否かの判定では、スパッタ領域が等方的形状である場合に、スパッタ領域候補が静止スパッタ領域N2であると判定する。そのため、静止スパッタ領域N2が正確に判別されて、静止スパッタ領域N2を確実に除去できる。よって、ビードmの形状を正確に認識することができる。 According to the present embodiment, in determining whether or not the sputter region candidate is the stationary sputter region N2, the shortest distance d between the sputter region candidate and the bead region E corresponding to the bead m is a predetermined length or more. In some cases, it is determined that the sputter region candidate is the stationary sputter region. Further, in determining whether the sputter region candidate is the stationary sputter region N2, if the sputter region has an isotropic shape, it is determined that the sputter region candidate is the static sputter region N2. Therefore, the stationary sputter region N2 can be accurately determined and the stationary sputter region N2 can be reliably removed. Therefore, the shape of the bead m can be accurately recognized.
[第2実施形態]
本発明の第2実施形態に係る画像処理システムについて以下に説明する。第2実施形態は、基本的には、第1実施形態と同様になっている。第1実施形態と同様な要素は、第1実施形態と同様の符号および名称を用いて説明する。ここでは、第1実施形態と異なる構成について説明する。
[Second Embodiment]
An image processing system according to the second embodiment of the present invention will be described below. The second embodiment is basically the same as the first embodiment. Elements similar to those in the first embodiment will be described using the same symbols and names as those in the first embodiment. Here, a configuration different from the first embodiment will be described.
本実施形態では、第1実施形態におけるSi用ロングパスフィルタ7cの代わりに、後述するインジウムガリウムヒ素系の半導体から作製された撮像素子(以下、「InGaAs系撮像素子」という)に対応するInGaAs用ロングパスフィルタが設けられている。InGaAs用ロングパスフィルタは、1200nm以上の波長範囲で光を透過するように構成されている。本実施形態では、第1実施形態のSi系撮像素子7fの代わりに、InGaAs系撮像素子が設けられている。InGaAs系撮像素子は、800nm〜2600nmの波長範囲において光に対する感度を有している。InGaAs系撮像素子は、撮像器6fに送られたモニタリング光L2をアナログ電気信号に変換するように構成されている。また、InGaAs系撮像素子の撮像面の条件は、第1実施形態におけるSi系撮像素子7fの撮像面の条件と同様になっている。
In this embodiment, instead of the Si long-
InGaAs用ロングパスフィルタを透過する光の波長範囲について説明する。上述したように、レーザ溶接中に発生するプラズマ光は、原子の軌道電子により発生する遷移発光の成分を多く含んでおり、この遷移発光の波長範囲は、典型的には、可視域に相当する200nm〜780nmの範囲になっている。一方で、黒体放射の輻射強度は、波長が長くなるに連れて高くなっている。また、黒体放射の輻射強度は、温度が高くなるに連れて高くなっている。そのため、高い温度を有する残熱発光に含まれる黒体放射の輻射強度が高くなることが確認できる。また、レーザ等の発光は、1060nm付近の波長成分を含んでいるので、InGaAs系撮像素子に入力される光は、1060nm周辺の波長範囲を避けることが好ましい。 The wavelength range of light transmitted through the long pass filter for InGaAs will be described. As described above, plasma light generated during laser welding contains many components of transition emission generated by orbital electrons of atoms, and the wavelength range of this transition emission typically corresponds to the visible range. It is in the range of 200 nm to 780 nm. On the other hand, the radiation intensity of blackbody radiation increases as the wavelength increases. Further, the radiation intensity of black body radiation increases as the temperature increases. Therefore, it can be confirmed that the radiation intensity of the black body radiation included in the residual heat emission having a high temperature is increased. In addition, since light emitted from a laser or the like includes a wavelength component around 1060 nm, it is preferable that the light input to the InGaAs-based image pickup device avoid a wavelength range around 1060 nm.
そこで、プラズマ光に多く含まれる遷移発光の波長範囲の上限値780nmと、レーザ等の発光波長に相当する1060nm付近の波長の光を避けることと、レーザ等の発光波長のバラツキとを考慮して、InGaAs用ロングパスフィルタを透過する光の波長範囲は、1200nm以上に定められている。そのため、InGaAs系撮像素子には、1200nm以上の波長範囲で光が送られて、InGaAs系撮像素子は、入力される光を1200nm〜2600nmの波長範囲で感知することとなる。なお、InGaAs用ロングパスフィルタは、1200nmより小さな波長の光を遮断するように構成されていると好ましい。しかしながら、InGaAs系撮像素子は、800nm〜2600nmの波長範囲で光を感知できればよいので、例えば、InGaAs用ロングパスフィルタが、1300nm、1400nm、1500nm、1600nm、1700nm、1800nm、又は1900nmより小さな波長の光を遮断するように構成されていてもよい。 Therefore, in consideration of the upper limit 780 nm of the wavelength range of transition emission included in plasma light, avoiding light having a wavelength near 1060 nm corresponding to the emission wavelength of laser, etc., and variations in emission wavelength of laser, etc. The wavelength range of light passing through the InGaAs long pass filter is set to 1200 nm or more. For this reason, light is sent to the InGaAs imaging device in a wavelength range of 1200 nm or more, and the InGaAs imaging device senses input light in the wavelength range of 1200 nm to 2600 nm. The InGaAs long-pass filter is preferably configured to block light having a wavelength shorter than 1200 nm. However, since the InGaAs-based imaging device only needs to be able to sense light in the wavelength range of 800 nm to 2600 nm, for example, a long pass filter for InGaAs emits light having a wavelength smaller than 1300 nm, 1400 nm, 1500 nm, 1600 nm, 1700 nm, 1800 nm, or 1900 nm. You may be comprised so that it may interrupt | block.
また、本実施形態の画像処理システム1を用いて溶接領域Jに形成されるビードmの形状を認識する方法は、本実施形態の上述した構成を除いて、第1実施形態と同様になっている。
Moreover, the method of recognizing the shape of the bead m formed in the welding region J using the
以上のように本実施形態によれば、第1実施形態と同様の効果が得られる。 As described above, according to the present embodiment, the same effects as those of the first embodiment can be obtained.
[第3実施形態]
本発明の第3実施形態に係る画像処理システムについて以下に説明する。第3実施形態は、基本的には、第1実施形態と同様になっている。第1実施形態と同様な要素は、第1実施形態と同様の符号および名称を用いて説明する。ここでは、第1実施形態と異なる構成について説明する。
[Third Embodiment]
An image processing system according to the third embodiment of the present invention will be described below. The third embodiment is basically the same as the first embodiment. Elements similar to those in the first embodiment will be described using the same symbols and names as those in the first embodiment. Here, a configuration different from the first embodiment will be described.
本実施形態では、第1実施形態におけるSi用ロングパスフィルタ7cの代わりに、Si用バンドパスフィルタが設けられている。Si用バンドパスフィルタは、800nm以上かつ1050nm以下の波長範囲で光を透過するように構成されている。
In the present embodiment, a Si band-pass filter is provided instead of the Si long-
Si用バンドパスフィルタを透過する光の波長範囲について説明する。Si用バンドパスフィルタを透過する光の波長範囲の下限値は、第1実施形態におけるSi用ロングパスフィルタ7cを透過する光の波長範囲の下限値を800nmとしたことと同様の理由に基づいて、800nmに定められている。また、レーザ等の発光波長に相当する1060nm付近の波長の光を避けることと、レーザ等の発光波長のバラツキとを考慮して、Si用バンドパスフィルタを透過する光の波長範囲の上限値は、1050nmに定められている。
The wavelength range of light passing through the Si bandpass filter will be described. The lower limit value of the wavelength range of the light transmitted through the Si bandpass filter is based on the same reason that the lower limit value of the wavelength range of the light transmitted through the
本実施形態の画像処理システム1を用いて溶接領域Jに形成されるビードmの形状を認識する方法は、本実施形態の上述した構成を除いて、第1実施形態と同様になっている。
A method for recognizing the shape of the bead m formed in the welding region J using the
以上のように本実施形態によれば、第1実施形態と同様の効果が得られる。 As described above, according to the present embodiment, the same effects as those of the first embodiment can be obtained.
[第4実施形態]
本発明の第4実施形態に係る画像処理システムについて以下に説明する。第4実施形態は、基本的には、第2実施形態と同様になっている。第2実施形態と同様な要素は、第2実施形態と同様の符号および名称を用いて説明する。ここでは、第2実施形態と異なる構成について説明する。
[Fourth Embodiment]
An image processing system according to the fourth embodiment of the present invention will be described below. The fourth embodiment is basically the same as the second embodiment. The same elements as those of the second embodiment will be described using the same symbols and names as those of the second embodiment. Here, a configuration different from the second embodiment will be described.
本実施形態では、第2実施形態におけるInGaAs用ロングパスフィルタの代わりに、InGaAs用バンドパスフィルタが設けられている。InGaAs用バンドパスフィルタは、1200nm以上かつ2000nm以下の波長範囲で光を透過するように構成されている。 In this embodiment, an InGaAs band-pass filter is provided instead of the InGaAs long-pass filter in the second embodiment. The bandpass filter for InGaAs is configured to transmit light in a wavelength range of 1200 nm or more and 2000 nm or less.
InGaAs用バンドパスフィルタを透過する光の波長範囲について説明する。InGaAs用バンドパスフィルタを透過する光の波長範囲の下限値は、第2実施形態におけるInGaAs用ロングパスフィルタを透過する光の波長範囲の下限値を1200nmとしたことと同様の理由に基づいて、1200nmに定められている。また、長波長高感度タイプのInGaAs系撮像素子における光に対する感度の上限は2600nmとされ、短波長高感度タイプのInGaAs系撮像素子における光に対する感度の上限は1700nmとされている。さらに、短波長高感度タイプのInGaAs系撮像素子は、そのバンドギャップが緩やかに減少するために、1700nm〜2000nmの範囲においても一定の感度(応答性能)を有している。そのため、長波長高感度タイプ、短波長高感度タイプ等のあらゆるInGaAs系撮像素子に対応すべく、InGaAs用バンドパスフィルタを透過する光の波長範囲の上限値は2000nmに定められている。 The wavelength range of light that passes through the bandpass filter for InGaAs will be described. The lower limit value of the wavelength range of light passing through the InGaAs bandpass filter is 1200 nm based on the same reason that the lower limit value of the wavelength range of light passing through the InGaAs longpass filter in the second embodiment is set to 1200 nm. It is stipulated in. In addition, the upper limit of sensitivity to light in the long wavelength high sensitivity type InGaAs imaging device is 2600 nm, and the upper limit of sensitivity to light in the short wavelength high sensitivity type InGaAs imaging device is 1700 nm. Further, the short wavelength high sensitivity type InGaAs imaging device has a constant sensitivity (response performance) even in the range of 1700 nm to 2000 nm because its band gap gradually decreases. Therefore, the upper limit of the wavelength range of the light transmitted through the InGaAs band-pass filter is set to 2000 nm so as to correspond to all InGaAs-based image pickup devices such as the long wavelength high sensitivity type and the short wavelength high sensitivity type.
以上のように本実施形態によれば、第2実施形態と同様の効果が得られる。 As described above, according to the present embodiment, the same effects as those of the second embodiment can be obtained.
ここまで本発明の実施形態について述べたが、本発明は既述の実施形態に限定されるものではなく、本発明の技術的思想に基づいて各種の変形及び変更が可能である。 Although the embodiments of the present invention have been described so far, the present invention is not limited to the above-described embodiments, and various modifications and changes can be made based on the technical idea of the present invention.
例えば、本発明の第1変形例として、画像取り込み部3が、レーザ溶接以外の溶接を撮影かつ取り込むように構成されていてもよい。例えば、レーザ溶接以外の溶接は、アーク溶接、エレクトロスラグ溶接、電子ビーム溶接等であるとよい。
For example, as a first modification of the present invention, the
本発明の第2変形例として、画像取り込み部3が、溶接時の残熱発光以外のレーザによる発光を撮影かつ取り込むように構成されていてもよい。また、画像取り込み部3が、レーザ溶接以外の溶接を撮影かつ取り込む場合には、溶接時の残熱発光以外の発光を撮影かつ取り込むように構成されていてもよい。
As a second modification of the present invention, the
1 画像処理システム
3 画像処理装置
4 画像処理部
12 二値化手段
13 XOR演算手段
15 移動スパッタ判定手段
16 代表中心点算出要素
17 中心線形成手段
18 移動スパッタ記憶手段
19 移動スパッタ除去手段
20 静止スパッタ判定要素
21 代表中心点算出手段
22 静止スパッタ記憶手段
23 静止スパッタ除去手段
24 楕円形成手段
25 方向転換手段
26 楕円移動手段
27 二値化データ逆転手段
28 AND演算手段
29 代表点定義手段
30 距離判定手段
31 形状判定手段
M 溶接部材
J 溶接領域
m ビード
m1 接合始端部分(始端部分)
m2 接合終端部分(終端部分)
m3 接合中間部分(中間部分)
L1 レーザ光
L2 モニタリング光
θ1,θ2 角度
G 平均輝度
g1 開始輝度閾値
g2 終了輝度閾値
t 時間
E ビード領域
E1 始端部分
E2 終端部分
E3 中間部分
e ビード領域点
N1 移動スパッタ領域
N2 静止スパッタ領域
Z カット用楕円領域
Cn1,Cn1’,Cz 図心
r1,r2 代表中心点
R1 中心線
d 最短距離
A1 実線
A2 破線
A3 一点鎖線
S1〜S12,S21〜S27,S31〜S35 ステップ
DESCRIPTION OF
m2 Junction termination part (termination part)
m3 Joining middle part (middle part)
L1 Laser beam L2 Monitoring beam θ1, θ2 Angle G Average luminance g1 Start luminance threshold g2 End luminance threshold t Time E Bead region E1 End portion E2 End portion E3 Intermediate portion e Bead region point N1 Moving sputter region N2 Stationary sputter region Z For cutting Elliptical regions Cn1, Cn1 ′, Cz Centroids r1, r2 Representative center point R1 Center line d Shortest distance A1 Solid line A2 Broken line A3 Dash-dot lines S1 to S12, S21 to S27, S31 to S35 Steps
Claims (7)
前記取り込んだ複数の画像データのそれぞれを、移動スパッタ又は静止スパッタに相当する明領域の候補であるスパッタ領域候補を浮かび上がらせるように二値化するステップと、
前記二値化された複数の画像データ間で変化するスパッタ領域候補を含んだスパッタ範囲を抽出するように、前記二値化された画像データを該画像データの前に又は次に取り込んだ画像データに対してXOR演算処理するステップと、
前記スパッタ領域候補が、細長形状の移動スパッタに相当する移動スパッタ領域であるか否かを判定するステップと、
前記スパッタ領域候補が前記移動スパッタ領域であると判定された場合、前記移動スパッタ領域を含んだスパッタ範囲を除去するステップと
を含む画像処理方法。 An image processing method for recognizing the shape of a bead formed in the welding region based on a plurality of image data obtained by continuously capturing and capturing a welding region during welding,
Binarizing each of the captured plurality of image data so that a sputter region candidate that is a bright region candidate corresponding to moving sputter or stationary sputter is raised;
Image data obtained by capturing the binarized image data before or next to the image data so as to extract a sputter range including a sputter region candidate that changes between the binarized image data. Performing an XOR operation on
Determining whether or not the sputter region candidate is a moving sputter region corresponding to an elongated shaped mobile sputter;
And a step of removing a sputtering area including the moving sputtering area when it is determined that the sputtering area candidate is the moving sputtering area.
前記移動スパッタ領域内の複数の代表中心点を算出し、
前記算出した代表中心点に基づいた線分近似フィッティングによって、前記移動スパッタ領域の幅中心を通る中心線を算出し、
前記中心線を算出した移動スパッタ領域を含んだスパッタ範囲を記憶し、かつ
前記記憶したスパッタ範囲を前記画像データから除去すること
を含む、請求項1に記載の画像処理方法。 Removing the sputter area including the moving sputter region,
Calculating a plurality of representative center points in the moving sputter region;
By a line segment approximate fitting based on the calculated representative center point, a center line passing through the width center of the moving sputter region is calculated,
The image processing method according to claim 1, further comprising: storing a sputter range including a moving sputter region for which the center line is calculated; and removing the stored sputter range from the image data.
前記画像上に楕円形状のカット用楕円領域を形成し、
前記カット用楕円領域を、その長径方向を前記移動スパッタ領域の長手方向に対して直交するように方向転換し、
前記カット用楕円領域の図心と前記移動スパッタ領域の図心とを一致させ、
前記カット用楕円領域を表す二値化データを、前記移動スパッタ領域を表す二値化データに対して反対に変換し、
前記移動スパッタ領域を分離するように、前記変換したカット用楕円領域の二値化データと前記移動スパッタ領域の二値化データとの間でAND演算処理を実施し、
前記AND演算処理により分離された移動スパッタ領域のそれぞれの図心を算出し、かつ
前記分離前の移動スパッタ領域の図心、及び前記分離された移動スパッタ領域のそれぞれの図心を代表中心点として定義すること
を含む、請求項2に記載の画像処理方法。 The calculation of the representative center point is as follows:
Forming an elliptical cut elliptical area on the image;
The elliptical area for cutting is redirected so that its major axis direction is orthogonal to the longitudinal direction of the moving sputter area,
The centroid of the elliptical area for cutting and the centroid of the moving sputter area are matched,
The binarized data representing the elliptical area for cutting is converted in reverse to the binarized data representing the moving sputter area,
An AND operation process is performed between the binarized data of the converted elliptical area for cutting and the binarized data of the moving sputter area so as to separate the moving sputter area,
Calculate each centroid of the moving sputter area separated by the AND operation processing, and use the centroid of the moving sputter area before separation and each centroid of the separated moving sputter area as a representative central point. The image processing method according to claim 2, comprising defining.
前記スパッタ領域候補が前記静止スパッタ領域であると判定された場合、前記静止スパッタ領域を含んだスパッタ範囲を記憶し、かつ前記記憶したスパッタ範囲を除去するステップと
をさらに含む請求項1〜3のいずれか一項に記載の画像処理方法。 If it is determined that the sputter region candidate is not the moving sputter region, determining whether the sputter region candidate is a stationary sputter region corresponding to a static sputter; and
4. The method according to claim 1, further comprising: storing a sputter range including the static sputter region and removing the stored sputter range when it is determined that the sputter region candidate is the static sputter region. The image processing method as described in any one of Claims.
前記スパッタ領域候補と前記ビードに相当するビード領域との間の最短距離が所定の長さ以上である場合に、前記スパッタ領域候補が前記静止スパッタ領域であると判定する請求項4に記載の画像処理方法。 In determining whether the sputter region candidate is the stationary sputter region,
The image according to claim 4, wherein when the shortest distance between the sputter region candidate and a bead region corresponding to the bead is equal to or longer than a predetermined length, the sputter region candidate is determined to be the stationary sputter region. Processing method.
前記スパッタ領域候補が等方的形状である場合に、前記スパッタ領域候補が前記静止スパッタ領域であると判定する請求項4又は5に記載の画像処理方法。 In determining whether the sputter region candidate is the stationary sputter region,
The image processing method according to claim 4, wherein when the sputter region candidate has an isotropic shape, the sputter region candidate is determined to be the stationary sputter region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012155378A JP2014014857A (en) | 2012-07-11 | 2012-07-11 | Image processing method, and image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012155378A JP2014014857A (en) | 2012-07-11 | 2012-07-11 | Image processing method, and image processing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014014857A true JP2014014857A (en) | 2014-01-30 |
Family
ID=50110023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012155378A Pending JP2014014857A (en) | 2012-07-11 | 2012-07-11 | Image processing method, and image processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014014857A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016159348A (en) * | 2015-03-05 | 2016-09-05 | 株式会社ダイヘン | Image processing system, welding robot system and image processing method |
WO2019239644A1 (en) * | 2018-06-11 | 2019-12-19 | パナソニックIpマネジメント株式会社 | Welding condition setting assistance device |
WO2020246416A1 (en) * | 2019-06-06 | 2020-12-10 | パナソニックIpマネジメント株式会社 | Welding condition setting assistance device |
US20210016383A1 (en) * | 2018-04-20 | 2021-01-21 | Taiyo Nippon Sanso Corporation | Spatter counting method, computer program, and spatter counting device |
WO2021230078A1 (en) * | 2020-05-15 | 2021-11-18 | パナソニックIpマネジメント株式会社 | Welding condition setting assistance device |
-
2012
- 2012-07-11 JP JP2012155378A patent/JP2014014857A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016159348A (en) * | 2015-03-05 | 2016-09-05 | 株式会社ダイヘン | Image processing system, welding robot system and image processing method |
US20210016383A1 (en) * | 2018-04-20 | 2021-01-21 | Taiyo Nippon Sanso Corporation | Spatter counting method, computer program, and spatter counting device |
WO2019239644A1 (en) * | 2018-06-11 | 2019-12-19 | パナソニックIpマネジメント株式会社 | Welding condition setting assistance device |
WO2020246416A1 (en) * | 2019-06-06 | 2020-12-10 | パナソニックIpマネジメント株式会社 | Welding condition setting assistance device |
CN113950386A (en) * | 2019-06-06 | 2022-01-18 | 松下知识产权经营株式会社 | Welding condition setting auxiliary device |
JP7394290B2 (en) | 2019-06-06 | 2023-12-08 | パナソニックIpマネジメント株式会社 | Welding condition setting support device |
US11922614B2 (en) | 2019-06-06 | 2024-03-05 | Panasonic Intellectual Property Management Co., Ltd. | Welding condition setting assistance device |
WO2021230078A1 (en) * | 2020-05-15 | 2021-11-18 | パナソニックIpマネジメント株式会社 | Welding condition setting assistance device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5338890B2 (en) | Laser welding welding position detection apparatus and welding position detection method | |
JP2014014857A (en) | Image processing method, and image processing system | |
JP5830373B2 (en) | Imaging device | |
US8946595B2 (en) | Apparatus and method for determining shape of end of welding bead | |
JP3227650B2 (en) | Laser welding machine and laser welding condition monitoring method | |
JP4300433B2 (en) | Laser welding quality evaluation method and apparatus | |
JP2008126274A (en) | Spatter recognition method and apparatus in arc welding | |
JP2018039028A (en) | Laser processing machine and laser processing method | |
JP2010048587A (en) | Pattern defect inspecting device and method | |
JP4179558B2 (en) | Laser welding quality evaluation method and apparatus | |
JP2009139239A (en) | Method for detecting surface flaw of band form, device and computer program thereof | |
JP2009072788A (en) | Method and device for detecting spark of welding and method of manufacturing welded product | |
JP4491850B2 (en) | Laser irradiation point detection device and seam position detection device in laser welding machine | |
JP5909872B2 (en) | WELDING DEFECT DETECTING METHOD AND SYSTEM, ELECTRIC SEWING TUBE MANUFACTURING METHOD, AND WELDED PRODUCT MANUFACTURING METHOD | |
JP2014016304A (en) | Image processing method and image processing system | |
WO2019203276A1 (en) | Sputter counting method, computer program, and sputter counting device | |
JP2014016926A (en) | Image processing system | |
JP2014014856A (en) | Image processing method and image processing system | |
JP2014014855A (en) | Image processing method and image processing system | |
CN117916767A (en) | Detection of spatter during laser machining by artificial intelligence | |
JP2013164422A (en) | Inspection device and inspection method | |
JP5881942B2 (en) | Weld defect detection system, method for manufacturing ERW steel pipe, and method for manufacturing welded product | |
JP3263570B2 (en) | Automatic focusing device | |
KR20140084612A (en) | Strip edge monitoring system and method | |
JP5977526B2 (en) | Image processing apparatus and image processing method |