JP2014016304A - Image processing method and image processing system - Google Patents

Image processing method and image processing system Download PDF

Info

Publication number
JP2014016304A
JP2014016304A JP2012155376A JP2012155376A JP2014016304A JP 2014016304 A JP2014016304 A JP 2014016304A JP 2012155376 A JP2012155376 A JP 2012155376A JP 2012155376 A JP2012155376 A JP 2012155376A JP 2014016304 A JP2014016304 A JP 2014016304A
Authority
JP
Japan
Prior art keywords
bead
corrected
shape
point
spine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012155376A
Other languages
Japanese (ja)
Inventor
Hidenobu Ishida
英伸 石田
Sai Hagiwara
宰 萩原
Masaki Okajima
正樹 岡島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Corp
Original Assignee
Suzuki Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Corp filed Critical Suzuki Motor Corp
Priority to JP2012155376A priority Critical patent/JP2014016304A/en
Publication of JP2014016304A publication Critical patent/JP2014016304A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Laser Beam Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing method and an image processing system capable of recognizing the shape of the entire bead and enhancing the accuracy of image processing for recognizing the shape of the bead.SOLUTION: The image processing method for recognizing the shape of a bead of a welded part on the basis of an image obtained by photographing and acquiring the welded part with residual thermoluminescence occurring during beam system junction includes: setting a plurality of reference lines on an image; forming a contour point at a crossing place between a luminance boundary between a bright area in which the luminance of the residual thermoluminescence in the image is larger than a luminance threshold set so as to identify the contour line of the bead and a dark area in which the luminance of the residual thermoluminescence is smaller than the luminance threshold, and the reference lines; forming a backbone point at the middle of two contour points on the same reference line; determining an outline shape of the bead on the basis of the backbone point; and setting a corrected backbone point obtained by correcting the backbone point in accordance with an arc-shaped or linear shaped bead in a case where the outline shape of the bead is determined to be an arc shape or a linear shape. The image processing system uses the method.

Description

本発明は、ビーム系接合時に残熱発光が生じている状態の溶接領域をモニタ部によって撮影かつ取り込んだ画像に基づいて、溶接領域に形成されるビードの形状を認識する画像処理方法に関し、かつその方法を用いた画像処理システムに関する。   The present invention relates to an image processing method for recognizing the shape of a bead formed in a welding area based on an image obtained by capturing and capturing a welding area in a state in which residual heat emission occurs during beam system joining, and The present invention relates to an image processing system using the method.

従来より、特許文献1に開示されるように、レーザ溶接中に発光が生じている溶接部分を、カメラ、光センサ等によって撮影し、かつ撮影した溶接部分の画像を取り込み、取り込んだ画像に基づいて、溶接部分のビードの形状を認識する画像処理が行われている。しかしながら、特許文献1の画像処理では、レーザ溶接中に発生するプラズマ光、スパッタ粒子等の影響によって、溶接部分のビードの形状を正確に認識することが難しくなっており、このことが問題になっている。   Conventionally, as disclosed in Patent Document 1, a welded portion where light emission is generated during laser welding is photographed by a camera, an optical sensor, and the like, and an image of the photographed welded portion is captured and based on the captured image. Thus, image processing for recognizing the shape of the bead of the welded portion is performed. However, in the image processing of Patent Document 1, it is difficult to accurately recognize the bead shape of the welded part due to the influence of plasma light, sputtered particles, etc. generated during laser welding, which is a problem. ing.

そこで、特許文献2に開示されるように、プラズマ光、スパッタ粒子等の影響を避けるべく、レーザ溶接直後に金属の発熱が残っている短い時間内にビードの接合終端部分に生じる熱発光(以下、「残熱発光」という)をカメラによって撮影し、かつ撮影した残熱発光の画像を取り込むように構成された画像処理が提案されている。この画像処理は、取り込んだ残熱発光の画像に基づいてビードの接合終端部分の形状を認識するように構成されている。また、この画像処理装置は、取り込んだ画像にて不連続に分離したビードの形状が認識された場合、及びビードの溶接終端に凹形状が認識された場合に、穴欠陥が発生したと判定するように構成されている。   Therefore, as disclosed in Patent Document 2, in order to avoid the influence of plasma light, sputtered particles, and the like, thermoluminescence (hereinafter referred to as the heat emission) generated at the joining terminal portion of the bead within a short period of time in which heat generation of the metal remains immediately after laser welding. , “Residual heat emission”) is imaged by a camera, and image processing configured to capture a captured image of residual heat emission has been proposed. This image processing is configured to recognize the shape of the joint end portion of the bead based on the captured residual heat emission image. The image processing apparatus determines that a hole defect has occurred when a discontinuously separated bead shape is recognized in the captured image and when a concave shape is recognized at the weld end of the bead. It is configured as follows.

特開2006− 43741号公報JP 2006-43741 A 特開2012− 45610号公報JP 2012-45610 A

しかしながら、特許文献2の画像処理は、レーザ溶接直後に残熱発光が生じているビードの接合終端部分の形状を正確に認識できる一方で、この画像処理は、ビードの接合始端部分、並びに接合始端部分及び接合終端部分間に位置するビードの接合中間部分における残熱発光がレーザ溶接直後には冷えて弱くなっているために、ビードの接合始端部分の形状、及びビードの接合中間部分の形状を正確に認識することが困難になっている。そのため、レーザ溶接のビード全体の形状を正確に認識することが望まれており、さらに、このようなビードの形状を認識するための画像処理においては、その精度を高めることが望まれている。   However, while the image processing of Patent Document 2 can accurately recognize the shape of the joining end portion of the bead in which residual heat emission occurs immediately after laser welding, this image processing is performed with the joining start end portion of the bead and the joining start end. Since the residual heat emission at the joint intermediate part of the bead located between the part and the joint end part is cooled and weakened immediately after laser welding, the shape of the bead joint start end part and the shape of the bead joint intermediate part are It has become difficult to recognize correctly. Therefore, it is desired to accurately recognize the shape of the entire laser welding bead, and further, it is desired to increase the accuracy in image processing for recognizing the shape of such a bead.

本発明はこのような実状に鑑みてなされたものであって、その目的は、ビード全体の形状を認識でき、かつビードの形状を認識するための画像処理の精度を高めることができる画像処理方法及び画像処理システムを提供することにある。   The present invention has been made in view of such a situation, and an object of the present invention is to recognize the shape of the entire bead and to improve the accuracy of image processing for recognizing the shape of the bead. And providing an image processing system.

課題を解決するために、本発明の一態様に係る画像処理方法は、ビーム系接合時に残熱発光が生じている状態の溶接部分を撮影かつ取り込んだ画像に基づいて、前記溶接部分に形成されるビードの形状を認識する画像処理方法であって、前記画像上に複数の基準線を設定するステップと、前記画像内の残熱発光の輝度が前記ビードの輪郭線を識別するように設定した輝度閾値より大きい明領域、及び前記残熱発光の輝度が前記輝度閾値より小さい暗領域間の輝度境界と前記基準線との交差箇所に、輪郭点を形成するステップと、同一の前記基準線上における2つの前記輪郭点間の中間に背骨点を形成するステップと、前記背骨点に基づいて前記ビードの概略形状を判定するステップと、前記ビードの概略形状が円弧形状であると判定された場合に、前記円弧形状のビードに対応して前記背骨点を修正した修正背骨点を設定するステップとを含み、前記ビードの概略形状が円弧形状である場合に前記修正背骨点を設定するステップが、前記複数の背骨点の中から前記ビードの長さを均等に分けるように位置する3個以上の代表背骨点を抽出し、隣接する前記代表背骨点を結ぶ線分の長手方向中間にて該線分に直交する二等分線を算出し、前記複数の二等分線同士の交点を算出し、前記二等分線の交点から放射状に延びる複数の修正基準線を設定し、前記輝度境界と前記修正基準線との交差箇所に前記修正輪郭点を形成し、かつ同一の前記修正基準線上における2つの前記修正輪郭点間の中間に前記修正背骨点を形成することを含む。   In order to solve the problems, an image processing method according to an aspect of the present invention is formed on the welded portion based on an image obtained by capturing and capturing a welded portion in a state where residual heat emission occurs during beam system joining. An image processing method for recognizing the shape of a bead, wherein a plurality of reference lines are set on the image, and the luminance of residual heat emission in the image is set to identify the outline of the bead. A step of forming a contour point at a crossing point between a bright area larger than a luminance threshold and a luminance boundary between dark areas where the luminance of the residual heat emission is smaller than the luminance threshold and the reference line; and on the same reference line A step of forming a spine point in the middle between the two contour points; a step of determining a rough shape of the bead based on the spine point; and a case where the rough shape of the bead is determined to be an arc shape And a step of setting a corrected spine point obtained by correcting the spine point corresponding to the arc-shaped bead, and the step of setting the corrected spine point when the rough shape of the bead is an arc shape, Three or more representative spine points positioned so as to equally divide the length of the bead from the plurality of spine points are extracted, and the lines are arranged in the middle in the longitudinal direction of the line segment connecting the adjacent representative spine points. Calculating a bisector orthogonal to a minute, calculating an intersection of the plurality of bisectors, setting a plurality of correction reference lines extending radially from the intersection of the bisectors, and the luminance boundary Forming the corrected contour point at an intersection with the corrected reference line, and forming the corrected spine point in the middle between the two corrected contour points on the same corrected reference line.

本発明の一態様に係る画像処理方法は、前記ビードの概略形状が直線形状であると判断された場合に、前記直線形状のビードに対応して前記背骨点を修正した修正背骨点を設定するステップをさらに含み、前記ビードの概略形状が直線形状である場合に前記修正背骨点を設定するステップが、前記ビードの延びる方向に直交する複数の修正基準線を設定し、前記輝度境界と前記修正基準線との交差箇所に修正輪郭点を形成し、かつ同一の前記修正基準線上における2つの前記修正輪郭点間の中間に修正背骨点を形成することを含む。   The image processing method according to an aspect of the present invention sets a corrected spine point obtained by correcting the spine point corresponding to the linear bead when it is determined that the approximate shape of the bead is a linear shape. A step of setting the correction spine point when the rough shape of the bead is a straight line, setting a plurality of correction reference lines orthogonal to a direction in which the bead extends, and the luminance boundary and the correction Forming a corrected contour point at an intersection with the reference line, and forming a corrected spine point in the middle between the two corrected contour points on the same corrected reference line.

本発明の別の一態様に係る画像処理方法は、ビーム系接合時に残熱発光が生じている状態の溶接部分を撮影かつ取り込んだ画像に基づいて、前記溶接部分に形成されるビードの形状を認識する画像処理方法であって、前記画像上に複数の基準線を設定するステップと、前記画像内の残熱発光の輝度が前記ビードの輪郭線を識別するように設定した輝度閾値より大きい明領域、及び前記残熱発光の輝度が前記輝度閾値より小さい暗領域間の輝度境界と前記基準線との交差箇所に、輪郭点を形成するステップと、同一の前記基準線上における2つの前記輪郭点間の中間に背骨点を形成するステップと、前記背骨点に基づいて前記ビードの概略形状を判断するステップと、前記ビードの概略形状が直線形状であると判断された場合に、前記直線形状のビードに対応して前記背骨点を修正した修正背骨点を設定するステップとを含み、前記ビードの概略形状が直線形状である場合に前記修正背骨点を設定するステップが、前記ビードの延びる方向に直交する複数の修正基準線を設定し、前記輝度境界と前記修正基準線との交差箇所に修正輪郭点を形成し、かつ同一の前記修正基準線上における2つの前記修正輪郭点間の中間に修正背骨点を形成することを含む。   According to another aspect of the present invention, there is provided an image processing method in which a shape of a bead formed on a welded portion is formed based on an image obtained by capturing and capturing a welded portion in a state where residual heat emission occurs during beam system joining. An image processing method for recognizing a step of setting a plurality of reference lines on the image, and a brightness of residual heat emission in the image larger than a brightness threshold set to identify the contour line of the bead. Forming a contour point at the intersection of the reference line and a luminance boundary between a region and a dark region where the luminance of the residual heat emission is smaller than the luminance threshold, and the two contour points on the same reference line A step of forming a spine point in the middle, a step of determining a rough shape of the bead based on the spine point, and a straight shape when the rough shape of the bead is determined to be a straight shape Setting a corrected spine point in which the spine point is corrected corresponding to a bead, and the step of setting the corrected spine point when the general shape of the bead is a linear shape, in the extending direction of the bead A plurality of orthogonal correction reference lines are set, a correction contour point is formed at an intersection between the luminance boundary and the correction reference line, and correction is performed in the middle between two correction contour points on the same correction reference line. Including forming a spine point.

本発明の一態様又は別の一態様に係る画像処理方法では、前記明領域の幅が所定の幅閾値以下になっている場合に、前記輪郭点を形成するステップにて、前記輝度境界と前記基準線との交差箇所に輪郭点を形成する。   In the image processing method according to one aspect or another aspect of the present invention, in the step of forming the contour point when the width of the bright region is equal to or smaller than a predetermined width threshold, the luminance boundary and the Contour points are formed at the intersections with the reference line.

課題を解決するために、本発明の一態様又は別の一態様に係る画像処理システムは、上述の画像処理方法を用いる。   In order to solve the problem, an image processing system according to one aspect or another aspect of the present invention uses the above-described image processing method.

本発明によれば、以下の効果を得ることができる。本発明の一態様に係る画像処理方法は、ビーム系接合時に残熱発光が生じている状態の溶接部分を撮影かつ取り込んだ画像に基づいて、前記溶接部分に形成されるビードの形状を認識する画像処理方法であって、前記画像上に複数の基準線を設定するステップと、前記画像内の残熱発光の輝度が前記ビードの輪郭線を識別するように設定した輝度閾値より大きい明領域、及び前記残熱発光の輝度が前記輝度閾値より小さい暗領域間の輝度境界と前記基準線との交差箇所に、輪郭点を形成するステップと、同一の前記基準線上における2つの前記輪郭点間の中間に背骨点を形成するステップと、前記背骨点に基づいて前記ビードの概略形状を判定するステップと、前記ビードの概略形状が円弧形状であると判定された場合に、前記円弧形状のビードに対応して前記背骨点を修正した修正背骨点を設定するステップとを含み、前記ビードの概略形状が円弧形状である場合に前記修正背骨点を設定するステップが、前記複数の背骨点の中から前記ビードの長さを均等に分けるように位置する3個以上の代表背骨点を抽出し、隣接する前記代表背骨点を結ぶ線分の長手方向中間にて該線分に直交する二等分線を算出し、前記複数の二等分線同士の交点を算出し、前記二等分線の交点から放射状に延びる複数の修正基準線を設定し、前記輝度境界と前記修正基準線との交差箇所に前記修正輪郭点を形成し、かつ同一の前記修正基準線上における2つの前記修正輪郭点間の中間に前記修正背骨点を形成することを含む。また、本発明の一態様に係る画像処理方法は、前記ビードの概略形状が直線形状であると判断された場合に、前記直線形状のビードに対応して前記背骨点を修正した修正背骨点を設定するステップをさらに含み、前記ビードの概略形状が直線形状である場合に前記修正背骨点を設定するステップが、前記ビードの延びる方向に直交する複数の修正基準線を設定し、前記輝度境界と前記修正基準線との交差箇所に修正輪郭点を形成し、かつ同一の前記修正基準線上における2つの前記修正輪郭点間の中間に修正背骨点を形成することを含む。本発明の別の一態様に係る画像処理方法は、ビーム系接合時に残熱発光が生じている状態の溶接部分を撮影かつ取り込んだ画像に基づいて、前記溶接部分に形成されるビードの形状を認識する画像処理方法であって、前記画像上に複数の基準線を設定するステップと、前記画像内の残熱発光の輝度が前記ビードの輪郭線を識別するように設定した輝度閾値より大きい明領域、及び前記残熱発光の輝度が前記輝度閾値より小さい暗領域間の輝度境界と前記基準線との交差箇所に、輪郭点を形成するステップと、同一の前記基準線上における2つの前記輪郭点間の中間に背骨点を形成するステップと、前記背骨点に基づいて前記ビードの概略形状を判断するステップと、前記ビードの概略形状が直線形状であると判断された場合に、前記直線形状のビードに対応して前記背骨点を修正した修正背骨点を設定するステップとを含み、前記ビードの概略形状が直線形状である場合に前記修正背骨点を設定するステップが、前記ビードの延びる方向に直交する複数の修正基準線を設定し、前記輝度境界と前記修正基準線との交差箇所に修正輪郭点を形成し、かつ同一の前記修正基準線上における2つの前記修正輪郭点間の中間に修正背骨点を形成することを含む。そのため、暫定的に定義された背骨点により判定されたビードの概略形状を考慮して算出された修正背骨点に基づいて、ビードの形状認識の基準となる背骨線が形成されることになる。その結果、正確な修正背骨点に基づいて背骨線を正確に形成でき、正確な背骨線に基づいてビードの形状を正確に認識することができる。よって、ビードの形状を認識する画像処理の精度を高めることができる。   According to the present invention, the following effects can be obtained. An image processing method according to an aspect of the present invention recognizes the shape of a bead formed on a welded part based on an image obtained by capturing and capturing a welded part in a state where residual heat emission occurs during beam system joining. An image processing method comprising: setting a plurality of reference lines on the image; and a bright area having a luminance of residual heat emission in the image larger than a luminance threshold set so as to identify a contour line of the bead, And a step of forming a contour point at a crossing point between a luminance boundary between dark regions where the luminance of the residual heat emission is smaller than the luminance threshold and the reference line, and between the two contour points on the same reference line Forming a spine point in the middle; determining a rough shape of the bead based on the spine point; and determining that the rough shape of the bead is an arc shape; Setting a corrected spine point in which the spine point has been corrected corresponding to the position of the plurality of spine points when the rough shape of the bead is an arc shape. Three or more representative spine points located so as to equally divide the length of the bead are extracted from the middle, and the second orthogonal to the line segment in the middle in the longitudinal direction of the line segment connecting the adjacent representative spine points Calculating a branch line, calculating an intersection between the plurality of bisectors, setting a plurality of correction reference lines extending radially from the intersection of the bisectors, and the luminance boundary and the correction reference line Forming the corrected contour point at an intersection and forming the corrected spine point in the middle between the two corrected contour points on the same correction reference line. Further, the image processing method according to an aspect of the present invention provides a corrected spine point obtained by correcting the spine point corresponding to the linear bead when it is determined that the approximate shape of the bead is a linear shape. A step of setting the corrected spine point when the rough shape of the bead is a straight line, and setting a plurality of corrected reference lines orthogonal to the extending direction of the bead, and the luminance boundary. Forming a corrected contour point at an intersection with the corrected reference line, and forming a corrected spine point in the middle between the two corrected contour points on the same corrected reference line. According to another aspect of the present invention, there is provided an image processing method in which a shape of a bead formed on a welded portion is formed based on an image obtained by capturing and capturing a welded portion in a state where residual heat emission occurs during beam system joining. An image processing method for recognizing a step of setting a plurality of reference lines on the image, and a brightness of residual heat emission in the image larger than a brightness threshold set to identify the contour line of the bead. Forming a contour point at the intersection of the reference line and a luminance boundary between a region and a dark region where the luminance of the residual heat emission is smaller than the luminance threshold, and the two contour points on the same reference line A step of forming a spine point in the middle, a step of determining a rough shape of the bead based on the spine point, and a straight shape when the rough shape of the bead is determined to be a straight shape Setting a corrected spine point in which the spine point is corrected corresponding to a bead, and the step of setting the corrected spine point when the general shape of the bead is a linear shape, in the extending direction of the bead A plurality of orthogonal correction reference lines are set, a correction contour point is formed at an intersection between the luminance boundary and the correction reference line, and correction is performed in the middle between two correction contour points on the same correction reference line. Including forming a spine point. Therefore, a spine line serving as a reference for bead shape recognition is formed based on the corrected spine point calculated in consideration of the approximate shape of the bead determined by the provisionally defined spine point. As a result, the spine line can be accurately formed based on the correct corrected spine point, and the bead shape can be accurately recognized based on the accurate spine line. Therefore, the accuracy of image processing for recognizing the bead shape can be increased.

本発明の一態様又は別の一態様に係る画像処理方法では、前記明領域の幅が所定の幅閾値以下になっている場合に、前記輪郭点を形成するステップにて、前記輝度境界と前記基準線との交差箇所に輪郭点を形成するので、所定の幅閾値より大きな幅の明領域を有するプラズマ光及びスパッタ粒子の影響を取り除くことができる。その結果、ビードの接合終端部分に加えて、プラズマ光及びスパッタ粒子の影響を受けるビードの接合始端部分及び接合中間部分を正確に認識できる。よって、ビード全体の形状を正確に認識することができ、かつビードの形状を認識する画像処理の精度を高めることができる。   In the image processing method according to one aspect or another aspect of the present invention, in the step of forming the contour point when the width of the bright region is equal to or smaller than a predetermined width threshold, the luminance boundary and the Since the contour point is formed at the intersection with the reference line, it is possible to remove the influence of plasma light and sputtered particles having a bright region having a width larger than a predetermined width threshold. As a result, in addition to the bead end portion, the bead start portion and the intermediate portion of the bead that are affected by the plasma light and the sputtered particles can be accurately recognized. Therefore, the shape of the entire bead can be recognized accurately, and the accuracy of image processing for recognizing the shape of the bead can be increased.

本発明の一態様又は別の一態様に係る画像処理システムは、上述の画像処理方法を用いる。そのため、上述のように、ビード全体の形状を認識でき、かつビードの形状を認識するための画像処理の精度を高めることができる   An image processing system according to one aspect or another aspect of the present invention uses the above-described image processing method. Therefore, as described above, the shape of the entire bead can be recognized, and the accuracy of image processing for recognizing the shape of the bead can be improved.

溶接領域に形成されるビードを示す模式図である。It is a schematic diagram which shows the bead formed in a welding area | region. 本発明の第1実施形態に係る画像処理システムを示すブロック図である。1 is a block diagram illustrating an image processing system according to a first embodiment of the present invention. 本発明の第1実施形態における画像取り込み装置のレーザ照射部及びモニタ部を示す模式図である。It is a schematic diagram which shows the laser irradiation part and monitor part of the image capture device in 1st Embodiment of this invention. 黒体放射の輻射強度と波長との関係を示す図である。It is a figure which shows the relationship between the radiation intensity of a black body radiation, and a wavelength. シリコン系の半導体から作製される撮像素子の相対感度と撮像素子に入力される波長との関係を示す図である。It is a figure which shows the relationship between the relative sensitivity of the image pick-up element produced from a silicon-type semiconductor, and the wavelength input into an image pick-up element. 本発明の第1実施形態における溶接直後の時間経過と残熱発光の輝度との関係の一例を示す図である。It is a figure which shows an example of the relationship between the time passage just after welding in the 1st Embodiment of this invention, and the brightness | luminance of residual heat emission. 本発明の第1実施形態における画像処理装置の画像処理部を示すブロック図である。It is a block diagram which shows the image processing part of the image processing apparatus in 1st Embodiment of this invention. 本発明の第1実施形態において、実際のビードに対応してビード領域を表示した画像の一例を示す模式図である。In 1st Embodiment of this invention, it is a schematic diagram which shows an example of the image which displayed the bead area | region corresponding to the actual bead. 本発明の第1実施形態において、円弧形状のビードに対応して、基準線上に形成された輪郭点及び背骨点を表示した画像の一例を示す模式図である。In 1st Embodiment of this invention, it is a schematic diagram which shows an example of the image which displayed the contour point and spine point formed on the reference line corresponding to the arc-shaped bead. 本発明の第1実施形態において、直線形状のビードに対応して、基準線上に形成された輪郭点及び背骨点を表示した画像の一例を示す模式図である。In 1st Embodiment of this invention, it is a schematic diagram which shows an example of the image which displayed the contour point and spine point formed on the reference line corresponding to the linear bead. 本発明の第1実施形態において、ビードの概略形状が円弧形状である場合に、代表背骨点、二等分線、及び交点を表示した画像の一例を示す模式図である。In 1st Embodiment of this invention, when the rough shape of a bead is circular arc shape, it is a schematic diagram which shows an example of the image which displayed the representative spine point, the bisector, and the intersection. 本発明の第1実施形態において、ビードの概略形状が円弧形状である場合に、修正基準線、修正輪郭点、修正背骨点、輪郭線、及び背骨線を表示した画像の一例を示す模式図である。In 1st Embodiment of this invention, when schematic shape of a bead is circular arc shape, it is a schematic diagram which shows an example of the image which displayed the correction reference line, the correction outline point, the correction spine point, the outline, and the spine line. is there. 本発明の第1実施形態において、ビードの概略形状が直線形状である場合に、修正基準線、修正輪郭点、修正背骨点、輪郭線、及び背骨線を表示した画像の一例を示す模式図である。In 1st Embodiment of this invention, when the schematic shape of a bead is a linear shape, it is a schematic diagram which shows an example of the image which displayed the correction reference line, the correction outline point, the correction spine point, the outline, and the spine line. is there. 本発明の第1実施形態において、取り込まれた画像の画像処理方法の概要を説明するフローチャートである。5 is a flowchart illustrating an overview of an image processing method for a captured image in the first embodiment of the present invention. 図14のフローチャートにおける円弧用修正要素の画像処理方法を説明するフローチャートである。It is a flowchart explaining the image processing method of the correction element for circular arcs in the flowchart of FIG. 図14のフローチャートにおける直線用修正要素の画像処理方法を説明するフローチャートである。It is a flowchart explaining the image processing method of the correction element for straight lines in the flowchart of FIG.

本発明の第1実施形態に係る画像処理システムについて説明する。   An image processing system according to a first embodiment of the present invention will be described.

最初に、図1を参照して、画像処理を実施する対象である溶接部材Mの溶接領域Jに形成されるビードmについて説明する。略円弧状に形成されたビードmは、レーザ溶接の開始地点に形成される接合始端部分(以下、「始端部分」という)m1と、レーザ溶接の溶接終了地点に形成される接合終端部分(以下、「終端部分」という)m2と、始端部分m1及び終端部分m2間に形成される接合中間部分(以下、「中間部分」という)m3とを有している。本実施形態では、一例として、ビードmは略円弧状に形成されているが、直線状、L字状、波状等の他の形状であってもよい。   Initially, with reference to FIG. 1, the bead m formed in the welding area J of the welding member M which is the object which performs image processing is demonstrated. The bead m formed in a substantially arc shape includes a joining start end portion (hereinafter referred to as “start end portion”) m1 formed at a laser welding start point and a joining end portion (hereinafter referred to as “laser welding end point”). , M2 and a joining intermediate portion (hereinafter referred to as “intermediate portion”) m3 formed between the start end portion m1 and the end portion m2. In the present embodiment, as an example, the bead m is formed in a substantially arc shape, but may be another shape such as a straight shape, an L shape, or a wave shape.

図2を参照すると、画像処理システム1は画像取り込み装置2を有しており、この画像取り込み装置2は、溶接用のレーザ光L1を溶接部材Mの溶接領域Jに照射可能とし、レーザ溶接時の残熱発光が生じている溶接領域Jを撮影し、かつ撮影した溶接領域Jの画像を取り込むように構成されている。また、画像処理システム1は、画像取り込み装置2に接続される画像処理装置3を有している。画像処理装置3は画像処理部4を有しており、画像処理部4は、画像取り込み装置2により取り込んだ溶接領域Jの画像に基づいてビードmの形状を認識するようになっている。画像処理装置3はビード形状判定部5を有しており、ビード形状判定部5は、画像処理部4により認識されたビードmの形状に基づいて、ビードmに発生する欠陥を判定するようになっている。   Referring to FIG. 2, the image processing system 1 includes an image capturing device 2. The image capturing device 2 can irradiate the welding region J of the welding member M with a laser beam L <b> 1 for welding. The welding region J where the residual heat emission occurs is photographed, and an image of the photographed welding region J is captured. The image processing system 1 also has an image processing device 3 connected to the image capturing device 2. The image processing device 3 includes an image processing unit 4, and the image processing unit 4 recognizes the shape of the bead m based on the image of the welding region J captured by the image capturing device 2. The image processing apparatus 3 includes a bead shape determination unit 5, and the bead shape determination unit 5 determines a defect occurring in the bead m based on the shape of the bead m recognized by the image processing unit 4. It has become.

ここで、図2及び図3を参照して、画像取り込み装置2の詳細を説明する。図2を参照すると、画像取り込み装置2はレーザ照射部6を有しており、このレーザ照射部6は、溶接部材Mの溶接領域Jに溶接用のレーザ光L1を照射可能とするように構成されている。画像取り込み装置2はモニタ部7を有しており、このモニタ部7はレーザを照射した溶接領域Jの画像を連続的に撮影するように構成されている。画像取り込み装置2は記憶部8を有しており、この記憶部8はモニタ部7により撮影した画像を連続的に記憶するように構成されている。画像取り込み装置2は画像取り込み部9を有しており、この画像取り込み部9は、記憶部8に記憶された画像を取り込むように構成されている。   Here, the details of the image capturing device 2 will be described with reference to FIGS. 2 and 3. Referring to FIG. 2, the image capturing device 2 includes a laser irradiation unit 6, and the laser irradiation unit 6 is configured to be able to irradiate the welding region J of the welding member M with the laser beam L <b> 1 for welding. Has been. The image capturing device 2 includes a monitor unit 7, and the monitor unit 7 is configured to continuously capture images of the welding region J irradiated with the laser. The image capturing device 2 includes a storage unit 8, and the storage unit 8 is configured to continuously store images taken by the monitor unit 7. The image capturing device 2 includes an image capturing unit 9, and the image capturing unit 9 is configured to capture an image stored in the storage unit 8.

図3を参照すると、レーザ照射部6はレーザ発振器6aを有しており、レーザ発振器6aはレーザ光L1を発射可能とするように構成されている。レーザ照射部6は略平板状のハーフミラー6bを有しており、ハーフミラー6bは、レーザ発振器6aから発射されたレーザ光L1の光路上に配置されている。このハーフミラー6bの表面6b1及び裏面6b2は、レーザ発振器6aから発射されるレーザ光L1の光路に対して、所定の角度θ1傾斜している。一例として、所定の角度θ1は45度であると好ましい。レーザ照射部6は溶接用集光レンズ6cを有しており、溶接用集光レンズ6cは、ハーフミラー6bを通過したレーザ光L1の光路上に配置されている。また、溶接用集光レンズ6cは、レーザ光L1を溶接部材M上に集光するように構成されている。このようなレーザ照射部6においては、レーザ発振器6aから発射されたレーザ光L1が、ハーフミラー6bを通過し、かつ溶接用集光レンズ6cによって集光された後に、溶接部材Mに照射されることとなる。また、溶接部材Mに照射されたレーザ光L1の一部は反射して、この反射した光(以下、「モニタリング光」という)L2が、溶接用集光レンズ6cを通過し、かつハーフミラー6bの裏面6b2に反射することによって角度を変えられた後に、モニタ部7に送られることとなる。   Referring to FIG. 3, the laser irradiation unit 6 includes a laser oscillator 6a, and the laser oscillator 6a is configured to be able to emit laser light L1. The laser irradiation unit 6 includes a substantially flat half mirror 6b, and the half mirror 6b is disposed on the optical path of the laser light L1 emitted from the laser oscillator 6a. The front surface 6b1 and the back surface 6b2 of the half mirror 6b are inclined at a predetermined angle θ1 with respect to the optical path of the laser light L1 emitted from the laser oscillator 6a. As an example, the predetermined angle θ1 is preferably 45 degrees. The laser irradiation unit 6 includes a welding condensing lens 6c, and the welding condensing lens 6c is disposed on the optical path of the laser light L1 that has passed through the half mirror 6b. Moreover, the condensing lens 6c for welding is comprised so that the laser beam L1 may be condensed on the welding member M. FIG. In such a laser irradiation unit 6, the laser beam L1 emitted from the laser oscillator 6a passes through the half mirror 6b and is collected by the welding condenser lens 6c, and then irradiated to the welding member M. It will be. Further, part of the laser light L1 irradiated to the welding member M is reflected, and this reflected light (hereinafter referred to as “monitoring light”) L2 passes through the welding condensing lens 6c and the half mirror 6b. After the angle is changed by reflecting on the back surface 6b2, the image is sent to the monitor unit 7.

モニタ部7は略平板状のミラー7aを有しており、ミラー7aは、レーザ照射部6のハーフミラー6cによって角度を変えられたモニタリング光L2の光路上に配置され、ミラー7aの反射面7a1は、このモニタリング光L2の光路に対して、所定の角度θ2傾斜している。モニタ部7は倍率調整レンズ7bを有しており、倍率調整レンズ7bは、撮影倍率を調整するように構成されている。倍率調整レンズ7bは、ミラー7aにより反射されたモニタリング光L2の光路上に配置されている。モニタ部7は、後述するシリコン系の半導体から作製された撮像素子(以下、「Si系撮像素子」という)7fに対応するロングパスフィルタ(以下、「Si用ロングパスフィルタ」という)7cを有しており、Si用ロングパスフィルタ7cは、800nm以上の波長範囲で光を透過するように構成されている。このSi用ロングパスフィルタ7cは、倍率調整レンズ7bを通過したモニタリング光L2の光路上に配置されている。モニタ部7はNDフィルタ7dを有しており、NDフィルタ7dは、それを通過する光の量を減少するように構成されている。NDフィルタ7dは、Si用ロングパスフィルタ7cを通過したモニタリング光L2の光路上に配置されている。モニタ部7は撮像用集光レンズ7eを有しており、撮像用集光レンズ7eは、NDフィルタ7dを通過したモニタリング光L2の光路上に配置されている。また、撮像用集光レンズ7eは、モニタリング光L2を、後述するSi系撮像素子7fの撮像面上に集光するように構成されている。モニタ部7はSi系撮像素子7fを有しており、Si系撮像素子7fは、モニタリング光L2をアナログ電気信号に変換するように構成されている。また、Si系撮像素子7fは、200nm〜1100nmの波長範囲において光に対する感度を有している。モニタ部7はアンプ7gを有しており、アンプ7gは、Si系撮像素子7fから送られるアナログ電気信号を増幅するように構成されている。モニタ部7はA/D変換器7hを有しており、A/D変換器7hはアンプ7gにより増幅されたアナログ電気信号をデジタル電気信号に変換するように構成されている。A/D変換器7hにより変換されたデジタル電気信号は記憶部8に送られることとなる。なお、モニタ部7のフレームレートは、50Hz以上かつ1000Hz以下になっている。   The monitor unit 7 includes a substantially flat mirror 7a. The mirror 7a is disposed on the optical path of the monitoring light L2 whose angle is changed by the half mirror 6c of the laser irradiation unit 6, and the reflection surface 7a1 of the mirror 7a. Is inclined at a predetermined angle θ2 with respect to the optical path of the monitoring light L2. The monitor unit 7 has a magnification adjustment lens 7b, and the magnification adjustment lens 7b is configured to adjust the photographing magnification. The magnification adjustment lens 7b is disposed on the optical path of the monitoring light L2 reflected by the mirror 7a. The monitor unit 7 includes a long-pass filter (hereinafter referred to as “Si long-pass filter”) 7c corresponding to an imaging element (hereinafter referred to as “Si-based imaging element”) 7f manufactured from a silicon-based semiconductor, which will be described later. The Si long pass filter 7c is configured to transmit light in a wavelength range of 800 nm or more. The Si long pass filter 7c is disposed on the optical path of the monitoring light L2 that has passed through the magnification adjusting lens 7b. The monitor unit 7 has an ND filter 7d, and the ND filter 7d is configured to reduce the amount of light passing therethrough. The ND filter 7d is disposed on the optical path of the monitoring light L2 that has passed through the Si long pass filter 7c. The monitor unit 7 includes an imaging condenser lens 7e, and the imaging condenser lens 7e is disposed on the optical path of the monitoring light L2 that has passed through the ND filter 7d. The imaging condenser lens 7e is configured to collect the monitoring light L2 on an imaging surface of an Si-based imaging element 7f described later. The monitor unit 7 includes a Si image sensor 7f, and the Si image sensor 7f is configured to convert the monitoring light L2 into an analog electric signal. The Si-based image sensor 7f has sensitivity to light in a wavelength range of 200 nm to 1100 nm. The monitor unit 7 has an amplifier 7g, and the amplifier 7g is configured to amplify an analog electric signal sent from the Si-based image sensor 7f. The monitor unit 7 includes an A / D converter 7h, and the A / D converter 7h is configured to convert the analog electric signal amplified by the amplifier 7g into a digital electric signal. The digital electrical signal converted by the A / D converter 7h is sent to the storage unit 8. The frame rate of the monitor unit 7 is 50 Hz or more and 1000 Hz or less.

Si系撮像素子7fの撮像面の条件について説明する。Si系撮像素子7fの撮像面がビードm全体を配置した領域に対して著しく大きい場合、画像上で表示されるビードmが少ないピクセル数によって表示されこととなる。この場合、ビードmの形状を正確に認識できなくなる。そのため、Si系撮像素子7fの撮像面が略正方形状に形成されていると想定した場合、撮像面の一辺の長さをdとし、溶接用集光レンズ6cの焦点距離をf1とし、撮像用集光レンズ7eの焦点距離をf2とし、倍率調整レンズ7bの倍率をsとし、ビードm全体を配置した領域の最大長さをlとすると、Si系撮像素子7fの撮像面の一辺の長さは、次の式(1)の条件を満たすと好ましい。   The conditions of the imaging surface of the Si-based imaging element 7f will be described. When the imaging surface of the Si imaging element 7f is significantly larger than the area where the entire bead m is arranged, the bead m displayed on the image is displayed with a small number of pixels. In this case, the shape of the bead m cannot be accurately recognized. Therefore, assuming that the imaging surface of the Si-based imaging element 7f is formed in a substantially square shape, the length of one side of the imaging surface is d, the focal length of the welding condenser lens 6c is f1, and the imaging surface When the focal length of the condenser lens 7e is f2, the magnification of the magnification adjusting lens 7b is s, and the maximum length of the region where the entire bead m is arranged is l, the length of one side of the imaging surface of the Si imaging element 7f. Is preferable to satisfy the condition of the following formula (1).

Figure 2014016304
Figure 2014016304

Si用ロングパスフィルタ7cを透過する光の波長範囲について説明する。レーザ溶接中に発生するプラズマ光は、原子の軌道電子により発生する遷移発光の成分を多く含んでおり、遷移発光の波長範囲は、典型的には、可視域に相当する200nm〜780nmの範囲になっている。一方で、黒体放射の輻射強度と波長との関係は、黒体放射の式を用いて絶対温度を1200K、1000K、及び800Kとして計算した場合、図4に示したグラフのようになる。図4のグラフでは、絶対温度を1200Kとした場合の計算結果を実線A1で示し、絶対温度を1000Kとした場合の計算結果を破線A2で示し、かつ絶対温度を800Kとした場合の計算結果を一点鎖線A3で示している。図4のグラフを参照すると、黒体放射の輻射強度は、波長が長くなるに連れて高くなっている。また、黒体放射の輻射強度は、温度が高くなるに連れて高くなっている。そのため、高い温度を有する残熱発光に含まれる黒体放射の輻射強度が、長波長領域で高くなることが確認できる。   The wavelength range of light passing through the Si long pass filter 7c will be described. Plasma light generated during laser welding contains many components of transition emission generated by orbital electrons of atoms, and the wavelength range of transition emission is typically in the range of 200 nm to 780 nm corresponding to the visible range. It has become. On the other hand, the relationship between the radiation intensity of black body radiation and the wavelength is as shown in the graph of FIG. 4 when the absolute temperature is calculated as 1200 K, 1000 K, and 800 K using the black body radiation equation. In the graph of FIG. 4, the calculation result when the absolute temperature is 1200K is indicated by a solid line A1, the calculation result when the absolute temperature is 1000K is indicated by a broken line A2, and the calculation result when the absolute temperature is 800K. This is indicated by a one-dot chain line A3. Referring to the graph of FIG. 4, the radiant intensity of blackbody radiation increases as the wavelength increases. Further, the radiation intensity of black body radiation increases as the temperature increases. Therefore, it can be confirmed that the radiation intensity of the black body radiation included in the residual heat emission having a high temperature increases in the long wavelength region.

また、Si系撮像素子7fの相対感度とSi系撮像素子7fに入力される光の波長との関係は、典型的には、図5に示すようになっている。図5に示すように、Si系撮像素子7fの感度は、特に、600nm以上の波長範囲で低下している。そのため、Si系撮像素子7fは、800nm〜1100nmの波長範囲において、低い強度の光を感知し難く、かつ高い強度の光を感知する傾向にある。   Further, the relationship between the relative sensitivity of the Si image sensor 7f and the wavelength of light input to the Si image sensor 7f is typically as shown in FIG. As shown in FIG. 5, the sensitivity of the Si-based image sensor 7f is lowered particularly in the wavelength range of 600 nm or more. Therefore, the Si-based image sensor 7f has a tendency to hardly detect low intensity light and to detect high intensity light in a wavelength range of 800 nm to 1100 nm.

そこで、プラズマ光に多く含まれる遷移発光の波長範囲の上限値780nmと、波長のバラツキとを考慮して、Si用ロングパスフィルタ7cを透過する光の波長範囲は、800nm以上に定められている。そのため、Si系撮像素子7fには、800nm以上の波長範囲で光が送られて、Si系撮像素子7fは、入力される光を800nm〜1100nmの波長範囲で感知することとなる。このような波長範囲では、Si系撮像素子7fは、低い輻射強度を有する遷移発光の成分を含んだプラズマ光を感知し難い一方で、高い輻射強度を有する黒体放射による発光の成分を多く含む残熱発光を感知し易くなっている。なお、Si用ロングパスフィルタ7cは、800nmより小さな波長の光を遮断するように構成されていると好ましい。しかしながら、Si系撮像素子7fは、800nm〜1100nmの波長範囲で光を感知できればよいので、例えば、Si用ロングパスフィルタ7cが、800nm、900nm、又は1000nmより小さな波長の光を遮断するように構成されていてもよい。   Therefore, in consideration of the upper limit 780 nm of the wavelength range of transition emission included in the plasma light and the variation in wavelength, the wavelength range of the light transmitted through the Si long pass filter 7c is set to 800 nm or more. Therefore, light is transmitted to the Si image sensor 7f in a wavelength range of 800 nm or more, and the Si image sensor 7f senses input light in a wavelength range of 800 nm to 1100 nm. In such a wavelength range, the Si-based imaging element 7f is difficult to detect plasma light including a transition light emission component having a low radiation intensity, but includes a large amount of a light emission component due to black body radiation having a high radiation intensity. Residual heat emission is easily detected. Note that the Si long-pass filter 7c is preferably configured to block light having a wavelength shorter than 800 nm. However, the Si imaging element 7f only needs to be able to sense light in the wavelength range of 800 nm to 1100 nm. For example, the Si long-pass filter 7c is configured to block light having a wavelength smaller than 800 nm, 900 nm, or 1000 nm. It may be.

また、モニタ部7のフレームレートの範囲について説明する。溶接開始付近では発生するプラズマが大きな領域を占めているので、溶接を既に終えているビードmを観察できないことが多い。そのため、溶接開始から一定時間経過後に、記憶部8に画像を蓄積することが有効である。また、ビードm全体を画像処理の対象とするためには、連続して取得した複数の画像の一部を用いればよいので、このような複数の画像の一部を取得すればよい。また、画像処理に用いる画像は、完全に連続している必要はない。ビードmの終端部分m2においては、高速で複数の画像を撮影しない場合に、金属が冷えるので、画像の撮影は高サンプリングにする必要がある。その一方で、溶接開始から溶接終了までの間の途中観察において、高サンプリングで画像の撮影をした場合、ほとんど変化がない複数の画像が取得されることとなる。このような複数の画像において同様の特性を計算することは無駄になるので、モニタ部7のフレームレートは、計算処理時間の短縮、記憶部8の容量の節約等を考慮して定めることが好ましい。そこで、フレームレートの上限値が高くなるに連れて、撮影される画像の数量が増加することによって、ビードmの形状を認識する精度が高くなる一方で、1秒間に撮影される画像の数量が1000フレームより大きい場合(すなわち、フレームレートが1000Hzより大きい場合)、画像処理の計算負荷が増加することとなることを考慮して、フレームレートの上限値は1000Hzに定められている。   The range of the frame rate of the monitor unit 7 will be described. Since the generated plasma occupies a large area near the start of welding, the bead m that has already been welded cannot often be observed. Therefore, it is effective to store an image in the storage unit 8 after a certain time has elapsed since the start of welding. Further, in order to set the entire bead m as a target of image processing, it is only necessary to use a part of a plurality of images acquired in succession. Therefore, a part of the plurality of images may be acquired. Also, the images used for image processing need not be completely continuous. In the terminal portion m2 of the bead m, when a plurality of images are not captured at a high speed, the metal cools down. Therefore, it is necessary to capture images at a high sampling rate. On the other hand, when an image is captured at a high sampling rate during observation from the start of welding to the end of welding, a plurality of images with almost no change are acquired. Since it is useless to calculate similar characteristics in such a plurality of images, it is preferable to determine the frame rate of the monitor unit 7 in consideration of shortening the calculation processing time, saving the capacity of the storage unit 8, and the like. . Therefore, as the upper limit of the frame rate increases, the number of images to be captured increases, so that the accuracy of recognizing the shape of the bead m increases, while the number of images to be captured per second increases. When the frame rate is greater than 1000 frames (that is, when the frame rate is greater than 1000 Hz), the upper limit value of the frame rate is set to 1000 Hz in consideration of an increase in calculation load of image processing.

その一方で、フレームレートの下限値が低い場合、1つの画像を撮影するタイミングから次の画像を撮影するタイミングまでの間に、撮影しようとするビードmの溶接領域Jが移動して、モニタ部7により捕らえられた撮影範囲から外れるおそれがある。この場合、ビードmを正確に撮影することができなくなる。そこで、フレームレートの下限値は、次のような条件を満たす必要がある。   On the other hand, when the lower limit value of the frame rate is low, the welding region J of the bead m to be photographed moves from the timing of photographing one image to the timing of photographing the next image, and the monitor unit There is a risk of deviating from the shooting range captured by 7. In this case, the bead m cannot be accurately photographed. Therefore, the lower limit value of the frame rate needs to satisfy the following conditions.

フレームレートをfとし、溶接に用いられるレーザ光L1の移動速度をVmとし、かつ撮影範囲の中心から撮影範囲内と撮影範囲外との間の境界までの最短距離をRmとした場合、フレームレートは、次の式(2)の条件を満たすと好ましい。   When the frame rate is f, the moving speed of the laser beam L1 used for welding is Vm, and the shortest distance from the center of the shooting range to the boundary between the shooting range and the shooting range is Rm, the frame rate Preferably satisfies the condition of the following expression (2).

Figure 2014016304
Figure 2014016304

典型的な条件において、Vmは0.133m/sec(8m/min)になり、かつRmは0.002m(2mm)になるので、式(2)よりfを約67Hzより大きくする必要がある。さらに、レーザ光L1の移動速度のバラツキを考慮して、フレームレートの下限値は50Hzに定められている。   Under typical conditions, Vm is 0.133 m / sec (8 m / min) and Rm is 0.002 m (2 mm). Therefore, it is necessary to make f larger than about 67 Hz from the equation (2). Furthermore, the lower limit value of the frame rate is set to 50 Hz in consideration of variations in the moving speed of the laser light L1.

図6を参照すると、画像取り込み部9は、溶接終了直後から所定の時間内に生じる残熱発光の画像を取り込むように構成されている。具体的には、画像取り込み部9は、画像の平均輝度Gが所定の取り込み開始(検査開始)輝度閾値g1以下である場合に、画像の取り込みを開始し、予め設定された枚数の画像の撮影を終了した場合に、又は画像の平均輝度Gが所定の取り込み終了輝度閾値g2以下である場合に、残熱発光が終了したと認識して、画像の取り込みを終了するように構成されている。   Referring to FIG. 6, the image capturing unit 9 is configured to capture an image of residual heat emission that occurs within a predetermined time immediately after the end of welding. Specifically, the image capturing unit 9 starts capturing an image when the average luminance G of the image is equal to or lower than a predetermined capture start (inspection start) luminance threshold g1, and captures a predetermined number of images. Is completed, or when the average luminance G of the image is equal to or less than a predetermined capture end luminance threshold value g2, it is recognized that the residual heat emission has ended, and the image capture is terminated.

ここで、画像取り込み装置2の好ましい形態の一例を説明する。残熱発光は、溶接終了直後から数十ms(ミリ秒)間生じた後に減衰するので、溶接終了直後から約20ms間に生じる光であると好ましい。この場合、モニタ部7には、フレームレート約500Hz(周期2ms)の高速度カメラが用いられるとよく、約10枚(=20ms÷2ms)の画像が取り込まれることとなる。また、モニタ部7には、高ダイナミックレンジカメラが用いられると好ましく、信号検出のダイナミックレンジが広く、かつ計測可能な輝度の範囲が広くなっているので、溶接中及び溶接直後の画像を撮影できる。画像取り込み部9では、画像の取り込みを開始する開始輝度閾値g1が、溶接中及び溶接直後の平均輝度Gの中間値となっていると好ましい。画像の取り込みを終了する終了輝度閾値g2は、開始輝度閾値g1より小さく、かつ残熱発光を確認できない程に暗くなった状態の画像の平均輝度Gより大きくなっていると好ましい。   Here, an example of a preferable form of the image capturing device 2 will be described. The residual heat emission is attenuated after being generated for several tens of milliseconds (milliseconds) immediately after the end of welding. In this case, a high-speed camera with a frame rate of about 500 Hz (cycle 2 ms) is preferably used for the monitor unit 7 and about 10 images (= 20 ms ÷ 2 ms) are captured. Moreover, it is preferable that a high dynamic range camera is used for the monitor unit 7, and since the signal detection dynamic range is wide and the measurable luminance range is wide, it is possible to take images during and immediately after welding. . In the image capturing unit 9, it is preferable that the start luminance threshold value g <b> 1 for starting image capturing is an intermediate value of the average luminance G during and immediately after welding. The end luminance threshold value g2 for completing the image capture is preferably smaller than the start luminance threshold value g1 and larger than the average luminance G of the image that has become so dark that residual heat emission cannot be confirmed.

次に、図7〜図13を参照して、画像処理装置3の画像処理部4の詳細を説明する。図7を参照すると、画像処理部4はビード認識手段10を有しており、このビード認識手段10は、画像取り込み装置2によって取り込んだ画像に基づいて、ビード領域候補を認識するようになっている。図7を参照すると、画像処理部4はビード判別手段11を有しており、このビード判別手段11は、複数のビード領域候補が認識された場合に、図8に示すように、複数のビード領域候補から実際のビードに対応するビード領域Eを判別するようになっている。なお、ビード領域Eは、ビードmの始端部分m1に対応する始端部分E1、ビードmの終端部分m2に対応する中間部分E2、及びビードmの中間部分m3に対応する終端部分E3を有している。再び図7を参照すると、画像処理部4は基準線設定手段12を有しており、この基準線設定手段12は、図9及び図10に示すように、取り込んだ画像にて複数の基準線Lを格子状に設定するようになっている。図7を参照すると、画像処理部4は輪郭点形成手段13を有しており、この輪郭点形成手段13は、図9及び図10に示すように、基準線L上にビード領域Eの輪郭点pを形成するようになっている。図7を参照すると、画像処理部4は背骨点形成手段14を有しており、この背骨点形成手段14は、図9及び図10に示すように、同一の基準線L上に形成された2つの輪郭点p間の中間に位置する背骨点qを形成するようになっている。   Next, details of the image processing unit 4 of the image processing apparatus 3 will be described with reference to FIGS. Referring to FIG. 7, the image processing unit 4 includes a bead recognition unit 10, which recognizes a bead area candidate based on the image captured by the image capturing device 2. Yes. Referring to FIG. 7, the image processing unit 4 includes a bead discriminating unit 11, and when the bead discriminating unit 11 recognizes a plurality of bead area candidates, as shown in FIG. The bead area E corresponding to the actual bead is discriminated from the area candidates. The bead region E includes a start end portion E1 corresponding to the start end portion m1 of the bead m, an intermediate portion E2 corresponding to the end portion m2 of the bead m, and a terminal end portion E3 corresponding to the intermediate portion m3 of the bead m. Yes. Referring again to FIG. 7, the image processing unit 4 includes a reference line setting unit 12, and the reference line setting unit 12 includes a plurality of reference lines in the captured image as illustrated in FIGS. 9 and 10. L is set in a grid pattern. Referring to FIG. 7, the image processing unit 4 includes a contour point forming unit 13, and the contour point forming unit 13 contours the bead region E on the reference line L as shown in FIGS. 9 and 10. A point p is formed. Referring to FIG. 7, the image processing unit 4 has a spine point forming unit 14, and the spine point forming unit 14 is formed on the same reference line L as shown in FIGS. 9 and 10. A spine point q located in the middle between the two contour points p is formed.

図7を参照すると、画像処理部4は概略形状判定手段15を有しており、概略形状判定手段15は、背骨点qに基づいてビードmの概略形状を判断するようになっている。図7を参照すると、画像処理部4は円弧用修正要素16を有しており、円弧用修正要素16は、図9に示すように、概略形状判定手段15がビードmの概略形状を円弧形状と判定した場合に、図11及び図12に示すように、基準線L、輪郭点p、及び背骨点qをそれぞれ修正した修正基準線L’、修正輪郭点p’、及び修正背骨点q’を算出するようになっている。図2を参照すると、画像処理部4は直線用修正要素17を有しており、直線用修正要素17は、図10に示すように、概略形状判定手段15がビードmの概略形状を直線形状と判定した場合に、図13に示すように、基準線L、輪郭点p、及び背骨点qをそれぞれ修正した修正基準線L’、修正輪郭点p’、及び修正背骨点q’を算出するようになっている。図7を参照すると、画像処理部4は輪郭線形成手段18を有しており、この輪郭線形成手段18は、輪郭点pに基づいて輪郭線Pを形成するか、又は図12及び図13に示すように円弧用修正要素16及び直線用修正要素17によって算出された複数の修正輪郭点p’に基づいて輪郭線Pを形成するようになっている。図7を参照すると、画像処理部4は背骨線形成手段19を有しており、この背骨線形成手段19は、背骨点qに基づいて背骨線Qを形成するか、又は図12及び図13に示すように円弧用修正要素16及び直線用修正要素17によって算出された複数の修正背骨点q’に基づいて背骨線Qを形成するようになっている。   Referring to FIG. 7, the image processing unit 4 includes a rough shape determining unit 15, and the rough shape determining unit 15 determines a rough shape of the bead m based on the spine point q. Referring to FIG. 7, the image processing unit 4 has an arc correcting element 16, and the arc correcting element 16 is configured so that the approximate shape determining means 15 converts the approximate shape of the bead m into an arc shape as shown in FIG. 9. 11 and 12, as shown in FIGS. 11 and 12, a corrected reference line L ′, a corrected contour point p ′, and a corrected spine point q ′ obtained by correcting the reference line L, the contour point p, and the spine point q, respectively. Is calculated. Referring to FIG. 2, the image processing unit 4 includes a straight line correction element 17. As shown in FIG. 10, the straight line correction element 17 has a rough shape determining means 15 that changes the rough shape of the bead m to a straight line shape. 13, the corrected reference line L ′, the corrected contour point p ′, and the corrected spine point q ′ obtained by correcting the reference line L, the contour point p, and the spine point q, respectively, are calculated as shown in FIG. It is like that. Referring to FIG. 7, the image processing unit 4 includes a contour line forming unit 18, which forms a contour line P based on the contour point p, or FIGS. 12 and 13. As shown in FIG. 8, a contour line P is formed based on a plurality of corrected contour points p ′ calculated by the arc correcting element 16 and the straight correcting element 17. Referring to FIG. 7, the image processing unit 4 includes a spine line forming unit 19, which forms the spine line Q based on the spine point q, or FIGS. 12 and 13. As shown in FIG. 4, a spine line Q is formed based on a plurality of corrected spine points q ′ calculated by the arc correcting element 16 and the straight correcting element 17.

ビード認識手段10の詳細について説明する。ビード認識手段10により認識されるビード領域候補は、所定の輪郭輝度閾値hより残熱発光の輝度Hが大きい領域になっており、輪郭輝度閾値hは、ビードmの輪郭線を識別可能とするように設定されている。なお、ビード領域Eは、複数のビード領域点eから構成されている。一例として、ビード領域点eは、画像上で1つ以上のピクセルにより表され、複数のビード領域点eは、互いに隣接して配置されるか、又はピクセル単位の間隔で配置されているとよい。   Details of the bead recognition means 10 will be described. The bead area candidate recognized by the bead recognizing means 10 is an area where the residual heat emission luminance H is higher than the predetermined contour luminance threshold value h, and the contour luminance threshold value h can identify the contour line of the bead m. Is set to The bead region E is composed of a plurality of bead region points e. As an example, the bead area point e is represented by one or more pixels on the image, and the plurality of bead area points e may be arranged adjacent to each other or arranged at intervals of a pixel unit. .

図7を参照して、ビード判別手段11の詳細について説明する。ビード判別手段11は、ビード領域候補の幅Bが所定の幅閾値b以下になっている場合に、このようなビード領域候補が実際のビードmに相当すると認識するようになっている。一例として、溶接部材Mの溶接領域Jに形成されるビードmの幅が、バラツキによって予め定められた値の2倍より大きくなり難いので、幅閾値bは、予め定められたビードmの幅の2倍であるとよく、より精度を高めるためには、幅閾値bは、予め定められたビードmの幅の1.5倍であると好ましい。また、ビード判別手段11は、各ビード領域候補のアスペクト比(縦横比)を計算し、このアスペクト比に基づいて、複数のビード領域候補から実際のビードmに対応するビード領域Eを選択するようになっていていると好ましい。例えば、アスペクト比が一般的なビードmの横長形状に対応する値より大きくなっている場合に、このようなビード領域候補が実際のビードmに相当すると認識する設定であるとよい。実際のビードmと、溶接時に飛散するスパッタ粒子とにそれぞれ対応するビード領域候補が認識された場合、スパッタ粒子に対応するビード領域候補は、等方的な形状に形成されるのに対して、ビードmは横長形状に形成されることとなる。そのため、実際のビードmに対応するビード領域Eが正確に選択されることとなる。さらに、スパッタ粒子に対応するビード領域候補が、等方的な形状に形成されていない場合を考慮して、ビード判別手段11は、複数のビード領域候補が時間を前後して取り込んだ画像において移動しているか、又は停止しているかを判定し、かつ停止しているビード領域候補が実際のビードmに対応するビード領域Eであると認識するようになっていると好ましい。   With reference to FIG. 7, the detail of the bead discrimination | determination means 11 is demonstrated. The bead discriminating means 11 recognizes that such a bead area candidate corresponds to the actual bead m when the width B of the bead area candidate is equal to or smaller than a predetermined width threshold value b. As an example, since the width of the bead m formed in the welding region J of the welding member M is unlikely to be larger than twice the predetermined value due to variation, the width threshold value b is equal to the predetermined width of the bead m. The width threshold b is preferably 1.5 times the predetermined width of the bead m in order to improve the accuracy. Further, the bead discriminating unit 11 calculates the aspect ratio (aspect ratio) of each bead area candidate, and selects a bead area E corresponding to the actual bead m from the plurality of bead area candidates based on the aspect ratio. It is preferable that For example, when the aspect ratio is larger than a value corresponding to a horizontally long shape of a general bead m, it may be set to recognize that such a bead area candidate corresponds to an actual bead m. When the bead area candidates corresponding to the actual beads m and the sputtered particles scattered during welding are recognized, the bead area candidates corresponding to the sputtered particles are formed in an isotropic shape, The bead m is formed in a horizontally long shape. Therefore, the bead area E corresponding to the actual bead m is accurately selected. Further, in consideration of the case where the bead area candidates corresponding to the sputtered particles are not formed in an isotropic shape, the bead discrimination means 11 moves in an image in which a plurality of bead area candidates are captured before and after time. It is preferable to determine whether the bead area is stopped or stopped and to recognize that the stopped bead area candidate is the bead area E corresponding to the actual bead m.

図8及び図9を参照して、基準線設定手段12の詳細について説明する。基準線設定手段12により設定される複数の基準線Lは、互いにピクセル単位の間隔を空けて配置されている。このような複数の基準線L同士の間隔は、複数のビード領域点eの間隔より大きくなっていると好ましい。   Details of the reference line setting means 12 will be described with reference to FIGS. The plurality of reference lines L set by the reference line setting means 12 are arranged at intervals of pixel units. The interval between the plurality of reference lines L is preferably larger than the interval between the plurality of bead region points e.

図8及び図9を参照して、輪郭点形成手段13の詳細について説明する。輪郭点pは、画像取り込み装置2によって取り込んだ画像に基づいて、ビードmの輪郭に相当する境界と基準線Lとの交差箇所に形成される。ビードmの輪郭に相当する境界は、残熱発光の輝度Hが、ビードmの輪郭線を識別するように設定した輪郭輝度閾値hより大きい明領域と、残熱発光の輝度Hが、輪郭輝度閾値hより小さい暗領域との間の輝度境界に位置している。すなわち、輪郭輝度閾値hは、ビードmの輪郭に対応するように、ビードmの輪郭の内側領域に対応する残熱発光の輝度Hより小さく、かつビードmの輪郭の外側領域に対応する残熱発光の輝度Hより大きな値に設定されている。なお、一例として、輪郭輝度閾値hは、ビードmの輪郭と残熱発光の輝度Hとの関係を予め求めておくことによって、設定されているとよい。   Details of the contour point forming means 13 will be described with reference to FIGS. The contour point p is formed at the intersection of the boundary corresponding to the contour of the bead m and the reference line L based on the image captured by the image capturing device 2. The boundary corresponding to the contour of the bead m has a bright region in which the residual heat emission luminance H is larger than the contour luminance threshold h set so as to identify the contour line of the bead m, and the residual heat emission luminance H is the contour luminance. It is located at a luminance boundary with a dark area smaller than the threshold value h. That is, the contour luminance threshold value h is smaller than the residual heat emission luminance H corresponding to the inner region of the bead m contour and corresponds to the outer region of the bead m contour so as to correspond to the bead m contour. It is set to a value larger than the luminance H of light emission. As an example, the contour luminance threshold value h may be set by obtaining in advance the relationship between the contour of the bead m and the luminance H of the residual heat emission.

図8及び図9を参照して、概略形状判定手段15の詳細について説明する。概略形状判定手段15は、複数の背骨点qの位置に基づいて、ビードmの形状が、円弧形状、直線形状、又は円弧形状及び直線形状以外の形状であるかを判定するようになっている。   Details of the approximate shape determining means 15 will be described with reference to FIGS. Based on the positions of the plurality of spine points q, the approximate shape determining means 15 determines whether the shape of the bead m is an arc shape, a linear shape, or a shape other than the arc shape and the linear shape. .

図7、図11、及び図12を参照して、円弧用修正要素16の詳細について説明する。図7を参照すると、円弧用修正要素16は代表背骨点抽出手段20を有しており、代表背骨点抽出部20は、図11に示すように、複数の背骨点qからビード領域Eの長さを均等に分けるように位置する3個以上の代表背骨点q0を抽出するようになっている。図7を参照すると、円弧用修正要素16は二等分線算出手段21を有しており、二等分線算出手段21は、図11に示すように、隣接する代表背骨点q0を結ぶ線分の長手方向中間で当該線分に直交する二等分線Dを算出するようになっている。図7を参照すると、円弧用修正要素16は交点算出手段22を有しており、交点算出手段22は、図11に示すように、複数の二等分線D同士の交点cを算出するようになっている。図7を参照すると、円弧用修正要素16は円弧用修正基準線設定手段23を有しており、円弧用修正基準点設定手段23は、図12に示すように、二等分線Dの交点cを中心として放射状に延びる複数の修正基準線L’を設定するようになっている。図7を参照すると、円弧用修正要素16は円弧用修正輪郭点形成手段24を有しており、円弧用修正輪郭点形成手段24は、図12に示すように、ビードmの輪郭に相当する輝度境界と修正基準線L’との交差箇所に修正輪郭点p’を形成するようになっている。図7を参照すると、円弧用修正要素16は円弧用修正背骨点形成手段26を有しており、円弧用修正背骨点形成手段25は、図12に示すように、同一の修正基準線L’上における2つの修正輪郭点p’間の中間に修正背骨点q’を形成するようになっている。   Details of the arc correcting element 16 will be described with reference to FIGS. 7, 11, and 12. Referring to FIG. 7, the arc correcting element 16 has a representative spine point extracting means 20, and the representative spine point extracting unit 20, as shown in FIG. 11, extracts the length of the bead region E from a plurality of spine points q. Three or more representative spine points q0 located so as to be equally divided are extracted. Referring to FIG. 7, the arc correcting element 16 has a bisector calculation means 21, and the bisector calculation means 21 is a line connecting adjacent representative spine points q0 as shown in FIG. A bisector D perpendicular to the line segment is calculated at the middle in the longitudinal direction of the minute. Referring to FIG. 7, the arc correcting element 16 has an intersection calculation unit 22, and the intersection calculation unit 22 calculates an intersection c between a plurality of bisectors D as shown in FIG. 11. It has become. Referring to FIG. 7, the arc correction element 16 has an arc correction reference line setting means 23, and the arc correction reference point setting means 23 is the intersection of the bisectors D as shown in FIG. A plurality of correction reference lines L ′ extending radially around c are set. Referring to FIG. 7, the arc correcting element 16 has an arc correcting contour point forming means 24, and the arc correcting contour point forming means 24 corresponds to the contour of the bead m as shown in FIG. A corrected contour point p ′ is formed at the intersection of the luminance boundary and the corrected reference line L ′. Referring to FIG. 7, the arc correcting element 16 has an arc correcting spine point forming means 26. As shown in FIG. 12, the arc correcting spine point forming means 25 has the same correction reference line L ′. A corrected spine point q ′ is formed in the middle between the above two corrected contour points p ′.

図7及び図13を参照して、直線用修正要素17の詳細について説明する。図7を参照すると、直線用修正要素17は直線用修正基準線設定手段26を有しており、直線用修正基準線形成手段26は、図13に示すように、ビード領域Eの延びる方向に直交する複数の修正基準線L’を設定するようになっている。図7を参照すると、直線用修正手段16は直線用修正輪郭点形成手段27を有しており、直線用修正輪郭点形成手段27は、図13に示すように、ビードmの輪郭に相当する輝度境界と修正基準線L’との交差箇所に修正輪郭点p’を形成するようになっている。図7を参照すると、直線用修正手段16は直線用修正背骨点形成手段28を有しており、直線用修正背骨点形成手段28は、図13に示すように、同一の修正基準線L’上における2つの修正輪郭点p’間に修正背骨点q’を形成するようになっている。   With reference to FIG.7 and FIG.13, the detail of the correction element 17 for straight lines is demonstrated. Referring to FIG. 7, the straight line correction element 17 has a straight line correction reference line setting unit 26, and the straight line correction reference line forming unit 26 extends in the direction in which the bead region E extends as shown in FIG. 13. A plurality of orthogonal correction reference lines L ′ are set. Referring to FIG. 7, the straight line correcting means 16 has a straight line corrected contour point forming means 27, and the straight line corrected contour point forming means 27 corresponds to the contour of the bead m as shown in FIG. A corrected contour point p ′ is formed at the intersection of the luminance boundary and the corrected reference line L ′. Referring to FIG. 7, the straight line correcting means 16 has straight straight spine point forming means 28, and the straight straight spine point forming means 28 has the same correction reference line L ′ as shown in FIG. A corrected spine point q ′ is formed between the above two corrected contour points p ′.

図11及び図13を参照して、修正輪郭線形成手段18及び修正背骨線形成手段19の詳細について説明する。修正輪郭線形成手段18は、フィッティング関数fn1を用いて、複数の修正輪郭点p’に基づく輪郭線Pを形成するようになっている。また、修正背骨線形成手段19は、フィッティング関数fn2を用いて、複数の修正背骨点q’に基づく背骨線Qを形成するようになっている。一例として、フィッティング関数fn1及びフィッティング関数fn2の少なくとも一方が、各修正輪郭点p’又は各修正背骨点q’の座標を(X,Y)(J=1,2,3,・・・,N,N+1)と認識した場合に、下記式(3)に基づく折れ線によって定義されてもよい。 With reference to FIG.11 and FIG.13, the detail of the correction outline formation means 18 and the correction spine line formation means 19 is demonstrated. The corrected contour line forming means 18 forms a contour line P based on a plurality of corrected contour points p ′ using the fitting function fn1. The modified spine line forming means 19 forms a spine line Q based on a plurality of corrected spine points q ′ using the fitting function fn2. As an example, at least one of the fitting function fn1 and the fitting function fn2 determines the coordinates of each modified contour point p ′ or each modified spine point q ′ as (X J , Y J ) (J = 1, 2, 3,... , N, N + 1) may be defined by a polygonal line based on the following formula (3).

Figure 2014016304
Figure 2014016304

式(3)のAXJ、BXJ、AYJ、BYJ、及びtは、それぞれ下記式(4)〜式(8)によって定義される。

Figure 2014016304
A XJ , B XJ , A YJ , B YJ , and t J in the formula (3) are defined by the following formulas (4) to (8), respectively.
Figure 2014016304

ビード形状判定部5の詳細を説明する。ビード形状判定部5は、画像処理部4により認識された輪郭線P及び背骨線Q間の関係と、背骨線Qに沿った残熱発光の輝度の情報とに基づいて、ビードmに発生する欠陥を判定するようになっている。   Details of the bead shape determination unit 5 will be described. The bead shape determination unit 5 is generated in the bead m based on the relationship between the contour line P and the spine line Q recognized by the image processing unit 4 and the information on the luminance of the residual heat emission along the spine line Q. Defects are judged.

ここで、本実施形態の画像処理システム1を用いて溶接領域Jに形成されるビードmの形状を認識する方法を説明する。最初に、画像取り込み装置2における画像取り込み方法について説明する。画像取り込み装置2のレーザ照射部6において、レーザ発振器6aがレーザ光L1を発射する。レーザ発振器6aから発射されたレーザ光L1は、ハーフミラー6bを通過し、かつ溶接用集光ミラー6cによって集光された後に、溶接部材Mの溶接領域Jに照射される。その後、溶接部材Mの溶接領域Jに照射されたレーザ光L1によりビードmを形成した部分から残熱発光が出射してモニタリング光L2となる。このモニタリング光L2が、溶接用集光レンズ6cを通過し、かつハーフミラー6bによって角度を変えられた後に、モニタ部7に送られる。   Here, a method for recognizing the shape of the bead m formed in the welding region J using the image processing system 1 of the present embodiment will be described. First, an image capturing method in the image capturing device 2 will be described. In the laser irradiation unit 6 of the image capturing device 2, a laser oscillator 6a emits a laser beam L1. The laser beam L1 emitted from the laser oscillator 6a passes through the half mirror 6b and is collected by the welding condensing mirror 6c, and then irradiated to the welding region J of the welding member M. Thereafter, residual heat emission is emitted from the portion where the bead m is formed by the laser light L1 irradiated to the welding region J of the welding member M, and becomes the monitoring light L2. The monitoring light L2 passes through the welding condenser lens 6c and is sent to the monitor unit 7 after the angle is changed by the half mirror 6b.

画像取り込み装置2のモニタ部7において、レーザ照射部6から送られたモニタリング光L2は、ミラー7aによって角度を変えられた後に、倍率調整レンズ7bに送られる。モニタリング光L2が倍率調整レンズ6bを通過する際、その倍率が調整される。倍率調整レンズ7bにより倍率調整されたモニタリング光L2は、Si用ロングパスフィルタ7cに送られる。Si用ロングパスフィルタ7cにおいて、モニタリング光L2の800nmより小さな波長成分が遮断され、かつモニタリング光L2の800nmより大きな波長成分がSi用ロングパスフィルタ7cを透過する。Si用ロングパスフィルタ7cを通過したモニタリング光L2は、NDフィルタ7dに送られる。NDフィルタ7dにおいて、モニタリング光L2の光の量が、画像処理装置3の画像処理部4によってビードmの形状を明確に認識可能とするように減少する。NDフィルタ7dを通過したモニタリング光L2は、撮像用集光レンズ7eに送られる。撮像用集光レンズ7eにおいて、モニタリング光L2が集光される。撮影用集光レンズ7eにより集光されたモニタリング光L2は、Si系撮像素子7fに照射される。Si系撮像素子7fにおいて、モニタリング光L2における800nm〜1100nmの波長範囲の成分が感知され、感知されたモニタリング光L2がアナログ電気信号に変換され、このアナログ電気信号はアンプ7gに送られる。アンプ7gにおいて、アナログ電気信号は増幅され、増幅されたアナログ電気信号はA/D変換器7hに送られる。A/D変換器7hにおいて、アナログ電気信号はデジタル電気信号に変換され、このデジタル電気信号は記憶部8に送られる。記憶部8において、デジタル電気信号は1つの画像として記憶される。このようにSi系撮像素子7fにモニタリング光L2を照射し、Si系撮像素子7fによりモニタリング光L2をアナログ電気信号に変換し、A/D変換器7hによりアナログ電気信号をデジタル電気信号に変換し、かつこのデジタル電気信号を1つの画像として記憶する動作は、50Hzより大きくかつ1000Hzより小さなフレームレートに基づいて連続的に実施される。さらに、記憶部8に記憶された画像は画像取り込み部9に取り込まれる。   In the monitor unit 7 of the image capturing device 2, the monitoring light L2 sent from the laser irradiation unit 6 is sent to the magnification adjusting lens 7b after the angle is changed by the mirror 7a. When the monitoring light L2 passes through the magnification adjusting lens 6b, the magnification is adjusted. The monitoring light L2 whose magnification is adjusted by the magnification adjusting lens 7b is sent to the Si long pass filter 7c. In the Si long pass filter 7c, a wavelength component smaller than 800 nm of the monitoring light L2 is blocked, and a wavelength component larger than 800 nm of the monitoring light L2 passes through the Si long pass filter 7c. The monitoring light L2 that has passed through the Si long pass filter 7c is sent to the ND filter 7d. In the ND filter 7d, the amount of the monitoring light L2 decreases so that the shape of the bead m can be clearly recognized by the image processing unit 4 of the image processing apparatus 3. The monitoring light L2 that has passed through the ND filter 7d is sent to the imaging condenser lens 7e. The monitoring light L2 is collected in the imaging condenser lens 7e. The monitoring light L2 collected by the photographing condenser lens 7e is irradiated to the Si-based image sensor 7f. In the Si-based imaging device 7f, the component in the wavelength range of 800 nm to 1100 nm in the monitoring light L2 is sensed, the sensed monitoring light L2 is converted into an analog electric signal, and this analog electric signal is sent to the amplifier 7g. In the amplifier 7g, the analog electric signal is amplified, and the amplified analog electric signal is sent to the A / D converter 7h. In the A / D converter 7h, the analog electric signal is converted into a digital electric signal, and this digital electric signal is sent to the storage unit 8. In the storage unit 8, the digital electric signal is stored as one image. In this way, the Si-based image sensor 7f is irradiated with the monitoring light L2, the Si-based image sensor 7f converts the monitoring light L2 into an analog electric signal, and the A / D converter 7h converts the analog electric signal into a digital electric signal. The operation of storing the digital electric signal as one image is continuously performed based on a frame rate larger than 50 Hz and smaller than 1000 Hz. Further, the image stored in the storage unit 8 is captured by the image capturing unit 9.

次に、図14のフローチャートを参照して、画像処理装置3における画像処理方法を説明する。画像取り込み装置2の画像取り込み部9に取り込んだ画像に基づいて、所定の輪郭輝度閾値hより残熱発光の輝度Hが大きくなっているビード領域候補を認識し、複数のビード領域候補が認識された場合に、複数のビード領域候補の1つを読み出す(S1)。読み出されたビード領域候補の幅Bが、所定の幅閾値b以下であるか否かを判別する(S2)。   Next, an image processing method in the image processing apparatus 3 will be described with reference to the flowchart of FIG. Based on the image captured by the image capturing unit 9 of the image capturing device 2, a bead region candidate having a residual heat emission luminance H greater than a predetermined contour luminance threshold value h is recognized, and a plurality of bead region candidates are recognized. If one is found, one of a plurality of bead area candidates is read (S1). It is determined whether or not the read width B of the bead area candidate is equal to or smaller than a predetermined width threshold value b (S2).

ビード領域候補の幅Bが、所定の幅閾値b以下であると判別された場合(YES)、複数の基準線Lを格子状に設定し(S3)、ビードmの輪郭に相当する輝度境界と基準線Lとの交差箇所に輪郭点pを形成し(S4)、かつ同一の基準線L上に形成された2つの輪郭点p間の中間に位置する背骨点qを形成する(S5)。背骨点qに基づいてビードmの概略形状が円弧形状であるか否かを判断する(S6)。   When it is determined that the width B of the bead area candidate is equal to or smaller than the predetermined width threshold value b (YES), a plurality of reference lines L are set in a lattice shape (S3), and a luminance boundary corresponding to the contour of the bead m A contour point p is formed at the intersection with the reference line L (S4), and a spine point q located in the middle between two contour points p formed on the same reference line L is formed (S5). It is determined whether or not the approximate shape of the bead m is an arc shape based on the spine point q (S6).

ビードmの概略形状が円弧形状であると判定された場合(YES)、円弧用修正要素16によって、基準線L、輪郭点p、及び背骨点qをそれぞれ修正した修正基準線L’、修正輪郭点p’、及び修正背骨点q’を算出する(S7)。さらに、複数の修正輪郭点p’に基づいて輪郭線Pを形成し(S8)、複数の修正背骨点q’に基づいて背骨線Qを形成する(S9)。その後、ビード領域候補のすべてを確認したか否かを判定する(S10)。ビード領域候補のすべてを確認した場合(YES)、画像処理を終了する。ビード領域候補のすべてを確認していない場合(NO)、複数のビード領域候補の別の1つを読み出し(S11)、読み出されたビード領域候補の幅Bが、所定の幅閾値b以下であるか否かを判別する(S2)。   If it is determined that the approximate shape of the bead m is an arc shape (YES), the reference line L, the contour point p, and the spine point q are corrected by the arc correction element 16, respectively. A point p ′ and a corrected spine point q ′ are calculated (S7). Further, a contour line P is formed based on the plurality of corrected contour points p '(S8), and a spine line Q is formed based on the plurality of corrected spine points q' (S9). Thereafter, it is determined whether or not all bead area candidates have been confirmed (S10). When all the bead area candidates are confirmed (YES), the image processing is terminated. If all of the bead area candidates have not been confirmed (NO), another one of the plurality of bead area candidates is read (S11), and the width B of the read bead area candidate is equal to or less than a predetermined width threshold value b. It is determined whether or not there is (S2).

ビードmの概略形状が円弧形状でないと判定された場合(NO)、ビードmの概略形状が直線形状であるか否かを判定する(S12)。ビードmの概略形状が直線形状であると判断された場合(YES)、直線用修正要素17によって、基準線L、輪郭点p、及び背骨点qをそれぞれ修正した修正基準線L’、修正輪郭点p’、及び修正背骨点q’を算出する(S13)。さらに、複数の修正輪郭点p’に基づいて輪郭線Pを形成し(S8)、複数の修正背骨点q’に基づいて背骨線Qを形成する(S9)。その後、ビード領域候補のすべてを確認したか否かを判定する(S10)。ビード領域候補のすべてを確認した場合(YES)、画像処理を終了する。ビード領域候補のすべてを確認していない場合(NO)、複数のビード領域候補の別の1つを読み出し(S11)、読み出されたビード領域候補の幅Bが、所定の幅閾値b以下であるか否かを判別する(S2)。   When it is determined that the approximate shape of the bead m is not an arc shape (NO), it is determined whether or not the approximate shape of the bead m is a linear shape (S12). When it is determined that the approximate shape of the bead m is a straight line shape (YES), the reference line L, the contour point p, and the spine point q are corrected by the straight line correction element 17, respectively. A point p ′ and a corrected spine point q ′ are calculated (S13). Further, a contour line P is formed based on the plurality of corrected contour points p '(S8), and a spine line Q is formed based on the plurality of corrected spine points q' (S9). Thereafter, it is determined whether or not all bead area candidates have been confirmed (S10). When all the bead area candidates are confirmed (YES), the image processing is terminated. If all of the bead area candidates have not been confirmed (NO), another one of the plurality of bead area candidates is read (S11), and the width B of the read bead area candidate is equal to or less than a predetermined width threshold value b. It is determined whether or not there is (S2).

ビードmの概略形状が直線形状でないと判断された場合(NO)、複数の輪郭点pに基づいて輪郭線Pを形成し(S14)、複数の背骨点qに基づいて背骨線Qを形成する(S15)。その後、ビード領域候補のすべてを確認したか否かを判定する(S10)。ビード領域候補のすべてを確認した場合(YES)、画像処理を終了する。ビード領域候補のすべてを確認していない場合(NO)、複数のビード領域候補の別の1つを読み出し(S11)、読み出されたビード領域候補の幅Bが、所定の幅閾値b以下であるか否かを判別する(S2)。   When it is determined that the approximate shape of the bead m is not a straight line shape (NO), the contour line P is formed based on the plurality of contour points p (S14), and the spine line Q is formed based on the plurality of spine points q. (S15). Thereafter, it is determined whether or not all bead area candidates have been confirmed (S10). When all the bead area candidates are confirmed (YES), the image processing is terminated. If all of the bead area candidates have not been confirmed (NO), another one of the plurality of bead area candidates is read (S11), and the width B of the read bead area candidate is equal to or less than a predetermined width threshold value b. It is determined whether or not there is (S2).

その一方で、ビード領域候補の幅Bが、所定の幅閾値bより大きいと判別された場合(NO)、すなわち、ビード領域候補がプラズマ光又はスパッタ粒子であると判別された場合、ビード領域候補のすべてを確認したか否かを判定する(S10)。ビード領域候補のすべてを確認した場合(YES)、画像処理を終了する。ビード領域候補のすべてを確認していない場合(NO)、複数のビード領域候補の別の1つを読み出し(S11)、読み出されたビード領域候補の幅Bが、所定の幅閾値b以下であるか否かを判別する(S2)。   On the other hand, if it is determined that the width B of the bead region candidate is larger than the predetermined width threshold value b (NO), that is, if it is determined that the bead region candidate is plasma light or sputtered particles, the bead region candidate It is determined whether all of the above have been confirmed (S10). When all the bead area candidates are confirmed (YES), the image processing is terminated. If all of the bead area candidates have not been confirmed (NO), another one of the plurality of bead area candidates is read (S11), and the width B of the read bead area candidate is equal to or less than a predetermined width threshold value b. It is determined whether or not there is (S2).

図15のフローチャートを参照して、円弧用修正要素16によって修正基準線L’、修正輪郭点p’、及び修正背骨点q’を算出する方法の詳細について説明する。複数の背骨点qからビード領域Eの長さを均等に分けるように位置する3個以上の代表背骨点q0を抽出する(S21)。隣接する代表背骨点q0を結ぶ線分の長手方向中間で当該線分に直交する二等分線Dを算出する(S22)。複数の二等分線D同士の交点cを算出する(S23)。二等分線Dの交点cを中心として放射状に延びる複数の修正基準線L’を設定する(S24)。ビードmの輪郭に相当する輝度境界と修正基準線L’との交差箇所に修正輪郭点p’を形成する(S25)。同一の修正基準線L’上における2つの修正輪郭点p’間の中間に修正背骨点q’を形成する(S26)。   With reference to the flowchart of FIG. 15, details of a method for calculating the correction reference line L ′, the correction contour point p ′, and the correction spine point q ′ by the arc correction element 16 will be described. Three or more representative spine points q0 located so as to equally divide the length of the bead region E from a plurality of spine points q are extracted (S21). A bisector D perpendicular to the line segment in the middle of the line segment connecting the adjacent representative spine points q0 is calculated (S22). An intersection c between the plurality of bisectors D is calculated (S23). A plurality of correction reference lines L 'extending radially about the intersection c of the bisector D are set (S24). A corrected contour point p 'is formed at the intersection of the luminance boundary corresponding to the contour of the bead m and the correction reference line L' (S25). A corrected spine point q 'is formed in the middle between two corrected contour points p' on the same corrected reference line L '(S26).

図16のフローチャートを参照して、直線用修正要素17によって修正基準線L’、修正輪郭点p’、及び修正背骨点q’を算出する方法の詳細について説明する。ビード領域Eの延びる方向に直交する複数の修正基準線L’を設定する(S31)。ビードmの輪郭に相当する輝度境界と修正基準線L’との交差箇所に修正輪郭点p’を形成する(S32)。同一の修正基準線L’上における2つの修正輪郭点p’間に修正背骨点q’を形成する(S33)。   The details of a method for calculating the correction reference line L ′, the correction contour point p ′, and the correction spine point q ′ by the straight line correction element 17 will be described with reference to the flowchart of FIG. 16. A plurality of correction reference lines L 'perpendicular to the extending direction of the bead area E are set (S31). A corrected contour point p 'is formed at the intersection of the luminance boundary corresponding to the contour of the bead m and the corrected reference line L' (S32). A corrected spine point q 'is formed between two corrected contour points p' on the same corrected reference line L '(S33).

次に、画像処理装置3におけるビード形状判定方法を説明する。画像処理装置3のビード形状判定部5において、輪郭線P及び背骨線Qの位置及び形状と、輪郭線P及び背骨線Q間の関係と、背骨線Qに沿った残熱発光の輝度の情報とに基づいて、ビードmに発生する欠陥を判定する。   Next, a bead shape determination method in the image processing apparatus 3 will be described. In the bead shape determination unit 5 of the image processing device 3, the position and shape of the contour line P and the spine line Q, the relationship between the contour line P and the spine line Q, and the information on the luminance of the residual heat emission along the spine line Q Based on the above, a defect occurring in the bead m is determined.

以上のように本実施形態によれば、暫定的に定義された背骨点qに基づいて認識されたビードmの概略形状を考慮して算出された修正背骨点q’に基づいて、ビードmの形状認識の基準となる背骨線Qが形成されることとなる。その結果、正確な修正背骨点q’に基づいて背骨線Qを正確に形成でき、正確な背骨線Qに基づいてビードmの形状を正確に認識することができる。よって、ビードmの形状を認識する画像処理の精度を高めることができる。   As described above, according to the present embodiment, based on the corrected spine point q ′ calculated in consideration of the approximate shape of the bead m recognized based on the provisionally defined spine point q, A spine line Q serving as a reference for shape recognition is formed. As a result, the spine line Q can be accurately formed based on the correct corrected spine point q ', and the shape of the bead m can be accurately recognized based on the accurate spine line Q. Therefore, the accuracy of image processing for recognizing the shape of the bead m can be improved.

本実施形態によれば、ビード領域候補の明領域の幅Bが所定の幅閾値b以下になっている場合に、輝度境界と基準線Lとの交差箇所に輪郭点pを形成し、その後のビードmの形状を認識する画像処理に進むので、所定の幅閾値bより大きな幅Bの明領域を有するプラズマ光及びスパッタ粒子の影響を取り除くことができる。その結果、ビードmの接合終端部分m2に加えて、プラズマ光及びスパッタ粒子の影響を受けるビードmの接合始端部分m1及び接合中間部分m3を正確に認識できる。よって、ビードm全体の形状を正確に認識することができ、かつビードmの形状を認識する画像処理の精度を高めることができる。   According to this embodiment, when the width B of the bright region of the bead region candidate is equal to or smaller than the predetermined width threshold value b, the contour point p is formed at the intersection of the luminance boundary and the reference line L, and then Since the process proceeds to image processing for recognizing the shape of the bead m, it is possible to remove the influence of plasma light and sputtered particles having a bright region having a width B larger than a predetermined width threshold value b. As a result, in addition to the bonding end portion m2 of the bead m, the bonding start end portion m1 and the bonding intermediate portion m3 of the bead m affected by the plasma light and the sputtered particles can be accurately recognized. Therefore, the shape of the entire bead m can be recognized accurately, and the accuracy of image processing for recognizing the shape of the bead m can be increased.

[第2実施形態]
本発明の第2実施形態に係る画像処理システムについて以下に説明する。第2実施形態は、基本的には、第1実施形態と同様になっている。第1実施形態と同様な要素は、第1実施形態と同様の符号および名称を用いて説明する。ここでは、第1実施形態と異なる構成について説明する。
[Second Embodiment]
An image processing system according to the second embodiment of the present invention will be described below. The second embodiment is basically the same as the first embodiment. Elements similar to those in the first embodiment will be described using the same symbols and names as those in the first embodiment. Here, a configuration different from the first embodiment will be described.

本実施形態では、第1実施形態におけるSi用ロングパスフィルタ6cの代わりに、後述するインジウムガリウムヒ素系の半導体から作製された撮像素子(以下、「InGaAs系撮像素子」という)に対応するInGaAs用ロングパスフィルタが設けられている。InGaAs用ロングパスフィルタは、1200nm以上の波長範囲で光を透過するように構成されている。本実施形態では、撮像器6fが、第1実施形態のSi系撮像素子6f1の代わりに、InGaAs系撮像素子を有している。InGaAs系撮像素子は、800nm〜2000nmの波長範囲において光に対する感度を有している。InGaAs系撮像素子は、撮像器6fに送られたモニタリング光L2をアナログ電気信号に変換するように構成されている。また、InGaAs系撮像素子の撮像面の条件は、第1実施形態におけるSi系撮像素子6f1の撮像面の条件と同様になっている。   In this embodiment, instead of the Si long-pass filter 6c in the first embodiment, an InGaAs long-pass corresponding to an image sensor (hereinafter referred to as “InGaAs-based image sensor”) manufactured from an indium gallium arsenide-based semiconductor described later. A filter is provided. The long pass filter for InGaAs is configured to transmit light in a wavelength range of 1200 nm or more. In the present embodiment, the image pickup device 6f has an InGaAs image pickup device instead of the Si image pickup device 6f1 of the first embodiment. The InGaAs imaging device has sensitivity to light in a wavelength range of 800 nm to 2000 nm. The InGaAs-based image sensor is configured to convert the monitoring light L2 sent to the imager 6f into an analog electric signal. Further, the conditions of the imaging surface of the InGaAs imaging device are the same as the imaging surface conditions of the Si imaging device 6f1 in the first embodiment.

InGaAs用ロングパスフィルタを透過する光の波長範囲について説明する。上述したように、レーザ溶接中に発生するプラズマ光は、原子の軌道電子により発生する遷移発光の成分を多く含んでおり、この遷移発光の波長範囲は、典型的には、可視域に相当する200nm〜780nmの範囲になっている。一方で、黒体放射の輻射強度は、波長が長くなるに連れて高くなっている。また、黒体放射の輻射強度は、温度が高くなるに連れて高くなっている。そのため、高い温度を有する残熱発光に含まれる黒体放射の輻射強度が高くなることが確認できる。また、レーザ等の発光は、1060nm付近の波長成分を含んでいるので、InGaAs系撮像素子に入力される光は、1060nm周辺の波長範囲を避けることが好ましい。   The wavelength range of light transmitted through the long pass filter for InGaAs will be described. As described above, plasma light generated during laser welding contains many components of transition emission generated by orbital electrons of atoms, and the wavelength range of this transition emission typically corresponds to the visible range. It is in the range of 200 nm to 780 nm. On the other hand, the radiation intensity of blackbody radiation increases as the wavelength increases. Further, the radiation intensity of black body radiation increases as the temperature increases. Therefore, it can be confirmed that the radiation intensity of the black body radiation included in the residual heat emission having a high temperature is increased. In addition, since light emitted from a laser or the like includes a wavelength component around 1060 nm, it is preferable that the light input to the InGaAs-based image pickup device avoid a wavelength range around 1060 nm.

そこで、プラズマ光に多く含まれる遷移発光の波長範囲の上限値780nmと、レーザ等の発光波長に相当する1060nm付近の波長の光を避けることと、レーザ等の発光波長のバラツキとを考慮して、InGaAs用ロングパスフィルタを透過する光の波長範囲は、1200nm以上に定められている。そのため、InGaAs系撮像素子には、1200nm以上の波長範囲で光が送られて、InGaAs系撮像素子は、入力される光を1200nm〜2000nmの波長範囲で感知することとなる。なお、InGaAs用ロングパスフィルタは、1200nmより小さな波長の光を遮断するように構成されていると好ましい。しかしながら、InGaAs系撮像素子は、800nm〜2000nmの波長範囲で光を感知できればよいので、例えば、InGaAs用ロングパスフィルタが、1300nm、1400nm、1500nm、1600nm、1700nm、1800nm、又は1900nmより小さな波長の光を遮断するように構成されていてもよい。   Therefore, in consideration of the upper limit 780 nm of the wavelength range of transition emission included in plasma light, avoiding light having a wavelength near 1060 nm corresponding to the emission wavelength of laser, etc., and variations in emission wavelength of laser, etc. The wavelength range of light passing through the InGaAs long pass filter is set to 1200 nm or more. Therefore, light is sent to the InGaAs-based image sensor in a wavelength range of 1200 nm or more, and the InGaAs-based image sensor senses input light in the wavelength range of 1200 nm to 2000 nm. The InGaAs long-pass filter is preferably configured to block light having a wavelength shorter than 1200 nm. However, since the InGaAs-based imaging device only needs to be able to sense light in the wavelength range of 800 nm to 2000 nm, for example, a long pass filter for InGaAs emits light having a wavelength smaller than 1300 nm, 1400 nm, 1500 nm, 1600 nm, 1700 nm, 1800 nm, or 1900 nm. You may be comprised so that it may interrupt | block.

また、本実施形態の画像処理システム1を用いて溶接領域に形成されるビードmの形状を認識する方法は、本実施形態の上述した構成を除いて、第1実施形態と同様になっている。   The method for recognizing the shape of the bead m formed in the welding region using the image processing system 1 of the present embodiment is the same as that of the first embodiment except for the configuration described above of the present embodiment. .

以上のように本実施形態によれば、第1実施形態と同様の効果が得られる。   As described above, according to the present embodiment, the same effects as those of the first embodiment can be obtained.

[第3実施形態]
本発明の第3実施形態に係る画像処理システムについて以下に説明する。第3実施形態は、基本的には、第1実施形態と同様になっている。第1実施形態と同様な要素は、第1実施形態と同様の符号および名称を用いて説明する。ここでは、第1実施形態と異なる構成について説明する。
[Third Embodiment]
An image processing system according to the third embodiment of the present invention will be described below. The third embodiment is basically the same as the first embodiment. Elements similar to those in the first embodiment will be described using the same symbols and names as those in the first embodiment. Here, a configuration different from the first embodiment will be described.

本実施形態では、第1実施形態におけるSi用ロングパスフィルタ6cの代わりに、Si用バンドパスフィルタが設けられている。Si用バンドパスフィルタは、800nm以上かつ1050nm以下の波長範囲で光を透過するように構成されている。   In the present embodiment, a Si band-pass filter is provided instead of the Si long-pass filter 6c in the first embodiment. The band pass filter for Si is configured to transmit light in a wavelength range of 800 nm or more and 1050 nm or less.

Si用バンドパスフィルタを透過する光の波長範囲について説明する。Si用バンドパスフィルタを透過する光の波長範囲の下限値は、第1実施形態におけるSi用ロングパスフィルタ6cを透過する光の波長範囲の下限値を800nmとしたことと同様の理由に基づいて、800nm以上に定められている。また、レーザ等の発光波長に相当する1060nm付近の波長の光を避けることと、レーザ等の発光波長のバラツキとを考慮して、Si用バンドパスフィルタを透過する光の波長範囲の上限値は、1050nmに定められている。   The wavelength range of light passing through the Si bandpass filter will be described. The lower limit value of the wavelength range of the light transmitted through the Si bandpass filter is based on the same reason that the lower limit value of the wavelength range of the light transmitted through the Si longpass filter 6c in the first embodiment is set to 800 nm. It is set to 800 nm or more. In addition, in consideration of avoiding light having a wavelength near 1060 nm, which corresponds to the emission wavelength of a laser, etc., and variations in the emission wavelength of the laser, etc., the upper limit value of the wavelength range of the light passing through the Si bandpass filter is It is set to 1050 nm.

本実施形態の画像処理システム1を用いて溶接領域に形成されるビードmの形状を認識する方法は、本実施形態の上述した構成を除いて、第1実施形態と同様になっている。   A method for recognizing the shape of the bead m formed in the welding region using the image processing system 1 of the present embodiment is the same as that of the first embodiment except for the configuration described above of the present embodiment.

以上のように本実施形態によれば、第1実施形態と同様の効果が得られる。   As described above, according to the present embodiment, the same effects as those of the first embodiment can be obtained.

[第4実施形態]
本発明の第4実施形態に係る画像処理システムについて以下に説明する。第4実施形態は、基本的には、第2実施形態と同様になっている。第2実施形態と同様な要素は、第2実施形態と同様の符号および名称を用いて説明する。ここでは、第2実施形態と異なる構成について説明する。
[Fourth Embodiment]
An image processing system according to the fourth embodiment of the present invention will be described below. The fourth embodiment is basically the same as the second embodiment. The same elements as those of the second embodiment will be described using the same symbols and names as those of the second embodiment. Here, a configuration different from the second embodiment will be described.

本実施形態では、第2実施形態におけるInGaAs用ロングパスフィルタの代わりに、InGaAs用バンドパスフィルタが設けられている。InGaAs用バンドパスフィルタは、1200nm以上かつ2000nm以下の波長範囲で光を透過するように構成されている。   In this embodiment, an InGaAs band-pass filter is provided instead of the InGaAs long-pass filter in the second embodiment. The bandpass filter for InGaAs is configured to transmit light in a wavelength range of 1200 nm or more and 2000 nm or less.

InGaAs用バンドパスフィルタを透過する光の波長範囲について説明する。InGaAs用バンドパスフィルタを透過する光の波長範囲の下限値は、第2実施形態におけるInGaAs用ロングパスフィルタを透過する光の波長範囲の下限値を1200nmとしたことと同様の理由に基づいて、1200nmに定められている。また、長波長高感度タイプのInGaAs系撮像素子における光に対する感度の上限は2600nmとされ、短波長高感度タイプのInGaAs系撮像素子における光に対する感度の上限は1700nmとされている。さらに、短波長高感度タイプのInGaAs系撮像素子は、そのバンドギャップが緩やかに減少するために、1700nm〜2000nmの範囲においても一定の感度(応答性能)を有している。そのため、長波長高感度タイプ、短波長高感度タイプ等のあらゆるInGaAs系撮像素子に対応すべく、InGaAs用バンドパスフィルタを透過する光の波長範囲の上限値は2000nmに定められている。   The wavelength range of light that passes through the bandpass filter for InGaAs will be described. The lower limit value of the wavelength range of light passing through the InGaAs bandpass filter is 1200 nm based on the same reason that the lower limit value of the wavelength range of light passing through the InGaAs longpass filter in the second embodiment is set to 1200 nm. It is stipulated in. In addition, the upper limit of sensitivity to light in the long wavelength high sensitivity type InGaAs imaging device is 2600 nm, and the upper limit of sensitivity to light in the short wavelength high sensitivity type InGaAs imaging device is 1700 nm. Further, the short wavelength high sensitivity type InGaAs imaging device has a constant sensitivity (response performance) even in the range of 1700 nm to 2000 nm because its band gap gradually decreases. Therefore, the upper limit of the wavelength range of the light transmitted through the InGaAs band-pass filter is set to 2000 nm so as to correspond to all InGaAs-based image pickup devices such as the long wavelength high sensitivity type and the short wavelength high sensitivity type.

以上のように本実施形態によれば、第1実施形態と同様の効果が得られる。   As described above, according to the present embodiment, the same effects as those of the first embodiment can be obtained.

ここまで本発明の実施形態について述べたが、本発明は既述の実施形態に限定されるものではなく、本発明の技術的思想に基づいて各種の変形及び変更が可能である。   Although the embodiments of the present invention have been described so far, the present invention is not limited to the above-described embodiments, and various modifications and changes can be made based on the technical idea of the present invention.

例えば、本発明の変形例として、レーザ溶接以外のビーム系接合時に残熱発光が生じている状態の溶接領域Jをモニタ部7によって撮影及び取り込んだ画像に基づいて、溶接領域Jに形成されるビードmの形状を認識してもよい。この場合、ビーム系接合は、レーザブレージング、レーザクラッディング、プラズマ溶接、電子ビーム溶接等であるとよい。   For example, as a modified example of the present invention, a welding region J in a state where residual heat emission occurs during beam system joining other than laser welding is formed in the welding region J based on an image captured and captured by the monitor unit 7. The shape of the bead m may be recognized. In this case, the beam system bonding may be laser brazing, laser cladding, plasma welding, electron beam welding, or the like.

1 画像処理システム
3 画像処理装置
4 画像処理部
10 ビード認識手段
11 ビード判別手段
12 基準線設定手段
13 輪郭点形成手段
14 背骨点形成手段
15 概略形状判定手段
16 円弧用修正要素
17 直線用修正要素
18 輪郭線形成手段
19 背骨線形成手段
20 代表背骨点抽出手段
21 二等分線算出手段
22 交点算出手段
23 円弧用修正基準線設定手段
24 円弧用修正輪郭点形成手段
25 円弧用修正背骨点形成手段
26 直線用修正基準線設定手段
27 直線用修正輪郭点形成手段
28 直線用修正背骨点形成手段
M 溶接部材
J 溶接領域
m ビード
m1 接合始端部分(始端部分)
m2 接合終端部分(終端部分)
m3 接合中間部分(中間部分)
L1 レーザ光
L2 モニタリング光
θ1,θ2 角度
G 平均輝度
g1 開始輝度閾値
g2 終了輝度閾値
E ビード領域
e ビード領域点
L 基準線
L’ 修正基準線
P 輪郭線
p 輪郭点
p’ 修正輪郭点
Q 背骨線
q 背骨点
q0 代表背骨点
q’ 修正背骨点
D 二等分線
c 交点
A1 実線
A2 破線
A3 一点鎖線
S1〜S13,S21〜S26,S31〜S33 ステップ
DESCRIPTION OF SYMBOLS 1 Image processing system 3 Image processing apparatus 4 Image processing part 10 Bead recognition means 11 Bead discrimination means 12 Reference line setting means 13 Contour point formation means 14 Spine point formation means 15 Outline shape determination means 16 Arc correction element 17 Straight line correction element 18 contour line forming means 19 spine line forming means 20 representative spine point extracting means 21 bisector calculating means 22 intersection calculating means 23 arc correction reference line setting means 24 arc correcting contour point forming means 25 arc correcting spine point forming Means 26 Straight line correction reference line setting means 27 Straight line correction contour point forming means 28 Straight line correction spine point forming means M Welding member J Welding area m Bead m1 Joint start end portion (start end portion)
m2 Junction termination part (termination part)
m3 Joining middle part (middle part)
L1 Laser light L2 Monitoring light θ1, θ2 Angle G Average luminance g1 Start luminance threshold g2 End luminance threshold E Bead region e Bead region point L Reference line L ′ Corrected reference line P Contour line p Contour point p ′ Corrected contour point Q Spine line q spine point q0 representative spine point q 'corrected spine point D bisector c intersection point A1 solid line A2 broken line A3 alternate long and short dash lines S1-S13, S21-S26, S31-S33 Steps

Claims (5)

ビーム系接合時に残熱発光が生じている状態の溶接部分を撮影かつ取り込んだ画像に基づいて、前記溶接部分に形成されるビードの形状を認識する画像処理方法であって、
前記画像上に複数の基準線を設定するステップと、
前記画像内の残熱発光の輝度が前記ビードの輪郭線を識別するように設定した輝度閾値より大きい明領域、及び前記残熱発光の輝度が前記輝度閾値より小さいい暗領域間の輝度境界と前記基準線との交差箇所に、輪郭点を形成するステップと、
同一の前記基準線上における2つの前記輪郭点間の中間に背骨点を形成するステップと、
前記背骨点に基づいて前記ビードの概略形状を判定するステップと、
前記ビードの概略形状が円弧形状であると判定された場合に、前記円弧形状のビードに対応して前記背骨点を修正した修正背骨点を設定するステップと
を含み、
前記ビードの概略形状が円弧形状である場合に前記修正背骨点を設定するステップが、
前記複数の背骨点の中から前記ビードの長さを均等に分けるように位置する3個以上の代表背骨点を抽出し、
隣接する前記代表背骨点を結ぶ線分の長手方向中間にて該線分に直交する二等分線を算出し、
前記複数の二等分線同士の交点を算出し、
前記二等分線の交点から放射状に延びる複数の修正基準線を設定し、
前記輝度境界と前記修正基準線との交差箇所に前記修正輪郭点を形成し、かつ
同一の前記修正基準線上における2つの前記修正輪郭点間の中間に前記修正背骨点を形成すること
を含む、画像処理方法。
An image processing method for recognizing the shape of a bead formed in the welded part based on an image obtained by capturing and capturing a welded part in a state where residual heat emission occurs during beam system joining,
Setting a plurality of reference lines on the image;
A luminance boundary between a bright area in which the luminance of the residual heat emission in the image is larger than a luminance threshold set so as to identify a contour line of the bead, and a dark boundary between the dark areas in which the luminance of the residual heat emission is smaller than the luminance threshold Forming a contour point at the intersection with the reference line;
Forming a spine point midway between the two contour points on the same reference line;
Determining a rough shape of the bead based on the spine point;
When it is determined that the rough shape of the bead is an arc shape, a corrected spine point is corrected by correcting the spine point corresponding to the arc-shaped bead, and
The step of setting the corrected spine point when the rough shape of the bead is an arc shape,
Extracting three or more representative spine points positioned so as to evenly divide the length of the bead from the plurality of spine points;
Calculate a bisector perpendicular to the line segment in the middle in the longitudinal direction of the line segment connecting the representative spine points adjacent to each other;
Calculating the intersection of the plurality of bisectors,
A plurality of correction reference lines extending radially from the intersection of the bisectors,
Forming the corrected contour point at the intersection of the luminance boundary and the corrected reference line, and forming the corrected spine point in the middle between the two corrected contour points on the same corrected reference line. Image processing method.
前記ビードの概略形状が直線形状であると判断された場合に、前記直線形状のビードに対応して前記背骨点を修正した修正背骨点を設定するステップをさらに含み、
前記ビードの概略形状が直線形状である場合に前記修正背骨点を設定するステップが、
前記ビードの延びる方向に直交する複数の修正基準線を設定し、
前記輝度境界と前記修正基準線との交差箇所に修正輪郭点を形成し、かつ
同一の前記修正基準線上における2つの前記修正輪郭点間の中間に修正背骨点を形成すること
を含む、請求項1に記載の画像処理方法。
When the rough shape of the bead is determined to be a linear shape, the method further includes a step of setting a corrected spine point obtained by correcting the spine point corresponding to the linear shape bead,
The step of setting the corrected spine point when the approximate shape of the bead is a linear shape,
Setting a plurality of correction reference lines orthogonal to the extending direction of the bead;
Forming a corrected contour point at an intersection between the luminance boundary and the corrected reference line, and forming a corrected spine point in the middle between the two corrected contour points on the same corrected reference line. 2. The image processing method according to 1.
ビーム系接合時に残熱発光が生じている状態の溶接部分を撮影かつ取り込んだ画像に基づいて、前記溶接部分に形成されるビードの形状を認識する画像処理方法であって、
前記画像上に複数の基準線を設定するステップと、
前記画像内の残熱発光の輝度が前記ビードの輪郭線を識別するように設定した輝度閾値より大きい明領域、及び前記残熱発光の輝度が前記輝度閾値より小さい暗領域間の輝度境界と前記基準線との交差箇所に、輪郭点を形成するステップと、
同一の前記基準線上における2つの前記輪郭点間の中間に背骨点を形成するステップと、
前記背骨点に基づいて前記ビードの概略形状を判断するステップと、
前記ビードの概略形状が直線形状であると判断された場合に、前記直線形状のビードに対応して前記背骨点を修正した修正背骨点を設定するステップと
を含み、
前記ビードの概略形状が直線形状である場合に前記修正背骨点を設定するステップが、
前記ビードの延びる方向に直交する複数の修正基準線を設定し、
前記輝度境界と前記修正基準線との交差箇所に修正輪郭点を形成し、かつ
同一の前記修正基準線上における2つの前記修正輪郭点間の中間に修正背骨点を形成すること
を含む、画像処理方法。
An image processing method for recognizing the shape of a bead formed in the welded part based on an image obtained by capturing and capturing a welded part in a state where residual heat emission occurs during beam system joining,
Setting a plurality of reference lines on the image;
A brightness boundary between a bright area in which the luminance of the residual heat emission in the image is larger than a luminance threshold set so as to identify a contour line of the bead, and a luminance boundary between dark areas in which the luminance of the residual heat emission is smaller than the luminance threshold; Forming a contour point at the intersection with the reference line;
Forming a spine point midway between the two contour points on the same reference line;
Determining a rough shape of the bead based on the spine point;
When a rough shape of the bead is determined to be a straight shape, a corrected spine point is corrected by correcting the spine point corresponding to the linear shape bead, and
The step of setting the corrected spine point when the approximate shape of the bead is a linear shape,
Setting a plurality of correction reference lines orthogonal to the extending direction of the bead;
Forming a corrected contour point at an intersection between the luminance boundary and the corrected reference line, and forming a corrected spine point in the middle between the two corrected contour points on the same corrected reference line. Method.
前記明領域の幅が所定の幅閾値以下になっている場合に、前記輪郭点を形成するステップにて、前記輝度境界と前記基準線との交差箇所に輪郭点を形成する請求項1〜3のいずれか一項に記載の画像処理方法。   The contour point is formed at the intersection of the luminance boundary and the reference line in the step of forming the contour point when the width of the bright region is equal to or smaller than a predetermined width threshold. The image processing method according to any one of the above. 請求項1〜4のいずれか一項の画像処理方法を用いる画像処理システム。   An image processing system using the image processing method according to claim 1.
JP2012155376A 2012-07-11 2012-07-11 Image processing method and image processing system Pending JP2014016304A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012155376A JP2014016304A (en) 2012-07-11 2012-07-11 Image processing method and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012155376A JP2014016304A (en) 2012-07-11 2012-07-11 Image processing method and image processing system

Publications (1)

Publication Number Publication Date
JP2014016304A true JP2014016304A (en) 2014-01-30

Family

ID=50111104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012155376A Pending JP2014016304A (en) 2012-07-11 2012-07-11 Image processing method and image processing system

Country Status (1)

Country Link
JP (1) JP2014016304A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104048618A (en) * 2014-06-16 2014-09-17 民政部国家减灾中心 Damaged building detection method
JP2018202468A (en) * 2017-06-07 2018-12-27 株式会社ディスコ Laser processing method and laser processing device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104048618A (en) * 2014-06-16 2014-09-17 民政部国家减灾中心 Damaged building detection method
CN104048618B (en) * 2014-06-16 2016-09-07 民政部国家减灾中心 A kind of damage building detection method
JP2018202468A (en) * 2017-06-07 2018-12-27 株式会社ディスコ Laser processing method and laser processing device

Similar Documents

Publication Publication Date Title
JP5338890B2 (en) Laser welding welding position detection apparatus and welding position detection method
JP5672480B2 (en) Apparatus and method for determining shape of terminal end of bead
JP5830373B2 (en) Imaging device
TWI463867B (en) Image pickup device, solid-state image pickup device, image pickup method, and image pickup program
JP5738606B2 (en) Imaging device
US10638033B2 (en) Focus control apparatus, focus control method and storage medium
JP2009217252A5 (en)
US9781344B2 (en) Processing device, image pickup device and processing method for obtaining distance information from a difference in blur degree
EP3015892B1 (en) Imaging device and imaging method
US20210144307A1 (en) Control apparatus, control method, and storage medium
JP5737929B2 (en) Image processing apparatus and image processing method
JP5263051B2 (en) Laser irradiation point detection device and seam position detection device in laser welding machine
JP4538421B2 (en) Charged particle beam equipment
JP2014014857A (en) Image processing method, and image processing system
US10326925B2 (en) Control apparatus for performing focus detection, image capturing apparatus, control method, and non-transitory computer-readable storage medium
JP2014016304A (en) Image processing method and image processing system
JP2009229125A (en) Distance measuring device and distance measuring method
JP2014014856A (en) Image processing method and image processing system
JP2014014855A (en) Image processing method and image processing system
CN103954217A (en) Strong specular reflection workpiece thin and narrow groove detection device and method based on strip-shaped light sources
JP2012194108A (en) Measurement object surface abnormality identification device
JP2014079774A (en) Apparatus and method for measuring welding aim position
JP2010076961A (en) Method and apparatus for measuring position
JP2014016926A (en) Image processing system
JP2018010245A (en) Signal processor and control method therefor