JP2020085526A - Method for evaluating quality of weld zone - Google Patents

Method for evaluating quality of weld zone Download PDF

Info

Publication number
JP2020085526A
JP2020085526A JP2018216468A JP2018216468A JP2020085526A JP 2020085526 A JP2020085526 A JP 2020085526A JP 2018216468 A JP2018216468 A JP 2018216468A JP 2018216468 A JP2018216468 A JP 2018216468A JP 2020085526 A JP2020085526 A JP 2020085526A
Authority
JP
Japan
Prior art keywords
image
bead
cross
welded portion
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018216468A
Other languages
Japanese (ja)
Inventor
松岡 勝己
Katsumi Matsuoka
勝己 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018216468A priority Critical patent/JP2020085526A/en
Publication of JP2020085526A publication Critical patent/JP2020085526A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

To provide a method for evaluating the quality of a weld zone with which it is possible to obtain the throat thickness of a weld zone with good accuracy.SOLUTION: A method for evaluating the quality of a weld zone pertaining to the present invention evaluates the quality of a weld zone 100 in lap fillet welding carried out on a first plate 10 and a second plate 20 in such a way that a bead 11 is formed on the first plate 10 side. This method comprises the steps of: acquiring the image of cross section of the weld zone 100 that intersects the longitudinal direction of the bead 11 at right angles; binarizing the acquired cross section image; removing a nose component from the binarized image; extracting an end point Pof the first plate 10 before welding and a contour Lof surface of the bead 11 from the image having had the noise component removed; and calculating a throat thickness Lof the weld zone 100 using the length of a perpendicular dropped from a pre-welding end point Pof the first plate 10 before welding toward the contour Lof surface of the bead 11.SELECTED DRAWING: Figure 3

Description

本発明は、溶接部の品質評価方法に関し、特に重ね隅肉溶接における溶接部の品質評価方法に関するものである。 The present invention relates to a weld quality evaluation method, and more particularly to a weld quality evaluation method in overlap fillet welding.

一般的に、溶接部の品質は、溶接時に金属がどれだけ深く溶け込んだかを表す溶け込み深さや、溶け込み部の幅を表す脚長、形成されたビードの厚さを表すのど厚等の大小によって評価することができる。具体的には、溶け込み深さ、脚長、のど厚の長さが、予め定められた基準を満たすか否かによって、溶接が良好に行われたか否かを判断することができる。 Generally, the quality of the weld is evaluated by the penetration depth, which indicates how deeply the metal has melted during welding, the leg length, which indicates the width of the weld, and the throat thickness, which indicates the thickness of the bead formed. be able to. Specifically, it is possible to determine whether or not the welding has been successfully performed depending on whether or not the penetration depth, the leg length, and the throat thickness length satisfy predetermined criteria.

特許文献1には、溶接部に向けて超音波を発振し、その反射波に基づき断面分布図を作成することによって、溶け込み深さを求める方法が開示されている。当該方法によって求められた溶け込み深さによって、溶接品質の良否を判断することができる。 Patent Document 1 discloses a method of obtaining a penetration depth by oscillating ultrasonic waves toward a welded portion and creating a sectional distribution map based on the reflected wave. The quality of welding can be judged by the penetration depth obtained by the method.

特開2002−214207号公報JP, 2002-214207, A

超音波の反射波に基づいて作成される断面分布図や、実際の断面を撮像して得られる画像には、ノイズが多く含まれている場合がある。したがって、特許文献1に記載されているように、断面の画像に基づいて溶接部の形態を求めようとした場合、溶け込み深さ等の長さを精度よく求めることができなかった。また、特許文献1に記載されている方法では、溶け込み深さを求めることができる一方で、のど厚を求めることができないという問題があった。 The cross-sectional distribution map created based on the reflected waves of ultrasonic waves and the image obtained by capturing the actual cross-section may contain a lot of noise. Therefore, as described in Patent Document 1, when the shape of the welded portion was obtained based on the image of the cross section, the length such as the penetration depth could not be obtained accurately. Further, the method described in Patent Document 1 has a problem that the penetration depth cannot be obtained while the penetration depth can be obtained.

本発明は、このような事情に鑑みなされたものであって、溶接部ののど厚を精度よく求めることができる、溶接部の品質評価方法を提供するものである。 The present invention has been made in view of the above circumstances, and provides a method for evaluating the quality of a welded portion, which can accurately obtain the throat thickness of the welded portion.

本発明に係る溶接部の品質評価方法は、第1の板材と第2の板材を、前記第1の板材側にビードが形成されるようにして行われた重ね隅肉溶接における溶接部の品質評価方法であって、前記溶接部の、前記ビードの長手方向と直交する断面の画像を取得するステップと、取得した前記断面の画像を二値化処理するステップと、前記二値化処理された画像からノイズ成分を除去するステップと、前記ノイズ成分が除去された画像から、溶接前における前記第1の板材の端点を抽出するステップと、前記ノイズ成分が除去された画像から、前記ビードの表面の輪郭を抽出するステップと、前記溶接前における前記第1の板材の溶接前の端点から、前記ビードの表面の輪郭に向けて下ろした垂線の長さを用いて、前記溶接部ののど厚を求めるステップと、を備えることを、特徴としたものである。 The quality evaluation method of a welded part according to the present invention is a quality of a welded part in a lap fillet welding performed by forming a bead on the first plate material side of a first plate material and a second plate material. In the evaluation method, a step of acquiring an image of a cross section of the welded portion orthogonal to the longitudinal direction of the bead, a step of binarizing the acquired image of the cross section, and the binarization processing A step of removing a noise component from the image; a step of extracting an end point of the first plate material before welding from the image from which the noise component has been removed; and a surface of the bead from the image from which the noise component has been removed From the end point before the welding of the first plate material before the welding, using the length of the vertical line lowered toward the contour of the surface of the bead, the throat thickness of the welded portion. It is characterized in that it comprises the steps of obtaining.

上記の構成においては、溶接部の断面画像に対して二値化処理及びノイズ除去処理を施すため、ノイズによって生じる評価誤差を少なくすることができる。また、板材の端点やビードの表面の輪郭を抽出することができるため、これらの距離に基づいて溶接部ののど厚を求めることができる。したがって、本発明に係る溶接部の品質評価方法においては、のど厚等の、各評価項目の値を精度よく求めることができる。 In the above configuration, since the binarization process and the noise removal process are performed on the cross-sectional image of the welded portion, the evaluation error caused by the noise can be reduced. Further, since the end points of the plate material and the contour of the bead surface can be extracted, the throat thickness of the welded portion can be obtained based on these distances. Therefore, in the welded part quality evaluation method according to the present invention, the value of each evaluation item such as the throat thickness can be accurately obtained.

本発明により、溶接部ののど厚を精度よく求めることができる、溶接部の品質評価方法を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the quality evaluation method of a welded part which can obtain|require the throat thickness of a welded part accurately can be provided.

溶接部を撮像した画像である。It is an image which picturized a welding part. 第1の実施形態に係る溶接部の品質評価方法を実行する品質評価システムの概略図である。It is a schematic diagram of the quality evaluation system which performs the quality evaluation method of the welding part concerning a 1st embodiment. 第1の実施形態に係る溶接部の品質評価方法の全体フローチャートである。It is the whole flowchart of the quality evaluation method of the welding part concerning a 1st embodiment. 図1に示す溶接部の断面の画像(断面画像)である。It is an image (cross-sectional image) of a cross section of the welded portion shown in FIG. 1. 図4の断面画像を二値化処理した画像(二値化画像)である。5 is an image (binarized image) obtained by binarizing the cross-sectional image of FIG. 4. 図3のステップS30の詳細フローチャートである。It is a detailed flowchart of step S30 of FIG. 図5の二値化画像をフーリエ変換して得られるフーリエスペクトルである。6 is a Fourier spectrum obtained by Fourier transforming the binarized image of FIG. 5. 図7のフーリエスペクトルをマスキング処理した画像(マスキング画像)である。8 is an image (masking image) obtained by masking the Fourier spectrum of FIG. 7. 図8のマスキング画像をフーリエ逆変換した画像(フーリエ逆変換画像)である。9 is an image obtained by inverse Fourier transforming the masking image of FIG. 8 (Fourier inverse transform image). 図9のフーリエ逆変換画像をモフォロジー処理した画像(モフォロジー画像)である。10 is an image (morphology image) obtained by performing morphology processing on the inverse Fourier transform image of FIG. 9. 図3のステップS40の詳細フローチャートである。It is a detailed flowchart of step S40 of FIG. 図10のモフォロジー画像から、列ごとに行方向の画素値の分布を抽出する様子を示す図である。It is a figure which shows a mode that the distribution of the pixel value of a row direction is extracted for every column from the morphology image of FIG. 図12において列ごとに抽出した、行方向の画素値の分布のグラフである。13 is a graph of pixel value distribution in the row direction extracted for each column in FIG. 12. 図10のモフォロジー画像から、溶接部の特徴の基本的な情報を抽出した画像(基本情報画像)である。It is the image (basic information image) which extracted the basic information of the characteristic of a welding part from the morphology image of FIG. 図14の基本情報画像から、品質評価に用いる情報を抽出した画像(評価情報画像)である。It is an image (evaluation information image) in which information used for quality evaluation is extracted from the basic information image of FIG. 14. 図3のステップS50の詳細フローチャートである。It is a detailed flowchart of step S50 of FIG. ステップS50において、のど厚等の値を求める方法を説明するための図である。It is a figure for demonstrating the method of calculating|requiring values, such as throat thickness, in step S50. 第2の実施形態に係る溶接部の品質評価方法を実行する品質評価システムの概略図である。It is the schematic of the quality evaluation system which performs the quality evaluation method of the welding part which concerns on 2nd Embodiment. 図1に示す溶接部の、超音波映像装置を用いて取得した断面の画像である。3 is an image of a cross section of the welded portion shown in FIG. 1 acquired using an ultrasonic imaging apparatus.

以下、本発明を適用した具体的な実施形態について、図面を参照しながら詳細に説明する。ただし、本発明が以下の実施形態に限定される訳ではない。また、説明を明確にするため、以下の記載および図面は、適宜、簡略化されている。また、以下に説明される複数の実施形態は、独立に実施されることもできるし、適宜組み合わせて実施されることもできる。これら複数の実施形態は、互いに異なる新規な特徴を有している。したがって、これら複数の実施形態は、互いに異なる目的又は課題を解決することに寄与し、互いに異なる効果を奏することに寄与する。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. However, the present invention is not limited to the following embodiments. Further, the following description and drawings are simplified as appropriate for the sake of clarity. Further, the plurality of embodiments described below can be implemented independently or can be implemented in combination as appropriate. These embodiments have novel features that are different from each other. Therefore, these plurality of embodiments contribute to solving different purposes or problems, and contribute to achieving different effects.

[第1の実施形態]
まず、図1〜図3を用いて、第1の実施形態に係る溶接部の品質評価方法の概要について説明する。図1は、溶接部100を撮像した画像である。図2は、第1の実施形態に係る溶接部の品質評価方法を実行する品質評価システムS1の概略図である。図3は、第1の実施形態に係る溶接部の品質評価方法の全体フローチャートである。
[First Embodiment]
First, an outline of a quality evaluation method for a welded portion according to the first embodiment will be described with reference to FIGS. 1 to 3. FIG. 1 is an image of the welded portion 100. FIG. 2 is a schematic diagram of a quality evaluation system S1 that executes the quality evaluation method for a welded portion according to the first embodiment. FIG. 3 is an overall flowchart of the quality evaluation method for a welded portion according to the first embodiment.

第1の実施形態に係る溶接部の品質評価方法は、図1に示すような、第1の板材10と第2の板材20を、第1の板材10側にビード11が形成されるようにして行われた重ね隅肉溶接における溶接部100の品質を評価する方法である。
第1の板材10及び第2の板材20は、例えば、鉄、アルミニウム、銅などの金属や合金で形成されており、図1においては手前から奥側に延びるように形成されている。第1の板材10と第2の板材20は、それぞれの端部が重ね合わせられた状態で第1の板材10の端面が重ね隅肉溶接されて一体化される。このとき、ビード11は、第1の板材10の端面に沿って形成される。したがって、ビード11は、図1において手前から奥側に延びる方向を長手方向として形成される。また、このとき、第1の板材10の一部は第2の板材20側に溶け込み、溶け込み部12が形成される。
The quality evaluation method for a welded portion according to the first embodiment uses a first plate material 10 and a second plate material 20 as shown in FIG. 1 so that a bead 11 is formed on the first plate material 10 side. It is a method for evaluating the quality of the welded portion 100 in the overlap fillet welding performed by the above method.
The first plate member 10 and the second plate member 20 are made of, for example, a metal or alloy such as iron, aluminum, or copper, and are formed so as to extend from the front side to the back side in FIG. 1. The first plate member 10 and the second plate member 20 are integrated by welding the end faces of the first plate member 10 by lap fillet welding in a state where their respective end portions are overlapped. At this time, the bead 11 is formed along the end surface of the first plate member 10. Therefore, the bead 11 is formed with the longitudinal direction extending from the front side to the back side in FIG. Further, at this time, a part of the first plate material 10 is melted into the second plate material 20 side, and the melted portion 12 is formed.

第1の実施形態に係る溶接部の品質評価方法は、例えば図2に示すような品質評価システムS1を用いて実行することができる。品質評価システムS1は、図2に示すように、顕微鏡1と、ケーブル2と、処理装置3と、モニタ4と、を備える。 The quality evaluation method for a welded portion according to the first embodiment can be executed using a quality evaluation system S1 as shown in FIG. 2, for example. As shown in FIG. 2, the quality evaluation system S1 includes a microscope 1, a cable 2, a processing device 3, and a monitor 4.

顕微鏡1は、第1の板材10と第2の板材20との溶接部100の断面を撮像するものである。顕微鏡1は、処理装置3とケーブル2で通信可能に接続されており、撮像された当該断面の画像は、処理装置3に送信される。処理装置3は、例えばCPU(Central Processing Unit)を備えており、予め設定されたプログラムによって後述する溶接部の品質評価方法の処理を実行し、溶接部100の品質を評価する。モニタ4は、処理装置3の演算結果や、処理装置3が取得あるいは生成した画像を表示する。
なお、図2の例では、顕微鏡1と処理装置3とがケーブル2で接続されている場合を示しているが、顕微鏡1と処理装置3とは、無線で通信可能に接続されていてもよい。
The microscope 1 images the cross section of the welded portion 100 between the first plate member 10 and the second plate member 20. The microscope 1 is communicatively connected to the processing device 3 via a cable 2, and the imaged image of the cross section is transmitted to the processing device 3. The processing device 3 includes, for example, a CPU (Central Processing Unit), and executes a process of a quality evaluation method for a welded part, which will be described later, by a preset program to evaluate the quality of the welded part 100. The monitor 4 displays the calculation result of the processing device 3 and the image acquired or generated by the processing device 3.
In the example of FIG. 2, the microscope 1 and the processing device 3 are connected by the cable 2, but the microscope 1 and the processing device 3 may be wirelessly connected so as to be communicable. ..

図3は、第1の実施形態に係る溶接部の品質評価方法の全体フローチャートである。図3に示すように、第1の実施形態に係る溶接部の品質評価方法は、ステップS10〜S60を備える。以降のステップS10〜S60の操作は、全て処理装置3(図2参照)が行ってもよいし、可能であれば処理装置3を使用するユーザが行ってもよい。 FIG. 3 is an overall flowchart of the quality evaluation method for a welded portion according to the first embodiment. As shown in FIG. 3, the welding part quality evaluation method according to the first embodiment includes steps S10 to S60. The subsequent operations of steps S10 to S60 may all be performed by the processing device 3 (see FIG. 2), or may be performed by the user who uses the processing device 3 if possible.

まず、ステップS10において、処理装置3は、溶接部100の、ビード11の長手方向と直交する断面の画像を取得する。具体的には、例えば前述したように、顕微鏡1が撮像した溶接部100の断面の画像を、ケーブル2を介して取得する。
次いで、ステップS20に進み、処理装置3は、取得した断面の画像に対して二値化処理を行う。
次いで、ステップS30に進み、処理装置3は、二値化処理された画像からノイズ成分を除去する処理を行う。
次いで、ステップS40に進み、処理装置3は、ノイズ成分が除去された画像から、溶接部100の特徴の基本的な情報を抽出する。例えば、処理装置3は、溶接前における第1の板材10の端点や、ビード11の表面の輪郭を抽出する。
次いで、ステップS50に進み、処理装置3は、抽出された情報を用いて、溶接部100における各評価項目の値を求める。例えば、処理装置3は、ステップS40で求めた溶接前における第1の板材10の端点からビード11の表面の輪郭に向けて下ろした垂線の長さを用いて、溶接部100ののど厚を求める。
最後に、ステップS60に進み、処理装置3は、ステップS50で求めた各評価項目の値の大小に基づいて、溶接部100の良否判定を行う。
以上のようにして、溶接部100の品質評価を行うことができる。
First, in step S10, the processing device 3 acquires an image of a cross section of the welded portion 100 orthogonal to the longitudinal direction of the bead 11. Specifically, for example, as described above, the image of the cross section of the welded portion 100 captured by the microscope 1 is acquired via the cable 2.
Next, in step S20, the processing device 3 performs binarization processing on the acquired image of the cross section.
Next, in step S30, the processing device 3 performs a process of removing a noise component from the binarized image.
Next, in step S40, the processing device 3 extracts basic information on the characteristics of the welded portion 100 from the image from which the noise component has been removed. For example, the processing device 3 extracts the end point of the first plate material 10 before welding and the contour of the surface of the bead 11.
Next, in step S50, the processing device 3 uses the extracted information to determine the value of each evaluation item in the welded portion 100. For example, the processing device 3 obtains the throat thickness of the welded portion 100 by using the length of the perpendicular line drawn from the end point of the first plate material 10 before welding obtained in step S40 toward the contour of the surface of the bead 11. .
Finally, in step S60, the processing device 3 determines the quality of the welded portion 100 based on the magnitude of the value of each evaluation item obtained in step S50.
As described above, the quality of the welded part 100 can be evaluated.

以下、図4〜図17を用いて、各ステップの詳細について説明する。図4は、図1で示した溶接部100の、ビード11の長手方向と直交する断面の画像(断面画像101)である。
なお、説明の便宜上、図4の断面画像101及び図5以降に示す各画像の上下は、図1で示した溶接部100の画像と上下を反転させて表示している。
Hereinafter, details of each step will be described with reference to FIGS. 4 to 17. FIG. 4 is an image (cross-sectional image 101) of the cross section of the welded portion 100 shown in FIG. 1 orthogonal to the longitudinal direction of the bead 11.
For convenience of explanation, the top and bottom of the cross-sectional image 101 in FIG. 4 and each image shown in FIG. 5 and subsequent figures are displayed by reversing the top and bottom of the image of the welded portion 100 shown in FIG.

まず、ステップS10において、顕微鏡1が溶接部100の断面画像101を撮像し、処理装置3に送信する。このようにして、処理装置3は断面画像101を取得する。
なお、顕微鏡1が断面画像101を撮像する際には、斜め方向から光を照射するなどして、第1の板材10と第2の板材20との明度が異なるように撮像することが好ましい。例えば図4の断面画像101では、第1の板材10よりも第2の板材20の方が明るくなるように撮像されている。このように撮像することによって、第1の板材10と第2の板材20とを容易に判別することができ、溶接部100の品質評価をより精度よく行うことができる。
First, in step S10, the microscope 1 captures the cross-sectional image 101 of the welded portion 100 and transmits it to the processing device 3. In this way, the processing device 3 acquires the cross-sectional image 101.
In addition, when the microscope 1 captures the cross-sectional image 101, it is preferable that the first plate material 10 and the second plate material 20 have different brightness values, for example, by irradiating light from an oblique direction. For example, in the cross-sectional image 101 in FIG. 4, the second plate member 20 is imaged so as to be brighter than the first plate member 10. By imaging in this manner, the first plate material 10 and the second plate material 20 can be easily discriminated, and the quality evaluation of the welded portion 100 can be performed more accurately.

また、断面画像101は、第1の板材10と第2の板材20との境界(すなわち、溶け込み部12の境界)や、ビード11の表面の輪郭が明るくなるように撮像されることが好ましい。例えば図4の断面画像101では、溶け込み部12の境界やビード11の表面の輪郭が、他の領域に比べて明るくなるように撮像されている。このように撮像することで、溶け込み部12の境界やビード11の表面の輪郭の形状を容易に判別することができ、溶接部100の品質評価を更により精度よく行うことができる。 In addition, it is preferable that the cross-sectional image 101 be captured so that the boundary between the first plate material 10 and the second plate material 20 (that is, the boundary of the melted portion 12) and the contour of the surface of the bead 11 are bright. For example, in the cross-sectional image 101 of FIG. 4, the boundary of the melted portion 12 and the contour of the surface of the bead 11 are imaged so as to be brighter than other regions. By picking up images in this way, the boundary shape of the welded portion 12 and the contour shape of the surface of the bead 11 can be easily determined, and the quality of the welded portion 100 can be evaluated with even higher accuracy.

ステップS20に進むと、処理装置3は、断面画像101に対して、予め定められた画素値を閾値として二色に分ける二値化処理を行う。このとき閾値とする画素値は、第1の板材10と第2の板材20とを分ける値である。当該閾値とする画素値は、予め行われた校正実験等に基づいて決定されてもよいし、ユーザの判断によって適宜決定されてもよい。 When proceeding to step S20, the processing device 3 performs a binarization process on the cross-sectional image 101, which divides the cross-sectional image 101 into two colors using a predetermined pixel value as a threshold. The pixel value used as the threshold value at this time is a value for dividing the first plate member 10 and the second plate member 20. The pixel value used as the threshold value may be determined based on a calibration experiment performed in advance, or may be appropriately determined by the user's judgment.

図5は、断面画像101のうち明度の高い領域を白色に、明度の低い領域を黒色に分けて得られた二値化画像102である。二値化画像102において、第2の板材20に対応する領域は主に白色で表示されている。これは、図4の断面画像101において、第2の板材20が第1の板材10よりも明るく撮像されたことに由来するものである。また、二値化画像102において、第1の板材10と第2の板材20との境界(溶け込み部12の境界)や、ビード11の表面の輪郭も、白色で表示されている。これは、図4の断面画像101において、溶け込み部12の境界やビード11の表面に対応する部分が、比較的明るく撮像されたことに由来するものである。 FIG. 5 is a binarized image 102 obtained by dividing a high lightness region into white and a low lightness region into black in the cross-sectional image 101. In the binarized image 102, the area corresponding to the second plate member 20 is mainly displayed in white. This is because the second plate member 20 is imaged brighter than the first plate member 10 in the cross-sectional image 101 of FIG. In the binarized image 102, the boundary between the first plate material 10 and the second plate material 20 (the boundary of the melted portion 12) and the contour of the surface of the bead 11 are also displayed in white. This is because in the cross-sectional image 101 of FIG. 4, the boundary corresponding to the melted-in portion 12 and the portion corresponding to the surface of the bead 11 are imaged relatively brightly.

次に、ステップS30の詳細について、図6〜図9を用いて説明する。図6は、ステップS30の詳細フローチャートである。図6に示すように、ステップS30は、ステップS31〜S34を備える。 Next, details of step S30 will be described with reference to FIGS. FIG. 6 is a detailed flowchart of step S30. As shown in FIG. 6, step S30 includes steps S31 to S34.

まず、ステップS31において、処理装置3は二値化画像102をフーリエ変換し、図7に示すようなフーリエスペクトル103を生成する。このとき処理装置3は、フーリエ変換の処理としてDFT(Discrete Fourier Transform)処理を行ってもよいし、FFT(Fast Fourier Transform)処理を行ってもよい。 First, in step S31, the processing device 3 Fourier transforms the binarized image 102 to generate a Fourier spectrum 103 as shown in FIG. At this time, the processing device 3 may perform a DFT (Discrete Fourier Transform) process or a FFT (Fast Fourier Transform) process as a Fourier transform process.

フーリエスペクトル103は、二値化画像102の水平方向の周波数及び垂直方向の周波数をプロットして得られるスペクトルである。フーリエスペクトル103において、二値化画像102のうち周波数が低い成分は中央に表示されている。
なお、フーリエスペクトル103内において、中央で交差する2本の白線は、説明の便宜上示した基準線であって、二値化画像102の実際のフーリエスペクトルに含まれるものではない。
The Fourier spectrum 103 is a spectrum obtained by plotting the horizontal frequency and the vertical frequency of the binarized image 102. In the Fourier spectrum 103, the low frequency component of the binarized image 102 is displayed in the center.
In the Fourier spectrum 103, the two white lines intersecting at the center are reference lines shown for convenience of description, and are not included in the actual Fourier spectrum of the binarized image 102.

ステップS32に進むと、処理装置3は、フーリエスペクトル103のうち高周波成分を除去するマスキング処理を行い、図8に示すようなマスキング画像104を生成する。
その後、ステップS33に進み、処理装置3がマスキング画像104をフーリエ逆変換することによって、図9に示すようなフーリエ逆変換画像105を生成する。
ステップS34に進むと、処理装置3は、フーリエ逆変換画像105の画素の膨張及び収縮を数回ずつ組み合わせるモフォロジー処理を行い、図10に示すようなモフォロジー画像106を生成する。
In step S32, the processing device 3 performs the masking process for removing the high frequency component in the Fourier spectrum 103 to generate the masking image 104 as shown in FIG.
After that, the process proceeds to step S33, and the processing device 3 performs the inverse Fourier transform on the masking image 104 to generate the inverse Fourier transform image 105 as shown in FIG.
When the processing proceeds to step S34, the processing device 3 performs a morphological process in which expansion and contraction of pixels of the inverse Fourier transform image 105 are combined several times to generate a morphology image 106 as shown in FIG.

以上のようにして得られたモフォロジー画像106は、二値化画像102のうち周波数の高い成分をステップS31〜S33で除去し、さらに不連続な画素成分をステップS34で除去したものである。したがって、モフォロジー画像106は、二値化画像102のノイズ成分を除去した画像であるといえる。
なお、ステップS32のマスキング処理において除去する周波数の閾値や、ステップS34のモフォロジー処理における膨張及び収縮の回数は、ユーザの判断によって適宜調整することができる。
The morphological image 106 obtained as described above is one in which the high frequency components of the binarized image 102 are removed in steps S31 to S33, and the discontinuous pixel components are removed in step S34. Therefore, it can be said that the morphology image 106 is an image in which the noise component of the binarized image 102 is removed.
The threshold value of the frequency to be removed in the masking process in step S32 and the number of expansions and contractions in the morphology process in step S34 can be appropriately adjusted according to the user's judgment.

次に、ステップS40の詳細について、図11〜図15を用いて説明する。図11は、ステップS40の詳細フローチャートである。図11に示すように、ステップS40は、ステップS41〜S48を備える。
このうちステップS41〜S44においては、処理装置3は、モフォロジー画像106における白の領域と黒の領域の境界部分を抽出し、溶接部100の基本的な情報を抽出した画像(図14に示す基本情報画像107)を生成する。
さらにステップS45〜S48において、処理装置3は、基本情報画像107に基づき、さらに品質評価に用いる情報を抽出した画像(図15に示す評価情報画像108)を生成する。以上のようにして、処理装置3は、溶接部100の特徴の基本的な情報をモフォロジー画像106から抽出する。
Next, details of step S40 will be described with reference to FIGS. 11 to 15. FIG. 11 is a detailed flowchart of step S40. As shown in FIG. 11, step S40 includes steps S41 to S48.
Of these, in steps S41 to S44, the processing device 3 extracts the boundary portion between the white region and the black region in the morphology image 106 and extracts the basic information of the welded portion 100 (basic image shown in FIG. 14). The information image 107) is generated.
Further, in steps S45 to S48, the processing device 3 generates an image (evaluation information image 108 shown in FIG. 15) in which information used for quality evaluation is further extracted based on the basic information image 107. As described above, the processing device 3 extracts the basic information of the characteristics of the welded portion 100 from the morphological image 106.

まず処理装置3は、ステップS41において、図12に示すように、モフォロジー画像106を列方向に走査し、各列における画素値の行方向の分布を求める。図13は、図12において求めたモフォロジー画像106の各列の画素値の行方向の分布を表すグラフである。図13(A)は、図12の列A−Aにおける画素値の行方向の分布、図13(B)は、図12の列B−Bにおける画素値の行方向の分布、図13(C)は、図12の列C−Cにおける画素値の行方向の分布をそれぞれ示している。
なお、図13(A)〜(C)において、それぞれ黒の部分は画素値が0、白の部分は画素値が1であるとして示している。
First, in step S41, the processing device 3 scans the morphological image 106 in the column direction as shown in FIG. 12, and obtains the row-direction distribution of pixel values in each column. FIG. 13 is a graph showing the distribution in the row direction of pixel values of each column of the morphology image 106 obtained in FIG. 13A is a row-direction distribution of pixel values in the column AA of FIG. 12, FIG. 13B is a row-direction distribution of pixel values in the column BB of FIG. 12, and FIG. ) Indicates the distribution of pixel values in the row direction in the column C-C in FIG. 12, respectively.
In FIGS. 13A to 13C, the black portion has a pixel value of 0, and the white portion has a pixel value of 1.

さらに、処理装置3は、ステップS41において、図13(A)〜(C)に示すように、画素値が変化した点を、上から順に点P,Pとして抽出する。また、処理装置3は、図13(C)に示すように、局所的に画素値が1となっている領域における点を、点Pとして抽出する。 Further, the processing unit 3 in step S41, as shown in FIG. 13 (A) ~ (C) , a point where the pixel value changes, extracted from the top point P a, as P b. Further, as illustrated in FIG. 13C, the processing device 3 extracts a point in a region where the pixel value is 1 as a point P c .

次いで、処理装置3は、ステップS42において、各列で抽出した点Pの集合に対して近似直線を求め、第2の板材20の端面aとして抽出する(図14参照)。なお、断面画像101の横方向が第2の板材20の面と平行である場合は、処理装置3は、各列で抽出した点Pの縦方向の平均座標を求め、当該平均座標における横方向の線を端面aとしてもよい。
また、処理装置3は、端面aから第2の板材20の厚さTだけ平行移動した線を、第2の板材20の他の端面dとして抽出する(図14参照)。このようにして、第2の板材20の輪郭が求められる。
Next, in step S42, the processing device 3 obtains an approximate straight line for the set of points P a extracted in each row and extracts it as the end face a of the second plate member 20 (see FIG. 14). In addition, when the horizontal direction of the cross-sectional image 101 is parallel to the surface of the second plate member 20, the processing device 3 obtains the average coordinate in the vertical direction of the points P a extracted in each row, and the horizontal direction at the average coordinate. The line of the direction may be the end surface a.
Further, the processing device 3 extracts a line that is translated from the end face a by the thickness T of the second plate member 20 as the other end face d of the second plate member 20 (see FIG. 14 ). In this way, the contour of the second plate member 20 is obtained.

ステップS43に進むと、処理装置3は、各列で抽出した点Pの集合を、溶け込み部12付近において画素値が変化する境界bとして抽出する(図14参照)。また、処理装置3は、ステップS44において、各列で抽出した点Pの集合を、ビード11の表面cとして抽出する(図14参照)。このようにして、図14に示す基本情報画像107を得ることができる。 When the processing proceeds to step S43, the processing device 3 extracts the set of points P b extracted in each column as a boundary b where the pixel value changes in the vicinity of the merged portion 12 (see FIG. 14). Further, in step S44, the processing device 3 extracts the set of points P c extracted in each column as the surface c of the bead 11 (see FIG. 14). In this way, the basic information image 107 shown in FIG. 14 can be obtained.

ステップS45に進むと、処理装置3は、溶け込み部12の最も深い位置である溶け込み中心Pを決定する。例えば具体的には、処理装置3は、基本情報画像107における境界bの形状を、相互相関法を用いて、上に凸の曲線で近似する。そして、近似した当該曲線のピークの位置を、溶け込み中心Pとして決定する(図15参照)。 When proceeding to step S45, the processing device 3 determines the penetration center P 1 which is the deepest position of the penetration part 12. For example, specifically, the processing device 3 approximates the shape of the boundary b in the basic information image 107 by an upwardly convex curve using the cross-correlation method. Then, the approximated peak position of the curve is determined as the penetration center P 1 (see FIG. 15 ).

ステップS46に進むと、処理装置3は、境界bの形状から溶け込み部12の輪郭Lを決定する。例えば具体的には、処理装置3は、境界bの形状を微分して上に凸な部分のみを抽出し、当該上に凸な部分を溶け込み部12の輪郭Lとして決定する(図15参照)。 When the processing proceeds to step S46, the processing device 3 determines the contour L b of the welded portion 12 from the shape of the boundary b. For example, specifically, the processing device 3 differentiates the shape of the boundary b to extract only the upwardly convex portion, and determines the upwardly convex portion as the contour L b of the welded portion 12 (see FIG. 15 ). ).

ステップS47に進むと、処理装置3は、ビード11の表面cの集合に対して近似直線を求め、ビード11の表面の輪郭Lとして決定する(図15参照)。なお、輪郭Lは必ずしも直線で近似される必要はなく、曲線形状の関数による近似で決定されてもよい。 When the processing proceeds to step S47, the processing device 3 obtains an approximate straight line with respect to the set of the surfaces c of the beads 11 and determines it as the contour L c of the surfaces of the beads 11 (see FIG. 15). The contour L c does not necessarily have to be approximated by a straight line, but may be determined by approximation by a function of a curved shape.

ステップS48に進むと、処理装置3は、溶け込み部12の輪郭Lの端点のうち、ビード11の表面の輪郭Lとの距離が長い側の端点を、第1の板材10の溶接前の端点Pとして決定する。
以上のようにして、図15に示す評価情報画像108を得ることができる。
Proceeding to step S48, the processing device 3, the penetration portion 12 of the end points of the contour L b, the end point distance of the long side of the outline L c of the surface of the bead 11, before welding the first plate 10 It is determined as the end point P 2 .
As described above, the evaluation information image 108 shown in FIG. 15 can be obtained.

次に、ステップS50の詳細について、図16、図17を用いて説明する。図16は、ステップS50の詳細フローチャートである。図16に示すように、ステップS50は、ステップS51〜S53を備える。図17は、ステップS50において、のど厚等の各評価項目の値を求める方法を説明するための図である。 Next, details of step S50 will be described with reference to FIGS. FIG. 16 is a detailed flowchart of step S50. As shown in FIG. 16, step S50 includes steps S51 to S53. FIG. 17 is a diagram for explaining a method of obtaining the value of each evaluation item such as throat thickness in step S50.

まず、ステップS51において、処理装置3は、第2の板材20の端面dから溶け込み中心Pまでの距離を求め、その距離を溶け込み深さLとして決定する(図17参照)。
また、ステップS52において、処理装置3は、溶接前における第1の板材10の溶接前の端点Pから、ビード11の表面の輪郭Lに向けて下ろした垂線の長さを求め、その長さをのど厚Lとして決定する(図17参照)。
そして、ステップS53において、処理装置3は、溶け込み部12の輪郭Lのうち、第2の板材20の端面dとの距離が予め定められた値よりも大きな領域における幅を脚長Lとして決定する(図17参照)。
First, in step S51, the processing apparatus 3 obtains the distance from the end surface d of the second plate member 20 to the penetration center P 1 and determines the distance as the penetration depth L 1 (see FIG. 17).
Further, in step S52, the processing device 3 obtains the length of the perpendicular line drawn from the end point P 2 of the first plate material 10 before welding to the contour L c of the surface of the bead 11 and the length thereof. The thickness is determined as the throat thickness L 2 (see FIG. 17).
Then, determination in step S53, the processing unit 3, of the outline L b of the penetration portion 12, a width in the region larger than a predetermined value is the distance between the end face d of the second plate 20 as a leg length L 3 (See FIG. 17).

以上のステップS51〜S53によって溶接部100ののど厚L等の値を求めた後、処理装置3は、ステップS60において、溶け込み深さL、のど厚L、脚長Lが所定の値以上であるか否かを判定する。溶け込み深さL、のど厚L、脚長Lが、それぞれ所定の値以上であった場合は、溶接部100は良好に形成されたものと判定される。一方で、溶け込み深さL、のど厚L、脚長Lのいずれかが所定の値未満であった場合は、溶接部100は良好に形成されなかったものと判定される。 After obtaining the value of throat thickness L 2, etc. of the welded portion 100 by the above steps S51 to S53, processing unit 3 in step S60, the penetration depth L 1, throat thickness L 2, leg length L 3 is a predetermined value It is determined whether or not the above. When the penetration depth L 1 , the throat thickness L 2 , and the leg length L 3 are equal to or more than the predetermined values, it is determined that the welded portion 100 is well formed. On the other hand, if any of the penetration depth L 1 , the throat thickness L 2 , and the leg length L 3 is less than the predetermined value, it is determined that the welded portion 100 was not formed well.

以上で説明したように、本実施形態に係る溶接部100の品質評価方法では、溶接部100の断面画像101に対して二値化処理及びノイズ除去処理を施すため、ノイズによって生じる評価誤差を少なくすることができる。また、第1の板材10の端点Pやビード11の表面の輪郭Lを抽出することができるため、これらの距離に基づいて溶接部100ののど厚Lを求めることができる。したがって、本発明に係る溶接部の品質評価方法においては、のど厚L等を精度よく求めることができる。 As described above, in the quality evaluation method for the welded portion 100 according to the present embodiment, since the binarization process and the noise removal process are performed on the cross-sectional image 101 of the welded part 100, the evaluation error caused by noise is reduced. can do. Further, since the end point P 2 of the first plate member 10 and the contour L c of the surface of the bead 11 can be extracted, the throat thickness L 2 of the welded portion 100 can be obtained based on these distances. Therefore, in the quality evaluation method for a welded portion according to the present invention, the throat thickness L 2 and the like can be accurately obtained.

[第2の実施形態]
次に、図18及び図19を用いて、第2の実施形態に係る溶接部の品質評価方法の概要について説明する。図18は、第2の実施形態に係る溶接部の品質評価方法を実行する品質評価システムS2の概略図である。品質評価システムS2は、第1の実施形態に係る品質評価システムS1と比較すると、顕微鏡1の代わりに超音波映像装置5を備える点で異なる。
[Second Embodiment]
Next, the outline of the quality evaluation method for the welded portion according to the second embodiment will be described with reference to FIGS. 18 and 19. FIG. 18 is a schematic diagram of a quality evaluation system S2 that executes the weld part quality evaluation method according to the second embodiment. The quality evaluation system S2 is different from the quality evaluation system S1 according to the first embodiment in that an ultrasonic imaging device 5 is provided instead of the microscope 1.

超音波映像装置5は、物体に超音波を発振し、その反射波に基づき断面分布図を作成する装置である。図19は、当該装置を用いて撮像した溶接部100の断面の画像(断面画像201)である。図19において、上側の明るく示されている部分が第2の板材20に対応し、下側の暗く示されている部分は第1の板材10に対応する。また、暗く示されている部分のうち上に凸の形状を有している部分は溶け込み部12に対応し、第1の板材10の下側において明るく示されている部分はビード11の表面部分に対応する。 The ultrasonic imaging device 5 is a device that oscillates ultrasonic waves on an object and creates a cross-sectional distribution map based on the reflected waves. FIG. 19 is an image (cross-sectional image 201) of the cross section of the welded portion 100, which is imaged using the apparatus. In FIG. 19, the upper bright portion corresponds to the second plate member 20, and the lower dark portion corresponds to the first plate member 10. Further, of the darkly shown portions, the upwardly convex portion corresponds to the melt-in portion 12, and the brightly colored portion below the first plate member 10 is the surface portion of the bead 11. Corresponding to.

本実施形態においては、第1の実施形態における断面画像101の代わりに、上述した断面画像201を用いて、第1の実施形態と同様のステップS10〜S60を経て溶接部100の品質を評価する。このような構成においては、溶接部100の断面の画像を非破壊的に取得することができるため、非破壊的な検査が可能となる。 In the present embodiment, instead of the cross-sectional image 101 in the first embodiment, the cross-sectional image 201 described above is used, and the quality of the welded portion 100 is evaluated through steps S10 to S60 similar to those in the first embodiment. .. In such a configuration, the image of the cross section of the welded portion 100 can be acquired nondestructively, so that nondestructive inspection is possible.

なお、本発明は上記の実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
例えば、ステップS30において、断面画像101のノイズを除去する方法の例としてステップS31〜S34の各工程を用いる場合を説明したが、二値化画像102のノイズを処理する方法はこれらに限られるものではない。二値化画像102のノイズを除去し、ステップS40における抽出の精度を高めることができる方法であれば、他の公知の方法を適宜用いたり、上述した方法と組み合わせたりしてもよい。
It should be noted that the present invention is not limited to the above embodiment, and can be modified as appropriate without departing from the spirit of the present invention.
For example, although the case where each step of steps S31 to S34 is used has been described as an example of the method of removing the noise of the cross-sectional image 101 in step S30, the method of processing the noise of the binarized image 102 is not limited thereto. is not. Other known methods may be appropriately used or combined with the above-described method as long as the method can remove noise from the binarized image 102 and improve the accuracy of extraction in step S40.

また、ステップS40において、モフォロジー画像106から溶接部100の各情報を抽出する方法の例としてステップS41〜S48の各工程を用いる場合を説明したが、各情報を抽出する方法はこれらに限られるものではない。例えばラベリング処理等の公知の方法を適宜用いたり、上述した方法と組み合わせたりしてもよい。
さらに、ステップS41〜S48及びステップS51〜S53の実行手順は、上述した順に限られるものではない。溶け込み深さL、のど厚L、脚長Lを決定することができれば、それぞれの工程は適宜入れ替えてもよいし、同時に行われてもよい。
Further, although the case where each step of steps S41 to S48 is used as an example of the method of extracting each information of the welded portion 100 from the morphological image 106 in step S40 has been described, the method of extracting each information is not limited to these. is not. For example, a known method such as labeling processing may be appropriately used or may be combined with the above method.
Furthermore, the execution procedure of steps S41 to S48 and steps S51 to S53 is not limited to the order described above. If the penetration depth L 1 , the throat thickness L 2 , and the leg length L 3 can be determined, the respective steps may be appropriately interchanged, or may be performed simultaneously.

1 顕微鏡
2 ケーブル
3 処理装置
4 モニタ
5 超音波映像装置
10 第1の板材
11 ビード
12 溶け込み部
20 第2の板材
100 溶接部
101 断面画像
102 二値化画像
103 フーリエスペクトル
104 マスキング画像
105 フーリエ逆変換画像
106 モフォロジー画像
107 基本情報画像
108 評価情報画像
201 断面画像
溶け込み深さ
のど厚
脚長
溶け込み部の輪郭
ビードの表面の輪郭
溶け込み中心
第1の板材の溶接前の端点
S1、S2 品質評価システム
1 Microscope 2 Cable 3 Processor 4 Monitor 5 Ultrasonic Imaging Device 10 First Plate Material 11 Bead 12 Penetration Part 20 Second Plate Material 100 Weld Part 101 Cross Section Image 102 Binarized Image 103 Fourier Spectrum 104 Masking Image 105 Inverse Fourier Transform Image 106 Morphology image 107 Basic information image 108 Evaluation information image 201 Cross-sectional image L 1 Penetration depth L 2 Throat thickness L 3 Leg length L b Contour of welded portion L c Contour of bead surface P 1 Center of fusion P 2 First plate material End point S1 and S2 quality evaluation system before welding

Claims (1)

第1の板材と第2の板材を、前記第1の板材側にビードが形成されるようにして行われた重ね隅肉溶接における溶接部の品質評価方法であって、
前記溶接部の、前記ビードの長手方向と直交する断面の画像を取得するステップと、
取得した前記断面の画像を二値化処理するステップと、
前記二値化処理された画像からノイズ成分を除去するステップと、
前記ノイズ成分が除去された画像から、溶接前における前記第1の板材の端点を抽出するステップと、
前記ノイズ成分が除去された画像から、前記ビードの表面の輪郭を抽出するステップと、
前記溶接前における前記第1の板材の溶接前の端点から、前記ビードの表面の輪郭に向けて下ろした垂線の長さを用いて、前記溶接部ののど厚を求めるステップと、を備える、
溶接部の品質評価方法。
A first plate material and a second plate material are a quality evaluation method of a welded portion in lap fillet welding performed so that a bead is formed on the first plate material side,
A step of acquiring an image of a cross section of the weld, which is orthogonal to the longitudinal direction of the bead;
Binarizing the acquired image of the cross section,
Removing noise components from the binarized image,
Extracting an end point of the first plate material before welding from the image from which the noise component has been removed;
Extracting the contour of the surface of the bead from the image from which the noise component has been removed,
From the end point before the welding of the first plate material before the welding, using the length of the perpendicular line lowered toward the contour of the surface of the bead, the step of determining the throat thickness of the welded portion,
Weld quality evaluation method.
JP2018216468A 2018-11-19 2018-11-19 Method for evaluating quality of weld zone Pending JP2020085526A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018216468A JP2020085526A (en) 2018-11-19 2018-11-19 Method for evaluating quality of weld zone

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018216468A JP2020085526A (en) 2018-11-19 2018-11-19 Method for evaluating quality of weld zone

Publications (1)

Publication Number Publication Date
JP2020085526A true JP2020085526A (en) 2020-06-04

Family

ID=70909860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018216468A Pending JP2020085526A (en) 2018-11-19 2018-11-19 Method for evaluating quality of weld zone

Country Status (1)

Country Link
JP (1) JP2020085526A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102518045B1 (en) * 2021-12-14 2023-04-06 (주)에이치씨엔씨 Method for detecting defect of spot welding employing IR camera
CN116452588A (en) * 2023-06-15 2023-07-18 苏州松德激光科技有限公司 Welding quality assessment method and system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102518045B1 (en) * 2021-12-14 2023-04-06 (주)에이치씨엔씨 Method for detecting defect of spot welding employing IR camera
CN116452588A (en) * 2023-06-15 2023-07-18 苏州松德激光科技有限公司 Welding quality assessment method and system
CN116452588B (en) * 2023-06-15 2023-10-31 苏州松德激光科技有限公司 Welding quality assessment method and system

Similar Documents

Publication Publication Date Title
EP3243166B1 (en) Structural masking for progressive health monitoring
JP5421192B2 (en) Crack detection method
JP5672480B2 (en) Apparatus and method for determining shape of terminal end of bead
JP5639925B2 (en) Pattern matching device and computer program
US8452072B2 (en) Method and apparatus for inspecting tire shape
CN111696107A (en) Molten pool contour image extraction method for realizing closed connected domain
JP5707423B2 (en) Pattern matching device and computer program
JP2014006222A (en) Method and apparatus for detecting change of concrete surface
JP2021196711A (en) Information processing device, determination method, and information processing program
JP2020085526A (en) Method for evaluating quality of weld zone
JP2017187348A (en) Surface defect inspection system, method and program
JP5342619B2 (en) Program, processing apparatus and processing method for processing ultrasonic flaw detection data
WO2021250986A1 (en) Inspection device, inspection method, and inspection program
JP4859521B2 (en) Program, processing apparatus and processing method for processing ultrasonic flaw detection data
TWI512284B (en) Bubble inspection system for glass
JP2013002839A (en) Crack detection method
TW201543001A (en) Tool inspection method and tool inspection device
JP5772675B2 (en) Gray image edge extraction method, edge extraction device, and gray image edge extraction program
JP3913517B2 (en) Defect detection method
KR101637977B1 (en) Feature point detecting method of welding joint using laser vision system
KR102519717B1 (en) Apparatus and method for detecting welding bead with improved accuracy
JP5157575B2 (en) Defect detection method
TWI510776B (en) Bubble inspection processing method for glass
JPH11307428A (en) Lithographic pattern inspecting device and recording medium
JPS63153682A (en) Method and apparatus for processing contrast picture