KR20210048172A - Gap recognition system and method of fillet welding using deep learning algorithm - Google Patents

Gap recognition system and method of fillet welding using deep learning algorithm Download PDF

Info

Publication number
KR20210048172A
KR20210048172A KR1020190132117A KR20190132117A KR20210048172A KR 20210048172 A KR20210048172 A KR 20210048172A KR 1020190132117 A KR1020190132117 A KR 1020190132117A KR 20190132117 A KR20190132117 A KR 20190132117A KR 20210048172 A KR20210048172 A KR 20210048172A
Authority
KR
South Korea
Prior art keywords
welding
learning
gap
learning data
deep learning
Prior art date
Application number
KR1020190132117A
Other languages
Korean (ko)
Inventor
김지윤
주지훈
류재훈
Original Assignee
대우조선해양 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대우조선해양 주식회사 filed Critical 대우조선해양 주식회사
Priority to KR1020190132117A priority Critical patent/KR20210048172A/en
Publication of KR20210048172A publication Critical patent/KR20210048172A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K9/00Arc welding or cutting
    • B23K9/095Monitoring or automatic control of welding parameters
    • B23K9/0953Monitoring or automatic control of welding parameters using computing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K9/00Arc welding or cutting
    • B23K9/02Seam welding; Backing means; Inserts
    • B23K9/025Seam welding; Backing means; Inserts for rectilinear seams
    • B23K9/0256Seam welding; Backing means; Inserts for rectilinear seams for welding ribs on plates
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Plasma & Fusion (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

A gap recognition system of fillet welding using a deep learning algorithm according to an embodiment of the present invention comprises: a learning data collection unit that collects welding current and arc voltage signals of a welding machine as real-time learning data by performing welding under the same welding conditions for a plurality of specimens with different fillet gap sizes; a learning data preprocessing unit which generates the learning data collected by the learning data collection unit as learning data for welding current and arc current signals of one weaving cycle, applies a Fourier transform to convert the learning data into a two-dimensional graph in a frequency domain, stores the two-dimensional graph as image data, and labels the image data as a frequency domain image for different gap sizes; and a classification learning unit which learns to classify the images for different gap sizes by inputting the image data into a deep learning algorithm. Therefore, the present invention can appropriately change the welding conditions according to the gap.

Description

딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 시스템 및 방법{GAP RECOGNITION SYSTEM AND METHOD OF FILLET WELDING USING DEEP LEARNING ALGORITHM}Fillet welding gap recognition system and method using deep learning algorithm {GAP RECOGNITION SYSTEM AND METHOD OF FILLET WELDING USING DEEP LEARNING ALGORITHM}

본 발명의 실시예는 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 시스템 및 방법에 관한 것으로, 사람의 숙련도를 모방하여 여러 종류의 신호 패턴을 분류해 내는 문제에 딥러닝 기법을 적용하여 용접 부위의 갭을 실시간으로 인식함으로써 갭에 따라 적절히 용접 조건을 변경할 수 있는 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 시스템 및 방법에 관한 것이다. An embodiment of the present invention relates to a system and method for recognizing a gap in fillet welding using a deep learning algorithm, and by applying a deep learning technique to a problem of classifying various types of signal patterns by imitating human proficiency A system and method for recognizing a gap in fillet welding using a deep learning algorithm capable of appropriately changing a welding condition according to a gap by recognizing in real time.

용접기로부터 용접 전류와 아크 전압 신호를 수집하여 다양한 신호처리 필터나 사람의 주관에 의한 특징점을 선정하고 이를 비교하여 갭에 따른 차이점을 찾아 분류하는 방법으로 갭을 인식하려 하였다. 하지만, 다양한 상황에서 수집된 복잡한 신호를 일반적으로 분류할 수 있는 적절한 필터나 특징점을 찾지 못하고 있으며, 현재로서는 실용적인 성능을 보이지 못하고 있는 실정이다. We tried to recognize the gap by collecting the welding current and arc voltage signals from the welding machine, selecting various signal processing filters or characteristic points by human subject, and comparing them to find and classify differences according to the gap. However, an appropriate filter or feature point capable of generally classifying a complex signal collected in various situations has not been found, and practical performance is not shown at present.

조선소의 필렛 용접 부위는 취부시 다양한 경사각과 필렛각으로 인해 대부분의 용접 심(seam)에 갭이 발생하는 실정이며, 용접사는 이를 숙련된 기량으로 용접 조건을 적절히 변경하면서 용접을 수행한다. In the case of fillet welding in shipyards, gaps occur in most of the welding seams due to various inclination angles and fillet angles during installation, and welders perform welding while appropriately changing welding conditions with skilled skills.

특히 경사각이 존재하는 필렛부위나 곡블록의 경우 하나의 용접 심상에서도 갭이 지속적으로 변화하여 용접 중에 용접 조건을 실시간으로 변경하면서 용접을 수행하여야 하는데, 이는 오랜 기간의 경험을 통한 숙련도를 요구하는 고난이도의 작업이다.In particular, in the case of a fillet or curved block with an inclination angle, the gap continuously changes even in one weld image, so welding must be performed while changing the welding conditions in real time during welding, which is a high degree of difficulty that requires proficiency through long-term experience. It's the job.

이러한 실정으로 인해 숙련된 용접사의 인력 수급 문제를 야기하고 있으며, 특히 자동화된 용접 장치에 용접 심의 갭을 실시간으로 판단하는 방법이 현재까지 부재한 이유에 따라 용접 자동화의 현업 적용에 많은 제약이 있다. Due to this situation, there is a problem of supply and demand of skilled welders, and in particular, there are many restrictions on the field application of welding automation according to the reason that a method of determining the gap of a weld seam in real time in an automated welding device has not been present.

따라서, 사람의 숙련도를 모방하여 여러 종류의 신호 패턴을 분류해 내는 문제에 딥러닝 기법을 적용하여 용접 부위의 갭을 실시간으로 인식함으로써 갭에 따라 적절히 용접 조건을 변경할 수 있는 시스템 및 방법의 개발이 필요하다. Therefore, it is difficult to develop a system and method that can appropriately change welding conditions according to the gap by applying a deep learning technique to the problem of classifying various types of signal patterns by imitating human proficiency and recognizing the gap in the welding area in real time. need.

대한민국 공개특허공보 제10-2011-0030156호Republic of Korea Patent Publication No. 10-2011-0030156

본 발명의 목적은 사람의 숙련도를 모방하여 여러 종류의 신호 패턴을 분류해 내는 문제에 딥러닝 기법을 적용하여 용접 부위의 갭을 실시간으로 인식함으로써 갭에 따라 적절히 용접 조건을 변경할 수 있는 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 시스템 및 방법을 제공함에 있다. An object of the present invention is a deep learning algorithm capable of appropriately changing welding conditions according to the gap by applying a deep learning technique to a problem of classifying various types of signal patterns by imitating human skill level by recognizing a gap in a welding area in real time. It is to provide a system and method for recognizing a gap in fillet welding using a method.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention that are not mentioned can be understood by the following description, and will be more clearly understood by examples of the present invention. In addition, it will be easily understood that the objects and advantages of the present invention can be realized by the means shown in the claims and combinations thereof.

본 발명의 일 실시예에 따른 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 시스템은 필렛의 갭 크기가 서로 다른 다수의 시편에 대해 동일한 용접 조건하에서 용접을 수행하여, 용접기의 용접 전류와 아크 전압 신호를 실시간 학습 데이터로 수집하는 학습 데이터 수집부; 상기 학습 데이터 수집부에서 수집된 학습 데이터를 1 위빙 사이클(weaving cycle)의 용접 전류 및 아크 전류 신호에 대한 학습 데이터로 생성 후 푸리에 변환을 적용하여 주파수 도메인의 2차원 그래프로 변환하고, 상기 2차원 그래프를 이미지 데이터로 저장한 다음 서로 다른 갭 크기에 대한 주파수 도메인 이미지로 라벨링 하는 학습 데이터 전처리부; 및 상기 이미지 데이터를 딥러닝 알고리즘에 입력하여 서로 다른 갭 크기에 대한 이미지를 분류하도록 학습시키는 분류 학습부;를 포함한다. The gap recognition system for fillet welding using a deep learning algorithm according to an embodiment of the present invention performs welding on a plurality of specimens having different fillet gap sizes under the same welding condition, and thus detects the welding current and arc voltage signals of the welder. A learning data collection unit for collecting real-time learning data; The learning data collected by the learning data collection unit is generated as learning data for welding current and arc current signals of one weaving cycle, and then Fourier transform is applied to convert it into a two-dimensional graph in the frequency domain, and the two-dimensional A learning data preprocessor for storing the graph as image data and then labeling the graph with frequency domain images for different gap sizes; And a classification learning unit for learning to classify images for different gap sizes by inputting the image data into a deep learning algorithm.

상기 학습 데이터 수집부는 X-Y 직교 좌표계의 로봇을 포함하며, 상기 X-Y 직교 좌표계의 로봇은, 서로 다른 갭 크기에 따라 일정한 용접 전류 및 아크 전압 신호를 실시간으로 수집하며 용접을 수행할 수 있다. 예를 들어, 필렛의 갭이 0mm, 2mm, 4mm인 시편을 제작하고 이를 동일한 용접 조건하에서 용접을 수행하면서 랩뷰(LabVIEW)와 같이 용접기의 용접 전류와 아크 전압 신호를 실시간으로 수집할 수 있다. The learning data collection unit includes a robot of an X-Y orthogonal coordinate system, and the robot of the X-Y orthogonal coordinate system may perform welding by collecting constant welding current and arc voltage signals according to different gap sizes in real time. For example, specimens with fillet gaps of 0mm, 2mm, and 4mm can be manufactured and welded under the same welding conditions while collecting the welding current and arc voltage signals of the welder in real time, like in LabVIEW.

또한, 상기 학습 데이터 수집부의 신호 샘플링 주파수는 적어도 2000Hz일 수 있다. 신호 샘플링 주파수는 최대한 많은 정밀도의 정보를 얻기 위하여 2000Hz인 것이 바람직하다. In addition, the signal sampling frequency of the learning data collection unit may be at least 2000 Hz. The signal sampling frequency is preferably 2000 Hz in order to obtain information with as much precision as possible.

상기 분류 학습부에서, 상기 이미지 데이터를 입력 받아 서로 다른 갭 크기에 대한 이미지를 분류하는데 이용되는 딥러닝 알고리즘은 CNN(Convolutional Neural Network)일 수 있다. 다시 말해, 전처리 된 이미지 데이터를 이미지 분류에 탁월한 성능을 보이는 딥러닝 알고리즘인 CNN(Convolutional Neural Network)에 입력으로 넣어 0mm, 2mm, 4mm에 대한 이미지를 분류해 내도록 학습시킬 수 있다. In the classification learning unit, a deep learning algorithm used to classify images for different gap sizes by receiving the image data may be a convolutional neural network (CNN). In other words, it is possible to train to classify images for 0mm, 2mm, and 4mm by putting preprocessed image data as input into CNN (Convolutional Neural Network), a deep learning algorithm that shows excellent performance in image classification.

본 발명의 다른 실시예에 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 방법은 학습 데이터 수집부, 학습 데이터 전처리부, 분류 학습부를 포함하는 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 시스템을 이용한 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 방법으로서, 상기 학습 데이터 수집부에서, 서로 다른 갭 크기를 갖도록 제작된 다수의 시편에 대해 동일한 용접 조건하에서 용접을 수행시켜, 용접기의 용접 전류와 아크 전압 신호를 실시간으로 수집하는 학습 데이터 수집 단계; 상기 학습 데이터 전처리부에서, 상기 학습 데이터 수집부에서 수집된 학습 데이터를 1 위빙 사이클(weaving cycle)의 용접 전류 및 아크 전류 신호에 대한 학습 데이터로 생성 후 푸리에 변환을 적용하여 주파수 도메인의 2차원 그래프로 변환하고, 상기 2차원 그래프를 이미지 데이터로 저장한 다음 서로 다른 갭 크기에 대한 주파수 도메인 이미지로 라벨링 하는 학습 데이터 전처리 단계; 상기 분류 학습부에서, 상기 학습 데이터 전처리부에서 처리된 상기 이미지 데이터를 딥러닝 알고리즘에 입력하여 서로 다른 갭 크기에 대한 이미지를 분류하도록 학습시키는 분류 학습 단계;를 포함한다. In another embodiment of the present invention, a gap recognition method for fillet welding using a deep learning algorithm is a deep learning algorithm using a gap recognition system for fillet welding using a deep learning algorithm including a learning data collection unit, a learning data preprocessor, and a classification learning unit. As a method for recognizing a gap in fillet welding using, in the learning data collection unit, welding is performed under the same welding conditions for a plurality of specimens manufactured to have different gap sizes, so that the welding current and arc voltage signals of the welding machine are measured in real time. Collecting learning data to be collected; In the training data preprocessor, the training data collected by the training data collection unit is generated as training data for the welding current and arc current signals of one weaving cycle, and then Fourier transform is applied to a two-dimensional graph in the frequency domain. A training data pre-processing step of converting to, storing the 2D graph as image data, and labeling frequency domain images with different gap sizes; And a classification learning step of learning to classify images having different gap sizes by inputting the image data processed by the training data preprocessor into a deep learning algorithm in the classification learning unit.

상기 학습 데이터 수집 단계 이전에, 수직 필렛 용접 시 발생하는 필렛의 갭 크기를 최소 종류로 구분하는 갭 크기 구분 단계를 더 포함하고, 상기 갭 크기 구분 단계에서 구분되는 상기 필렛의 갭 크기는 0mm, 2mm, 4mm 일 수 있다. 예를 들어, 필렛의 갭이 0mm, 2mm, 4mm인 시편을 제작하고 이를 동일한 용접 조건하에서 용접을 수행하면서 랩뷰(LabVIEW)와 같이 용접기의 용접 전류와 아크 전압 신호를 실시간으로 수집할 수 있다. Prior to the learning data collection step, further comprising a gap size classification step of dividing a gap size of a fillet generated during vertical fillet welding into a minimum type, wherein the gap size of the fillet classified in the gap size classification step is 0mm, 2mm , Can be 4mm. For example, specimens with fillet gaps of 0mm, 2mm, and 4mm can be manufactured and welded under the same welding conditions while collecting the welding current and arc voltage signals of the welder in real time, like in LabVIEW.

상기 학습 데이터 수집 단계에서, 상기 학습 데이터 수집부는 X-Y 직교 좌표계의 로봇을 포함하며, 상기 X-Y 직교 좌표계의 로봇은, 서로 다른 갭 크기에 따라 일정한 용접 전류 및 아크 전압 신호를 실시간으로 수집하며 용접을 수행할 수 있다. In the learning data collection step, the learning data collection unit includes a robot of an XY orthogonal coordinate system, and the robot of the XY orthogonal coordinate system performs welding by collecting constant welding current and arc voltage signals according to different gap sizes in real time. can do.

상기 학습 데이터 수집 단계에서, 상기 학습 데이터 수집부의 신호 샘플링 주파수는 적어도 2000Hz일 수 있다. 신호 샘플링 주파수는 최대한 많은 정밀도의 정보를 얻기 위하여 2000Hz인 것이 바람직하다. In the learning data collection step, a signal sampling frequency of the learning data collection unit may be at least 2000 Hz. The signal sampling frequency is preferably 2000 Hz in order to obtain information with as much precision as possible.

상기 분류 학습 단계에서, 상기 이미지 데이터를 입력 받아 서로 다른 갭 크기에 대한 이미지를 분류하는데 이용되는 딥러닝 알고리즘은 CNN(Convolutional Neural Network)일 수 있다. 다시 말해, 전처리 된 이미지 데이터를 이미지 분류에 탁월한 성능을 보이는 딥러닝 알고리즘인 CNN(Convolutional Neural Network)에 입력으로 넣어 0mm, 2mm, 4mm에 대한 이미지를 분류해 내도록 학습시킬 수 있다. In the classification learning step, a deep learning algorithm used to classify images for different gap sizes by receiving the image data may be a convolutional neural network (CNN). In other words, it is possible to train to classify images for 0mm, 2mm, and 4mm by putting preprocessed image data as input into CNN (Convolutional Neural Network), a deep learning algorithm that shows excellent performance in image classification.

본 발명에 의하면 사람의 숙련도를 모방하여 여러 종류의 신호 패턴을 분류해 내는 문제에 딥러닝 기법을 적용하여 용접 부위의 갭을 실시간으로 인식함으로써 갭에 따라 적절히 용접 조건을 변경할 수 있는 장점이 있다. According to the present invention, a deep learning technique is applied to the problem of classifying various types of signal patterns by imitating human skill level, and by real-time recognition of a gap in a welding area, it is possible to appropriately change a welding condition according to the gap.

구체적으로는, 기존의 사람의 직관이나 추론에 의존하던 특징점 추출 방식이나 필터를 통한 데이터 전처리 방법의 한계를 극복하기 위하여 용접 전류와 아크 전압 신호를 최대한 높은 주파수로 샘플링하고, 이를 필터나 특징점 추출과 같은 데이터 손실을 유발하는 전처리 방식을 배제하고, 원 수집 데이터를 온전히 주파수 영역의 2차원 이미지로 변환하여, 고성능 이미지 분류 알고리즘인 CNN(Convolutional Neural Network)을 이용하여 분류할 수 있다. Specifically, in order to overcome the limitations of the conventional method of extracting feature points that depended on human intuition or reasoning or preprocessing data through a filter, the welding current and arc voltage signals are sampled at the highest frequency possible, and the filter or feature point extraction is performed. Excluding the preprocessing method that causes the same data loss, the original collected data can be completely converted into a two-dimensional image in the frequency domain and classified using a high-performance image classification algorithm, Convolutional Neural Network (CNN).

그 결과, 본 발명에 의하면 기존의 분류 방식보다 높은 분류 성공률을 확보 할 수 있는 유리한 기술적 효과가 있다. As a result, according to the present invention, there is an advantageous technical effect of securing a higher classification success rate than the conventional classification method.

상술한 효과와 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.In addition to the above-described effects, specific effects of the present invention will be described together with explanation of specific matters for carrying out the present invention.

도 1은 본 발명의 일 실시예에 따른 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 시스템을 간략히 도시한 블록도이다.
도 2는 본 발명의 다른 실시예에 따른 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 방법을 간략히 도시한 순서도이다.
1 is a block diagram schematically illustrating a system for recognizing a gap in fillet welding using a deep learning algorithm according to an embodiment of the present invention.
2 is a flowchart briefly showing a method for recognizing a gap in fillet welding using a deep learning algorithm according to another embodiment of the present invention.

전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.The above-described objects, features, and advantages will be described later in detail with reference to the accompanying drawings, and accordingly, one of ordinary skill in the art to which the present invention pertains will be able to easily implement the technical idea of the present invention. In describing the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the subject matter of the present invention, a detailed description will be omitted. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to indicate the same or similar elements.

이하에서 구성요소의 "상부 (또는 하부)" 또는 구성요소의 "상 (또는 하)"에 임의의 구성이 배치된다는 것은, 임의의 구성이 상기 구성요소의 상면 (또는 하면)에 접하여 배치되는 것뿐만 아니라, 상기 구성요소와 상기 구성요소 상에 (또는 하에) 배치된 임의의 구성 사이에 다른 구성이 개재될 수 있음을 의미할 수 있다.Hereinafter, the "top (or bottom)" of the component or the "top (or bottom)" of the component means that an arbitrary component is arranged in contact with the top (or bottom) of the component. In addition, it may mean that other components may be interposed between the component and any component disposed on (or under) the component.

또한 어떤 구성요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 상기 구성요소들은 서로 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성요소 사이에 다른 구성요소가 "개재"되거나, 각 구성요소가 다른 구성요소를 통해 "연결", "결합" 또는 "접속"될 수도 있는 것으로 이해되어야 할 것이다.In addition, when a component is described as being "connected", "coupled" or "connected" to another component, the components may be directly connected or connected to each other, but other components are "interposed" between each component. It is to be understood that "or, each component may be "connected", "coupled" or "connected" through other components.

종래의 경우, 용접기로부터 용접 전류와 아크 전압 신호를 수집하여 다양한 신호처리 필터나 사람의 주관에 의한 특징점을 선정하고 이를 비교하여 갭에 따른 차이점을 찾아 분류하도록 하는 방법으로 갭을 인식하려 하였다. 하지만, 다양한 상황에서 수집된 복잡한 신호를 일반적으로 분류 가능한 적절한 필터나 특징점을 찾지 못하여 실용적인 성능을 보여주지 못하는 한계가 있었다. In the conventional case, the welding current and arc voltage signals are collected from a welding machine, various signal processing filters or human subjective feature points are selected, and the differences are found and classified by comparing them to recognize gaps. However, there is a limitation in not showing practical performance because an appropriate filter or feature point capable of classifying a complex signal collected in various situations in general cannot be found.

그런데, 종래의 분류 방법은 용접기로부터 수집된 용접 전류와 아크 전압 신호의 raw data를 그대로 다 활용하는 것이 아니라 사람의 주관이나 직관으로 갭과 연관이 있어 보이는 신호만을 추출하여 사용하였다. 그러나 이러한 종래의 방법은 추출된 신호가 갭에 대한 정보를 온전히 포함하고 있는지에 대한 보장이 불가능하다는 문제점이 있었다. However, the conventional classification method does not utilize all raw data of the welding current and arc voltage signals collected from the welding machine as it is, but extracts and uses only the signals that appear to be related to the gap through human subjectivity or intuition. However, such a conventional method has a problem in that it is impossible to guarantee whether the extracted signal completely contains information about the gap.

이하에서 설명할 본 발명의 실시예에 따르는 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 시스템 및 방법은 용접 전류와 아크 전압 신호의 raw data를 그대로 입력으로 다 사용하면서, 그 안에 갭과 관련된 특징들까지 스스로 학습하여 파악하도록 딥러닝 기술을 적용한다. In the fillet welding gap recognition system and method using a deep learning algorithm according to an embodiment of the present invention to be described below, raw data of the welding current and arc voltage signals are used as inputs, and features related to the gap are included. Deep learning technology is applied to self-learn and understand.

이를 위해, 본 발명의 실시예에 따르는 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 시스템 및 방법은 시간축에 따라 측정된 전류, 전압의 1차원적 신호를 푸리에 변환을 통하여 신호의 각 주파수와 그에 따른 신호 강도의 2차원적 이미지로 변환한 후 이를 이미지 인식에서 각 이미지를 구별하는 미세한 특징점까지 스스로 학습하여 분류하는 것에 탁월한 성능을 보이는 딥러닝 알고리즘인 CNN(Convolutional Neural Network)을 이용하여 각 갭의 이미지를 학습하여 분류하도록 할 수 있다. To this end, the system and method for recognizing a gap in fillet welding using a deep learning algorithm according to an embodiment of the present invention converts the one-dimensional signal of current and voltage measured along the time axis to each frequency of the signal and the corresponding signal through Fourier transform. After converting it into a two-dimensional image of intensity, the image of each gap is analyzed using CNN (Convolutional Neural Network), a deep learning algorithm that has excellent performance in classifying and classifying by self-learning from image recognition to fine feature points that distinguish each image. You can learn to classify.

특히 CNN 알고리즘은 이미지 데이터를 분류하기 위해 효과적인 수많은 필터들을 학습을 통해 스스로 찾아냄으로써 기존의 이미지 인식 알고리즘보다 탁월한 인식률을 보이는 장점이 있다. In particular, the CNN algorithm has the advantage of showing a better recognition rate than the existing image recognition algorithm by finding numerous effective filters through learning through learning.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 따르는 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 시스템 및 방법에 관하여 상세히 설명하기로 한다.Hereinafter, a system and method for recognizing a gap in fillet welding using a deep learning algorithm according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 시스템Fillet Weld Gap Recognition System Using Deep Learning Algorithm

도 1은 본 발명의 일 실시예에 따른 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 시스템을 간략히 도시한 블록도이다. 1 is a block diagram schematically showing a system for recognizing a gap in fillet welding using a deep learning algorithm according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 시스템은 학습 데이터 수집부(100), 학습 데이터 전처리부(200), 분류 학습부(300)를 포함한다. Referring to FIG. 1, a system for recognizing a gap in fillet welding using a deep learning algorithm according to an embodiment of the present invention includes a learning data collection unit 100, a training data preprocessor 200, and a classification learning unit 300. do.

학습 데이터 수집부(100)는 필렛의 갭 크기가 서로 다른 다수의 시편에 대해 동일한 용접 조건하에서 용접을 수행하여, 용접기의 용접 전류와 아크 전압 신호를 실시간 학습 데이터로 수집한다. The learning data collection unit 100 performs welding on a plurality of specimens having different fillet gap sizes under the same welding conditions, and collects the welding current and arc voltage signals of the welding machine as real-time learning data.

구체적으로는, 학습 데이터 수집부(100)는 X-Y 직교 좌표계의 로봇을 포함할 수 있다. Specifically, the learning data collection unit 100 may include a robot with an X-Y orthogonal coordinate system.

X-Y 직교 좌표계의 로봇은 서로 다른 갭 크기에 따라 일정한 용접 전류 및 아크 전압 신호를 실시간으로 수집하며 용접을 수행할 수 있다.The robot of the X-Y Cartesian coordinate system can perform welding by collecting constant welding current and arc voltage signals in real time according to different gap sizes.

먼저, 수직 필렛 용접 시 발생하는 대부분 갭의 크기를 필렛 용접의 품질을 유지하면서 용접 조건 변경이 필요하다고 판단되는 최소 종류로 나눌 수 있다. 본 발명에 따르면 반복적인 실험을 통해 0mm, 2mm, 4mm의 갭 크기에 따라 용접 조건 변경이 필요함을 확인할 수 있었다. First, the size of most gaps that occur during vertical fillet welding can be divided into the minimum types that are determined to require change of welding conditions while maintaining the quality of fillet welding. According to the present invention, it was confirmed through repeated experiments that the welding conditions need to be changed according to the gap sizes of 0mm, 2mm, and 4mm.

따라서 갭 크기가 0mm, 2mm, 4mm인 시편을 제작하고 이를 동일한 용접 조건하에서 용접을 수행하면서 랩뷰(LabVIEW)와 같이 용접기의 용접 전류와 아크 전압 신호를 실시간으로 수집할 수 있다. Therefore, it is possible to prepare specimens with gap sizes of 0mm, 2mm, and 4mm, and perform welding under the same welding conditions while collecting the welding current and arc voltage signals of the welding machine in real time, like in LabVIEW.

한편, 학습 데이터 수집부(100)의 신호 샘플링 주파수는 적어도 2000Hz일 수 있다. 다시 말해, 신호 샘플링 주파수는 최대한 많은 정밀도의 정보를 얻기 위하여 2000Hz인 것이 바람직하다.Meanwhile, the signal sampling frequency of the learning data collection unit 100 may be at least 2000 Hz. In other words, the signal sampling frequency is preferably 2000 Hz in order to obtain information with as much precision as possible.

학습 데이터 전처리부(200)는 학습 데이터 수집부(100)에서 수집된 학습 데이터를 1 위빙 사이클(weaving cycle)의 용접 전류 및 아크 전류 신호로 잘라서 이에 대한 학습 데이터로 생성한다. The learning data preprocessing unit 200 cuts the learning data collected by the learning data collection unit 100 into welding current and arc current signals of one weaving cycle, and generates learning data for the welding current and arc current signals.

그리고 학습 데이터 전처리부(200)는 1 위빙 사이클(weaving cycle)의 용접 전류 및 아크 전류 신호에 대한 학습 데이터로 푸리에 변환을 적용하여 주파수 도메인의 2차원 그래프로 변환하고, 2차원 그래프를 이미지 데이터로 저장한다. In addition, the learning data preprocessor 200 applies Fourier transform as learning data on the welding current and arc current signals of one weaving cycle, converts it into a two-dimensional graph in the frequency domain, and converts the two-dimensional graph into image data. Save it.

그리고 학습 데이터 전처리부(200)는 서로 다른 갭 크기에 대한 주파수 도메인 이미지로 라벨링 한다. 즉, 학습 데이터 전처리부(200)는 상기와 같은 학습 데이터 전처리 과정을 수행한다. In addition, the training data preprocessor 200 labels frequency domain images for different gap sizes. That is, the training data preprocessor 200 performs the training data preprocessing process as described above.

분류 학습부(300)는 학습 데이터 전처리부(200)에서 전처리 된 이미지 데이터를 딥러닝 알고리즘에 입력하여 서로 다른 갭 크기에 대한 이미지를 분류하도록 학습시킨다. The classification learning unit 300 inputs the image data preprocessed by the training data preprocessor 200 into a deep learning algorithm to learn to classify images for different gap sizes.

이때, 분류 학습부(300)에서, 이미지 데이터를 입력 받아 서로 다른 갭 크기에 대한 이미지를 분류하는데 이용되는 딥러닝 알고리즘은 CNN(Convolutional Neural Network)일 수 있다. In this case, the classification learning unit 300 receives image data and a deep learning algorithm used to classify images for different gap sizes may be a convolutional neural network (CNN).

다시 말해, 전처리 된 이미지 데이터를 이미지 분류에 탁월한 성능을 보이는 딥러닝 알고리즘인 CNN(Convolutional Neural Network)에 입력으로 넣어 0mm, 2mm, 4mm의 갭 크기에 대한 이미지를 분류해 내도록 학습시킬 수 있다.In other words, it is possible to train to classify images for gap sizes of 0mm, 2mm, and 4mm by putting preprocessed image data as input into CNN (Convolutional Neural Network), a deep learning algorithm that shows excellent performance in image classification.

이와 같이 본 발명에 따르면 용접 전류와 아크 전압 신호를 최대한 높은 주파수로 샘플링하고, 이를 필터나 특징점 추출과 같은 데이터 손실을 유발하는 전처리 방식을 배제하고, 원 수집 데이터를 온전히 주파수 영역의 2차원 이미지로 변환하여, 고성능 이미지 분류 알고리즘인 CNN(Convolutional Neural Network)을 이용하여 분류할 수 있다. 이에 따라, 본 발명에 의하면 기존의 분류 방식보다 높은 분류 성공률을 확보 할 수 있는 장점이 있다.As described above, according to the present invention, the welding current and arc voltage signals are sampled at the highest possible frequency, and the preprocessing method that causes data loss such as a filter or feature point extraction is excluded, and the original collected data is completely converted into a two-dimensional image in the frequency domain. It can be transformed and classified using a high-performance image classification algorithm, Convolutional Neural Network (CNN). Accordingly, according to the present invention, there is an advantage of securing a higher classification success rate than the conventional classification method.

딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 방법Fillet Weld Gap Recognition Method Using Deep Learning Algorithm

도 2는 본 발명의 다른 실시예에 따른 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 방법을 간략히 도시한 순서도이다. 2 is a flowchart briefly showing a method of recognizing a gap in fillet welding using a deep learning algorithm according to another embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 방법은, 학습 데이터 수집 단계(S100), 학습 데이터 전처리 단계(S200), 분류 학습 단계(S300)를 포함한다. 2, a method for recognizing a gap in fillet welding using a deep learning algorithm according to an embodiment of the present invention includes a learning data collection step (S100), a training data preprocessing step (S200), and a classification learning step (S300). Includes.

학습 데이터 수집 단계(S100)는 학습 데이터 수집부(100, 도 1 참조)에서, 서로 다른 갭 크기를 갖도록 제작된 다수의 시편에 대해 동일한 용접 조건하에서 용접을 수행시켜, 용접기의 용접 전류와 아크 전압 신호를 실시간으로 수집하는 단계를 말한다. In the learning data collection step (S100), the learning data collection unit 100 (refer to FIG. 1) performs welding on a plurality of specimens manufactured to have different gap sizes under the same welding conditions, so that the welding current and arc voltage of the welding machine It refers to the step of collecting signals in real time.

이 학습 데이터 수집 단계(S100) 이전에, 수직 필렛 용접 시 발생하는 필렛의 갭 크기를 최소 종류로 구분하는 갭 크기 구분 단계를 더 포함할 수 있다. 즉, 필렛의 갭 크기를 0mm, 2mm, 4mm로 구분하고, 필렛의 갭이 0mm, 2mm, 4mm인 시편을 미리 제작할 수 있다. 이렇게 사전 제작된 필렛의 갭이 0mm, 2mm, 4mm인 시편은 동일한 용접 조건하에서 용접이 실시될 수 있으며, 학습 데이터 수집 단계(S100)에서 용접기의 용접 전류와 아크 전압 신호가 실시간으로 수집될 수 있다. Prior to the learning data collection step S100, a gap size classification step of classifying a gap size of a fillet generated during vertical fillet welding into a minimum type may be further included. That is, the gap size of the fillet can be divided into 0mm, 2mm, and 4mm, and specimens with the fillet gaps of 0mm, 2mm, and 4mm can be prepared in advance. The specimens with the gaps of the pre-fabricated fillets 0mm, 2mm, and 4mm can be welded under the same welding conditions, and the welding current and arc voltage signals of the welding machine can be collected in real time in the learning data collection step (S100). .

또한, 학습 데이터 수집 단계(S100)에서 학습 데이터 수집부(100, 도 1 참조)는 X-Y 직교 좌표계의 로봇을 포함한다. In addition, in the learning data collection step S100, the learning data collection unit 100 (refer to FIG. 1) includes a robot of an X-Y orthogonal coordinate system.

X-Y 직교 좌표계의 로봇은 서로 다른 갭 크기에 따라 일정한 용접 전류 및 아크 전압 신호를 실시간으로 수집하며 용접을 수행할 수 있다. X-Y 직교 좌표계의 로봇은 관용적으로 잘 알려진 로봇으로서 특정 형태 및 종류로 한정되지 않고 통상의 기술자에게 자명한 범위 내에서 다양하게 변경 가능하다. The robot of the X-Y Cartesian coordinate system can perform welding by collecting constant welding current and arc voltage signals in real time according to different gap sizes. The robot of the X-Y Cartesian coordinate system is conventionally well known, and is not limited to a specific shape and type, and can be variously changed within a range that is obvious to a person skilled in the art.

또한, 학습 데이터 수집 단계(S100)에서, 신호 샘플링 주파수는 적어도 2000Hz일 수 있다. 신호 샘플링 주파수는 최대한 많은 정밀도의 정보를 얻기 위하여 2000Hz인 것이 바람직하다.Further, in the learning data collection step S100, the signal sampling frequency may be at least 2000 Hz. The signal sampling frequency is preferably 2000 Hz in order to obtain information with as much precision as possible.

학습 데이터 전처리 단계(S200)는 학습 데이터 전처리부(200, 도 1 참조)에서, 학습 데이터 수집부(100, 도 1 참조)에서 수집된 학습 데이터를 1 위빙 사이클(weaving cycle)의 용접 전류 및 아크 전류 신호에 대한 학습 데이터로 생성 후 푸리에 변환을 적용하여 주파수 도메인의 2차원 그래프로 변환하고, 상기 2차원 그래프를 이미지 데이터로 저장한 다음 서로 다른 갭 크기에 대한 주파수 도메인 이미지로 라벨링 하는 단계를 말한다. In the training data preprocessing step (S200), the training data collected by the training data collection unit 100 (see FIG. 1) in the training data preprocessor 200 (refer to FIG. 1) is converted into a welding current and arc of one weaving cycle. Refers to the step of generating training data for the current signal, converting it into a frequency domain 2D graph by applying Fourier transform, storing the 2D graph as image data, and labeling it with frequency domain images for different gap sizes. .

필렛 용접은 용접 토치를 위빙(weaving)으로 운봉하여 용접을 수행한다. 따라서 위빙(weaving)의 한 사이클(cycle) 신호가 갭의 크기에 대한 모든 정보를 담고 있다고 추정하여 학습 데이터는 1 위빙 사이클(weaving cycle)의 용접 전류 및 아크 전압 신호로 잘라서 사용할 수 있다. 이렇게 잘라진 학습 데이터를 푸리에 변환을 적용하여 주파수 도메인의 2차원 그래프로 표현할 수 있다. 그리고 2차원 그래프는 이미지로 저장되고, 각 이미지는 원 신호에 따라 0mm, 2mm, 4mm에 대한 주파수 도메인 이미지로 라벨링 될 수 있다. Fillet welding is performed by moving a welding torch by weaving. Therefore, it is assumed that one cycle signal of weaving contains all information on the size of the gap, so that the learning data can be cut into a welding current and arc voltage signal of one weaving cycle and used. The cut-out training data can be expressed as a two-dimensional graph in the frequency domain by applying the Fourier transform. And the 2D graph is stored as an image, and each image can be labeled as a frequency domain image for 0mm, 2mm, and 4mm according to the original signal.

분류 학습 단계(S300)는 분류 학습부(300, 도 1 참조)에서, 학습 데이터 전처리부(200, 도 1 참조)에서 처리된 이미지 데이터를 딥러닝 알고리즘에 입력하여 서로 다른 갭 크기에 대한 이미지를 분류하도록 학습시키는 단계를 말한다. In the classification learning step (S300), the image data processed by the training data preprocessing unit 200 (see FIG. 1) is input to the deep learning algorithm in the classification learning unit 300 (see FIG. 1) to obtain images for different gap sizes. It refers to the step of learning to classify.

구체적으로는, 분류 학습 단계(S300)에서, 이미지 데이터를 입력 받아 서로 다른 갭 크기에 대한 이미지를 분류하는데 이용되는 딥러닝 알고리즘은 CNN(Convolutional Neural Network)일 수 있다. Specifically, in the classification learning step S300, a deep learning algorithm used to classify images for different gap sizes by receiving image data may be a convolutional neural network (CNN).

딥러닝 알고리즘인 CNN(Convolutional Neural Network)은 이미지 분류에 탁월한 성능을 보여준다. 따라서, 전처리 된 이미지 데이터를 CNN(Convolutional Neural Network)에 입력으로 넣어 0mm, 2mm, 4mm에 대한 이미지를 분류해 내도록 학습시킬 수 있다.The deep learning algorithm CNN (Convolutional Neural Network) shows excellent performance in image classification. Therefore, it is possible to train to classify images for 0mm, 2mm, and 4mm by putting the preprocessed image data as an input into the CNN (Convolutional Neural Network).

상술한 바와 같이, 본 발명의 구성 및 작용에 따르면 사람의 숙련도를 모방하여 여러 종류의 신호 패턴을 분류해 내는 문제에 딥러닝 기법을 적용하여 용접 부위의 갭을 실시간으로 인식함으로써 갭에 따라 적절히 용접 조건을 변경할 수 있는 장점이 있다. 기존의 사람의 직관이나 추론에 의존하던 특징점 추출 방식이나 필터를 통한 데이터 전처리 방법의 한계를 극복하기 위하여 용접 전류와 아크 전압 신호를 최대한 높은 주파수로 샘플링하고, 이를 필터나 특징점 추출과 같은 데이터 손실을 유발하는 전처리 방식을 배제하고, 원 수집 데이터를 온전히 주파수 영역의 2차원 이미지로 변환하여, 고성능 이미지 분류 알고리즘인 CNN(Convolutional Neural Network)을 이용하여 분류할 수 있다. 그 결과, 본 발명에 의하면 기존의 분류 방식보다 높은 분류 성공률을 확보 할 수 있는 유리한 기술적 효과가 있다. As described above, according to the composition and operation of the present invention, by applying a deep learning technique to the problem of classifying various types of signal patterns by imitating human skill level, by recognizing the gap in the welding area in real time, welding appropriately according to the gap. It has the advantage of being able to change the conditions. In order to overcome the limitations of the conventional method of extracting feature points that depended on human intuition or reasoning, or the data preprocessing method through a filter, the welding current and arc voltage signals are sampled at the highest frequency possible, and data loss such as filter or feature point extraction is avoided. Excluding the pre-processing method that causes it, the original collected data can be completely converted into a two-dimensional image in the frequency domain, and classified using a high-performance image classification algorithm, Convolutional Neural Network (CNN). As a result, according to the present invention, there is an advantageous technical effect of securing a higher classification success rate than the conventional classification method.

이상과 같이 본 발명에 대해서 예시한 도면을 참조로 하여 설명하였으나, 본 명세서에 개시된 실시예와 도면에 의해 본 발명이 한정되는 것은 아니며, 본 발명의 기술사상의 범위 내에서 통상의 기술자에 의해 다양한 변형이 이루어질 수 있음은 자명하다. 아울러 앞서 본 발명의 실시예를 설명하면서 본 발명의 구성에 따른 작용 효과를 명시적으로 기재하여 설명하지 않았을지라도, 해당 구성에 의해 예측 가능한 효과 또한 인정되어야 함은 당연하다.As described above with reference to the drawings illustrated for the present invention, the present invention is not limited by the embodiments and drawings disclosed in the present specification, and various by a person skilled in the art within the scope of the technical idea of the present invention. It is obvious that transformations can be made. In addition, even if not explicitly described and described the operational effects according to the configuration of the present invention while describing the embodiments of the present invention above, it is natural that the predictable effect by the configuration should also be recognized.

S100: 학습 데이터 수집 단계
S200: 학습 데이터 전처리 단계
S300: 분류 학습 단계
100: 학습 데이터 수집부
200: 학습 데이터 전처리부
300: 분류 학습부
S100: Steps to collect training data
S200: Pre-processing of training data
S300: Classification Learning Step
100: learning data collection unit
200: training data preprocessor
300: Classification Learning Department

Claims (9)

필렛의 갭 크기가 서로 다른 다수의 시편에 대해 동일한 용접 조건하에서 용접을 수행하여, 용접기의 용접 전류와 아크 전압 신호를 실시간 학습 데이터로 수집하는 학습 데이터 수집부;
상기 학습 데이터 수집부에서 수집된 학습 데이터를 1 위빙 사이클(weaving cycle)의 용접 전류 및 아크 전류 신호에 대한 학습 데이터로 생성 후 푸리에 변환을 적용하여 주파수 도메인의 2차원 그래프로 변환하고, 상기 2차원 그래프를 이미지 데이터로 저장한 다음 서로 다른 갭 크기에 대한 주파수 도메인 이미지로 라벨링 하는 학습 데이터 전처리부; 및
상기 이미지 데이터를 딥러닝 알고리즘에 입력하여 서로 다른 갭 크기에 대한 이미지를 분류하도록 학습시키는 분류 학습부;
를 포함하는 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 시스템.
A learning data collection unit that performs welding on a plurality of specimens having different fillet gap sizes under the same welding conditions, and collects the welding current and arc voltage signals of the welding machine as real-time learning data;
The learning data collected by the learning data collection unit is generated as learning data for welding current and arc current signals of one weaving cycle, and then Fourier transform is applied to convert it into a two-dimensional graph in the frequency domain, and the two-dimensional A learning data preprocessor for storing the graph as image data and then labeling the graph with frequency domain images for different gap sizes; And
A classification learning unit for learning to classify images for different gap sizes by inputting the image data into a deep learning algorithm;
Fillet welding gap recognition system using a deep learning algorithm comprising a.
제1항에 있어서,
상기 학습 데이터 수집부는 X-Y 직교 좌표계의 로봇을 포함하며,
상기 X-Y 직교 좌표계의 로봇은, 서로 다른 갭 크기에 따라 일정한 용접 전류 및 아크 전압 신호를 실시간으로 수집하며 용접을 수행하는 것을 특징으로 하는
딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 시스템.
The method of claim 1,
The learning data collection unit includes a robot of an XY Cartesian coordinate system,
The robot of the XY Cartesian coordinate system is characterized in that performing welding by collecting constant welding current and arc voltage signals in real time according to different gap sizes.
Fillet welding gap recognition system using deep learning algorithm.
제2항에 있어서,
상기 학습 데이터 수집부의 신호 샘플링 주파수는 적어도 2000Hz인 것을 특징으로 하는
딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 시스템.
The method of claim 2,
The signal sampling frequency of the learning data collection unit is characterized in that at least 2000Hz.
Fillet welding gap recognition system using deep learning algorithm.
제1항에 있어서,
상기 분류 학습부에서, 상기 이미지 데이터를 입력 받아 서로 다른 갭 크기에 대한 이미지를 분류하는데 이용되는 딥러닝 알고리즘은 CNN(Convolutional Neural Network)인 것을 특징으로 하는
딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 시스템.
The method of claim 1,
In the classification learning unit, a deep learning algorithm used to classify images for different gap sizes by receiving the image data is a convolutional neural network (CNN).
Fillet welding gap recognition system using deep learning algorithm.
학습 데이터 수집부, 학습 데이터 전처리부, 분류 학습부를 포함하는 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 시스템을 이용한 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 방법으로서,
상기 학습 데이터 수집부에서, 서로 다른 갭 크기를 갖도록 제작된 다수의 시편에 대해 동일한 용접 조건하에서 용접을 수행시켜, 용접기의 용접 전류와 아크 전압 신호를 실시간으로 수집하는 학습 데이터 수집 단계;
상기 학습 데이터 전처리부에서, 상기 학습 데이터 수집부에서 수집된 학습 데이터를 1 위빙 사이클(weaving cycle)의 용접 전류 및 아크 전류 신호에 대한 학습 데이터로 생성 후 푸리에 변환을 적용하여 주파수 도메인의 2차원 그래프로 변환하고, 상기 2차원 그래프를 이미지 데이터로 저장한 다음 서로 다른 갭 크기에 대한 주파수 도메인 이미지로 라벨링 하는 학습 데이터 전처리 단계; 및
상기 분류 학습부에서, 상기 학습 데이터 전처리부에서 처리된 상기 이미지 데이터를 딥러닝 알고리즘에 입력하여 서로 다른 갭 크기에 대한 이미지를 분류하도록 학습시키는 분류 학습 단계;
를 포함하는 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 방법.
As a gap recognition method of fillet welding using a deep learning algorithm using a gap recognition system for fillet welding using a deep learning algorithm including a learning data collection unit, a learning data preprocessor, and a classification learning unit,
A learning data collection step of collecting, in real time, a welding current and an arc voltage signal of a welding machine by performing welding on a plurality of specimens manufactured to have different gap sizes under the same welding conditions in the learning data collection unit;
In the learning data preprocessor, the learning data collected by the learning data collection unit is generated as learning data for the welding current and arc current signals of one weaving cycle, and then Fourier transform is applied to a two-dimensional graph in the frequency domain. A training data pre-processing step of converting to, storing the 2D graph as image data, and labeling frequency domain images with different gap sizes; And
A classification learning step in which the classification learning unit inputs the image data processed by the training data preprocessor into a deep learning algorithm to learn to classify images having different gap sizes;
Fillet welding gap recognition method using a deep learning algorithm comprising a.
제5항에 있어서,
상기 학습 데이터 수집 단계 이전에, 수직 필렛 용접 시 발생하는 필렛의 갭 크기를 최소 종류로 구분하는 갭 크기 구분 단계;
를 더 포함하는 딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 방법.
The method of claim 5,
A gap size classifying step of classifying a gap size of a fillet generated during vertical fillet welding into a minimum type before the learning data collecting step;
Fillet welding gap recognition method using a deep learning algorithm further comprising.
제5항에 있어서,
상기 학습 데이터 수집 단계에서,
상기 학습 데이터 수집부는 X-Y 직교 좌표계의 로봇을 포함하며, 상기 X-Y 직교 좌표계의 로봇은, 서로 다른 갭 크기에 따라 일정한 용접 전류 및 아크 전압 신호를 실시간으로 수집하며 용접을 수행하는 것을 특징으로 하는
딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 방법
The method of claim 5,
In the learning data collection step,
The learning data collection unit includes a robot of an XY orthogonal coordinate system, and the robot of the XY orthogonal coordinate system performs welding by collecting constant welding current and arc voltage signals in real time according to different gap sizes.
Fillet Weld Gap Recognition Method Using Deep Learning Algorithm
제7항에 있어서,
상기 학습 데이터 수집 단계에서,
신호 샘플링 주파수는 적어도 2000Hz인 것을 특징으로 하는
딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 방법.
The method of claim 7,
In the learning data collection step,
Characterized in that the signal sampling frequency is at least 2000Hz
Fillet welding gap recognition method using deep learning algorithm.
제1항에 있어서,
상기 분류 학습 단계에서,
상기 이미지 데이터를 입력 받아 서로 다른 갭 크기에 대한 이미지를 분류하는데 이용되는 딥러닝 알고리즘은 CNN(Convolutional Neural Network)인 것을 특징으로 하는
딥러닝 알고리즘을 이용한 필렛 용접의 갭 인식 방법.
The method of claim 1,
In the classification learning step,
A deep learning algorithm used to classify images for different gap sizes by receiving the image data is a Convolutional Neural Network (CNN).
Fillet welding gap recognition method using deep learning algorithm.
KR1020190132117A 2019-10-23 2019-10-23 Gap recognition system and method of fillet welding using deep learning algorithm KR20210048172A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190132117A KR20210048172A (en) 2019-10-23 2019-10-23 Gap recognition system and method of fillet welding using deep learning algorithm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190132117A KR20210048172A (en) 2019-10-23 2019-10-23 Gap recognition system and method of fillet welding using deep learning algorithm

Publications (1)

Publication Number Publication Date
KR20210048172A true KR20210048172A (en) 2021-05-03

Family

ID=75910697

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190132117A KR20210048172A (en) 2019-10-23 2019-10-23 Gap recognition system and method of fillet welding using deep learning algorithm

Country Status (1)

Country Link
KR (1) KR20210048172A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230091248A (en) * 2021-12-15 2023-06-23 (주)글로벌엔지니어링 System for tig welding of stator coil using deep learning algorithm

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110030156A (en) 2009-09-17 2011-03-23 이영현 Welding method by fillet

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110030156A (en) 2009-09-17 2011-03-23 이영현 Welding method by fillet

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230091248A (en) * 2021-12-15 2023-06-23 (주)글로벌엔지니어링 System for tig welding of stator coil using deep learning algorithm

Similar Documents

Publication Publication Date Title
Zhang et al. Multisensor-based real-time quality monitoring by means of feature extraction, selection and modeling for Al alloy in arc welding
Ye et al. A robust algorithm for weld seam extraction based on prior knowledge of weld seam
James et al. Tracknet-a deep learning based fault detection for railway track inspection
CN110315525A (en) A kind of robot workpiece grabbing method of view-based access control model guidance
AU2021259109A1 (en) Method, device and computer program for determining the performance of a welding method via digital processing of an image of the welded workpiece
EP3812105A1 (en) Artificial intelligence architecture for industrial welding
CN101267910A (en) Method for controlling the quality of laser-welding processes, control system and program product therefor
Dinham et al. Weld seam detection using computer vision for robotic arc welding
CN108596930A (en) It must algorithm and the morphologic ray image weld seam extracting method of mathematics based on longicorn
CN109991306A (en) The Classification and Identification and positioning of metal works welding defect based on fluorescentmagnetic particle(powder)
CN114905507A (en) Welding robot precision control method based on environment vision analysis
KR20210048172A (en) Gap recognition system and method of fillet welding using deep learning algorithm
Wang A laser back-lighting based metal transfer monitoring system for robotic gas metal arc welding
EP4201579A1 (en) Method and device for cutting and collecting parts
Cook et al. Automated visual inspection and interpretation system for weld quality evaluation
Moghaddam et al. Classification of welding defects in radiographic images
CN113723494A (en) Laser visual stripe classification and weld joint feature extraction method under uncertain interference source
KR102386059B1 (en) Submerged arc welding device with artificial intelligence seam tracking function
Sundaram et al. Welding defects extraction for radiographic images using C-means segmentation method
CN116309475A (en) Machine vision detection method for automatically detecting welding quality of roller tooth holder
Soares et al. Computer vision system for weld bead geometric analysis
Pernambuco et al. Online sound based Arc-welding defect detection using artificial neural networks
CN115255565A (en) Global pattern recognition based narrow gap welding notch edge vision sensing detection method and application
He et al. Weld seam profile extraction of T-joints based on orientation saliency for path planning and seam tracking
Shen et al. Dual-band welding speed monitoring method based on deep learning

Legal Events

Date Code Title Description
E902 Notification of reason for refusal