KR20230003997A - A control system and method for melten pool recognition and penetration depth - Google Patents

A control system and method for melten pool recognition and penetration depth Download PDF

Info

Publication number
KR20230003997A
KR20230003997A KR1020210085727A KR20210085727A KR20230003997A KR 20230003997 A KR20230003997 A KR 20230003997A KR 1020210085727 A KR1020210085727 A KR 1020210085727A KR 20210085727 A KR20210085727 A KR 20210085727A KR 20230003997 A KR20230003997 A KR 20230003997A
Authority
KR
South Korea
Prior art keywords
image
molten pool
penetration depth
unit
welding
Prior art date
Application number
KR1020210085727A
Other languages
Korean (ko)
Other versions
KR102494301B1 (en
Inventor
문형순
백대현
김철민
김성환
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020210085727A priority Critical patent/KR102494301B1/en
Publication of KR20230003997A publication Critical patent/KR20230003997A/en
Application granted granted Critical
Publication of KR102494301B1 publication Critical patent/KR102494301B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K9/00Arc welding or cutting
    • B23K9/095Monitoring or automatic control of welding parameters
    • B23K9/0956Monitoring or automatic control of welding parameters using sensing means, e.g. optical
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K31/00Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups
    • B23K31/12Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups relating to investigating the properties, e.g. the weldability, of materials
    • B23K31/125Weld quality monitoring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K9/00Arc welding or cutting
    • B23K9/09Arrangements or circuits for arc welding with pulsed current or voltage
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K9/00Arc welding or cutting
    • B23K9/12Automatic feeding or moving of electrodes or work for spot or seam welding or cutting
    • B23K9/127Means for tracking lines during arc welding or cutting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Plasma & Fusion (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Geometry (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

The present invention provides a molten pool recognition and penetration depth control system and method for extracting feature points for a plurality of first welding images by supervising and learning a plurality of labeled first welding images, matching the feature points for the plurality of first welding images to a plurality of additionally photographed second welding images to recognize and extract a second molten pool image, and according to the result of comparing the penetration depth of the second molten pool derived by artificial intelligence learning of the shape information measured from the second molten pool image and the preset penetration depth, controlling the current and welding speed of a welding part.

Description

용융풀 인식 및 용입깊이 제어 시스템 및 방법{A control system and method for melten pool recognition and penetration depth}Melten pool recognition and penetration depth control system and method {A control system and method for melten pool recognition and penetration depth}

본 발명은 용융풀 인식 및 용입깊이 제어 시스템 및 방법에 관한 것으로, 보다 상세하게는 용접영상으로부터 용융풀을 정확하게 인식하고 인식된 용융풀의 용입깊이를 도출한 후 도출된 용입깊이와 기설정된 용입깊이를 비교한 결과에 따라 용접부의 전류 및 용접속도를 제어하는 용융풀 인식 및 용입깊이 제어 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for recognizing a molten pool and controlling penetration depth, and more particularly, by accurately recognizing a molten pool from a welding image, deriving the penetration depth of the recognized molten pool, and then determining the penetration depth derived from the penetration depth and the preset penetration depth. It relates to a molten pool recognition and penetration depth control system and method for controlling the current and welding speed of a welded part according to the result of comparing the

아크용접은 용접봉과 용접할 부분 사이에 생기는 전기 아크를 통해 용접에 필요한 열을 공급하여 적어도 2개의 모재를 접합하는 것이다.Arc welding is to join at least two base materials by supplying heat necessary for welding through an electric arc generated between a welding rod and a part to be welded.

일반적으로 용입이 불량할 경우 다양한 결함이 발생하게 된다. 이처럼 용입제어가 실패하게 되어 결함이 발생하면 용입에 필요한 전체 용접시간보다 결함 보수에 소요되는 시간이 5배 내지 10배 정도 소요된다.In general, poor penetration causes various defects. In this way, if the penetration control fails and a defect occurs, the time required to repair the defect is 5 to 10 times longer than the total welding time required for penetration.

따라서, 용접 자동화 기술은 용입 제어 여부가 매우 중요하다. 종래에는 용접 자동화 기술로서, 전압 신호, 아크 영상 촬영, 용접파형 제어에 따른 디지털 용접기 등을 적용한 기술이 개발되어 왔으나, 용입 제어 실패로 인한 결함 발생율이 높아 실제 적용이 어려워 수동 용접에 의존하고 있는 상황이다.Therefore, penetration control is very important in welding automation technology. Conventionally, as a welding automation technology, a technology that applies voltage signals, arc images, and digital welders according to welding waveform control has been developed. to be.

상기한 문제점을 해소하기 위해 측정되는 전압 신호에 따라 용입을 제어하는 기술이 있다.In order to solve the above problem, there is a technique of controlling penetration according to a measured voltage signal.

상기한 종래기술은 기존 상품화된 용접부 용입 제어 장치의 경우 용접 전류가 증가할수록 용융풀이 커지고 용융풀이 커질수록 용접아크 압력에 의한 진동 주파수가 작아지는 특징을 이용해 용입을 예측한다.In the case of the conventional commercialized welding penetration control device, penetration is predicted by using the feature that the molten pool increases as the welding current increases and the vibration frequency due to the welding arc pressure decreases as the molten pool increases.

아크 압력이 작용하는 용융풀의 경우 압력에 의해 용융풀이 상하로 진동하며 이로 인해 아크의 길이가 증감하게 되고 아크의 길이가 증감함에 따라 아크 길이에 의한 전압값이 변동된다.In the case of a molten pool where arc pressure acts, the molten pool vibrates up and down due to the pressure, and as a result, the length of the arc increases and decreases, and as the length of the arc increases and decreases, the voltage value due to the arc length varies.

정전류 용접기의 경우 V(전압)=I(전류)R(저항), 전류가 일정하므로 아크길이가 작아지면 저항이 작아지고(전압 감소), 아크 길이가 커지면 저항이 증가(전압증가)하게 되므로 전압값 측정을 통해 주파수를 예측하여 용입 제어를 수행할 수 있다.In the case of a constant current welding machine, V (voltage) = I (current) R (resistance), and since the current is constant, when the arc length decreases, the resistance decreases (voltage decreases), and when the arc length increases, the resistance increases (voltage increases), so the voltage Penetration control can be performed by estimating the frequency through value measurement.

그러나, 상기한 종래기술은 용접와이어가 추가 공급되는 경우 위 현상이 깨지게 되어 전압값 측정을 통해 주파수를 예측하여 용입 제어를 수행하는 것이 불가능해지기 때문에 정확한 용입 제어에 한계가 있었다.However, in the prior art described above, when the welding wire is additionally supplied, the above phenomenon is broken, and thus it is impossible to perform penetration control by predicting the frequency through voltage measurement, so there is a limit to accurate penetration control.

이에 따라 영상처리기술을 이용하여 용입을 제어하는 기술에 대한 연구개발이 활발하게 진행되고 있다.Accordingly, research and development on technology for controlling penetration using image processing technology is being actively conducted.

위와 같은 영상처리를 이용한 종래기술은 도 1의 (a), (b), (c), (d)에 도시된 바와 같이 다양한 용접조건마다 영상처리에 사용되는 알고리즘에 대한 각각의 감도를 조절하는 변수를 조절해야 한다.As shown in (a), (b), (c), and (d) of FIG. 1, the prior art using the above image processing controls each sensitivity for the algorithm used for image processing for each welding condition. variables need to be adjusted.

그러나, 상기한 종래기술은 다양한 용접조건 환경에 따라 조절해야 하는 감도 변수의 개수가 너무 많아 조절하는 것이 용이하지 않고 그에 따라 용융풀의 인식 정확도가 저하되는 문제점이 있었다.However, the prior art described above has a problem in that the number of sensitivity variables to be adjusted according to various welding condition environments is too large, so that it is not easy to adjust, and accordingly, the recognition accuracy of the molten pool is lowered.

(특허문헌 1) 등록특허공보 제10-2187764호(2020.12.01.)(Patent Document 1) Patent Registration No. 10-2187764 (2020.12.01.)

(특허문헌 2) 등록특허공보 제1 0-2155053(2020.09.07.)(Patent Document 2) Registered Patent Publication No. 1 0-2155053 (2020.09.07.)

상기와 같은 문제를 해결하기 위한 본 발명의 목적은 영상분할부가 영상촬영부에서 촬영된 다수의 제1 용접영상을 지도 학습하여 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 추출하고 영상촬영부에서 추가적으로 촬영되는 다수의 제2 용접영상에 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 매칭시켜 제2 용융풀 영상을 인식 및 추출하는 용융풀 인식 및 용입깊이 제어 시스템 및 방법을 제공하는 것이다.An object of the present invention for solving the above problems is that the image segmentation unit learns a plurality of first welding images taken by the image capturing unit to learn about the first arc light image, the first molten pool image, and the first background image. Recognizing and extracting a second molten pool image by extracting feature points and matching feature points for the first arc light image, the first molten pool image, and the first background image to a plurality of second welding images additionally photographed by the imaging unit It is to provide a melt pool recognition and penetration depth control system and method.

또한, 상기와 같은 문제를 해결하기 위한 본 발명의 목적은 형상정보 측정부가 제2 용융풀 영상을 기반으로 제2 영상풀 영상에 대한 폭(w), 길이(l), 넓이(s) 및 폭(w) 대비 길이 비율(r)을 측정하고 용입깊이 도출부가 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 인공지능 학습시켜 제2 용융풀 영상의 용입깊이(p)를 실시간으로 도출하는 용융풀 인식 및 용입깊이 제어 시스템 및 방법을 제공하는 것이다.In addition, an object of the present invention for solving the above problem is that the shape information measuring unit measures the width (w), length (l), width (s) and width of the second image pool image based on the second melt pool image. (w) The length ratio (r) is measured, and the penetration depth derivation unit measures the width (w), length (l), area (s), width (w) to length ratio (r) and the thickness (t) of the base material by artificial It is to provide a melt pool recognition and penetration depth control system and method that derives the penetration depth (p) of the second melt pool image in real time by intelligent learning.

또한, 상기와 같은 문제를 해결하기 위한 본 발명의 목적은 도출된 제어부가 제2 용융풀 영상의 용입깊이(p)와 기설정된 용입깊이(p)를 비교한 결과에 따라 용접부(110)의 전류 및 용접속도를 제어하는 용융풀 인식 및 용입깊이 제어 시스템 및 방법을 제공하는 것이다.In addition, an object of the present invention for solving the above problem is to determine the current of the welding part 110 according to the result of the derived control unit comparing the penetration depth (p) of the second molten pool image and the preset penetration depth (p) And to provide a molten pool recognition and penetration depth control system and method for controlling the welding speed.

본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problem to be achieved by the present invention is not limited to the above-mentioned technical problem, and other technical problems not mentioned can be clearly understood by those skilled in the art from the description below. There will be.

상기와 같은 목적을 달성하기 위한 본 발명의 구성은 아크광을 방전시켜 발생한 열을 적어도 2개의 모재가 접하는 접합부로 공급하는 용접부; 상기 용접부의 끝단을 촬영하여 제1 아크광 영상, 상기 접합부에 형성되는 제1 용융풀 영상 및 상기 제1 용융풀 영상의 주변에 위치하는 배경 영상을 포함하는 다수의 제1 용접영상을 실시간으로 획득하는 영상촬영부; 사용자에 의해 수동으로 라벨링된 상기 제1 아크광 영상, 상기 제1 용융풀 영상 및 상기 제1 배경 영상을 지도 학습하여 상기 제1 아크광 영상, 상기 제1 용융풀 영상 및 상기 제1 배경 영상에 대한 특징점을 설정하고 상기 제1 아크광 영상, 상기 제1 용융풀 영상 및 상기 제1 배경 영상에 대한 특징점을 기반으로 상기 영상촬영부로부터 추가로 획득되는 다수의 제2 용접영상로부터 제2 용융풀 영상을 추출하며 상기 제2 용융풀 영상을 영상처리하여 제2 용융풀 영상에 대한 형상정보를 측정하고 측정된 형상정보를 인공지능 학습하여 용입깊이를 도출하는 딥러닝부; 및 상기 도출된 용입깊이와 기설정된 용입깊이를 비교한 결과에 따라 상기 용접부의 전류 및 용접속도를 제어하는 제어부;를 포함하는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 시스템을 제공한다.The configuration of the present invention for achieving the above object is a welding part for supplying heat generated by discharging the arc light to a junction where at least two base materials are in contact; A plurality of first welding images including a first arc light image, a first molten pool image formed at the junction, and a background image located around the first molten pool image are obtained in real time by photographing the tip of the welding portion. a video recording unit; The first arc light image, the first molten pool image, and the first background image manually labeled by the user are supervised and learned to obtain the first arc light image, the first molten pool image, and the first background image. Set feature points for the first arc light image, the first molten pool image, and the second molten pool from a plurality of second welding images additionally obtained from the imaging unit based on the feature points for the first background image. a deep learning unit that extracts an image, processes the second molten pool image, measures shape information of the second molten pool image, and derives a penetration depth by artificial intelligence learning of the measured shape information; And a control unit for controlling the current and welding speed of the welding part according to the result of comparing the derived penetration depth and the preset penetration depth. It provides a molten pool recognition and penetration depth control system comprising a.

본 발명의 실시예에 있어서, 상기 다수의 제1 용접영상은 상기 제2 용융풀 영상을 인식하기 위한 기준이 되는 상기 특징점을 설정하기 위한 빅데이터로서 다수로 구성되는 상기 제1 아크광 영상, 상기 제1 용융풀 영상 및 상기 제1 배경 영상으로 구성되는 영상 데이터셋(dataset)이고, 상기 딥러닝부는, 상기 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 지도 학습하여 상기 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 설정하는 설정하는 영상분할부;를 포함하고, 상기 영상분할부는 상기 제1 용융풀 영상에 대한 특징점을 기준으로 상기 영상촬영부로부터 전송되는 상기 다수의 제2 용접영상에 매칭시켜 상기 다수의 제2 용접영상으로부터 상기 제2 용융풀 영상을 분리시키는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the plurality of first welding images are big data for setting the feature point, which is a criterion for recognizing the second molten pool image, and the first arc light image composed of a plurality, the An image dataset composed of a first molten pool image and the first background image, and the deep learning unit performs supervised learning on the labeled first arc light image, the first molten pool image, and the first background image and an image segmentation unit configured to set feature points for the labeled first arc light image, the first molten pool image, and the first background image, wherein the image segmentation unit sets feature points for the first molten pool image as references. It may be characterized by matching the plurality of second welding images transmitted from the imaging unit to separate the second molten pool image from the plurality of second welding images.

본 발명의 실시예에 있어서, 상기 영상분할부는 영상 분할 기법으로 VGG 16 넷(net) 기반의 CNN(Convolutional Neural Network) 알고리즘이 적용되고, 상기 제1 용융풀 영상에 대한 특징점은 상기 제1 아크광 영상 및 상기 제1 배경 영상과 다른 고유의 명도, 채도, 색상, 제1 용융풀 영상의 형상 패턴을 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the image segmentation unit applies a VGG 16 net-based Convolutional Neural Network (CNN) algorithm as an image segmentation technique, and the feature point for the first melt pool image is the first arc light It may be characterized by including an image and a unique brightness, saturation, color, and shape pattern of the first molten pool image different from the first background image.

본 발명의 실시예에 있어서, 상기 딥러닝부는, 상기 영상분할부로부터 전송되는 상기 제2 용융풀 영상을 영상처리하여 상기 제2 용융풀 영상에 대한 형상정보를 측정하는 형상정보 측정부;를 더 포함하고, 상기 형상정보 측정부는 상기 제2 용융풀 영상에 해당하는 픽셀만을 추출한 후 상기 제2 용융풀 영상의 최외곽에 위치하는 픽셀들이 이어지는 제2 용융풀 경계선을 추출하고 상기 추출된 제2 용융풀 경계선을 기반으로 상기 제2 용융풀 영상의 폭(w), 길이(l), 넓이(s) 및 상기 폭(w) 대비 길이 비율(r)을 측정하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the deep learning unit further comprises a shape information measuring unit for measuring shape information of the second molten pool image by image processing the second molten pool image transmitted from the image segmentation unit. The shape information measurement unit extracts only pixels corresponding to the second molten pool image, and then extracts a second molten pool boundary line connected by pixels located at the outermost part of the second molten pool image, and extracts the extracted second molten pool image. It may be characterized by measuring the width (w), length (l), width (s) and the width (w) to length ratio (r) of the second molten pool image based on the pool boundary line.

본 발명의 실시예에 있어서, 상기 형상정보 측정부는 영상처리 알고리즘을 적용하여 상기 제2 용융풀 영상에 대한 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 포함하는 형상정보를 측정하고, 상기 제2 용융풀 영상의 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 상기 모재의 두께(t)를 5x1 행렬의 특징 벡터 데이터로 변환시키는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the shape information measuring unit applies an image processing algorithm to the width (w), length (l), width (s), width (w) to length ratio (w) for the second molten pool image shape information including r) and the thickness (t) of the base material is measured, and the width (w), length (l), width (s), width (w) to length ratio (r) of the second melt pool image And it may be characterized in that the thickness (t) of the base material is converted into feature vector data of a 5x1 matrix.

본 발명의 실시예에 있어서, 상기 딥러닝부는 상기 형상정보 측정부로부터 전송되는 상기 5x1 행렬의 특징 벡터 데이터를 인공지능 학습하여 상기 제2 용융풀 영상의 용입깊이(p)를 도출하는 용입깊이 도출부;를 더 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the deep learning unit artificial intelligence learns the feature vector data of the 5x1 matrix transmitted from the shape information measuring unit to derive the penetration depth (p) of the second melt pool image. It may be characterized in that it further comprises;

본 발명의 실시예에 있어서, 상기 용입깊이 도출부는 상기 용입깊이를 상기 제어부로 전송하고, 상기 제어부는 상기 용입깊이와 기설정된 용입깊이가 같을 경우, 상기 용접부가 현재 상태를 유지하도록 용접부를 제어하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the penetration depth deriving unit transmits the penetration depth to the control unit, and the control unit controls the welding portion so that the welding portion maintains the current state when the penetration depth and the preset penetration depth are the same that can be characterized.

본 발명의 실시예에 있어서, 상기 용입깊이 도출부는 상기 용입깊이를 상기 제어부로 전송하고, 상기 제어부는 상기 용입깊이와 기설정된 용입깊이가 다를 경우, 상기 용접부의 전류 및 용접속도를 제어하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the penetration depth deriving unit transmits the penetration depth to the control unit, and the control unit controls the current and welding speed of the welding part when the penetration depth and the preset penetration depth are different can be done with

본 발명의 실시예에 있어서, 상기 제어부는 상기 용입깊이가 상기 기설정된 용입깊이보다 클 경우, 상기 용접부를 제어하여 상기 용접부의 전류를 감소시키거나 상기 용접부의 용접속도를 증가시키는 것을 특징으로 할 수 있다.In an embodiment of the present invention, when the penetration depth is greater than the preset penetration depth, the control unit controls the welding portion to reduce the current of the welding portion or increase the welding speed of the welding portion. there is.

본 발명의 실시예에 있어서, 상기 제어부는 상기 용입깊이가 상기 기설정된 용입깊이보다 작을 경우, 상기 용접부를 제어하여 상기 용접부의 전류를 증가시키거나 상기 용접부의 용접속도를 감소시키는 것을 특징으로 할 수 있다.In an embodiment of the present invention, when the penetration depth is smaller than the preset penetration depth, the control unit controls the welding portion to increase the current of the welding portion or decrease the welding speed of the welding portion. there is.

또한, 상기와 같은 문제를 해결하기 위한 본 발명의 목적은 (a) 영상촬영부에서 촬영된 다수의 제1 용접영상이 사용자에 의해 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상으로 라벨링되는 단계; (b) 딥러닝부에 구비된 영상분할부가 상기 다수의 제1 용접영상이 상기 제1 아크광 영상, 상기 제1 용융풀 영상 및 상기 제1 배경 영상으로 라벨링된 영상 데이터셋을 지도 학습하여 상기 제1 아크광 영상, 상기 제1 용융풀 영상 및 상기 제1 배경 영상에 대한 특징점을 설정하는 단계; (c) 상기 영상촬영부가 촬영된 다수의 제2 용접영상을 상기 영상분할부로 전송하는 단계; (d) 상기 영상분할부가 상기 제1 아크광 영상, 상기 제1 용접풀 영상 및 상기 제1 배경 영상에 대한 특징점을 기반으로 상기 다수의 제2 용접영상에서 제2 용융풀 영상을 분리하는 단계; (e) 딥러닝부에 구비된 형상정보 측정부가 상기 제2 용융풀 영상을 기반으로 상기 제2 용융풀 영상의 형상정보를 측정하는 단계; (f) 상기 용입깊이 도출부가 상기 제2 용융풀 영상의 형상정보를 인공지능 학습하여 용입깊이를 도출하는 단계; 및 (g) 제어부가 상기 용입깊이 도출부로부터 전송되는 상기 용입깊이와 기설정된 용입깊이를 비교한 결과에 따라 상기 용접부의 제어 여부를 결정하는 단계;를 포함하는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 방법을 제공한다.In addition, an object of the present invention for solving the above problem is (a) a plurality of first welding images taken by the imaging unit are a first arc light image, a first molten pool image, and a first background image by a user Labeled as; (b) an image segmentation unit provided in the deep learning unit supervises and learns an image dataset in which the plurality of first welding images are labeled as the first arc light image, the first molten pool image, and the first background image; Setting feature points for the first arc light image, the first molten pool image, and the first background image; (c) transmitting a plurality of second welding images captured by the image capture unit to the image segmentation unit; (d) separating a second molten pool image from the plurality of second welding images based on feature points of the first arc light image, the first welding pool image, and the first background image by the image division unit; (e) measuring shape information of the second molten pool image based on the second molten pool image by a shape information measuring unit provided in the deep learning unit; (f) deriving a penetration depth by artificial intelligence learning of the shape information of the second molten pool image by the penetration depth derivation unit; And (g) determining whether or not to control the welding part according to the result of the control unit comparing the penetration depth transmitted from the penetration depth derivation unit and the preset penetration depth. Provides a depth control method.

본 발명의 실시예에 있어서, 상기 (a) 단계는, (a1) 상기 영상촬영부가 상기 용접부의 끝단을 촬영하여 상기 다수의 제1 용접영상을 획득하는 단계; (a2) 상기 사용자에 의해 상기 제1 아크광 영상, 상기 제1 용융풀 영상 및 상기 제1 배경 영상이 라벨링되는 단계; 및 (a3) 상기 영상촬영부가 상기 영상분할부로 상기 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 전송하는 단계;를 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the step (a) may include: (a1) acquiring the plurality of first welding images by photographing the tip of the welding portion by the image capture unit; (a2) labeling the first arc light image, the first molten pool image, and the first background image by the user; and (a3) transmitting the labeled first arc light image, the first molten pool image, and the first background image to the image division unit by the imaging unit.

본 발명의 실시예에 있어서, 상기 다수의 제1 용접영상은 상기 제2 용융풀 영상을 인식하기 위한 기준이 되는 상기 특징점을 설정하기 위한 빅데이터로서 다수로 구성되는 상기 제1 아크광 영상, 상기 제1 용융풀 영상 및 상기 제1 배경 영상으로 구성되는 영상 데이터셋(dataset)이고, 상기 (b) 단계는, (b1) 상기 영상분할부가 상기 영상촬영부로부터 전송되는 상기 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 수신하는 단계; 및 (b2) 상기 영상분할부가 상기 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 지도 학습하여 상기 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 설정하는 단계;를 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the plurality of first welding images are big data for setting the feature point, which is a criterion for recognizing the second molten pool image, and the first arc light image composed of a plurality, the An image dataset composed of a first molten pool image and the first background image, and in step (b), (b1) the labeled first arc light transmitted from the image division unit to the image division unit Receiving an image, a first molten pool image, and a first background image; and (b2) the image segmentation unit supervises and learns the labeled first arc light image, the first molten pool image, and the first background image, and the labeled first arc light image, the first molten pool image, and the first background image. It may be characterized by including; setting a feature point for.

본 발명의 실시예에 있어서, 상기 (c) 단계는, (c1) 상기 영상촬영부가 상기 용접부의 끝단을 다시 촬영하여 상기 다수의 제2 용접영상을 획득하는 단계; (c2) 상기 영상촬영부가 상기 영상분할부로 상기 다수의 제2 용접영상을 전송하는 단계;를 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the step (c) may include: (c1) acquiring the plurality of second welding images by photographing the end of the welding part again by the image capture unit; (c2) transmitting the plurality of second welding images to the image dividing unit by the image capturing unit;

본 발명의 실시예에 있어서, 상기 (d) 단계는, (d1) 상기 영상분할부가 상기 영상촬영부로부터 전송되는 상기 다수의 제2 용접영상을 수신하는 단계; (d2) 상기 영상분할부가 상기 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 기준으로 상기 다수의 제2 용접영상에 매칭시켜 상기 다수의 제2 용접영상으로부터 상기 제2 용융풀 영상을 분리시키는 단계; 및 (d3) 상기 영상분할부가 상기 형상정보 측정부로 상기 제2 용융풀 영상을 전송하는 단계;를 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the step (d) may include: (d1) the image division unit receiving the plurality of second welding images transmitted from the image capture unit; (d2) The image segmentation unit matches the plurality of second welding images based on the feature points of the labeled first arc light image, first molten pool image, and first background image to obtain information from the plurality of second welding images. Separating the second molten pool image; and (d3) transmitting the second molten pool image to the shape information measurement unit by the image segmentation unit.

본 발명의 실시예에 있어서, 상기 (e) 단계는, (e1) 상기 형상정보 측정부가 상기 영상분할부로부터 전송되는 상기 제2 용융풀 영상을 수신하는 단계; (e2) 상기 형상정보 측정부가 상기 제2 용융풀 영상에 해당하는 픽셀만을 추출하는 단계; (e3) 상기 형상정보 측정부가 상기 제2 용융풀 영상의 최외곽에 위치하는 픽셀들이 이어지는 제2 용융풀 경계선을 추출하는 단계; (e4) 상기 형상정보 측정부가 상기 추출된 제2 용융풀 경계선을 기반으로 상기 제2 용융풀 영상의 폭(w), 길이(l), 넓이(s) 및 상기 폭(w) 대비 길이 비율(r)을 측정하는 단계;를 포함하고, 상기 형상정보 측정부는 영상처리 알고리즘을 적용하여 상기 제2 용융풀 영상에 대한 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 포함하는 형상정보를 측정하고, 상기 제2 용융풀 영상의 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 상기 모재의 두께(t)를 5x1 행렬의 특징 벡터 데이터로 변환시키는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the step (e) may include: (e1) receiving the second molten pool image transmitted from the image dividing unit by the shape information measuring unit; (e2) extracting only pixels corresponding to the second molten pool image by the shape information measuring unit; (e3) extracting a second molten pool boundary where the outermost pixels of the second molten pool image are connected by the shape information measuring unit; (e4) The width (w), length (l), width (s) of the second molten pool image based on the extracted second molten pool boundary line by the shape information measuring unit, and the width (w) to length ratio ( and measuring r), wherein the shape information measurement unit applies an image processing algorithm to compare width (w), length (l), width (s), and width (w) of the second molten pool image. Shape information including the length ratio (r) and the thickness (t) of the base material is measured, and the ratio of length to width (w), length (l), width (s), and width (w) of the second molten pool image (r) and the thickness (t) of the base material may be converted into feature vector data of a 5x1 matrix.

본 발명의 실시예에 있어서, 상기 (f) 단계는, (f1) 상기 용입깊이 도출부가 상기 형상정보 측정부로부터 전송되는 상기 제2 용융풀 영상에 대한 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 포함하는 형상정보를 수신하는 단계; (f2) 상기 용입깊이 도출부가 상기 제2 용융풀 영상에 대한 폭(w), 길이(l), 넓이(s) 및 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 인공지능 학습하여 상기 제2 용융풀 영상에 대한 상기 용입깊이를 도출하는 단계; 및 (f3) 상기 용입깊이 도출부가 상기 제어부로 상기 용입깊이를 전송하는 단계;를 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, in the step (f), (f1) the penetration depth derivation unit measures the width (w), length (l), and width of the second melt pool image transmitted from the shape information measurement unit. (s) receiving shape information including a width (w) to length ratio (r) and a base material thickness (t); (f2) The penetration depth derivation unit artificially calculates the width (w), length (l), width (s), width (w) to length ratio (r) and thickness (t) of the base material for the second molten pool image. Deriving the penetration depth for the second molten pool image by intelligent learning; and (f3) transmitting the penetration depth from the penetration depth deriving unit to the control unit.

본 발명의 실시예에 있어서, 상기 (g) 단계는, (g1) 상기 제어부가 상기 용입깊이 도출부로부터 전송되는 상기 용입깊이를 수신하는 단계; 및 (g2) 상기 제어부가 상기 용입깊이와 기설정된 용입깊이를 비교한 결과에 따라 상기 용접부의 제어 여부를 결정하는 단계;를 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, the step (g) may include: (g1) receiving, by the control unit, the penetration depth transmitted from the penetration depth deriving unit; and (g2) determining, by the control unit, whether or not to control the welding part according to a result of comparing the penetration depth with a preset penetration depth.

본 발명의 실시예에 있어서, 상기 (g2) 단계 이후, (h) 상기 제어부가 상기 용접부의 전류 및 용접속도를 제어하는 단계;를 더 포함하고, 상기 (h) 단계는, 상기 용입깊이가 상기 기설정된 용입깊이보다 클 경우, 상기 제어부가 상기 용접부를 제어하여 상기 용접부의 전류를 감소시키거나 상기 용접부의 용접속도를 증가시키는 단계를 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, after the step (g2), (h) the control unit controlling the current and the welding speed of the welding part; further comprising, in the (h) step, the penetration depth is When the penetration depth is greater than the predetermined penetration depth, the controller may control the welding part to reduce the current of the welding part or increase the welding speed of the welding part.

본 발명의 실시예에 있어서, 상기 (h) 단계는, 상기 용입깊이가 상기 기설정된 용입깊이보다 작을 경우, 상기 제어부가 상기 용접부를 제어하여 상기 용접부의 전류를 증가시키거나 상기 용접부의 용접속도를 감소시키는 단계를 더 포함하는 것을 특징으로 할 수 있다.In an embodiment of the present invention, in the step (h), when the penetration depth is smaller than the predetermined penetration depth, the control unit controls the welding portion to increase the current of the welding portion or increase the welding speed of the welding portion. It may be characterized in that it further comprises the step of reducing.

상기와 같은 구성에 따르는 본 발명의 효과는, 영상분할부가 영상촬영부에서 촬영된 다수의 제1 용접영상을 지도 학습하여 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 추출하고 영상촬영부에서 추가적으로 촬영되는 다수의 제2 용접영상에 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 매칭시켜 제2 용융풀 영상을 추출함으로써 용융풀의 인식 오류를 최소화하여 인식률을 향상시킬 수 있다.The effect of the present invention according to the configuration as described above is that the image segmentation unit supervises and learns a plurality of first welding images taken by the image capturing unit, and the feature points for the first arc light image, the first molten pool image, and the first background image of the molten pool by extracting and matching feature points for the first arc light image, the first molten pool image, and the first background image to a plurality of second welding images additionally photographed by the imaging unit to extract the second molten pool image. The recognition rate can be improved by minimizing the recognition error.

또한, 상기와 같은 구성에 따르는 본 발명의 효과는, 형상정보 측정부가 제2 용융풀 영상을 기반으로 제2 영상풀 영상에 대한 폭(w), 길이(l), 넓이(s) 및 폭(w) 대비 길이 비율(r)을 측정하고 용입깊이 도출부가 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 인공지능 학습시켜 제2 용융풀 영상의 용입깊이(p)를 실시간으로 도출함으로써 아크 용접의 작업 상태를 실시간으로 모니터링할 수 있다.In addition, the effect of the present invention according to the above configuration is that the shape information measuring unit measures the width (w), length (l), width (s) and width ( w) Measures the length ratio (r), and the penetration depth derivation unit measures the width (w), length (l), area (s), width (w) to length ratio (r) and the thickness (t) of the base material by artificial intelligence By learning and deriving the penetration depth (p) of the second molten pool image in real time, the working state of the arc welding can be monitored in real time.

또한, 상기와 같은 구성에 따르는 본 발명의 효과는, 도출된 제어부가 제2 용융풀 영상의 용입깊이(p)와 기설정된 용입깊이(p)를 비교한 결과에 따라 용접부(110)의 전류 및 용접속도를 제어함으로써 작업 오차를 최소화시킬 수 있다.In addition, the effect of the present invention according to the configuration as described above is the current and Working errors can be minimized by controlling the welding speed.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present invention are not limited to the above effects, and should be understood to include all effects that can be inferred from the detailed description of the present invention or the configuration of the invention described in the claims.

도 1의 (a), (b), (c), (d)는 종래기술에 따라 영상처리된 용접영상을 나타낸 이미지이다.
도 2는 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템을 나타낸 블록도이다.
도 3은 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템에 구비된 영상촬영부에서 촬영된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 포함하는 제1 용접영상이 사용자에 의해 수동으로 라벨링된 것을 나타낸 이미지이다.
도 4의 (a), (b), (c)는 도 3에서 라벨링된 다수의 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상으로 구성되는 데이터셋(dateset)을 나타낸 이미지이다.
도 5는 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템에 구비된 영상분할부에 적용되는 VGG 16 넷(net) 기반의 CNN(Convolutional Neural Network) 알고리즘을 나타낸 개념도이다.
도 6의 (a), (b), (c)는 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템에 구비된 영상분할부가 다수의 제1 용접영상을 지도 학습하는 과정을 나타낸 이미지이다.
도 7 내지 도 10은 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템에 구비된 영상분할부의 지도 학습 과정에서 조건별 결과를 나타낸 도면이다.
도 11은 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템에 구비된 형상정보 측정부에서 영상처리 알고리즘을 이용하여 제1 용융풀 영상에 대한 형상정보를 추출하는 과정을 나타낸 도면이다.
도 12는 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템에 구비된 형상정보 측정부에서 획득되는 형상정보 및 용입깊이 도출부에서 획득되는 용입깊이를 나타낸 도면이다.
도 13은 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템 및 방법에서 추출된 제1 용융풀 영상으로부터 용입깊이를 도출하는 과정을 나타낸 도면이다.
도 14는 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 방법을 나타낸 순서도이다.
1 (a), (b), (c), (d) are images showing welding images processed according to the prior art.
2 is a block diagram showing a melt pool recognition and penetration depth control system according to an embodiment of the present invention.
3 is a first welding including a first arc light image, a first molten pool image, and a first background image captured by an imaging unit provided in a molten pool recognition and penetration depth control system according to an embodiment of the present invention This is an image showing that the image has been manually labeled by the user.
(a), (b), and (c) of FIG. 4 are images showing a dataset composed of a plurality of first arc light images, a first molten pool image, and a first background image labeled in FIG. .
5 is a conceptual diagram illustrating a convolutional neural network (CNN) algorithm based on a VGG 16 net applied to an image segmentation unit provided in a melt pool recognition and penetration depth control system according to an embodiment of the present invention.
6 (a), (b), and (c) show a process of supervising and learning a plurality of first welding images by an image segmentation unit provided in a molten pool recognition and penetration depth control system according to an embodiment of the present invention. It is an image.
7 to 10 are diagrams showing results for each condition in the supervised learning process of the image segmentation unit provided in the molten pool recognition and penetration depth control system according to an embodiment of the present invention.
11 is a view showing a process of extracting shape information for a first molten pool image using an image processing algorithm in a shape information measurement unit provided in a melt pool recognition and penetration depth control system according to an embodiment of the present invention. .
12 is a diagram showing shape information obtained from a shape information measurement unit provided in a molten pool recognition and penetration depth control system according to an embodiment of the present invention and a penetration depth obtained from a penetration depth derivation unit.
13 is a diagram illustrating a process of deriving a penetration depth from a first melt pool image extracted from a system and method for recognizing a melt pool and controlling penetration depth according to an embodiment of the present invention.
14 is a flowchart illustrating a method for recognizing a molten pool and controlling a penetration depth according to an embodiment of the present invention.

이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, the present invention will be described with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and, therefore, is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.Throughout the specification, when a part is said to be "connected (connected, contacted, combined)" with another part, this is not only "directly connected", but also "indirectly connected" with another member in between. "Including cases where In addition, when a part "includes" a certain component, it means that it may further include other components without excluding other components unless otherwise stated.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "include" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

이하 첨부된 도면을 참고하여 본 발명의 실시예를 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

1. 용융풀 인식 및 용입깊이 제어 시스템(100)1. Melt Pool Recognition and Penetration Depth Control System (100)

이하, 도 2 내지 도 13을 참조하여 본 발명의 일 실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템을 설명하도록 한다.Hereinafter, a melt pool recognition and penetration depth control system according to an embodiment of the present invention will be described with reference to FIGS. 2 to 13.

도 2는 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템을 나타낸 블록도이다.2 is a block diagram showing a melt pool recognition and penetration depth control system according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템(100)은 용접부(110), 영상촬영부(120), 딥러닝부(130) 및 제어부(140)를 포함한다.The molten pool recognition and penetration depth control system 100 according to an embodiment of the present invention includes a welding unit 110, an image capturing unit 120, a deep learning unit 130 and a control unit 140.

용접부(110)는 아크광을 방전시켜 발생한 열을 적어도 2개의 모재가 접하는 접합부로 공급한다.The welding part 110 supplies heat generated by discharging the arc light to a junction where at least two base materials are in contact.

이를 위한 용접부(110)는 적어도 2개의 모재가 접하는 접합부로 아크광을 전달하는 용접봉일 수 있다. 또한, 용접부(110)에는 사용자가 파지하기 위한 용접봉 홀더가 연결된다.The welding part 110 for this may be a welding rod that transmits arc light to a junction where at least two base materials come into contact. In addition, a welding electrode holder for a user to grip is connected to the welding part 110 .

아울러, 용접부(110)가 동작하기 위해 용접봉 홀더와 전기적으로 연결되는 전기선, 모재에 전기적으로 연결되는 접지클램프, 접지 클램프와 전기적으로 연결되는 접지선 및 전기선과 접지선이 전기적으로 연결되고 아크광을 발생시키는 아크 용접기가 구비될 수 있다.In addition, in order for the welding part 110 to operate, an electric line electrically connected to the welding rod holder, a grounding clamp electrically connected to the base material, a grounding line electrically connected to the grounding clamp, and an electric line and the grounding line are electrically connected and generate an arc light. An arc welder may be provided.

상기한 용접부(110)의 끝단은 적어도 2개의 모재가 접하는 접합부를 향하여 소정거리 이격된 상태에서 접합부를 따라 이동함에 따라 적어도 2개의 모재를 아크용접한다.The ends of the welded part 110 arc-weld at least two base materials as they move along the joint in a state of being separated by a predetermined distance toward the joint where at least two base materials come into contact.

도 3은 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템에 구비된 영상촬영부에서 촬영된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 포함하는 제1 용접영상이 사용자에 의해 수동으로 라벨링된 것을 나타낸 이미지이다. 도 4의 (a), (b), (c)는 도 3에서 라벨링된 다수의 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상으로 구성되는 데이터셋(dateset)을 나타낸 이미지이다.3 is a first welding including a first arc light image, a first molten pool image, and a first background image captured by an imaging unit provided in a molten pool recognition and penetration depth control system according to an embodiment of the present invention This is an image showing that the image has been manually labeled by the user. (a), (b), and (c) of FIG. 4 are images showing a dataset composed of a plurality of first arc light images, a first molten pool image, and a first background image labeled in FIG. .

영상촬영부(120)는 용접부(110)의 끝단을 촬영하여 도 3의 (a) 및 도 4의 (b)에 도시된 바와 같이 제1 아크광 영상, 접합부에 형성되는 제1 용융풀 영상 및 제1 용융풀 영상의 주변에 위치하는 배경 영상을 포함하는 다수의 제1 용접영상을 실시간으로 획득한다.The image capturing unit 120 photographs the end of the welding portion 110, and as shown in FIGS. 3 (a) and 4 (b), the first arc light image, the first molten pool image formed at the junction, and A plurality of first welding images including a background image located around the first molten pool image are acquired in real time.

여기서, 다수의 제1 용접영상은 제2 용융풀 영상을 인식하기 위한 기준이 되는 특징점을 설정하기 위한 빅데이터로서 다수로 구성되는 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상으로 구성되는 영상 데이터셋(dataset)이다.Here, the plurality of first welding images are big data for setting feature points that are criteria for recognizing the second molten pool image, and are composed of a plurality of first arc light images, first molten pool images, and first background images. It is an image dataset that is constructed.

획득된 다수의 제1 용접영상은 도 3의 (b)에 도시된 바와 같이 사용자가 수동으로 라벨링한다.The obtained plurality of first welding images are manually labeled by the user as shown in (b) of FIG. 3 .

구체적으로 라벨링은 도 3의 (b) 및 도 4의 (a)에 도시된 바와 같이 제1 아크광 영상에 아크광이라고 표시하고, 제1 용융풀에 용융풀이라고 표시하며, 제1 배경 영상에 배경이라고 표시하여 해당 영상이 무엇에 관한 것인지를 표시하는 것이다.Specifically, as shown in FIGS. 3(b) and 4(a), the labeling marks the first arc light image as arc light, displays the first melt pool as a melt pool, and displays the first arc light image as a melt pool. By marking it as a background, it indicates what the image is about.

여기서, 제1 아크광 영상, 제1 용융풀 영상, 제1 배경 영상은 딥러닝부(130)가 지도 학습을 통한 아크광, 용융풀 및 배경에 대한 특징점을 도출 및 선정하기 위한 이미지로서, 영상촬영부(120)가 최초로 촬영한 다수의 제1 용접영상이다.Here, the first arc light image, the first molten pool image, and the first background image are images for the deep learning unit 130 to derive and select feature points for the arc light, the molten pool, and the background through supervised learning. These are the plurality of first welding images first photographed by the photographing unit 120 .

상기한 제1 용접영상은 도 4의 (c)에 도시된 바와 같이 제1 아크광 영상, 제1 용융풀 영상, 제1 배경 영상을 포함하고, 다수로 구성되어 데이터셋을 이룬다.The first welding image includes a first arc light image, a first molten pool image, and a first background image, as shown in (c) of FIG. 4, and is composed of a plurality of data sets.

한편, 후술되는 제2 아크광 영상, 제2 용융풀 영상, 제2 배경 영상은 본 발명에서 용융풀을 인식하고자 하는 이미지로서, 영상촬영부(110)로부터 촬영되며 딥러닝부(130)에 의해 아크광, 용융풀 및 배경에 대한 특징점과 매칭되는 이미지이다.On the other hand, the second arc light image, the second molten pool image, and the second background image to be described later are images to be recognized as molten pools in the present invention, and are captured by the image capture unit 110 and used by the deep learning unit 130. It is an image that is matched with feature points for the arc light, molten pool, and background.

상기한 영상촬영부(120)는 라벨링된 제1 아크광 영상, 제1 용융풀 영상, 제1 배경 영상을 딥러닝부(130)에 구비된 영상분할부(131)로 전송한 후 추가적으로 제2 아크광 영상, 제2 용융풀 영상, 제2 배경 영상을 획득하여 영상분할부(130)로 전송한다.The above image capture unit 120 transmits the labeled first arc light image, the first molten pool image, and the first background image to the image segmentation unit 131 provided in the deep learning unit 130, and then additionally second An arc light image, a second molten pool image, and a second background image are acquired and transmitted to the image segmentation unit 130 .

딥러닝부(130)는 사용자에 의해 수동으로 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 지도 학습(supervised learning)하여 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 추출 및 설정하고 제1 용융풀 영상에 대한 특징점을 기반으로 영상촬영부(120)로부터 추가로 획득되는 다수의 제2 용접영상로부터 제2 용융풀 영상을 추출하며 제2 용융풀 영상을 영상처리하여 제2 용융풀 영상에 대한 형상정보를 측정하고 측정된 형상정보를 인공지능 학습하여 용입깊이를 도출한다.The deep learning unit 130 performs supervised learning on the first arc light image, the first molten pool image, and the first background image manually labeled by the user to obtain the first arc light image, the first molten pool image, and Extracting and setting feature points for the first background image, extracting second molten pool images from a plurality of second welding images additionally obtained from the imaging unit 120 based on the feature points for the first molten pool image, and 2 Image processing of the molten pool image measures the shape information of the second molten pool image, and artificial intelligence learns the measured shape information to derive the penetration depth.

이를 위한 딥러닝부(130)는 영상분할부(131), 형상정보 측정부(132) 및 용입깊이 도출부(133)를 포함한다.The deep learning unit 130 for this includes an image segmentation unit 131, a shape information measurement unit 132, and a penetration depth derivation unit 133.

도 5는 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템에 구비된 영상분할부에 적용되는 VGG 16 넷(net) 기반의 CNN(Convolutional Neural Network) 알고리즘을 나타낸 개념도이다. 도 6의 (a), (b), (c)는 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템에 구비된 영상분할부가 다수의 제1 용접영상을 지도 학습하는 과정을 나타낸 이미지이다. 도 7 내지 도 10은 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템에 구비된 영상분할부의 지도 학습 과정에서 조건별 결과를 나타낸 도면이다.5 is a conceptual diagram illustrating a convolutional neural network (CNN) algorithm based on a VGG 16 net applied to an image segmentation unit provided in a melt pool recognition and penetration depth control system according to an embodiment of the present invention. 6 (a), (b), and (c) show a process of supervising and learning a plurality of first welding images by an image segmentation unit provided in a molten pool recognition and penetration depth control system according to an embodiment of the present invention. It is an image. 7 to 10 are diagrams showing results for each condition in the supervised learning process of the image segmentation unit provided in the molten pool recognition and penetration depth control system according to an embodiment of the present invention.

영상분할부(131)는 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 지도 학습하여 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 추출 및 설정한다.The image segmentation unit 131 supervises and learns the labeled first arc light image, the first molten pool image, and the first background image, and performs feature points on the labeled first arc light image, the first molten pool image, and the first background image. Extract and set.

구체적으로 영상분할부(131)는 도 5에 도시된 바와 같이 영상 분할 기법으로 VGG 16 넷(net) 기반의 CNN(Convolutional Neural Network) 알고리즘이 적용되며, 상기한 CNN 알고리즘은 공지기술에 해당하므로 구체적인 설명은 생략하도록 한다.Specifically, as shown in FIG. 5, the image segmentation unit 131 applies a VGG 16 net-based Convolutional Neural Network (CNN) algorithm as an image segmentation technique, and since the CNN algorithm corresponds to a known technology, specific The description is omitted.

예시적으로 도 6의 (a), (b), (c)에 도시된 바와 같이 다양한 용접조건에 따른 제1 용접영상들이 영상분할부(131)에서 지도 학습될 수 있다.Illustratively, as shown in (a), (b), and (c) of FIG. 6 , first welding images according to various welding conditions may be supervised and learned in the image segmentation unit 131 .

지도 학습에 사용되는 학습변수는 도 6의 (a), (b), (c)에 도시된 바와 같이 학습에서 조절되는 변수는 학습률(learning rate), batch size, epoch로서 총 3개이다.As for the learning variables used in supervised learning, as shown in (a), (b), and (c) of FIG. 6, there are a total of three variables that are controlled in learning: learning rate, batch size, and epoch.

구체적으로 도 6의 (a)는 학습률(learning rate)=0.001, batch size=30, epoch=300일 때의 제1 용접 영상을 나타내고, 도 6의 (b)는 학습률(learning rate)=0.001, batch size=50, epoch=500일 때의 제1 용접 영상을 나타내며, 도 6의 (c)는 학습률(learning rate)=0.001, batch size=50, epoch=1000일 때의 제1 용접 영상을 나타낸다.Specifically, FIG. 6 (a) shows the first welding image when learning rate = 0.001, batch size = 30, and epoch = 300, and FIG. 6 (b) shows learning rate = 0.001, The first welding image when batch size = 50 and epoch = 500 is shown, and FIG. 6 (c) shows the first welding image when learning rate = 0.001, batch size = 50, and epoch = 1000. .

학습률(learning rate)은 스칼라와의 곱을 통해 다음 지점을 결정하기 위한 변수로서, 경사하강법 알고리즘에서 사용된다.The learning rate is a variable for determining the next point through multiplication with a scalar, and is used in the gradient descent algorithm.

또한, 학습률(learning rate)은 local minimum에 효율적으로 도달할 수 있도록 너무 크지도 않고 작지도 않도록 적절하게 세팅해야 한다.In addition, the learning rate must be appropriately set so that it is neither too large nor too small to efficiently reach the local minimum.

만약, 학습률이 클 경우, 데이터가 무질서하게 이탈하며, 최저점에 수렴하지 못한다.If the learning rate is large, the data deviate randomly and cannot converge to the lowest point.

한편, 학습률이 작을 경우, 학습시간이 매우 오래 걸리며, 최저점에 도달하지 못한다.On the other hand, when the learning rate is small, the learning time takes a very long time and the lowest point is not reached.

이와 같은 학습률은 변화에 따라 지도 학습이 빠르거나 천천히 진행되도록 한다.Such a learning rate allows supervised learning to proceed faster or slower depending on the change.

다음, batch size는 데이터의 크기를 나타내는 것으로서, 도 4의 (c)에서 batch size는 16(=데이터의 개수)이다.Next, the batch size indicates the size of data, and in FIG. 4(c), the batch size is 16 (= the number of data).

Epoch는 다수의 batch size를 한 번에 학습하는 데이터셋으로서, 도 4의 (c)에서 batch size가 16이면, Epoch는 1이다.Epoch is a dataset that learns multiple batch sizes at once, and if the batch size is 16 in FIG. 4 (c), the epoch is 1.

또한, 도 4의 (c)에서 batch size가 4(16개 중 가로열만 포함)이면, Epoch는 4이다.In addition, in (c) of FIG. 4, if the batch size is 4 (including only horizontal columns among 16), the epoch is 4.

이에 따라 상기한 3개의 변수(학습률(learning rate), batch size, epoch) 중 1개의 변수만 바꾸어 가면서 학습한 결과가 도 7 내지 도 10에 도시되어 있다.Accordingly, the results of learning while changing only one variable among the above three variables (learning rate, batch size, and epoch) are shown in FIGS. 7 to 10 .

도 7 및 도 8은 학습률(learning rate) 및 epoch가 0.001, 300으로 동일하고, batch size만 각각 20, 30으로 변화를 주어서 학습한 결과를 도시한다.7 and 8 show the results of learning by changing the learning rate and epoch to 0.001 and 300 and changing the batch size to 20 and 30, respectively.

도 9 및 도 10은 학습률(learning rate) 및 batch size가 0.001, 50으로 동일하고, epoch만 각각 500, 1000으로 변화를 주어서 학습한 결과를 도시한다.9 and 10 show the result of learning by changing the learning rate and batch size to 0.001 and 50, and changing only the epoch to 500 and 1000, respectively.

상기한 바와 같이 지도 학습을 위한 3가지 변수에 변화를 주면서 지도 학습시켜본 결과, 도 10에 도시된 바와 같이 학습률(learning rate) = 0.001, batch size = 50, epoch = 1000에서 용융풀 영상을 학습시키고 인식하는데 있어 최적 변수임이 도출되었다.As a result of supervised learning while changing the three variables for supervised learning as described above, learning rate = 0.001, batch size = 50, epoch = 1000 as shown in FIG. It was derived that it is the optimal variable for doing and recognizing.

최적 변수를 도출하기 위한 기준은 추출된 용융풀 영상이 가지는 경계선의 명확한 정도, epoch의 증가(epoch의 증가에 따라 용융풀 영상을 인식하는 알고리즘의 정확도도 대체적으로 증가)시키는 것이다.The criteria for deriving the optimal parameters are the clearness of the boundary of the extracted molten pool image and the increase in epoch (according to the increase in epoch, the accuracy of the algorithm recognizing the molten pool image generally increases).

다만, 무조건적으로 epoch를 증가시킬 경우 학습에 소요되는 시간이 증가하고, 학습데이터에만 적합한 형태로 학습이 이루어져 실제 아크용접된 결과와 학습데이터의 결과가 달라서 용융풀 영상의 인식 정확도가 떨어져 나타나는 경우도 있다.However, if the epoch is unconditionally increased, the time required for learning increases, and learning is performed in a form suitable only for the learning data, so the actual arc welding result and the result of the learning data are different. there is.

이에 따라 상기한 경우들도 종합적으로 고려하여 학습률(learning rate) = 0.001, batch size = 50, epoch = 1000를 최적 변수로 도출하었다.Accordingly, the above cases were comprehensively considered and learning rate = 0.001, batch size = 50, and epoch = 1000 were derived as optimal variables.

다음, 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 추출 및 설정된 후 영상촬영부(120)로부터 다수의 제2 용접영상이 추가적으로 전송되면, 영상분할부(131)는 제1 용융풀 영상에 대한 특징점을 기준으로 영상촬영부(120)로부터 전송되는 다수의 제2 용접영상에 매칭시켜 다수의 제2 용접영상으로부터 제2 용융풀 영상을 추출 및 분리시킨다.Next, when a plurality of second welding images are additionally transmitted from the image capture unit 120 after extracting and setting feature points for the first arc light image, the first molten pool image, and the first background image, the image segmentation unit 131 Extracts and separates the second molten pool image from the plurality of second welding images by matching the plurality of second welding images transmitted from the image capturing unit 120 based on the feature points of the first molten pool image.

이를 위한 제1 용융풀 영상에 대한 특징점은 제1 아크광 영상 및 제1 배경 영상과 다른 고유의 명도, 채도, 색상, 제1 용융풀 영상의 형상 패턴을 포함할 수 있으나, 이에 한정되는 것은 아니다.Characteristic points of the first molten pool image for this purpose may include unique brightness, chroma, color, and shape patterns of the first molten pool image different from the first arc light image and the first background image, but are not limited thereto. .

상기한 영상분할부(131)는 분리된 제2 용융풀 영상을 형상정보 측정부(132)로 전송한다.The image segmentation unit 131 transmits the separated second molten pool image to the shape information measuring unit 132 .

도 11은 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템에 구비된 형상정보 측정부에서 영상처리 알고리즘을 이용하여 제1 용융풀 영상에 대한 형상정보를 추출하는 과정을 나타낸 도면이다. 도 12는 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템에 구비된 형상정보 측정부에서 획득되는 형상정보 및 용입깊이 도출부에서 획득되는 용입깊이를 나타낸 도면이다.11 is a view showing a process of extracting shape information for a first molten pool image using an image processing algorithm in a shape information measurement unit provided in a melt pool recognition and penetration depth control system according to an embodiment of the present invention. . 12 is a diagram showing shape information obtained from a shape information measurement unit provided in a molten pool recognition and penetration depth control system according to an embodiment of the present invention and a penetration depth obtained from a penetration depth derivation unit.

형상정보 측정부(132)는 영상분할부(131)로부터 전송되는 제2 용융풀 영상을 영상처리하여 제2 용융풀 영상에 대한 형상정보를 측정한다.The shape information measuring unit 132 processes the second molten pool image transmitted from the image dividing unit 131 to measure the shape information of the second molten pool image.

구체적으로 형상정보 측정부(132)는 도 11에 도시된 바와 같이 제2 용융풀 영상에 해당하는 픽셀만을 추출(convex hull 영상처리 알고리즘 적용)한 후 제2 용융풀 영상의 최외곽에 위치하는 픽셀들이 이어지는 제2 용융풀 경계선을 추출하고 추출된 제2 용융풀 경계선을 기반으로 상기 제2 용융풀 영상의 폭(w), 길이(l), 넓이(s) 및 폭(w) 대비 길이 비율(r)을 측정한다.Specifically, as shown in FIG. 11, the shape information measurement unit 132 extracts only the pixels corresponding to the second melt pool image (applying the convex hull image processing algorithm), and then the pixels located at the outermost part of the second melt pool image Extracts the second molten pool boundary followed by the second molten pool boundary, and based on the extracted second molten pool boundary, the width (w), length (l), width (s), and width (w) to length ratio of the second molten pool image ( r) is measured.

즉, 상기한 형상정보 측정부(132)는 영상처리 알고리즘을 적용하여 도 12에 도시된 바와 같이 제2 용융풀 영상에 대한 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 포함하는 형상정보를 측정하고, 제2 용융풀 영상의 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 5x1 행렬의 벡터 데이터로 변환시킨다. 여기서, 모재의 두께(t)는 미리 알고 있는 정보이다.That is, the above-described shape information measurement unit 132 applies an image processing algorithm to determine the width (w), length (l), width (s), and width (w) of the second molten pool image as shown in FIG. ) Measure the shape information including the length ratio (r) and the thickness (t) of the base material, and the width (w), length (l), width (s), width (w) of the second molten pool image The ratio (r) and the thickness (t) of the base material are converted into vector data of a 5x1 matrix. Here, the thickness (t) of the base material is information known in advance.

정리하면, 영상분할부(131)가 1차 딥러닝 알고리즘을 통해 추출된 용융풀 형상을 인식하고, 형상정보 측정부(132)가 convex hull 영상처리 알고리즘을 통해 용융 풀 형상을 감싸는 최외각 경계선을 추출하며, 이를 통해 용융 풀 형상의 길이, 폭, 넓이, 폭 대비 길이 비(rate)를 측정한다.In summary, the image segmentation unit 131 recognizes the molten pool shape extracted through the first deep learning algorithm, and the shape information measuring unit 132 determines the outermost boundary line surrounding the molten pool shape through the convex hull image processing algorithm. Through this, the length, width, area, and width-to-length ratio (rate) of the molten pool shape are measured.

이때, 측정된 용융풀 형상의 데이터는 모재의 두께(t) 정보와 결합하여 특징 벡터 데이터로 변환되며, 변환된 특징 벡터 데이터는 현재 용융풀 모니터링에서 포착된 용융풀 형상을 나타낸다.At this time, the measured melt pool shape data is combined with the thickness (t) information of the base material and converted into feature vector data, and the converted feature vector data represents the melt pool shape currently captured in the melt pool monitoring.

상기한 형상정보 측정부(132)는 형상정보를 변환한 특징 벡터 데이터를 용입깊이 도출부(133)로 전송한다.The shape information measuring unit 132 transmits the feature vector data obtained by converting the shape information to the penetration depth deriving unit 133 .

도 13은 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템 및 방법에서 추출된 제1 용융풀 영상으로부터 용입깊이를 도출하는 과정을 나타낸 도면이다.13 is a diagram illustrating a process of deriving a penetration depth from a first melt pool image extracted from a system and method for recognizing a melt pool and controlling penetration depth according to an embodiment of the present invention.

도 13을 참조하면, 용입깊이 도출부(133)는 형상정보 측정부(132)로부터 전송되는 5x1 행렬의 특징 벡터 데이터를 인공지능 학습하여 제2 용융풀 영상의 용입깊이(p)를 도출한다.Referring to FIG. 13, the penetration depth derivation unit 133 derives the penetration depth p of the second melt pool image by artificial intelligence learning of the feature vector data of the 5x1 matrix transmitted from the shape information measurement unit 132.

정리하면, 용입깊이 도출부(133)에서 이루어지는 2차 학습은 현재 용융풀이 캡쳐된 위치에서의 용입 깊이와 연계하여 이루어지고, 용융풀에 대한 특징 벡터 데이터를 딥러닝 모델에 입력하여 용입 깊이를 도출하는 알고리즘에 의해 이루어진다.In summary, the secondary learning performed in the penetration depth derivation unit 133 is performed in conjunction with the penetration depth at the location where the current melt pool is captured, and inputs the feature vector data for the melt pool to the deep learning model to derive the penetration depth It is made by an algorithm that

이후, 용입깊이 도출부(133)는 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)가 변환된 5x1 행렬의 벡터 데이터가 입력되는 용입 깊이를 도출하는 알고리즘을 이용하여 용입 깊이를 실시간으로 도출한다.Thereafter, the penetration depth derivation unit 133 converts the width (w), length (l), area (s), width (w) to length ratio (r), and the thickness (t) of the base material into vector data of a 5x1 matrix. The penetration depth is derived in real time by using an algorithm that derives the penetration depth inputted.

상기한 용입깊이 도출부(133)는 용입깊이를 제어부로 전송한다.The penetration depth deriving unit 133 transmits the penetration depth to the control unit.

제어부(140)는 도출된 용입깊이와 기설정된 용입깊이를 비교한 결과에 따라 용접부(110)의 전류 및 용접속도를 제어한다.The control unit 140 controls the current and welding speed of the welding part 110 according to the result of comparing the derived penetration depth with the preset penetration depth.

구체적으로 제어부(140)는 용입깊이와 기설정된 용입깊이가 같을 경우, 용접부(110)가 현재 상태를 유지하도록 용접부(110)를 제어한다.Specifically, the control unit 140 controls the welded portion 110 so that the welded portion 110 maintains its current state when the penetration depth is the same as the preset penetration depth.

즉, 상기한 경우, 구현하고자 하는 아크용접의 비드가 잘 형성되고 있기 때문에 용접부(110)가 현재의 전류 및 용접속도를 유지하도록 용접부(110)를 제어한다.That is, in the above case, since the bead of the arc welding to be implemented is well formed, the welding part 110 is controlled to maintain the current current and welding speed.

한편, 제어부는 용입깊이와 기설정된 용입깊이가 다를 경우, 용접부(110)의 전류 및 용접속도를 제어한다.On the other hand, the control unit controls the current and welding speed of the welding part 110 when the penetration depth is different from the preset penetration depth.

구체적으로 제어부(140)는 용입깊이가 기설정된 용입깊이보다 클 경우, 용접부(110)를 제어하여 용접부(110)의 전류를 감소시키거나 용접부(110)의 용접속도를 증가시킨다.Specifically, when the penetration depth is greater than the predetermined penetration depth, the control unit 140 controls the welding portion 110 to reduce the current of the welding portion 110 or increase the welding speed of the welding portion 110 .

상기한 경우는 모재와 용접부(110)의 끝단이 가까운 상태로서 구현하고자 하는 아크용접의 비드보다 더 크고 깊게 형성되고 있으므로 용접부(110)의 전류를 감소시키거나 용접부(110)의 용접속도를 증가시켜 모재가 덜 녹게 하여 아크용접이 이루어지도록 함으로써 기설정된 용입깊이로 아크용접이 수행될 수 있도록 한다.In the above case, since the base material and the end of the welded portion 110 are close to each other and are formed larger and deeper than the bead of arc welding to be realized, the current of the welded portion 110 is reduced or the welding speed of the welded portion 110 is increased. Arc welding can be performed with a predetermined penetration depth by making the base material melt less and arc welding is performed.

한편, 제어부(140)는 용입깊이가 기설정된 용입깊이보다 작을 경우, 용접부(110)를 제어하여 용접부(110)의 전류를 증가시키거나 용접부(110)의 용접속도를 감소시킨다.Meanwhile, when the penetration depth is smaller than the predetermined penetration depth, the control unit 140 controls the welding portion 110 to increase the current of the welding portion 110 or decrease the welding speed of the welding portion 110 .

상기한 경우는 모재와 용접부(110)의 끝단이 먼 상태로서 구현하고자 하는 아크용접의 비드보다 더 작고 얕게 형성되고 있으므로 용접부(110)의 전류를 증가시키거나 용접부(110)의 용접속도를 감소시켜 모재가 더 녹게 하여 아크용접이 이루어지도록 함으로써 기설정된 용입깊이로 아크용접이 수행될 수 있도록 한다.In the above case, since the base material and the end of the welded part 110 are farther apart and formed smaller and shallower than the bead of arc welding to be realized, the current of the welded part 110 is increased or the welding speed of the welded part 110 is reduced. Arc welding can be performed at a preset depth of penetration by allowing the base material to melt more so that arc welding is performed.

2. 용융풀 인식 및 용입깊이 제어 방법2. Melt Pool Recognition and Penetration Depth Control Method

이하, 도 2 내지 도 14를 참조하여 본 발명의 일 실시예에 따른 용융풀 인식 및 용입깊이 제어 방법을 설명하도록 한다.Hereinafter, a method for recognizing a molten pool and controlling a penetration depth according to an embodiment of the present invention will be described with reference to FIGS. 2 to 14 .

도 14는 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 방법을 나타낸 순서도이다.14 is a flowchart illustrating a method for recognizing a molten pool and controlling a penetration depth according to an embodiment of the present invention.

도 14를 참조하면, 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 방법은 (a) 영상촬영부(120)에서 촬영된 다수의 제1 용접영상이 사용자에 의해 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상으로 라벨링되는 단계(S100), (b) 딥러닝부(130)에 구비된 영상분할부(131)가 다수의 제1 용접영상이 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상으로 라벨링된 영상 데이터셋을 지도 학습하여 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 설정하는 단계(S200), (c) 영상촬영부(120)가 촬영된 다수의 제2 용접영상을 영상분할부(131)로 전송하는 단계(S300), (d) 영상분할부(131)가 제1 아크광 영상, 제1 용접풀 영상 및 제1 배경 영상에 대한 특징점을 기반으로 다수의 제2 용접영상에서 제2 용융풀 영상을 분리하는 단계(S400), (e) 딥러닝부(130)에 구비된 형상정보 측정부(132)가 제2 용융풀 영상을 기반으로 제2 용융풀 영상의 형상정보를 측정하는 단계, (f) 용입깊이 도출부(132)가 제2 용융풀 영상의 형상정보를 인공지능 학습하여 용입깊이를 도출하는 단계(S500) 및 (g) 제어부(140)가 용입깊이 도출부(133)로부터 전송되는 용입깊이와 기설정된 용입깊이를 비교한 결과에 따라 용접부(110)의 제어 여부를 결정하는 단계를 포함한다.Referring to FIG. 14, in the method for recognizing the molten pool and controlling the penetration depth according to an embodiment of the present invention, (a) a plurality of first welding images taken by the imaging unit 120 are first arc light images by a user. , Step of labeling the first molten pool image and the first background image (S100), (b) the image segmentation unit 131 provided in the deep learning unit 130 displays a plurality of first welding images as a first arc light image , Setting feature points for the first arc light image, the first molten pool image, and the first background image by supervising the image dataset labeled with the first molten pool image and the first background image (S200), (c ) Transmitting a plurality of second welding images captured by the image capture unit 120 to the image segmentation unit 131 (S300), (d) the image segmentation unit 131 transmits the first arc light image, the first welding image Separating a second molten pool image from a plurality of second welding images based on feature points of the pool image and the first background image (S400), (e) a shape information measuring unit provided in the deep learning unit 130 ( 132) measuring the shape information of the second molten pool image based on the second molten pool image, (f) the penetration depth derivation unit 132 learns the shape information of the second molten pool image by artificial intelligence to determine the penetration depth Step of deriving (S500) and (g) the control unit 140 determining whether to control the welding part 110 according to the result of comparing the penetration depth transmitted from the penetration depth derivation unit 133 with the preset penetration depth includes

구체적으로 상기 (a) 단계는, (a1) 영상촬영부(120)가 용접부(110)의 끝단을 촬영하여 다수의 제1 용접영상을 획득하는 단계, (a2) 사용자에 의해 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상이 라벨링되는 단계 및 (a3) 영상촬영부(120)가 영상분할부(131)로 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 전송하는 단계를 포함한다.Specifically, the step (a) includes: (a1) acquiring a plurality of first welding images by photographing the tip of the welding portion 110 by the image capture unit 120; (a2) a first arc light image by a user; , The step of labeling the first molten pool image and the first background image, and (a3) the first arc light image, the first molten pool image, and the first background labeled by the image capturing unit 120 with the image dividing unit 131 It includes transmitting the image.

여기서, 다수의 제1 용접영상은 제2 용융풀 영상을 인식하기 위한 기준이 되는 다수의 제1 용접영상에 대한 특징점을 설정하기 위한 빅데이터로서 다수로 구성되는 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상으로 구성되는 영상 데이터셋(dataset)이다.Here, the plurality of first welding images are big data for setting feature points for the plurality of first welding images, which are references for recognizing the second molten pool image. It is an image dataset composed of a full image and a first background image.

또한, 상기 (a2) 단계에서, 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상은 도 3의 (b)에 도시된 바와 같이 문자로서 표현되거나 도 4의 (b)에 도시된 바와 같이 색상으로 표현될 수 있다.In addition, in the step (a2), the labeled first arc light image, first molten pool image, and first background image are expressed as characters as shown in (b) of FIG. 3 or shown in (b) of FIG. 4 As shown, it may be expressed in color.

다음, 상기 (b) 단계는, (b1) 영상분할부(131)가 영상촬영부(120)로부터 전송되는 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 수신하는 단계 및 (b2) 영상분할부(131)가 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 지도 학습하여 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 추출 및 설정하는 단계를 포함한다.Next, in the step (b), (b1) the image division unit 131 receiving the labeled first arc light image, the first molten pool image, and the first background image transmitted from the image capturing unit 120 and (b2) the image division unit 131 supervises and learns the labeled first arc light image, the first molten pool image, and the first background image, and the labeled first arc light image, the first molten pool image, and the first background image. and extracting and setting feature points for the image.

다음, 상기 (c) 단계는, (c1) 영상촬영부(120)가 용접부(110)의 끝단을 다시 촬영하여 다수의 제2 용접영상을 획득하는 단계, (c2) 영상촬영부(120)가 영상분할부(131)로 다수의 제2 용접영상을 전송하는 단계를 포함한다.Next, in the step (c), (c1) the image capturing unit 120 re-photographs the end of the welding portion 110 to obtain a plurality of second welding images, (c2) the image capturing unit 120 and transmitting a plurality of second welding images to the image segmentation unit 131.

다음, 상기 (d) 단계는, (d1) 영상분할부(131)가 영상촬영부(120)로부터 전송되는 다수의 제2 용접영상을 수신하는 단계, (d2) 영상분할부(120)가 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 기준으로 다수의 제2 용접영상에 매칭시켜 다수의 제2 용접영상으로부터 제2 용융풀 영상을 추출 및 분리시키는 단계 및 (d3) 영상분할부(131)가 형상정보 측정부(132)로 제2 용융풀 영상을 전송하는 단계를 포함한다.Next, in the step (d), (d1) the image segmentation unit 131 receives a plurality of second welding images transmitted from the image capture unit 120, (d2) the image segmentation unit 120 labels Extracting and separating the second molten pool image from the plurality of second welding images by matching with a plurality of second welding images based on the feature points of the first arc light image, the first molten pool image, and the first background image. and (d3) transmitting, by the image segmentation unit 131, the second molten pool image to the shape information measurement unit 132.

다음, 상기 (e) 단계는, (e1) 형상정보 측정부(132)가 영상분할부(131)로부터 전송되는 제2 용융풀 영상을 수신하는 단계, (e2) 형상정보 측정부(132)가 제2 용융풀 영상에 해당하는 픽셀만을 추출하는 단계, (e3) 형상정보 측정부(132)가 제2 용융풀 영상의 최외곽에 위치하는 픽셀들이 이어지는 제2 용융풀 경계선을 추출하는 단계, (e4) 형상정보 측정부(132)가 추출된 제2 용융풀 경계선을 기반으로 제2 용융풀 영상의 폭(w), 길이(l), 넓이(s) 및 폭(w) 대비 길이 비율(r)을 측정하는 단계를 포함한다.Next, in the step (e), (e1) the shape information measuring unit 132 receives the second molten pool image transmitted from the image dividing unit 131, (e2) the shape information measuring unit 132 Extracting only pixels corresponding to the second molten pool image, (e3) extracting, by the shape information measurement unit 132, the second molten pool boundary line connecting the outermost pixels of the second molten pool image, ( e4) Width (w), length (l), width (s), and width (w) to length ratio (r) of the second molten pool image based on the second molten pool boundary line extracted by the shape information measurement unit 132 ) and measuring the

여기서, 형상정보 측정부(132)는 영상처리 알고리즘을 적용하여 제2 용융풀 영상에 대한 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 포함하는 형상정보를 측정하고, 제2 용융풀 영상의 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 5x1 행렬의 벡터 데이터로 변환시킨다.Here, the shape information measurement unit 132 applies an image processing algorithm to determine the width (w), length (l), width (s), width (w) to length ratio (r) of the second molten pool image, and base material Measure the shape information including the thickness (t) of, and the width (w), length (l), width (s), width (w) to length ratio (r) of the second molten pool image, and the thickness of the base material ( t) into vector data of a 5x1 matrix.

다음, 상기 (f) 단계는, (f1) 용입깊이 도출부(133)가 형상정보 측정부(132)로부터 전송되는 제2 용융풀 영상에 대한 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 포함하는 형상정보를 수신하는 단계, (f2) 용입깊이 도출부(132)가 제2 용융풀 영상에 대한 폭(w), 길이(l), 넓이(s) 및 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 인공지능 학습하여 제2 용융풀 영상에 대한 용입깊이를 도출하는 단계 및 (f3) 용입깊이 도출부(133)가 제어부로 용입깊이를 전송하는 단계를 포함한다.Next, in the step (f), (f1) the penetration depth deriving unit 133 determines the width (w), length (l), and width (s) of the second molten pool image transmitted from the shape information measurement unit 132. ), receiving shape information including the length ratio (r) to the width (w) and the thickness (t) of the base material, (f2) the penetration depth deriving unit 132 determines the width (w) of the second melt pool image ), length (l), width (s) and width (w) to length ratio (r), and artificial intelligence learning of the thickness (t) of the base material to derive the penetration depth for the second melt pool image, and (f3 ) The penetration depth deriving unit 133 transmits the penetration depth to the control unit.

다음, 상기 (g) 단계는, (g1) 제어부(140)가 용입깊이 도출부(133)로부터 전송되는 용입깊이를 수신하는 단계 및 (g2) 제어부(140)가 용입깊이와 기설정된 용입깊이를 비교한 결과에 따라 용접부(110)의 제어 여부를 결정하는 단계를 포함한다.Next, in the step (g), (g1) the control unit 140 receives the penetration depth transmitted from the penetration depth deriving unit 133, and (g2) the control unit 140 calculates the penetration depth and the preset penetration depth. and determining whether to control the welding part 110 according to the comparison result.

또한, 본 발명은 상기 (g2) 단계 이후, 용입깊이와 기설정된 용입깊이가 다를 경우, (h) 제어부(140)가 용접부(110)의 전류 및 용접속도를 제어하는 단계를 더 포함한다.In addition, the present invention further includes, after the step (g2), when the penetration depth and the preset penetration depth are different, (h) the control unit 140 controls the current and welding speed of the welding portion 110.

구체적으로 상기 (h) 단계는, 용입깊이가 기설정된 용입깊이보다 클 경우, 제어부(140)가 용접부(110)를 제어하여 용접부(110)의 전류를 감소시키거나 용접부(110)의 용접속도를 증가시키는 단계를 포함한다.Specifically, in the step (h), when the penetration depth is greater than the predetermined penetration depth, the controller 140 controls the welding portion 110 to reduce the current of the welding portion 110 or increase the welding speed of the welding portion 110. Include an increase in

한편, 상기 (h) 단계는, 용입깊이가 기설정된 용입깊이보다 작을 경우, 제어부(140)가 용접부(110)를 제어하여 용접부(110)의 전류를 증가시키거나 용접부(110)의 용접속도를 감소시키는 단계를 더 포함한다.Meanwhile, in step (h), when the penetration depth is smaller than the predetermined penetration depth, the control unit 140 controls the welding portion 110 to increase the current of the welding portion 110 or increase the welding speed of the welding portion 110. A step of reducing is further included.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustrative purposes, and those skilled in the art can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof should be construed as being included in the scope of the present invention.

이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하 첨부된 도면을 참고하여 본 발명의 실시예를 상세히 설명하기로 한다.
1. 용융풀 인식 및 용입깊이 제어 시스템(100)
이하, 도 2 내지 도 13을 참조하여 본 발명의 일 실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템을 설명하도록 한다.
도 2는 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템을 나타낸 블록도이다.
본 발명의 일 실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템(100)은 용접부(110), 영상촬영부(120), 딥러닝부(130) 및 제어부(140)를 포함한다.
용접부(110)는 아크광을 방전시켜 발생한 열을 적어도 2개의 모재가 접하는 접합부로 공급한다.
이를 위한 용접부(110)는 적어도 2개의 모재가 접하는 접합부로 아크광을 전달하는 용접봉일 수 있다. 또한, 용접부(110)에는 사용자가 파지하기 위한 용접봉 홀더가 연결된다.
아울러, 용접부(110)가 동작하기 위해 용접봉 홀더와 전기적으로 연결되는 전기선, 모재에 전기적으로 연결되는 접지클램프, 접지 클램프와 전기적으로 연결되는 접지선 및 전기선과 접지선이 전기적으로 연결되고 아크광을 발생시키는 아크 용접기가 구비될 수 있다.
상기한 용접부(110)의 끝단은 적어도 2개의 모재가 접하는 접합부를 향하여 소정거리 이격된 상태에서 접합부를 따라 이동함에 따라 적어도 2개의 모재를 아크용접한다.
도 3은 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템에 구비된 영상촬영부에서 촬영된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 포함하는 제1 용접영상이 사용자에 의해 수동으로 라벨링된 것을 나타낸 이미지이다. 도 4의 (a), (b), (c)는 도 3에서 라벨링된 다수의 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상으로 구성되는 데이터셋(dateset)을 나타낸 이미지이다.
영상촬영부(120)는 용접부(110)의 끝단을 촬영하여 도 3의 (a) 및 도 4의 (b)에 도시된 바와 같이 제1 아크광 영상, 접합부에 형성되는 제1 용융풀 영상 및 제1 용융풀 영상의 주변에 위치하는 배경 영상을 포함하는 다수의 제1 용접영상을 실시간으로 획득한다.
여기서, 다수의 제1 용접영상은 제2 용융풀 영상을 인식하기 위한 기준이 되는 특징점을 설정하기 위한 빅데이터로서 다수로 구성되는 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상으로 구성되는 영상 데이터셋(dataset)이다.
획득된 다수의 제1 용접영상은 도 3의 (b)에 도시된 바와 같이 사용자가 수동으로 라벨링한다.
구체적으로 라벨링은 도 3의 (b) 및 도 4의 (a)에 도시된 바와 같이 제1 아크광 영상에 아크광이라고 표시하고, 제1 용융풀에 용융풀이라고 표시하며, 제1 배경 영상에 배경이라고 표시하여 해당 영상이 무엇에 관한 것인지를 표시하는 것이다.
여기서, 제1 아크광 영상, 제1 용융풀 영상, 제1 배경 영상은 딥러닝부(130)가 지도 학습을 통한 아크광, 용융풀 및 배경에 대한 특징점을 도출 및 선정하기 위한 이미지로서, 영상촬영부(120)가 최초로 촬영한 다수의 제1 용접영상이다.
상기한 제1 용접영상은 도 4의 (c)에 도시된 바와 같이 제1 아크광 영상, 제1 용융풀 영상, 제1 배경 영상을 포함하고, 다수로 구성되어 데이터셋을 이룬다.
한편, 후술되는 제2 아크광 영상, 제2 용융풀 영상, 제2 배경 영상은 본 발명에서 용융풀을 인식하고자 하는 이미지로서, 영상촬영부(110)로부터 촬영되며 딥러닝부(130)에 의해 아크광, 용융풀 및 배경에 대한 특징점과 매칭되는 이미지이다.
상기한 영상촬영부(120)는 라벨링된 제1 아크광 영상, 제1 용융풀 영상, 제1 배경 영상을 딥러닝부(130)에 구비된 영상분할부(131)로 전송한 후 추가적으로 제2 아크광 영상, 제2 용융풀 영상, 제2 배경 영상을 획득하여 영상분할부(130)로 전송한다.
딥러닝부(130)는 사용자에 의해 수동으로 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 지도 학습(supervised learning)하여 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 추출 및 설정하고 제1 용융풀 영상에 대한 특징점을 기반으로 영상촬영부(120)로부터 추가로 획득되는 다수의 제2 용접영상로부터 제2 용융풀 영상을 추출하며 제2 용융풀 영상을 영상처리하여 제2 용융풀 영상에 대한 형상정보를 측정하고 측정된 형상정보를 인공지능 학습하여 용입깊이를 도출한다.
이를 위한 딥러닝부(130)는 영상분할부(131), 형상정보 측정부(132) 및 용입깊이 도출부(133)를 포함한다.
도 5는 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템에 구비된 영상분할부에 적용되는 VGG 16 넷(net) 기반의 CNN(Convolutional Neural Network) 알고리즘을 나타낸 개념도이다. 도 6의 (a), (b), (c)는 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템에 구비된 영상분할부가 다수의 제1 용접영상을 지도 학습하는 과정을 나타낸 이미지이다. 도 7 내지 도 10은 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템에 구비된 영상분할부의 지도 학습 과정에서 조건별 결과를 나타낸 도면이다.
영상분할부(131)는 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 지도 학습하여 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 추출 및 설정한다.
구체적으로 영상분할부(131)는 도 5에 도시된 바와 같이 영상 분할 기법으로 VGG 16 넷(net) 기반의 CNN(Convolutional Neural Network) 알고리즘이 적용되며, 상기한 CNN 알고리즘은 공지기술에 해당하므로 구체적인 설명은 생략하도록 한다.
예시적으로 도 6의 (a), (b), (c)에 도시된 바와 같이 다양한 용접조건에 따른 제1 용접영상들이 영상분할부(131)에서 지도 학습될 수 있다.
지도 학습에 사용되는 학습변수는 도 6의 (a), (b), (c)에 도시된 바와 같이 학습에서 조절되는 변수는 학습률(learning rate), batch size, epoch로서 총 3개이다.
구체적으로 도 6의 (a)는 학습률(learning rate)=0.001, batch size=30, epoch=300일 때의 제1 용접 영상을 나타내고, 도 6의 (b)는 학습률(learning rate)=0.001, batch size=50, epoch=500일 때의 제1 용접 영상을 나타내며, 도 6의 (c)는 학습률(learning rate)=0.001, batch size=50, epoch=1000일 때의 제1 용접 영상을 나타낸다.
학습률(learning rate)은 스칼라와의 곱을 통해 다음 지점을 결정하기 위한 변수로서, 경사하강법 알고리즘에서 사용된다.
또한, 학습률(learning rate)은 local minimum에 효율적으로 도달할 수 있도록 너무 크지도 않고 작지도 않도록 적절하게 세팅해야 한다.
만약, 학습률이 클 경우, 데이터가 무질서하게 이탈하며, 최저점에 수렴하지 못한다.
한편, 학습률이 작을 경우, 학습시간이 매우 오래 걸리며, 최저점에 도달하지 못한다.
이와 같은 학습률은 변화에 따라 지도 학습이 빠르거나 천천히 진행되도록 한다.
다음, batch size는 데이터의 크기를 나타내는 것으로서, 도 4의 (c)에서 batch size는 16(=데이터의 개수)이다.
Epoch는 다수의 batch size를 한 번에 학습하는 데이터셋으로서, 도 4의 (c)에서 batch size가 16이면, Epoch는 1이다.
또한, 도 4의 (c)에서 batch size가 4(16개 중 가로열만 포함)이면, Epoch는 4이다.
이에 따라 상기한 3개의 변수(학습률(learning rate), batch size, epoch) 중 1개의 변수만 바꾸어 가면서 학습한 결과가 도 7 내지 도 10에 도시되어 있다.
도 7 및 도 8은 학습률(learning rate) 및 epoch가 0.001, 300으로 동일하고, batch size만 각각 20, 30으로 변화를 주어서 학습한 결과를 도시한다.
도 9 및 도 10은 학습률(learning rate) 및 batch size가 0.001, 50으로 동일하고, epoch만 각각 500, 1000으로 변화를 주어서 학습한 결과를 도시한다.
상기한 바와 같이 지도 학습을 위한 3가지 변수에 변화를 주면서 지도 학습시켜본 결과, 도 10에 도시된 바와 같이 학습률(learning rate) = 0.001, batch size = 50, epoch = 1000에서 용융풀 영상을 학습시키고 인식하는데 있어 최적 변수임이 도출되었다.
최적 변수를 도출하기 위한 기준은 추출된 용융풀 영상이 가지는 경계선의 명확한 정도, epoch의 증가(epoch의 증가에 따라 용융풀 영상을 인식하는 알고리즘의 정확도도 대체적으로 증가)시키는 것이다.
다만, 무조건적으로 epoch를 증가시킬 경우 학습에 소요되는 시간이 증가하고, 학습데이터에만 적합한 형태로 학습이 이루어져 실제 아크용접된 결과와 학습데이터의 결과가 달라서 용융풀 영상의 인식 정확도가 떨어져 나타나는 경우도 있다.
이에 따라 상기한 경우들도 종합적으로 고려하여 학습률(learning rate) = 0.001, batch size = 50, epoch = 1000를 최적 변수로 도출하었다.
다음, 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 추출 및 설정된 후 영상촬영부(120)로부터 다수의 제2 용접영상이 추가적으로 전송되면, 영상분할부(131)는 제1 용융풀 영상에 대한 특징점을 기준으로 영상촬영부(120)로부터 전송되는 다수의 제2 용접영상에 매칭시켜 다수의 제2 용접영상으로부터 제2 용융풀 영상을 추출 및 분리시킨다.
이를 위한 제1 용융풀 영상에 대한 특징점은 제1 아크광 영상 및 제1 배경 영상과 다른 고유의 명도, 채도, 색상, 제1 용융풀 영상의 형상 패턴을 포함할 수 있으나, 이에 한정되는 것은 아니다.
상기한 영상분할부(131)는 분리된 제2 용융풀 영상을 형상정보 측정부(132)로 전송한다.
도 11은 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템에 구비된 형상정보 측정부에서 영상처리 알고리즘을 이용하여 제1 용융풀 영상에 대한 형상정보를 추출하는 과정을 나타낸 도면이다. 도 12는 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템에 구비된 형상정보 측정부에서 획득되는 형상정보 및 용입깊이 도출부에서 획득되는 용입깊이를 나타낸 도면이다.
형상정보 측정부(132)는 영상분할부(131)로부터 전송되는 제2 용융풀 영상을 영상처리하여 제2 용융풀 영상에 대한 형상정보를 측정한다.
구체적으로 형상정보 측정부(132)는 도 11에 도시된 바와 같이 제2 용융풀 영상에 해당하는 픽셀만을 추출(convex hull 영상처리 알고리즘 적용)한 후 제2 용융풀 영상의 최외곽에 위치하는 픽셀들이 이어지는 제2 용융풀 경계선을 추출하고 추출된 제2 용융풀 경계선을 기반으로 상기 제2 용융풀 영상의 폭(w), 길이(l), 넓이(s) 및 폭(w) 대비 길이 비율(r)을 측정한다.
즉, 상기한 형상정보 측정부(132)는 영상처리 알고리즘을 적용하여 도 12에 도시된 바와 같이 제2 용융풀 영상에 대한 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 포함하는 형상정보를 측정하고, 제2 용융풀 영상의 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 5x1 행렬의 벡터 데이터로 변환시킨다. 여기서, 모재의 두께(t)는 미리 알고 있는 정보이다.
정리하면, 영상분할부(131)가 1차 딥러닝 알고리즘을 통해 추출된 용융풀 형상을 인식하고, 형상정보 측정부(132)가 convex hull 영상처리 알고리즘을 통해 용융 풀 형상을 감싸는 최외각 경계선을 추출하며, 이를 통해 용융 풀 형상의 길이, 폭, 넓이, 폭 대비 길이 비(rate)를 측정한다.
이때, 측정된 용융풀 형상의 데이터는 모재의 두께(t) 정보와 결합하여 특징 벡터 데이터로 변환되며, 변환된 특징 벡터 데이터는 현재 용융풀 모니터링에서 포착된 용융풀 형상을 나타낸다.
상기한 형상정보 측정부(132)는 형상정보를 변환한 특징 벡터 데이터를 용입깊이 도출부(133)로 전송한다.
도 13은 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 시스템 및 방법에서 추출된 제1 용융풀 영상으로부터 용입깊이를 도출하는 과정을 나타낸 도면이다.
도 13을 참조하면, 용입깊이 도출부(133)는 형상정보 측정부(132)로부터 전송되는 5x1 행렬의 특징 벡터 데이터를 인공지능 학습하여 제2 용융풀 영상의 용입깊이(p)를 도출한다.
정리하면, 용입깊이 도출부(133)에서 이루어지는 2차 학습은 현재 용융풀이 캡쳐된 위치에서의 용입 깊이와 연계하여 이루어지고, 용융풀에 대한 특징 벡터 데이터를 딥러닝 모델에 입력하여 용입 깊이를 도출하는 알고리즘에 의해 이루어진다.
이후, 용입깊이 도출부(133)는 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)가 변환된 5x1 행렬의 벡터 데이터가 입력되는 용입 깊이를 도출하는 알고리즘을 이용하여 용입 깊이를 실시간으로 도출한다.
상기한 용입깊이 도출부(133)는 용입깊이를 제어부로 전송한다.
제어부(140)는 도출된 용입깊이와 기설정된 용입깊이를 비교한 결과에 따라 용접부(110)의 전류 및 용접속도를 제어한다.
구체적으로 제어부(140)는 용입깊이와 기설정된 용입깊이가 같을 경우, 용접부(110)가 현재 상태를 유지하도록 용접부(110)를 제어한다.
즉, 상기한 경우, 구현하고자 하는 아크용접의 비드가 잘 형성되고 있기 때문에 용접부(110)가 현재의 전류 및 용접속도를 유지하도록 용접부(110)를 제어한다.
한편, 제어부는 용입깊이와 기설정된 용입깊이가 다를 경우, 용접부(110)의 전류 및 용접속도를 제어한다.
구체적으로 제어부(140)는 용입깊이가 기설정된 용입깊이보다 클 경우, 용접부(110)를 제어하여 용접부(110)의 전류를 감소시키거나 용접부(110)의 용접속도를 증가시킨다.
상기한 경우는 모재와 용접부(110)의 끝단이 가까운 상태로서 구현하고자 하는 아크용접의 비드보다 더 크고 깊게 형성되고 있으므로 용접부(110)의 전류를 감소시키거나 용접부(110)의 용접속도를 증가시켜 모재가 덜 녹게 하여 아크용접이 이루어지도록 함으로써 기설정된 용입깊이로 아크용접이 수행될 수 있도록 한다.
한편, 제어부(140)는 용입깊이가 기설정된 용입깊이보다 작을 경우, 용접부(110)를 제어하여 용접부(110)의 전류를 증가시키거나 용접부(110)의 용접속도를 감소시킨다.
상기한 경우는 모재와 용접부(110)의 끝단이 먼 상태로서 구현하고자 하는 아크용접의 비드보다 더 작고 얕게 형성되고 있으므로 용접부(110)의 전류를 증가시키거나 용접부(110)의 용접속도를 감소시켜 모재가 더 녹게 하여 아크용접이 이루어지도록 함으로써 기설정된 용입깊이로 아크용접이 수행될 수 있도록 한다.
2. 용융풀 인식 및 용입깊이 제어 방법
이하, 도 2 내지 도 14를 참조하여 본 발명의 일 실시예에 따른 용융풀 인식 및 용입깊이 제어 방법을 설명하도록 한다.
도 14는 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 방법을 나타낸 순서도이다.
도 14를 참조하면, 본 발명의 일실시예에 따른 용융풀 인식 및 용입깊이 제어 방법은 (a) 영상촬영부(120)에서 촬영된 다수의 제1 용접영상이 사용자에 의해 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상으로 라벨링되는 단계(S100), (b) 딥러닝부(130)에 구비된 영상분할부(131)가 다수의 제1 용접영상이 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상으로 라벨링된 영상 데이터셋을 지도 학습하여 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 설정하는 단계(S200), (c) 영상촬영부(120)가 촬영된 다수의 제2 용접영상을 영상분할부(131)로 전송하는 단계(S300), (d) 영상분할부(131)가 제1 아크광 영상, 제1 용접풀 영상 및 제1 배경 영상에 대한 특징점을 기반으로 다수의 제2 용접영상에서 제2 용융풀 영상을 분리하는 단계(S400), (e) 딥러닝부(130)에 구비된 형상정보 측정부(132)가 제2 용융풀 영상을 기반으로 제2 용융풀 영상의 형상정보를 측정하는 단계, (f) 용입깊이 도출부(132)가 제2 용융풀 영상의 형상정보를 인공지능 학습하여 용입깊이를 도출하는 단계(S500) 및 (g) 제어부(140)가 용입깊이 도출부(133)로부터 전송되는 용입깊이와 기설정된 용입깊이를 비교한 결과에 따라 용접부(110)의 제어 여부를 결정하는 단계를 포함한다.
구체적으로 상기 (a) 단계는, (a1) 영상촬영부(120)가 용접부(110)의 끝단을 촬영하여 다수의 제1 용접영상을 획득하는 단계, (a2) 사용자에 의해 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상이 라벨링되는 단계 및 (a3) 영상촬영부(120)가 영상분할부(131)로 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 전송하는 단계를 포함한다.
여기서, 다수의 제1 용접영상은 제2 용융풀 영상을 인식하기 위한 기준이 되는 다수의 제1 용접영상에 대한 특징점을 설정하기 위한 빅데이터로서 다수로 구성되는 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상으로 구성되는 영상 데이터셋(dataset)이다.
또한, 상기 (a2) 단계에서, 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상은 도 3의 (b)에 도시된 바와 같이 문자로서 표현되거나 도 4의 (b)에 도시된 바와 같이 색상으로 표현될 수 있다.
다음, 상기 (b) 단계는, (b1) 영상분할부(131)가 영상촬영부(120)로부터 전송되는 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 수신하는 단계 및 (b2) 영상분할부(131)가 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 지도 학습하여 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 추출 및 설정하는 단계를 포함한다.
다음, 상기 (c) 단계는, (c1) 영상촬영부(120)가 용접부(110)의 끝단을 다시 촬영하여 다수의 제2 용접영상을 획득하는 단계, (c2) 영상촬영부(120)가 영상분할부(131)로 다수의 제2 용접영상을 전송하는 단계를 포함한다.
다음, 상기 (d) 단계는, (d1) 영상분할부(131)가 영상촬영부(120)로부터 전송되는 다수의 제2 용접영상을 수신하는 단계, (d2) 영상분할부(120)가 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 기준으로 다수의 제2 용접영상에 매칭시켜 다수의 제2 용접영상으로부터 제2 용융풀 영상을 추출 및 분리시키는 단계 및 (d3) 영상분할부(131)가 형상정보 측정부(132)로 제2 용융풀 영상을 전송하는 단계를 포함한다.
다음, 상기 (e) 단계는, (e1) 형상정보 측정부(132)가 영상분할부(131)로부터 전송되는 제2 용융풀 영상을 수신하는 단계, (e2) 형상정보 측정부(132)가 제2 용융풀 영상에 해당하는 픽셀만을 추출하는 단계, (e3) 형상정보 측정부(132)가 제2 용융풀 영상의 최외곽에 위치하는 픽셀들이 이어지는 제2 용융풀 경계선을 추출하는 단계, (e4) 형상정보 측정부(132)가 추출된 제2 용융풀 경계선을 기반으로 제2 용융풀 영상의 폭(w), 길이(l), 넓이(s) 및 폭(w) 대비 길이 비율(r)을 측정하는 단계를 포함한다.
여기서, 형상정보 측정부(132)는 영상처리 알고리즘을 적용하여 제2 용융풀 영상에 대한 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 포함하는 형상정보를 측정하고, 제2 용융풀 영상의 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 5x1 행렬의 벡터 데이터로 변환시킨다.
다음, 상기 (f) 단계는, (f1) 용입깊이 도출부(133)가 형상정보 측정부(132)로부터 전송되는 제2 용융풀 영상에 대한 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 포함하는 형상정보를 수신하는 단계, (f2) 용입깊이 도출부(132)가 제2 용융풀 영상에 대한 폭(w), 길이(l), 넓이(s) 및 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 인공지능 학습하여 제2 용융풀 영상에 대한 용입깊이를 도출하는 단계 및 (f3) 용입깊이 도출부(133)가 제어부로 용입깊이를 전송하는 단계를 포함한다.
다음, 상기 (g) 단계는, (g1) 제어부(140)가 용입깊이 도출부(133)로부터 전송되는 용입깊이를 수신하는 단계 및 (g2) 제어부(140)가 용입깊이와 기설정된 용입깊이를 비교한 결과에 따라 용접부(110)의 제어 여부를 결정하는 단계를 포함한다.
또한, 본 발명은 상기 (g2) 단계 이후, 용입깊이와 기설정된 용입깊이가 다를 경우, (h) 제어부(140)가 용접부(110)의 전류 및 용접속도를 제어하는 단계를 더 포함한다.
구체적으로 상기 (h) 단계는, 용입깊이가 기설정된 용입깊이보다 클 경우, 제어부(140)가 용접부(110)를 제어하여 용접부(110)의 전류를 감소시키거나 용접부(110)의 용접속도를 증가시키는 단계를 포함한다.
한편, 상기 (h) 단계는, 용입깊이가 기설정된 용입깊이보다 작을 경우, 제어부(140)가 용접부(110)를 제어하여 용접부(110)의 전류를 증가시키거나 용접부(110)의 용접속도를 감소시키는 단계를 더 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
Hereinafter, the present invention will be described with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and, therefore, is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
Throughout the specification, when a part is said to be "connected (connected, contacted, combined)" with another part, this is not only "directly connected", but also "indirectly connected" with another member in between. "Including cases where In addition, when a part "includes" a certain component, it means that it may further include other components without excluding other components unless otherwise stated.
Terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "include" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
1. Melt Pool Recognition and Penetration Depth Control System (100)
Hereinafter, a melt pool recognition and penetration depth control system according to an embodiment of the present invention will be described with reference to FIGS. 2 to 13.
2 is a block diagram showing a melt pool recognition and penetration depth control system according to an embodiment of the present invention.
The molten pool recognition and penetration depth control system 100 according to an embodiment of the present invention includes a welding unit 110, an image capturing unit 120, a deep learning unit 130 and a control unit 140.
The welding part 110 supplies heat generated by discharging the arc light to a junction where at least two base materials are in contact.
The welding part 110 for this may be a welding rod that transmits arc light to a junction where at least two base materials come into contact. In addition, a welding electrode holder for a user to grip is connected to the welding part 110 .
In addition, in order for the welding part 110 to operate, an electric line electrically connected to the welding rod holder, a grounding clamp electrically connected to the base material, a grounding line electrically connected to the grounding clamp, and an electric line and the grounding line are electrically connected and generate an arc light. An arc welder may be provided.
The ends of the welded part 110 arc-weld at least two base materials as they move along the joint in a state of being separated by a predetermined distance toward the joint where at least two base materials come into contact.
3 is a first welding including a first arc light image, a first molten pool image, and a first background image captured by an imaging unit provided in a molten pool recognition and penetration depth control system according to an embodiment of the present invention This is an image showing that the image has been manually labeled by the user. (a), (b), and (c) of FIG. 4 are images showing a dataset composed of a plurality of first arc light images, a first molten pool image, and a first background image labeled in FIG. .
The image capturing unit 120 photographs the end of the welding portion 110, and as shown in FIGS. 3 (a) and 4 (b), the first arc light image, the first molten pool image formed at the junction, and A plurality of first welding images including a background image located around the first molten pool image are acquired in real time.
Here, the plurality of first welding images are big data for setting feature points that are criteria for recognizing the second molten pool image, and are composed of a plurality of first arc light images, first molten pool images, and first background images. It is an image dataset that is constructed.
The obtained plurality of first welding images are manually labeled by the user as shown in (b) of FIG. 3 .
Specifically, as shown in FIGS. 3(b) and 4(a), the labeling marks the first arc light image as arc light, displays the first melt pool as a melt pool, and displays the first arc light image as a melt pool. By marking it as a background, it indicates what the image is about.
Here, the first arc light image, the first molten pool image, and the first background image are images for the deep learning unit 130 to derive and select feature points for the arc light, the molten pool, and the background through supervised learning. These are the plurality of first welding images first photographed by the photographing unit 120 .
The first welding image includes a first arc light image, a first molten pool image, and a first background image, as shown in (c) of FIG. 4, and is composed of a plurality of data sets.
On the other hand, the second arc light image, the second molten pool image, and the second background image to be described later are images to be recognized as molten pools in the present invention, and are captured by the image capture unit 110 and used by the deep learning unit 130. It is an image that is matched with feature points for the arc light, molten pool, and background.
The above image capture unit 120 transmits the labeled first arc light image, the first molten pool image, and the first background image to the image segmentation unit 131 provided in the deep learning unit 130, and then additionally second An arc light image, a second molten pool image, and a second background image are acquired and transmitted to the image segmentation unit 130 .
The deep learning unit 130 performs supervised learning on the first arc light image, the first molten pool image, and the first background image manually labeled by the user to obtain the first arc light image, the first molten pool image, and Extracting and setting feature points for the first background image, extracting second molten pool images from a plurality of second welding images additionally obtained from the imaging unit 120 based on the feature points for the first molten pool image, and 2 Image processing of the molten pool image measures the shape information of the second molten pool image, and artificial intelligence learns the measured shape information to derive the penetration depth.
The deep learning unit 130 for this includes an image segmentation unit 131, a shape information measurement unit 132, and a penetration depth derivation unit 133.
5 is a conceptual diagram illustrating a convolutional neural network (CNN) algorithm based on a VGG 16 net applied to an image segmentation unit provided in a melt pool recognition and penetration depth control system according to an embodiment of the present invention. 6 (a), (b), and (c) show a process of supervising and learning a plurality of first welding images by an image segmentation unit provided in a molten pool recognition and penetration depth control system according to an embodiment of the present invention. It is an image. 7 to 10 are diagrams showing results for each condition in the supervised learning process of the image segmentation unit provided in the molten pool recognition and penetration depth control system according to an embodiment of the present invention.
The image segmentation unit 131 supervises and learns the labeled first arc light image, the first molten pool image, and the first background image, and performs feature points on the labeled first arc light image, the first molten pool image, and the first background image. Extract and set.
Specifically, as shown in FIG. 5, the image segmentation unit 131 applies a VGG 16 net-based Convolutional Neural Network (CNN) algorithm as an image segmentation technique, and since the CNN algorithm corresponds to a known technology, specific The description is omitted.
Illustratively, as shown in (a), (b), and (c) of FIG. 6 , first welding images according to various welding conditions may be supervised and learned in the image segmentation unit 131 .
As for the learning variables used in supervised learning, as shown in (a), (b), and (c) of FIG. 6, there are a total of three variables that are controlled in learning: learning rate, batch size, and epoch.
Specifically, FIG. 6 (a) shows the first welding image when learning rate = 0.001, batch size = 30, and epoch = 300, and FIG. 6 (b) shows learning rate = 0.001, The first welding image when batch size = 50 and epoch = 500 is shown, and FIG. 6 (c) shows the first welding image when learning rate = 0.001, batch size = 50, and epoch = 1000. .
The learning rate is a variable for determining the next point through multiplication with a scalar, and is used in the gradient descent algorithm.
In addition, the learning rate must be appropriately set so that it is neither too large nor too small to efficiently reach the local minimum.
If the learning rate is large, the data deviate randomly and cannot converge to the lowest point.
On the other hand, when the learning rate is small, the learning time takes a very long time and the lowest point is not reached.
Such a learning rate allows supervised learning to proceed faster or slower depending on the change.
Next, the batch size indicates the size of data, and in FIG. 4(c), the batch size is 16 (= the number of data).
Epoch is a dataset that learns multiple batch sizes at once, and if the batch size is 16 in FIG. 4 (c), the epoch is 1.
In addition, in (c) of FIG. 4, if the batch size is 4 (including only horizontal columns among 16), the epoch is 4.
Accordingly, the results of learning while changing only one variable among the above three variables (learning rate, batch size, and epoch) are shown in FIGS. 7 to 10 .
7 and 8 show the results of learning by changing the learning rate and epoch to 0.001 and 300 and changing the batch size to 20 and 30, respectively.
9 and 10 show the result of learning by changing the learning rate and batch size to 0.001 and 50, and changing only the epoch to 500 and 1000, respectively.
As a result of supervised learning while changing the three variables for supervised learning as described above, learning rate = 0.001, batch size = 50, epoch = 1000 as shown in FIG. It was derived that it is the optimal variable for doing and recognizing.
The criteria for deriving the optimal parameters are the clearness of the boundary of the extracted molten pool image and the increase in epoch (according to the increase in epoch, the accuracy of the algorithm recognizing the molten pool image generally increases).
However, if the epoch is unconditionally increased, the time required for learning increases, and learning is performed in a form suitable only for the learning data, so the actual arc welding result and the result of the learning data are different. there is.
Accordingly, the above cases were comprehensively considered and learning rate = 0.001, batch size = 50, and epoch = 1000 were derived as optimal variables.
Next, when a plurality of second welding images are additionally transmitted from the image capture unit 120 after extracting and setting feature points for the first arc light image, the first molten pool image, and the first background image, the image segmentation unit 131 Extracts and separates the second molten pool image from the plurality of second welding images by matching the plurality of second welding images transmitted from the image capturing unit 120 based on the feature points of the first molten pool image.
Characteristic points of the first molten pool image for this purpose may include unique brightness, chroma, color, and shape patterns of the first molten pool image different from the first arc light image and the first background image, but are not limited thereto. .
The image segmentation unit 131 transmits the separated second molten pool image to the shape information measuring unit 132 .
11 is a view showing a process of extracting shape information for a first molten pool image using an image processing algorithm in a shape information measurement unit provided in a melt pool recognition and penetration depth control system according to an embodiment of the present invention. . 12 is a diagram showing shape information obtained from a shape information measurement unit provided in a molten pool recognition and penetration depth control system according to an embodiment of the present invention and a penetration depth obtained from a penetration depth derivation unit.
The shape information measuring unit 132 processes the second molten pool image transmitted from the image dividing unit 131 to measure the shape information of the second molten pool image.
Specifically, as shown in FIG. 11, the shape information measurement unit 132 extracts only the pixels corresponding to the second melt pool image (applying the convex hull image processing algorithm), and then the pixels located at the outermost part of the second melt pool image Extracts the second molten pool boundary followed by the second molten pool boundary, and based on the extracted second molten pool boundary, the width (w), length (l), width (s), and width (w) to length ratio of the second molten pool image ( r) is measured.
That is, the above-described shape information measurement unit 132 applies an image processing algorithm to determine the width (w), length (l), width (s), and width (w) of the second molten pool image as shown in FIG. ) Measure the shape information including the length ratio (r) and the thickness (t) of the base material, and the width (w), length (l), width (s), width (w) of the second molten pool image The ratio (r) and the thickness (t) of the base material are converted into vector data of a 5x1 matrix. Here, the thickness (t) of the base material is information known in advance.
In summary, the image segmentation unit 131 recognizes the molten pool shape extracted through the first deep learning algorithm, and the shape information measuring unit 132 determines the outermost boundary line surrounding the molten pool shape through the convex hull image processing algorithm. Through this, the length, width, area, and width-to-length ratio (rate) of the molten pool shape are measured.
At this time, the measured melt pool shape data is combined with the thickness (t) information of the base material and converted into feature vector data, and the converted feature vector data represents the melt pool shape currently captured in the melt pool monitoring.
The shape information measuring unit 132 transmits the feature vector data obtained by converting the shape information to the penetration depth deriving unit 133 .
13 is a diagram illustrating a process of deriving a penetration depth from a first melt pool image extracted from a system and method for recognizing a melt pool and controlling penetration depth according to an embodiment of the present invention.
Referring to FIG. 13, the penetration depth derivation unit 133 derives the penetration depth p of the second melt pool image by artificial intelligence learning of the feature vector data of the 5x1 matrix transmitted from the shape information measurement unit 132.
In summary, the secondary learning performed in the penetration depth derivation unit 133 is performed in conjunction with the penetration depth at the location where the current melt pool is captured, and inputs the feature vector data for the melt pool to the deep learning model to derive the penetration depth It is made by an algorithm that
Thereafter, the penetration depth derivation unit 133 converts the width (w), length (l), area (s), width (w) to length ratio (r), and the thickness (t) of the base material into vector data of a 5x1 matrix. The penetration depth is derived in real time by using an algorithm that derives the penetration depth inputted.
The penetration depth deriving unit 133 transmits the penetration depth to the control unit.
The control unit 140 controls the current and welding speed of the welding part 110 according to the result of comparing the derived penetration depth with the preset penetration depth.
Specifically, the control unit 140 controls the welded portion 110 so that the welded portion 110 maintains its current state when the penetration depth is the same as the preset penetration depth.
That is, in the above case, since the bead of the arc welding to be implemented is well formed, the welding part 110 is controlled to maintain the current current and welding speed.
On the other hand, the control unit controls the current and welding speed of the welding part 110 when the penetration depth is different from the preset penetration depth.
Specifically, when the penetration depth is greater than the predetermined penetration depth, the control unit 140 controls the welding portion 110 to reduce the current of the welding portion 110 or increase the welding speed of the welding portion 110 .
In the above case, since the base material and the end of the welded portion 110 are close to each other and are formed larger and deeper than the bead of arc welding to be realized, the current of the welded portion 110 is reduced or the welding speed of the welded portion 110 is increased. Arc welding can be performed with a predetermined penetration depth by making the base material melt less and arc welding is performed.
Meanwhile, when the penetration depth is smaller than the predetermined penetration depth, the control unit 140 controls the welding portion 110 to increase the current of the welding portion 110 or decrease the welding speed of the welding portion 110 .
In the above case, since the base material and the end of the welded part 110 are farther apart and formed smaller and shallower than the bead of arc welding to be realized, the current of the welded part 110 is increased or the welding speed of the welded part 110 is reduced. Arc welding can be performed at a preset depth of penetration by allowing the base material to melt more so that arc welding is performed.
2. Melt Pool Recognition and Penetration Depth Control Method
Hereinafter, a method for recognizing a molten pool and controlling a penetration depth according to an embodiment of the present invention will be described with reference to FIGS. 2 to 14 .
14 is a flowchart illustrating a method for recognizing a molten pool and controlling a penetration depth according to an embodiment of the present invention.
Referring to FIG. 14, in the method for recognizing the molten pool and controlling the penetration depth according to an embodiment of the present invention, (a) a plurality of first welding images taken by the imaging unit 120 are first arc light images by a user. , Step of labeling the first molten pool image and the first background image (S100), (b) the image segmentation unit 131 provided in the deep learning unit 130 displays a plurality of first welding images as a first arc light image , Setting feature points for the first arc light image, the first molten pool image, and the first background image by supervising the image dataset labeled with the first molten pool image and the first background image (S200), (c ) Transmitting a plurality of second welding images captured by the image capture unit 120 to the image segmentation unit 131 (S300), (d) the image segmentation unit 131 transmits the first arc light image, the first welding image Separating a second molten pool image from a plurality of second welding images based on feature points of the pool image and the first background image (S400), (e) a shape information measuring unit provided in the deep learning unit 130 ( 132) measuring the shape information of the second molten pool image based on the second molten pool image, (f) the penetration depth derivation unit 132 learns the shape information of the second molten pool image by artificial intelligence to determine the penetration depth Step of deriving (S500) and (g) the control unit 140 determining whether to control the welding part 110 according to the result of comparing the penetration depth transmitted from the penetration depth derivation unit 133 with the preset penetration depth includes
Specifically, the step (a) includes: (a1) acquiring a plurality of first welding images by photographing the tip of the welding portion 110 by the image capture unit 120; (a2) a first arc light image by a user; , The step of labeling the first molten pool image and the first background image, and (a3) the first arc light image, the first molten pool image, and the first background labeled by the image capturing unit 120 with the image dividing unit 131 It includes transmitting the image.
Here, the plurality of first welding images are big data for setting feature points for the plurality of first welding images, which are references for recognizing the second molten pool image. It is an image dataset composed of a full image and a first background image.
In addition, in the step (a2), the labeled first arc light image, first molten pool image, and first background image are expressed as characters as shown in (b) of FIG. 3 or shown in (b) of FIG. 4 As shown, it may be expressed in color.
Next, in the step (b), (b1) the image division unit 131 receiving the labeled first arc light image, the first molten pool image, and the first background image transmitted from the image capturing unit 120 and (b2) the image division unit 131 supervises and learns the labeled first arc light image, the first molten pool image, and the first background image, and the labeled first arc light image, the first molten pool image, and the first background image. and extracting and setting feature points for the image.
Next, in the step (c), (c1) the image capturing unit 120 re-photographs the end of the welding portion 110 to obtain a plurality of second welding images, (c2) the image capturing unit 120 and transmitting a plurality of second welding images to the image segmentation unit 131.
Next, in the step (d), (d1) the image segmentation unit 131 receives a plurality of second welding images transmitted from the image capture unit 120, (d2) the image segmentation unit 120 labels Extracting and separating the second molten pool image from the plurality of second welding images by matching with a plurality of second welding images based on the feature points of the first arc light image, the first molten pool image, and the first background image. and (d3) transmitting, by the image segmentation unit 131, the second molten pool image to the shape information measuring unit 132.
Next, in the step (e), (e1) the shape information measuring unit 132 receives the second molten pool image transmitted from the image dividing unit 131, (e2) the shape information measuring unit 132 Extracting only pixels corresponding to the second molten pool image, (e3) extracting, by the shape information measurement unit 132, the second molten pool boundary line connecting the outermost pixels of the second molten pool image, ( e4) Width (w), length (l), width (s), and width (w) to length ratio (r) of the second molten pool image based on the second molten pool boundary line extracted by the shape information measurement unit 132 ) and measuring the
Here, the shape information measurement unit 132 applies an image processing algorithm to determine the width (w), length (l), width (s), width (w) to length ratio (r) of the second molten pool image, and base material Measure the shape information including the thickness (t) of, and the width (w), length (l), width (s), width (w) to length ratio (r) of the second molten pool image, and the thickness of the base material ( t) into vector data of a 5x1 matrix.
Next, in the step (f), (f1) the penetration depth deriving unit 133 determines the width (w), length (l), and width (s) of the second molten pool image transmitted from the shape information measurement unit 132. ), receiving shape information including the length ratio (r) to the width (w) and the thickness (t) of the base material, (f2) the penetration depth deriving unit 132 determines the width (w) of the second melt pool image ), length (l), width (s) and width (w) to length ratio (r), and artificial intelligence learning of the thickness (t) of the base material to derive the penetration depth for the second melt pool image, and (f3 ) The penetration depth deriving unit 133 transmits the penetration depth to the control unit.
Next, in the step (g), (g1) the control unit 140 receives the penetration depth transmitted from the penetration depth deriving unit 133, and (g2) the control unit 140 calculates the penetration depth and the preset penetration depth. and determining whether to control the welding part 110 according to the comparison result.
In addition, the present invention further includes, after the step (g2), when the penetration depth and the preset penetration depth are different, (h) the control unit 140 controls the current and welding speed of the welding portion 110.
Specifically, in step (h), when the penetration depth is greater than the preset penetration depth, the control unit 140 controls the welding portion 110 to reduce the current of the welding portion 110 or increase the welding speed of the welding portion 110. Include an increase in
Meanwhile, in step (h), when the penetration depth is smaller than the predetermined penetration depth, the control unit 140 controls the welding portion 110 to increase the current of the welding portion 110 or increase the welding speed of the welding portion 110. A step of reducing is further included.
The above description of the present invention is for illustrative purposes, and those skilled in the art can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.
The scope of the present invention is indicated by the following claims, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof should be construed as being included in the scope of the present invention.

Claims (20)

아크광을 방전시켜 발생한 열을 적어도 2개의 모재가 접하는 접합부로 공급하는 용접부;
상기 용접부의 끝단을 촬영하여 제1 아크광 영상, 상기 접합부에 형성되는 제1 용융풀 영상 및 상기 제1 용융풀 영상의 주변에 위치하는 배경 영상을 포함하는 다수의 제1 용접영상을 실시간으로 획득하는 영상촬영부;
사용자에 의해 수동으로 라벨링된 상기 제1 아크광 영상, 상기 제1 용융풀 영상 및 상기 제1 배경 영상을 지도 학습하여 상기 제1 아크광 영상, 상기 제1 용융풀 영상 및 상기 제1 배경 영상에 대한 특징점을 설정하고 상기 제1 아크광 영상, 상기 제1 용융풀 영상 및 상기 제1 배경 영상에 대한 특징점을 기반으로 상기 영상촬영부로부터 추가로 획득되는 다수의 제2 용접영상로부터 제2 용융풀 영상을 추출하며 상기 제2 용융풀 영상을 영상처리하여 제2 용융풀 영상에 대한 형상정보를 측정하고 측정된 형상정보를 인공지능 학습하여 용입깊이를 도출하는 딥러닝부; 및
상기 도출된 용입깊이와 기설정된 용입깊이를 비교한 결과에 따라 상기 용접부의 전류 및 용접속도를 제어하는 제어부;를 포함하는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 시스템.
a welding part supplying heat generated by discharging the arc light to a junction where at least two base materials are in contact;
A plurality of first welding images including a first arc light image, a first molten pool image formed at the junction, and a background image located around the first molten pool image are obtained in real time by photographing the tip of the welding portion. a video recording unit;
The first arc light image, the first molten pool image, and the first background image manually labeled by the user are supervised and learned to obtain the first arc light image, the first molten pool image, and the first background image. Set feature points for the first arc light image, the first molten pool image, and the second molten pool from a plurality of second welding images additionally obtained from the imaging unit based on the feature points for the first background image. a deep learning unit that extracts an image, processes the second molten pool image, measures shape information of the second molten pool image, and derives a penetration depth by artificial intelligence learning of the measured shape information; and
Melting pool recognition and penetration depth control system comprising a; control unit for controlling the current and welding speed of the welding part according to the result of comparing the derived penetration depth and the preset penetration depth.
제1 항에 있어서,
상기 다수의 제1 용접영상은 상기 제2 용융풀 영상을 인식하기 위한 기준이 되는 상기 특징점을 설정하기 위한 빅데이터로서 다수로 구성되는 상기 제1 아크광 영상, 상기 제1 용융풀 영상 및 상기 제1 배경 영상으로 구성되는 영상 데이터셋(dataset)이고,
상기 딥러닝부는, 상기 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 지도 학습하여 상기 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 설정하는 설정하는 영상분할부;를 포함하고,
상기 영상분할부는 상기 제1 용융풀 영상에 대한 특징점을 기준으로 상기 영상촬영부로부터 전송되는 상기 다수의 제2 용접영상에 매칭시켜 상기 다수의 제2 용접영상으로부터 상기 제2 용융풀 영상을 분리시키는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 시스템.
According to claim 1,
The plurality of first welding images are big data for setting the feature point, which is a criterion for recognizing the second molten pool image, and consists of a plurality of first arc light images, the first molten pool image, and the first molten pool image. 1 is an image dataset consisting of a background image,
The deep learning unit performs supervised learning on the labeled first arc light image, the first molten pool image, and the first background image, and performs feature points on the labeled first arc light image, the first molten pool image, and the first background image. Including; an image segmentation unit that sets a setting;
The image segmentation unit matches the plurality of second welding images transmitted from the image capturing unit based on feature points of the first molten pool image to separate the second molten pool image from the plurality of second welding images Melting pool recognition and penetration depth control system, characterized in that.
제2 항에 있어서,
상기 영상분할부는 영상 분할 기법으로 VGG 16 넷(net) 기반의 CNN(Convolutional Neural Network) 알고리즘이 적용되고,
상기 제1 용융풀 영상에 대한 특징점은 상기 제1 아크광 영상 및 상기 제1 배경 영상과 다른 고유의 명도, 채도, 색상, 제1 용융풀 영상의 형상 패턴을 포함하는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 시스템.
According to claim 2,
The image segmentation unit applies a VGG 16 net-based Convolutional Neural Network (CNN) algorithm as an image segmentation technique,
Characteristic points of the first molten pool image include unique brightness, chroma, color, and shape patterns of the first molten pool image different from the first arc light image and the first background image. and penetration depth control system.
제2 항에 있어서,
상기 딥러닝부는, 상기 영상분할부로부터 전송되는 상기 제2 용융풀 영상을 영상처리하여 상기 제2 용융풀 영상에 대한 형상정보를 측정하는 형상정보 측정부;를 더 포함하고,
상기 형상정보 측정부는 상기 제2 용융풀 영상에 해당하는 픽셀만을 추출한 후 상기 제2 용융풀 영상의 최외곽에 위치하는 픽셀들이 이어지는 제2 용융풀 경계선을 추출하고 상기 추출된 제2 용융풀 경계선을 기반으로 상기 제2 용융풀 영상의 폭(w), 길이(l), 넓이(s) 및 상기 폭(w) 대비 길이 비율(r)을 측정하는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 시스템.
According to claim 2,
The deep learning unit further includes a shape information measuring unit configured to measure shape information of the second molten pool image by image processing the second molten pool image transmitted from the image segmentation unit,
The shape information measurement unit extracts only pixels corresponding to the second molten pool image, extracts a second molten pool boundary line where pixels positioned at the outermost part of the second molten pool image are connected, and determines the extracted second molten pool boundary line. Melt pool recognition and penetration depth control system, characterized in that for measuring the width (w), length (l), width (s) and the width (w) to length ratio (r) of the second melt pool image based on .
제4 항에 있어서,
상기 형상정보 측정부는 영상처리 알고리즘을 적용하여 상기 제2 용융풀 영상에 대한 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 포함하는 형상정보를 측정하고, 상기 제2 용융풀 영상의 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 상기 모재의 두께(t)를 5x1 행렬의 특징 벡터 데이터로 변환시키는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 시스템.
According to claim 4,
The shape information measurement unit applies an image processing algorithm to the width (w), length (l), width (s), width (w) to length ratio (r) and thickness (t) of the base material for the second molten pool image. ), and the width (w), length (l), width (s), width (w) to length ratio (r) of the second molten pool image and the thickness (t) of the base material Melting pool recognition and penetration depth control system, characterized in that for converting to feature vector data of a 5x1 matrix.
제4 항에 있어서,
상기 딥러닝부는 상기 형상정보 측정부로부터 전송되는 상기 5x1 행렬의 특징 벡터 데이터를 인공지능 학습하여 상기 제2 용융풀 영상의 용입깊이(p)를 도출하는 용입깊이 도출부;를 더 포함하는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 시스템.
According to claim 4,
The deep learning unit further includes a penetration depth derivation unit for deriving a penetration depth (p) of the second molten pool image by artificial intelligence learning of the feature vector data of the 5x1 matrix transmitted from the shape information measurement unit. molten pool recognition and penetration depth control system.
제6 항에 있어서,
상기 용입깊이 도출부는 상기 용입깊이를 상기 제어부로 전송하고,
상기 제어부는 상기 용입깊이와 기설정된 용입깊이가 같을 경우, 상기 용접부가 현재 상태를 유지하도록 용접부를 제어하는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 시스템.
According to claim 6,
The penetration depth derivation unit transmits the penetration depth to the control unit,
When the penetration depth and the preset penetration depth are equal to the control unit, the molten pool recognition and penetration depth control system, characterized in that for controlling the welding portion to maintain the current state.
제6 항에 있어서,
상기 용입깊이 도출부는 상기 용입깊이를 상기 제어부로 전송하고,
상기 제어부는 상기 용입깊이와 기설정된 용입깊이가 다를 경우, 상기 용접부의 전류 및 용접속도를 제어하는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 시스템.
According to claim 6,
The penetration depth derivation unit transmits the penetration depth to the control unit,
The control unit is a molten pool recognition and penetration depth control system, characterized in that for controlling the current and welding speed of the welding part when the penetration depth and the preset penetration depth are different.
제8 항에 있어서,
상기 제어부는 상기 용입깊이가 상기 기설정된 용입깊이보다 클 경우, 상기 용접부를 제어하여 상기 용접부의 전류를 감소시키거나 상기 용접부의 용접속도를 증가시키는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 시스템.
According to claim 8,
When the penetration depth is greater than the predetermined penetration depth, the control unit controls the weld pool to reduce the current of the weld portion or increase the welding speed of the weld pool recognition and penetration depth control system.
제8 항에 있어서,
상기 제어부는 상기 용입깊이가 상기 기설정된 용입깊이보다 작을 경우, 상기 용접부를 제어하여 상기 용접부의 전류를 증가시키거나 상기 용접부의 용접속도를 감소시키는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 시스템.
According to claim 8,
When the penetration depth is smaller than the preset penetration depth, the control unit controls the welding portion to increase the current of the welding portion or reduce the welding speed of the welding portion. Melting pool recognition and penetration depth control system.
(a) 영상촬영부에서 촬영된 다수의 제1 용접영상이 사용자에 의해 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상으로 라벨링되는 단계;
(b) 딥러닝부에 구비된 영상분할부가 상기 다수의 제1 용접영상이 상기 제1 아크광 영상, 상기 제1 용융풀 영상 및 상기 제1 배경 영상으로 라벨링된 영상 데이터셋을 지도 학습하여 상기 제1 아크광 영상, 상기 제1 용융풀 영상 및 상기 제1 배경 영상에 대한 특징점을 설정하는 단계;
(c) 상기 영상촬영부가 촬영된 다수의 제2 용접영상을 상기 영상분할부로 전송하는 단계;
(d) 상기 영상분할부가 상기 제1 아크광 영상, 상기 제1 용접풀 영상 및 상기 제1 배경 영상에 대한 특징점을 기반으로 상기 다수의 제2 용접영상에서 제2 용융풀 영상을 분리하는 단계;
(e) 딥러닝부에 구비된 형상정보 측정부가 상기 제2 용융풀 영상을 기반으로 상기 제2 용융풀 영상의 형상정보를 측정하는 단계;
(f) 상기 용입깊이 도출부가 상기 제2 용융풀 영상의 형상정보를 인공지능 학습하여 용입깊이를 도출하는 단계; 및
(g) 제어부가 상기 용입깊이 도출부로부터 전송되는 상기 용입깊이와 기설정된 용입깊이를 비교한 결과에 따라 상기 용접부의 제어 여부를 결정하는 단계;를 포함하는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 방법.
(a) labeling a plurality of first welding images taken by an imaging unit as a first arc light image, a first molten pool image, and a first background image by a user;
(b) an image segmentation unit provided in the deep learning unit supervises and learns an image dataset in which the plurality of first welding images are labeled as the first arc light image, the first molten pool image, and the first background image; Setting feature points for the first arc light image, the first molten pool image, and the first background image;
(c) transmitting a plurality of second welding images captured by the image capture unit to the image segmentation unit;
(d) separating a second molten pool image from the plurality of second welding images based on feature points of the first arc light image, the first welding pool image, and the first background image by the image division unit;
(e) measuring shape information of the second molten pool image based on the second molten pool image by a shape information measuring unit provided in the deep learning unit;
(f) deriving a penetration depth by artificial intelligence learning of the shape information of the second molten pool image by the penetration depth derivation unit; and
(g) determining whether or not to control the welding part according to a result of the control unit comparing the penetration depth transmitted from the penetration depth derivation unit and the preset penetration depth; molten pool recognition and penetration depth, characterized in that it comprises control method.
제11 항에 있어서,
상기 (a) 단계는,
(a1) 상기 영상촬영부가 상기 용접부의 끝단을 촬영하여 상기 다수의 제1 용접영상을 획득하는 단계;
(a2) 상기 사용자에 의해 상기 제1 아크광 영상, 상기 제1 용융풀 영상 및 상기 제1 배경 영상이 라벨링되는 단계; 및
(a3) 상기 영상촬영부가 상기 영상분할부로 상기 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 전송하는 단계;를 포함하는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 방법.
According to claim 11,
In step (a),
(a1) acquiring the plurality of first welding images by photographing an end of the welding portion by the image capture unit;
(a2) labeling the first arc light image, the first molten pool image, and the first background image by the user; and
(a3) transmitting the labeled first arc light image, the first molten pool image, and the first background image to the image dividing unit by the image capture unit; melting pool recognition and penetration depth control comprising Way.
제12 항에 있어서,
상기 다수의 제1 용접영상은 상기 제2 용융풀 영상을 인식하기 위한 기준이 되는 상기 특징점을 설정하기 위한 빅데이터로서 다수로 구성되는 상기 제1 아크광 영상, 상기 제1 용융풀 영상 및 상기 제1 배경 영상으로 구성되는 영상 데이터셋(dataset)이고,
상기 (b) 단계는,
(b1) 상기 영상분할부가 상기 영상촬영부로부터 전송되는 상기 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 수신하는 단계; 및
(b2) 상기 영상분할부가 상기 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상을 지도 학습하여 상기 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 설정하는 단계;를 포함하는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 방법.
According to claim 12,
The plurality of first welding images are big data for setting the feature point, which is a criterion for recognizing the second molten pool image, and consists of a plurality of first arc light images, the first molten pool image, and the first molten pool image. 1 is an image dataset consisting of a background image,
In step (b),
(b1) receiving the labeled first arc light image, the first molten pool image, and the first background image transmitted from the image capture unit by the image segmentation unit; and
(b2) The image division unit supervises and learns the labeled first arc light image, the first molten pool image, and the first background image to obtain the labeled first arc light image, the first molten pool image, and the first background image. Setting a feature point for; molten pool recognition and penetration depth control method comprising the.
제11 항에 있어서,
상기 (c) 단계는,
(c1) 상기 영상촬영부가 상기 용접부의 끝단을 다시 촬영하여 상기 다수의 제2 용접영상을 획득하는 단계;
(c2) 상기 영상촬영부가 상기 영상분할부로 상기 다수의 제2 용접영상을 전송하는 단계;를 포함하는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 방법.
According to claim 11,
In step (c),
(c1) acquiring the plurality of second welding images by photographing the end of the welding part again by the image capture unit;
(c2) transmitting the plurality of second welding images to the image dividing unit by the image capture unit; molten pool recognition and penetration depth control method comprising the.
제14 항에 있어서,
상기 (d) 단계는,
(d1) 상기 영상분할부가 상기 영상촬영부로부터 전송되는 상기 다수의 제2 용접영상을 수신하는 단계;
(d2) 상기 영상분할부가 상기 라벨링된 제1 아크광 영상, 제1 용융풀 영상 및 제1 배경 영상에 대한 특징점을 기준으로 상기 다수의 제2 용접영상에 매칭시켜 상기 다수의 제2 용접영상으로부터 상기 제2 용융풀 영상을 분리시키는 단계; 및
(d3) 상기 영상분할부가 상기 형상정보 측정부로 상기 제2 용융풀 영상을 전송하는 단계;를 포함하는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 방법.
According to claim 14,
In step (d),
(d1) receiving, by the image division unit, the plurality of second welding images transmitted from the image capturing unit;
(d2) The image segmentation unit matches the plurality of second welding images based on the feature points of the labeled first arc light image, first molten pool image, and first background image to obtain information from the plurality of second welding images. Separating the second molten pool image; and
(d3) transmitting the second molten pool image by the image segmentation unit to the shape information measurement unit; molten pool recognition and penetration depth control method comprising the.
제11 항에 있어서,
상기 (e) 단계는,
(e1) 상기 형상정보 측정부가 상기 영상분할부로부터 전송되는 상기 제2 용융풀 영상을 수신하는 단계;
(e2) 상기 형상정보 측정부가 상기 제2 용융풀 영상에 해당하는 픽셀만을 추출하는 단계;
(e3) 상기 형상정보 측정부가 상기 제2 용융풀 영상의 최외곽에 위치하는 픽셀들이 이어지는 제2 용융풀 경계선을 추출하는 단계;
(e4) 상기 형상정보 측정부가 상기 추출된 제2 용융풀 경계선을 기반으로 상기 제2 용융풀 영상의 폭(w), 길이(l), 넓이(s) 및 상기 폭(w) 대비 길이 비율(r)을 측정하는 단계;를 포함하고,
상기 형상정보 측정부는 영상처리 알고리즘을 적용하여 상기 제2 용융풀 영상에 대한 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 포함하는 형상정보를 측정하고, 상기 제2 용융풀 영상의 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 상기 모재의 두께(t)를 5x1 행렬의 특징 벡터 데이터로 변환시키는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 방법.
According to claim 11,
In step (e),
(e1) receiving the second molten pool image transmitted from the image dividing unit by the shape information measuring unit;
(e2) extracting only pixels corresponding to the second molten pool image by the shape information measuring unit;
(e3) extracting a second molten pool boundary where the outermost pixels of the second molten pool image are connected by the shape information measuring unit;
(e4) The width (w), length (l), width (s) of the second molten pool image based on the extracted second molten pool boundary line by the shape information measuring unit, and the width (w) to length ratio ( Including; measuring r);
The shape information measurement unit applies an image processing algorithm to the width (w), length (l), width (s), width (w) to length ratio (r) and thickness (t) of the base material for the second molten pool image. ), and the width (w), length (l), width (s), width (w) to length ratio (r) of the second molten pool image and the thickness (t) of the base material Melting pool recognition and penetration depth control method, characterized in that for converting to feature vector data of a 5x1 matrix.
제16 항에 있어서,
상기 (f) 단계는,
(f1) 상기 용입깊이 도출부가 상기 형상정보 측정부로부터 전송되는 상기 제2 용융풀 영상에 대한 폭(w), 길이(l), 넓이(s), 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 포함하는 형상정보를 수신하는 단계;
(f2) 상기 용입깊이 도출부가 상기 제2 용융풀 영상에 대한 폭(w), 길이(l), 넓이(s) 및 폭(w) 대비 길이 비율(r) 및 모재의 두께(t)를 인공지능 학습하여 상기 제2 용융풀 영상에 대한 상기 용입깊이를 도출하는 단계; 및
(f3) 상기 용입깊이 도출부가 상기 제어부로 상기 용입깊이를 전송하는 단계;를 포함하는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 시스템.
According to claim 16,
In step (f),
(f1) Width (w), length (l), width (s), width (w) to length ratio (r) of the second molten pool image transmitted from the shape information measurement unit by the penetration depth derivation unit, and Receiving shape information including the thickness (t) of the base material;
(f2) The penetration depth derivation unit artificially calculates the width (w), length (l), width (s), width (w) to length ratio (r) and thickness (t) of the base material for the second molten pool image. Deriving the penetration depth for the second molten pool image by intelligent learning; and
(f3) transmitting the penetration depth to the control unit by the penetration depth deriving unit; melt pool recognition and penetration depth control system comprising a.
제11 항에 있어서,
상기 (g) 단계는,
(g1) 상기 제어부가 상기 용입깊이 도출부로부터 전송되는 상기 용입깊이를 수신하는 단계; 및
(g2) 상기 제어부가 상기 용입깊이와 기설정된 용입깊이를 비교한 결과에 따라 상기 용접부의 제어 여부를 결정하는 단계;를 포함하는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 방법.
According to claim 11,
In step (g),
(g1) receiving, by the control unit, the penetration depth transmitted from the penetration depth deriving unit; and
(g2) determining, by the control unit, whether or not to control the welding part according to a result of comparing the penetration depth and the preset penetration depth; molten pool recognition and penetration depth control method comprising the.
제18 항에 있어서,
상기 (g2) 단계 이후,
(h) 상기 제어부가 상기 용접부의 전류 및 용접속도를 제어하는 단계;를 더 포함하고,
상기 (h) 단계는,
상기 용입깊이가 상기 기설정된 용입깊이보다 클 경우, 상기 제어부가 상기 용접부를 제어하여 상기 용접부의 전류를 감소시키거나 상기 용접부의 용접속도를 증가시키는 단계를 포함하는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 방법.
According to claim 18,
After the step (g2),
(H) the control unit controlling the current and welding speed of the welding part; further comprising,
In step (h),
When the penetration depth is greater than the predetermined penetration depth, the control unit controls the welding portion to reduce the current of the welding portion or increase the welding speed of the welding portion. Depth control method.
제19 항에 있어서,
상기 (h) 단계는,
상기 용입깊이가 상기 기설정된 용입깊이보다 작을 경우, 상기 제어부가 상기 용접부를 제어하여 상기 용접부의 전류를 증가시키거나 상기 용접부의 용접속도를 감소시키는 단계를 더 포함하는 것을 특징으로 하는 용융풀 인식 및 용입깊이 제어 방법.
According to claim 19,
In step (h),
When the penetration depth is smaller than the predetermined penetration depth, the control unit controls the welding portion to increase the current of the welding portion or decrease the welding speed of the welding portion. Melting pool recognition and Penetration depth control method.
KR1020210085727A 2021-06-30 2021-06-30 A control system and method for melten pool recognition and penetration depth KR102494301B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210085727A KR102494301B1 (en) 2021-06-30 2021-06-30 A control system and method for melten pool recognition and penetration depth

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210085727A KR102494301B1 (en) 2021-06-30 2021-06-30 A control system and method for melten pool recognition and penetration depth

Publications (2)

Publication Number Publication Date
KR20230003997A true KR20230003997A (en) 2023-01-06
KR102494301B1 KR102494301B1 (en) 2023-02-06

Family

ID=84924153

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210085727A KR102494301B1 (en) 2021-06-30 2021-06-30 A control system and method for melten pool recognition and penetration depth

Country Status (1)

Country Link
KR (1) KR102494301B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116871632A (en) * 2023-09-08 2023-10-13 南京理工大学 Robot backing welding forming defect monitoring method based on arc voltage and molten pool vision

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102155053B1 (en) * 2019-05-30 2020-09-11 한국생산기술연구원 Weld penetration control device
KR102187764B1 (en) * 2019-05-30 2020-12-08 한국생산기술연구원 Weld penetration control method and its melting-pool behavior measuring device
KR102319258B1 (en) * 2020-11-23 2021-10-29 (주) 토탈소프트뱅크 Apparatus for collecting welding variables in realtime

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102155053B1 (en) * 2019-05-30 2020-09-11 한국생산기술연구원 Weld penetration control device
KR102187764B1 (en) * 2019-05-30 2020-12-08 한국생산기술연구원 Weld penetration control method and its melting-pool behavior measuring device
KR102319258B1 (en) * 2020-11-23 2021-10-29 (주) 토탈소프트뱅크 Apparatus for collecting welding variables in realtime

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116871632A (en) * 2023-09-08 2023-10-13 南京理工大学 Robot backing welding forming defect monitoring method based on arc voltage and molten pool vision
CN116871632B (en) * 2023-09-08 2023-11-21 南京理工大学 Robot backing welding forming defect monitoring method based on arc voltage and molten pool vision

Also Published As

Publication number Publication date
KR102494301B1 (en) 2023-02-06

Similar Documents

Publication Publication Date Title
US11150200B1 (en) Workpiece inspection and defect detection system indicating number of defect images for training
KR102494301B1 (en) A control system and method for melten pool recognition and penetration depth
JP2022509143A (en) Monitoring of laser machining process using deep convolutional neural network
CN112001876A (en) Determination device, determination system, welding system, determination method, and storage medium
CN109693140B (en) Intelligent flexible production line and working method thereof
CN116423005B (en) Tin soldering process optimization method and system for improving welding precision
JP6794685B2 (en) Image processing method and image processing equipment
CN113470005B (en) Welding spot detection device and welding spot detection method for cylindrical battery cap
EP3915088A1 (en) Image analysis system and method of using the image analysis system
CN111451604A (en) Repair welding monitoring feedback method and system for GTAW arc fuse material additive manufacturing arc blowout part
CN114519792B (en) Welding seam ultrasonic image defect identification method based on machine and depth vision fusion
CN115018813A (en) Method for robot to autonomously identify and accurately position welding line
EP3867004A1 (en) Nozzle state or type identification in a metal machining apparatus
CN111222360A (en) Method and device for detecting melting state of silicon material and storage medium
TWI822968B (en) Color filter inspection device, inspection device, color filter inspection method, and inspection method
SE526624C2 (en) Evaluation of welding quality
JP2022105404A (en) Processing device, welding system, processing method, program, and storage medium
Jin et al. A new welding seam recognition methodology based on deep learning model MRCNN
KR102221526B1 (en) Melt pool width and deflection measurement method through melt pool image processing
KR20230118341A (en) Method and apparatus for generating arc image-based welding quality inspection model using deep learning and arc image-based welding quality inspecting apparatus using the same
CN111843272B (en) Quality discrimination method and device based on welding process information fusion
CN115546463A (en) Tire changing identification method based on machine learning and automatic tire changing system
KR102242477B1 (en) Apparatus and method for detecting anomaly of object in thermal image based on machine learning
KR102006248B1 (en) Apparatus and method for adjusting arc length by arc image analysis of welding part
CN114769800B (en) Intelligent operation control system and method for welding process

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right