KR20240032456A - A welding defect comfirmation method of a seat frame for vehicle - Google Patents

A welding defect comfirmation method of a seat frame for vehicle Download PDF

Info

Publication number
KR20240032456A
KR20240032456A KR1020220111451A KR20220111451A KR20240032456A KR 20240032456 A KR20240032456 A KR 20240032456A KR 1020220111451 A KR1020220111451 A KR 1020220111451A KR 20220111451 A KR20220111451 A KR 20220111451A KR 20240032456 A KR20240032456 A KR 20240032456A
Authority
KR
South Korea
Prior art keywords
data
welding
seat frame
image data
vehicle seat
Prior art date
Application number
KR1020220111451A
Other languages
Korean (ko)
Inventor
정기용
Original Assignee
주식회사 에이치비네트웍크
정기용
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이치비네트웍크, 정기용 filed Critical 주식회사 에이치비네트웍크
Priority to KR1020220111451A priority Critical patent/KR20240032456A/en
Publication of KR20240032456A publication Critical patent/KR20240032456A/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K31/00Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups
    • B23K31/12Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups relating to investigating the properties, e.g. the weldability, of materials
    • B23K31/125Weld quality monitoring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/087Controls for manipulators by means of sensing devices, e.g. viewing or touching devices for sensing other physical parameters, e.g. electrical or chemical properties
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/028Piezoresistive or piezoelectric sensing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

본 발명에서, 영상 데이터를 기반한 기계 학습을 통한 차량 시트프레임 용접불량 판단방법은, 최소한의 카메라를 용접부위의 사각면이 없게 설정하여, 학습 및 비교 대상 영상 데이터를 획득하고 머신러닝시킨 데이터를 인공지능을 통해서 분석 비교 및 판단한다. 따라서, 별도의 데이터 없이도 검사원이 육안으로 용접부위의 불량을 판단하는 경우와 동일한 신뢰성을 얻을 수 있다. In the present invention, the method of determining welding defects in a vehicle seat frame through machine learning based on image data sets the minimum number of cameras so that there are no oblique surfaces of the welded area, acquires image data for learning and comparison, and artificially processes the machine-learning data. Analyze, compare and judge through intelligence. Therefore, even without separate data, the same reliability can be obtained as when an inspector visually determines a defect in a welded area.

Description

차량 시트프레임 용접불량 판단방법{A welding defect comfirmation method of a seat frame for vehicle}{A welding defect comfirmation method of a seat frame for vehicle}

본 발명은 차량 시트프레임 용접불량 판단방법으로서, 특히 영상 데이터를 기반의 기계 학습을 통한 차량 시트프레임 용접불량 판단방법에 관한 것이다.The present invention relates to a method for determining welding defects in a vehicle seat frame, and in particular, to a method for determining welding defects in a vehicle seat frame through machine learning based on image data.

현재, 차량 시트프레임은 시트레일, 안전벨트, 리클라이너, 시트 쿠션등을 장착하기 위한 브라켓, 힌지부, 볼트부, 너트부 등 다양한 연결부재들이 용접되어 있다. 일반적으로 차량 시트프레임의 용접부위는 약 100개에 이루고 있다. 이들 용접은 용접 로봇으로 통해서 원하는 원점에, 정해진 값의 전류, 전압, 용접시간, 가압력으로 용접된다. 이렇게 용접된 용접부위에서 용접불량이 종종나오면, 용접불량부위를 찾아서 용접공이 직접 용접불량을 수선한다. CO2 아크 용접에서의 불량항목은 스패터, 침, 슬러지 고차, 편용접, 브릿지 불량, 펑크, 기공, 도면불일치(위치, 누락), 오버랩, 이면비드,오조립(세팅불량) 등이 있으며, 스폿용접에서의 불량항목은 용접흔적(타흔, 칩), 부품겹침, 누락, 균역(크랙, 용착), 타점불량(위치, 반타), 분리, 길이불량 등이 있다. 용접공의 육안으로 직접 불량유무를 판단하는 대신에, 최근에 용접부위의 불량유무를 판단하기 위하여 다양한 방법들이 제안되어왔으며, 최근에는 센서 데이터 검사와 영상 데이터 검사가 꾸준히 발표되고 있다.Currently, vehicle seat frames are welded with various connecting members such as brackets, hinges, bolts, and nuts for mounting seat rails, seat belts, recliners, and seat cushions. Typically, a vehicle seat frame has about 100 welded areas. These welds are welded at the desired origin using a welding robot with set values of current, voltage, welding time, and pressure. If welding defects often occur in welded areas made in this way, the welder finds the defective welding area and repairs the welding defects directly. Defective items in CO2 arc welding include spatter, needles, high degree of sludge, side welding, defective bridges, punctures, porosity, drawing discrepancies (position, omission), overlaps, back bead, incorrect assembly (poor setting), etc. Defective items in welding include welding marks (dents, chips), overlapping parts, missing parts, uniformity (cracks, welding), spotting defects (position, half-hitting), separation, length defects, etc. Instead of directly determining the presence or absence of defects with the welder's naked eyes, various methods have recently been proposed to determine the presence or absence of defects in the welded area, and recently, sensor data inspection and image data inspection have been consistently announced.

특허 등록번호 10-2233498(등록일자 2021년03월23일)의 발명의 명칭, "용접불량 판단장치 및 그 방법"에서는 용접불량 판단장치는 학습용 용접 전류정보와 학습용 아크 전압정보에서 기공률과 높은 상관관계가 가지는 변수를 특징변수로 결정하는 특징변수 결정부; 학습데이터를 입력데이터로 하여 인공신경망을 훈련하여 기공 발생여부를 판단하기 위한 특징변수 별 임계값을 산출하는 훈련부; 작업 중인 용접장치의 용접 전류정보와 아크 전압정보를 검출하는 검출부; 및 검출된 용접 전류 정보 및 아크 전압정보에서 추출된 특징변수의 값과 산출된 임계값을 이용하여 기공발생여부를 판단하여 판단부를 포함한다. 이 특허는 센서에 의한 방식과 다르게, 주로 용접 전류와 아크 전압을 기반을 하고 있다. 이 기술은 추가 설비 비용이 낮고 실시간으로 모니터링이 가능하다는 장점이 있으나, 불량 판단의 정확도는 다소 떨어진다. In the title of the invention of patent registration number 10-2233498 (registration date March 23, 2021), “Welding defect determination device and method,” the welding defect determination device has a high correlation with porosity in learning welding current information and learning arc voltage information. a feature variable determination unit that determines the variables of the relationship as feature variables; A training unit that trains an artificial neural network using learning data as input data to calculate threshold values for each characteristic variable to determine whether pores have occurred; A detection unit that detects welding current information and arc voltage information of the welding device in operation; and a determination unit that determines whether pores have occurred using the values of characteristic variables extracted from the detected welding current information and arc voltage information and the calculated threshold. Unlike the sensor-based method, this patent is mainly based on welding current and arc voltage. This technology has the advantage of low additional facility costs and real-time monitoring, but the accuracy of determining defects is somewhat low.

이와 달리 방법으로, 특허 공개번호 10-2021-0157253(공개일자 2021년12월28일)의 발명의 명칭, "용접의 품질 평가 모델의 학습 장치와 방법, 및 이를 이용한 평가 장치"가 개시되어 있다. 여기서 용접의 품질 평가 모델의 학습 장치는, 가스 텅스텐 아크 용접을 수행하는 용접 장치, 및 영상 획득 장치 각각과 연결하기 위한 인터페이스, 상기 용접 장치 및 상기 영상 획득장치로부터, 상기 가스 텅스텐 아크 용접의 용접 단계별 용접 데이터를 수신하고, 수신된 용접 데이터로부터 복수의 특징 변수값들을 추출하고, 상기 복수의 특징 변수값들, 및 상기 가스 텅스텐 아크 용접의 품질과 관련된 레이블을 이용하여 품질 평가 모델의 학습을 제어하는 제어부, 및 상기 학습된 품질 평가 모델을 저장하는 메모리를 포함한다. 영상 획득장치는 적어도 하나의 패스 용접 각각의 수행 이전 시점 및 수행 이후 시점 각각에서 상기 영상 획득 장치에 의해 획득되는 복수의 영상 데이터를 포함한다. 영상 데이터는 각 패스 마다 이루어지므로, 용접부위가 적은 부품에는 사용할 수 있으나, 용접부위가 10개 이상인 곳에서는 사용할 수 없는 문제점이 있다.As a different method, the title of the invention in Patent Publication No. 10-2021-0157253 (publication date December 28, 2021), "Learning device and method of welding quality evaluation model, and evaluation device using the same" is disclosed. . Here, the learning device for the quality evaluation model of welding is an interface for connecting to each of a welding device that performs gas tungsten arc welding and an image acquisition device, and, from the welding device and the image acquisition device, welding steps of the gas tungsten arc welding. Receiving welding data, extracting a plurality of characteristic variable values from the received welding data, and controlling learning of a quality evaluation model using the plurality of characteristic variable values and a label related to the quality of the gas tungsten arc welding. It includes a control unit and a memory that stores the learned quality evaluation model. The image acquisition device includes a plurality of image data acquired by the image acquisition device at a time before and after performing at least one pass welding. Since image data is generated for each pass, it can be used for parts with a small number of welded areas, but there is a problem in that it cannot be used in places where there are more than 10 welded areas.

따라서 차량 시트프레임과 같은 용접부위가 약 100개 제품에서의 용접불량 판단을 검사원의 육안으로 하는 대신에 영상 데이터를 기계 학습해서 편리하게 정확하고 신속하게 할 필요가 있다. Therefore, instead of judging welding defects in about 100 welded products such as vehicle seat frames using the inspector's eyes, it is necessary to use image data to machine learn the image data to conveniently, accurately and quickly determine it.

영상 데이터로 용접불량을 판단하기 위해서, 차량 시트프레임의 어떠한 사각면도 없이 모든 용접부위를 다양한 각도로 촬영할 카메라 설정 수단이 필요하다. In order to determine welding defects using video data, a camera setting means is needed to photograph all welded areas from various angles without any blind sides of the vehicle seat frame.

또한 용접불량의 이상징후를 탐지하는 용접공정 운영데이터, 센서 데이터와 영상 데이터를 통합해서 용접불량 판단에 정확도를 높일 필요가 있다. In addition, there is a need to increase the accuracy in determining welding defects by integrating welding process operation data, sensor data, and image data that detect abnormal signs of welding defects.

그리고 용접불량 판단을 신속하게 하여 생산속도를 향상시킬 필요가 있다. Additionally, there is a need to quickly determine welding defects and improve production speed.

본 발명의 목적은 상술한 종래 기술을 보다 진보시키고, 또한 상술한 필요성을 충족시키기 위해서, 센서 데이터나 운영 데이터를 없이, 영상 데이터만으로 차량 시트프레임 용접불량 판단방법을 제공하는 것이다.The purpose of the present invention is to provide a method for determining welding defects in a vehicle seat frame using only image data, without sensor data or operational data, in order to further advance the above-described prior art and meet the above-mentioned needs.

본 발명의 다른 목적은 영상 데이터를 획득함에 있어서, 가능한 소량의 카메라로 여러 용접부위의 영상을 촬영할 수 있는 차량 시트프레임 용접불량 판단방법을 제공하는 것이다.Another object of the present invention is to provide a method for determining welding defects in a vehicle seat frame that can capture images of various welded areas with as little camera as possible when acquiring image data.

본 발명의 다른 목적은 용접공정 운영데이터, 센서 데이터와 영상 데이터를 통합한 차량 시트프레임 용접불량 판단방법을 제공하는 것이다.Another purpose of the present invention is to provide a method for determining welding defects in a vehicle seat frame that integrates welding process operation data, sensor data, and image data.

상술한 과제를 달성하기 위한, 영상 데이터를 기반한 기계 학습을 통한 차량 시트프레임 용접불량 판단방법은 용접양호 데이터 또는/및 용접불량 데이터로 학습 영상 데이터 획득하는 단계, 상기 데이터에 따른 양호 불량 상태를 AI 플랫폼에 머신러닝(딥러닝)시키는 단계, 용접불량을 판단할 시트프레임의 각 용접부위의 데이터인 비교 대상 데이터를 획득하는 단계, 상기 비교 대상 영상 데이터를 AI 플랫폼을 통해 분석 비교하는 단계, 상기 비교 대상 영상 데이터 가진 시트프레임의 용접부위의 용접불량 또는 양호를 판단하는 단계와, 판단 결과와 불량인 경우에 어느 부위가 불량인지 디스플레이하는 단계를 포함한다.To achieve the above-described task, the method of determining welding defects in vehicle seat frames through machine learning based on image data includes the steps of acquiring learning image data using good welding data and/or bad welding data, and determining good or bad status according to the data through AI. A step of applying machine learning (deep learning) to the platform, a step of acquiring comparison target data, which is data of each welding area of the seat frame to determine welding defects, a step of analyzing and comparing the comparison target image data through an AI platform, the comparison It includes the step of determining whether the welded portion of the seat frame with target image data is defective or good, and the step of displaying the judgment result and, if defective, which portion is defective.

양호하게는, 상기 학습 또는 비교 대상 영상 데이터를 획득하는 단계에서, Autocoder 알고리즘 및/또는 YOLOv5 알고리즘을 이용한다.Preferably, in the step of acquiring image data to be studied or compared, the Autocoder algorithm and/or YOLOv5 algorithm is used.

양호하게, 상기 학습 또는 비교 대상 영상 데이터를 획득하는 단계는 상기 시트프레임을 회전시키는 단계와, 상기 카메라를 팬틸팅(pantilting)시키는 단계와, 360도 촬영가능한 카메라를 상기 시트프레임의 내측 용접부위를 촬영하기 위해 설정하는 단계중 적어도 하나 이상의 단계를 포함한다.Preferably, the step of acquiring the image data to be studied or compared includes rotating the seat frame, pantilting the camera, and using a camera capable of taking 360 degrees to an inner welded portion of the seat frame. It includes at least one step among the steps for setting up for shooting.

추가로, 각 용접부위에서의 용접가압력, 전류, 전압, 통전시간을 포함하는 용접공정 운영데이터와 온도, 진동 센서로부터의 센서 데이터를 획득하는 단계를 더 포함한다. Additionally, it further includes the step of acquiring welding process operation data including welding pressure, current, voltage, and energization time at each welding site, and sensor data from temperature and vibration sensors.

다수의 용접부위가 있는 차량 시트프레임에서의 용접불량을 검사함에 있어서, 최소한의 카메라를 용접부위의 사각면이 없게 설정하여, 학습 및 비교 대상 영상 데이터를 획득하기 때문에, 별도의 데이터 없이도 검사원이 육안으로 용접부위의 불량을 판단하는 경우와 동일한 신뢰성을 얻을 수 있다. 또한 용접불량 판단도 미리 세팅한 상태에서 제품당 2분 내외로 신속하게 판단할 수 있어서 생산성 증가에 기여한다. When inspecting welding defects in a vehicle seat frame with multiple welded areas, the minimum number of cameras is set so that there are no blind sides of the welded areas to obtain image data for learning and comparison, so the inspector can visually inspect the welded area without any additional data. The same reliability as when determining defects in welded areas can be obtained. In addition, welding defects can be determined quickly in about 2 minutes per product with pre-setting, contributing to increased productivity.

도 1은 본 발명의 개념을 설명하는 도해이다.
도 2는 다수의 카메라로부터 각 용접부위에 대한 데이터를 획득하기 위한 개략적인 예시적인 도해이다.
도 3은 본 발명의 팬틸트(Pantilt) 알고리즘을 내장한 카메라 작동을 도시하는 모식도이다.
도 4는 본 발명의 내측 카메라의 작동을 도시하는 도해이다.
도 5은 본 발명의 센서 데이터와 운영 데이터를 본 발명의 영상 데이터와 통합하는 개념을 설명하는 도해이다.
1 is a diagram illustrating the concept of the present invention.
Figure 2 is a schematic illustration of acquiring data on each welding area from multiple cameras.
Figure 3 is a schematic diagram showing the operation of a camera incorporating the pantilt algorithm of the present invention.
Figure 4 is a diagram showing the operation of the inner camera of the present invention.
Figure 5 is a diagram illustrating the concept of integrating sensor data and operational data of the present invention with image data of the present invention.

본 발명에 따른 차량 시트프레임 용접불량 판단방법의 상술한 목적에 대한 기술적 구성을 비롯한 작용효과에 관한 사항은 본 발명의 바람직한 실시 예가 도시된 도면을 참조한 아래의 상세한 설명에 의해서 명확하게 이해될 것이다.Matters regarding the operational effects, including the technical configuration for the above-mentioned purpose of the method for determining welding defects in a vehicle seat frame according to the present invention, will be clearly understood through the detailed description below with reference to the drawings showing preferred embodiments of the present invention.

또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다.Additionally, in describing the present invention, if it is determined that a detailed description of related known technologies may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시 예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시 예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른실시 예로 구현될 수 있다. 또한, 각각의 개시된 실시 예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. The detailed description of the present invention described below refers to the accompanying drawings, which show by way of example specific embodiments in which the present invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the invention are different from one another but are not necessarily mutually exclusive. For example, specific shapes, structures and characteristics described herein with respect to one embodiment may be implemented in other embodiments without departing from the spirit and scope of the invention. Additionally, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the present invention.

따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.Accordingly, the detailed description that follows is not intended to be taken in a limiting sense, and the scope of the invention is limited only by the appended claims, together with all equivalents to what those claims assert, if properly described. Similar reference numbers in the drawings refer to identical or similar functions across various aspects.

이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시 예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings in order to enable those skilled in the art to easily practice the present invention.

도 1은 본 발명의 개념도를 도시한 것이다. 도 1을 참조하면, 본 발명을 실행하기 위해서, 각종 데이터, 수집 서버, AI 플랫폼, 카메라, 디스플레이와 같은 하드웨어와, 상술한 하드웨어를 운영할 소프트웨어가 필요하다. Figure 1 shows a conceptual diagram of the present invention. Referring to Figure 1, in order to implement the present invention, hardware such as various data, collection servers, AI platforms, cameras, and displays, and software to operate the above-described hardware are required.

본 발명은 이러한 하드웨어와 소프트웨어를 활용한 것으로, 영상 데이터를 데이터 수집 서버에서 획득하는 단계, 즉 학습 영상 데이터 획득 단계를 포함한다. 그리고 획득된 데이터들은 용접불량 또는/및 용접양호 일때의 데이터이며, 이들 데이터는 데이터 수집 서버로 저장된다. AI 플랫폼을 통해서 빅데이터를 형성하고 머신러닝(딥러닝)을 시키는 단계를 포함한다. The present invention utilizes such hardware and software and includes a step of acquiring image data from a data collection server, that is, a step of acquiring training image data. And the acquired data is data for welding defects and/or good welding, and these data are stored in the data collection server. It involves forming big data through an AI platform and performing machine learning (deep learning).

다음으로, 용접불량을 판단할 시트프레임, 비교 대상 시트프레임의 각 용접부위의 데이터들을 획득하는 단계, 즉 비교 대상 영상 데이터 획득 단계를 포함한다. 이들 영상 데이터를 AI 플랫폼에 전송하는 단계를 포함한다. Next, it includes a step of acquiring data on the seat frame for determining welding defects and each welded portion of the seat frame to be compared, that is, a step of acquiring image data to be compared. It includes transmitting these video data to the AI platform.

학습 영상 데이터와 비교 대상 영상 데이터를 AI 플랫폼을 통해서 비교 분석해서 용접불량 또는 양호를 판단하는 단계와 판단결과와 어느 부위가 불량인지 디스플레이를 통해서 시각화해서 검사원에게 통지하는 단계를 포함한다. It includes a step of comparing and analyzing the training video data and the video data to be compared through an AI platform to determine whether the weld is defective or good, and a step of visualizing the judgment result and which part is defective through a display and notifying the inspector.

본 발명은 다수의 용접부위, 적어도 50개 이상의 제품에서의 용접불량을 검사하는 경우에, 검사원이 어느 한 부위를 놓칠 우려가 있지만, 본 발명은 이러한 우려가 전혀 없다. 또한, 불량인 시트프레임은 용접원에게 불량부위 정보와 함께 전달되기 때문에, 용접원은 다시 불량부위를 찾는 노력과 시간을 절약할 수 있다. In the present invention, when inspecting welding defects in a large number of welded areas, at least 50 or more products, there is a risk that the inspector may miss a certain area, but the present invention has no such concerns. Additionally, since a defective seat frame is delivered to the welder along with information on the defective part, the welder can save time and effort in finding the defective part again.

추가로, 안전벨트 브라킷과 같은 중요한 용접부위의 판단을 검사원이 다시 확인하는 단계를 포함할 수 있다. 안전벨트 브래킷의 영상 데이터는 자동으로 디스플레이되는 방식이다. Additionally, it may include a step where the inspector rechecks the judgment of important welded areas such as seat belt brackets. The image data of the seat belt bracket is displayed automatically.

본 발명은 데이터 수집 → 데이터 가공 및 나열 → 데이터 분석 → 불량 확인 → 디스플레이 방식 단계로 진행되고 해당 과정을 일정 주기로 저장, 일정 주기 단위로 분석하여 용접 설비에 대한 상태도 파악할 수 있도록 진행할 수 있다.The present invention proceeds in the following steps: data collection → data processing and listing → data analysis → defect confirmation → display method, and the process can be stored at a certain period and analyzed at a certain period to determine the status of the welding equipment.

상술한 영상 데이터를 데이터 수집 서버에서 획득하는 단계는 통상적으로 시트프레임을 정해진 위치에 설정하고 상기 시트프레임의 촬영할 용접부위에 맞게 다수의 카메라를 설정하는 단계를 포함한다. The step of acquiring the above-described image data from a data collection server typically includes setting a sheet frame at a designated location and setting a plurality of cameras to match the welded portion of the sheet frame to be photographed.

본 발명의 영상 데이터 획득 방법에 대해서는 도 2를 참고로 설명하겠다. 도 2는 다수의 카메라로부터 각 용접부위에 대한 데이터를 획득하기 위한 개략적인 예시적인 도면이다. 도 2에 도시한 바와 같이, 한 예시로서 4개의 카메라를 각 용접부위의 사각이 없도록 미리 설정하여 고정해 두고, 시트프레임을 정해진 위치와 방향으로 안착시키고, 섹터(sector) 1-4방향을 촬영하고 시트프레임을 180도 회전시킨후 섹터 5, 6를 촬영해서 데이터를 얻을 수 있다. 이와 달리 섹터 1-6방향 각각에 6개의 카메라를 설치해서 데이터를 얻을 수 있다. 그러나, 최소한의 카메라로 모든 용접부위를 커버하기 위해서는 도 2에 도시한 바와 같이, 시트프레임을 회전시키는 수단과 방법을 본 발명에서는 포함하고 있다. The image data acquisition method of the present invention will be described with reference to FIG. 2. Figure 2 is a schematic diagram for acquiring data on each welded area from multiple cameras. As shown in Figure 2, as an example, four cameras are set and fixed in advance to ensure that there are no blind spots at each welding area, the sheet frame is seated in a designated position and direction, and images are taken in sectors 1-4 directions. Then, you can obtain data by rotating the seat frame 180 degrees and photographing sectors 5 and 6. In contrast, data can be obtained by installing 6 cameras in each of sector 1-6 directions. However, in order to cover all welded areas with a minimum number of cameras, the present invention includes a means and method for rotating the seat frame, as shown in FIG. 2.

도 3은 도 2와는 상이하게, 다수의 카메라로부터 각 용접부위에 대한 데이터를 획득하기 위한 개략적인 예시적인 사시도이다. 도시한 바와 같이, 촬영할 시트프레임과의 거리는 초기 설정하고, 카메라는 다양한 각도로 움직일 수 있는 팬틸트(Pantilt) 알고리즘을 내장시켜서, 카메라 하나로 여러 용접부위를 촬영할 수 있다. Unlike FIG. 2, FIG. 3 is a schematic perspective view for acquiring data on each welding area from a plurality of cameras. As shown, the distance to the seat frame to be photographed is initially set, and the camera has a built-in pantilt algorithm that can move at various angles, allowing multiple welding areas to be photographed with a single camera.

본 발명의 시트프레임에서는 내측면에도 용접부위가 존재하며, 이들 용접부위의 영상 데이터를 얻기 위해서 내측에 설치되어 360도 촬영 가능한 카메라가 제공되어 있다. 도 4에 도시한 바와 같이 내측 카메라는 상하이동가능한 로드를 통해서 시트프레임 빈 공간에 이동하여 고정되어 내측의 용접부위들을 360도 방향으로 촬영한다. 시트프레임의 투명 지지판이 시트프레임을 고정하고 회전하기 때문에, 상하이동가능한 로드는 도시한 바와 같이 위쪽에서 아래쪽으로 이동하는 것이 바람직하다. In the seat frame of the present invention, there are welded areas on the inner side, and in order to obtain image data of these welded areas, a camera installed on the inside and capable of shooting 360 degrees is provided. As shown in FIG. 4, the inner camera moves and is fixed in the empty space of the seat frame through a rod that can move up and down, and photographs the welded areas on the inside in a 360-degree direction. Since the transparent support plate of the seat frame fixes and rotates the seat frame, the movable rod preferably moves from top to bottom as shown.

본 발명의 한 예로서, 약 100 개의 용접부위를 사각면없이 촬영하기 위해서는 약 15-20개의 카메라가 필요하다. 카메라 촬영을 위한 조명장치도 포함한다. 본 발명의 카메라는 2D 또는 3D 영상 장치일 수 있다.As an example of the present invention, about 15-20 cameras are needed to photograph about 100 welded areas without blind spots. It also includes lighting equipment for camera shooting. The camera of the present invention may be a 2D or 3D imaging device.

상술한 러닝머신 단계에서, 본 발명은 Autocoder 알고리즘 또는 YOLOv5 알고리즘을 이용한다. Autocoder 알고리즘은 자기지도학습의 실행 행태이지만 중요한 피쳐(feature)를 탐색할 수 있기 때문이다. YOLOv5 알고리즘은 데이터를 구별하는데 탁월한 효과를 내기 때문이다. YOLOv5 알고리즘에서 판단의 정확성을 높이기 위해서 라벨링 데이터의 양을 늘려한다. 즉 학습 데이터의 양이 많아야 한다. In the treadmill step described above, the present invention uses the Autocoder algorithm or YOLOv5 algorithm. The Autocoder algorithm is an execution behavior of self-supervised learning, but it can search for important features. This is because the YOLOv5 algorithm is excellent at distinguishing data. In order to increase the accuracy of judgment in the YOLOv5 algorithm, the amount of labeling data is increased. In other words, the amount of learning data must be large.

용접불량 데이터 판정에서 Autocoder 알고리즘인 경우에, 모델 Pytorch 로 간단한 Encoder, Decoder를 구현한다(즉 Encoder : input layer, laten vector, Decoder : latent vector, output layer). 시트프레임의 용접부위를 YOLOv5 모델을 이용해 캡처한다. 이 경우에, 현장에서 자주 발생하는 불량은 펑크, 슬러지 보다는 비드의 크기나 위치가 부적절한 경우가 훨씬 많아 비드의 크기, 위치를 검사할 때 좋은 결과를 나온다. In the case of the Autocoder algorithm in determining welding defect data, a simple Encoder and Decoder are implemented using the model Pytorch (i.e. Encoder: input layer, laten vector, Decoder: latent vector, output layer). The welded area of the seat frame is captured using the YOLOv5 model. In this case, the defects that frequently occur in the field are much more likely to be inappropriate bead size or location than puncture or sludge, so good results are obtained when inspecting the bead size and location.

YOLOv5 알고리즘인 경우에, 사진 촬영 시 항상 같은 거리, 같은 각도로 촬영을 전제로 데이터에서 늘 같은 위치를 crop하여 비드의 정상 위치를 Crop 부위 정중앙으로 두고 일정거리 이상 중앙선을 벗어나면 불량으로 판별한다.In the case of the YOLOv5 algorithm, when taking pictures, the same position is always cropped from the data on the premise that the pictures are always taken at the same distance and at the same angle. The normal position of the bead is set at the exact center of the crop area, and if it deviates from the center line by a certain distance, it is judged as defective.

상술한 본 발명의 실시 예에서는 불량 양호 데이터를 모두를 학습 데이터로 이용하였으나, 양호 데이터(normal data) 만으로 모델 학습 후 불량(fake data) 탐지를 실시할 수 있다. In the above-described embodiment of the present invention, all bad and good data are used as learning data, but after training the model only with good data (normal data), fake data can be detected.

본 발명의 영상 데이터만을 이용한 차량 시트프레임 용접불량 판단방법에서양호하다고 판단한 제품은 실질적으로 100% 양호하고, 불량이라고 판단한 제품중에는 약 10%정도는 양호하다. 따라서 본 발명의 방법을 이용한 판단의 신뢰성은 상당히 높다.In the method of determining welding defects in vehicle seat frames using only image data of the present invention, products judged to be good are substantially 100% good, and among products judged to be defective, about 10% are good. Therefore, the reliability of judgment using the method of the present invention is quite high.

도 5은 본 발명의 다른 실시 예를 도시한 것이다. 도 1과 동일한 부분에 대한 설명은 여기서 생략하기로 한다. 본 발명은 각 용접부위에서의 용접가압력, 전류, 전압, 통전시간을 포함하는 용접공정 운영데이터와 온도, 진동 압력센서로부터의 센서 데이터를 획득하는 단계를 더 포함한다. 용접공정 운영데이터와 센서 데이터는 종래 기술에 사용된 방식으로 수집하며, 이에 대한 상세한 설명은 종래 기술을 인용하기로 하고 여기서 상세한 설명은 생략한다. Figure 5 shows another embodiment of the present invention. Description of the same parts as in FIG. 1 will be omitted here. The present invention further includes the step of acquiring welding process operation data including welding pressure, current, voltage, and energization time at each welding site, and sensor data from temperature and vibration pressure sensors. Welding process operation data and sensor data are collected using methods used in the prior art, and detailed descriptions thereof will be cited from the prior art and detailed descriptions thereof will be omitted here.

본 발명의 한 예시로, 용접가압력, 전류, 전압, 통전시간을 포함하는 용접공정 운영데이터는 용접 로봇 신호기 PLC에 통신 유닛을 설치하여 XG5000을 통해 MOV 명령어로 전달되어 저장되며, 그 데이터를 가공하여 TXT 형식으로 저장하여 용접불량을 탐지한다.As an example of the present invention, welding process operation data including welding pressure, current, voltage, and energization time are transmitted and stored as MOV commands through XG5000 by installing a communication unit in the welding robot signal PLC, and the data is processed and stored. Detect welding defects by saving in TXT format.

본 발명의 한 예시로, 진동 센서 데이터는 3축 진동센서를 로봇 팔에 부착하여 용접 공정 진행시 로봇 팔의 진동을 감지하여 획득하여 하두이노 코딩을 통해 무선으로 데이터를 전송, 가공 및 저장된다. 진동 센서 데이터로 용접 위치의 벗어남, 로봇팔의 정상 작동을 탐지할 수 있다. As an example of the present invention, vibration sensor data is obtained by attaching a 3-axis vibration sensor to a robot arm to detect vibration of the robot arm during a welding process, and the data is transmitted, processed, and stored wirelessly through Haduino coding. Vibration sensor data can detect deviation from the welding position and normal operation of the robot arm.

본 발명에 의해서, 용접 공정운영 데이터, 센서 데이터 및 영상 데이터를 통합적으로 기계학습(머신러닝) 시켜서, 용접부위의 불량 여부를 판단하기 때문에 보다 정확한 판단을 할 수 있다. 거의 100%까지 시트프레임의 용접부위의 결함을 잡을 수 있다. 따라서 본 테스트 과정을 통과한 시트프레임은 품질에 대한 신뢰도가 높다. 또한 미리 세팅한 상태에서 제품당 2분 내외로 신속하게 판단할 수 있어서 생산성 증가에 기여한다. According to the present invention, a more accurate judgment can be made because welding process operation data, sensor data, and image data are integrated into machine learning to determine whether the welded part is defective. Defects in welded areas of the seat frame can be corrected up to almost 100%. Therefore, seat frames that have passed this test process have high reliability in quality. In addition, it contributes to increased productivity as it can be quickly judged in about 2 minutes per product in a pre-set state.

이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만 본 발명은 상술한 특정의 실시 예에한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.In the above, preferred embodiments of the present invention have been shown and described, but the present invention is not limited to the specific embodiments described above, and may be used in the technical field to which the invention pertains without departing from the gist of the invention as claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be understood individually from the technical idea or perspective of the present invention.

본 발명은 하나의 예시로 시트프레임에 관한 발명으로 한정하고 있으나, 다수의 용접부위를 포함하는 다양한 제품에 폭넓게 적용될 수 있다. Although the present invention is limited to a seat frame as an example, it can be widely applied to various products including multiple welded parts.

Claims (6)

영상 데이터를 기반한 기계 학습을 통한 차량 시트프레임 용접불량 판단방법에 있어서,
용접양호 데이터 또는/및 용접불량 데이터로 학습 영상 데이터 획득하는 단계,
상기 데이터에 따른 양호 불량 상태를 AI 플랫폼에 머신러닝(딥러닝)시키는 단계,
용접불량을 판단할 시트프레임의 각 용접부위의 데이터인 비교 대상 데이터를 획득하는 단계,
상기 비교 대상 영상 데이터를 AI 플랫폼을 통해 분석 비교하는 단계,
상기 비교 대상 영상 데이터 가진 시트프레임의 용접부위의 용접불량 또는 양호를 판단하는 단계와,
판단 결과와 불량인 경우에 어느 부위가 불량인지 디스플레이하는 단계를 포함하는 차량 시트프레임 용접불량 판단방법.
In the method of determining welding defects in vehicle seat frames through machine learning based on image data,
Obtaining learning image data using good welding data or/and bad welding data,
A step of machine learning (deep learning) on the AI platform for good and bad status according to the data,
Obtaining comparative data, which is data on each welded part of the seat frame to determine welding defects,
Analyzing and comparing the video data to be compared through an AI platform,
A step of determining whether the welding portion of the seat frame with the image data to be compared is defective or good;
A method for determining welding defects in a vehicle seat frame including the step of displaying the judgment result and, if defective, which part is defective.
제1항에 있어서,
상기 학습 또는 비교 대상 영상 데이터를 획득하는 단계에서, Autocoder 알고리즘 및/또는 YOLOv5 알고리즘을 이용하는 차량 시트프레임 용접불량 판단방법.
According to paragraph 1,
A method for determining welding defects in a vehicle seat frame using the Autocoder algorithm and/or YOLOv5 algorithm in the step of acquiring image data for learning or comparison.
제1항에 있어서,
상기 학습 또는 비교 대상 영상 데이터를 획득하는 단계는 상기 시트프레임을 회전시키는 단계와, 상기 카메라를 팬틸팅(pantilting)시키는 단계와, 360도 촬영가능한 카메라를 상기 시트프레임의 내측 용접부위를 촬영하기 위해 설정하는 단계중 적어도 하나 이상의 단계를 포함하는 차량 시트프레임 용접불량 판단방법.
According to paragraph 1,
The step of acquiring image data to be studied or compared includes rotating the seat frame, pantilting the camera, and using a camera capable of 360-degree shooting to photograph the inner welded portion of the seat frame. A method for determining welding defects in a vehicle seat frame that includes at least one of the setting steps.
제1항 내지 제3항중 어느 한항에 있어서,
각 용접부위에서의 용접가압력, 전류, 전압, 통전시간을 포함하는 용접공정 운영데이터와 온도, 진동 센서로부터의 센서 데이터를 획득하는 단계를 더 포함하는 차량 시트프레임 용접불량 판단방법.
According to any one of claims 1 to 3,
A method for determining welding defects in a vehicle seat frame further comprising the step of acquiring welding process operation data including welding pressure, current, voltage, and energization time at each welding site, and sensor data from temperature and vibration sensors.
제4항에 있어서,
상기 용접공정 운영데이터는 용접가압력, 전류, 전압, 통전시간을 포함하며, 용접 로봇 신호기 PLC에 통신 유닛을 설치하여 XG5000을 통해 MOV 명령어로 전달되어 저장되며, 상기 데이터를 가공하여 TXT 형식으로 저장하여 용접불량을 탐지하는 차량 시트프레임 용접불량 판단방법.
According to clause 4,
The welding process operation data includes welding pressure, current, voltage, and energization time, and is transmitted and stored as a MOV command through XG5000 by installing a communication unit in the welding robot signal PLC. The data is processed and saved in TXT format. A method for determining welding defects in vehicle seat frames that detects welding defects.
제4항에 있어서,
상기 센서 데이터는 진동 센서 데이터를 포함하며, 상기 진동 센서 데이터는 3축 진동센서를 로봇 팔에 부착하여 용접 공정 진행시 로봇 팔의 진동을 감지하여 획득하여 하두이노 코딩을 통해 무선으로 데이터를 전송, 가공 및 저장되는 차량 시트프레임 용접불량 판단방법.
According to clause 4,
The sensor data includes vibration sensor data, and the vibration sensor data is obtained by attaching a 3-axis vibration sensor to the robot arm to detect vibration of the robot arm during the welding process, and transmitting the data wirelessly through Haduino coding. Method for determining welding defects in vehicle seat frames that are processed and stored.
KR1020220111451A 2022-09-02 2022-09-02 A welding defect comfirmation method of a seat frame for vehicle KR20240032456A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220111451A KR20240032456A (en) 2022-09-02 2022-09-02 A welding defect comfirmation method of a seat frame for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220111451A KR20240032456A (en) 2022-09-02 2022-09-02 A welding defect comfirmation method of a seat frame for vehicle

Publications (1)

Publication Number Publication Date
KR20240032456A true KR20240032456A (en) 2024-03-12

Family

ID=90300025

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220111451A KR20240032456A (en) 2022-09-02 2022-09-02 A welding defect comfirmation method of a seat frame for vehicle

Country Status (1)

Country Link
KR (1) KR20240032456A (en)

Similar Documents

Publication Publication Date Title
EP3176537B1 (en) System for automated in-process inspection of welds
US20210318673A1 (en) In-Situ Inspection Method Based on Digital Data Model of Weld
CN100593716C (en) On-line detecting method of machine vision system for printed calico flaw
US20160203593A1 (en) Method and device for testing an inspection system for detecting surface defects
CN103231162A (en) Device and method for visual detection of welding quality of robot
KR20210157000A (en) System and method for underbody inspection of vehicle
JP5689969B2 (en) Bead filler inspection apparatus, bead filler inspection program, and bead filler inspection method
US20110019877A1 (en) Method and Apparatus For Monitoring a Production Line
CN113726606B (en) Abnormality detection method and apparatus, electronic device, and storage medium
KR101487169B1 (en) Robot Working Quality Monitoring System
US20080237197A1 (en) System and method for welding and real time monitoring of seam welded parts
CN113724240A (en) Refrigerator caster detection method, system and device based on visual identification
JP2018059830A (en) Exterior appearance inspection method
JP2004132881A (en) Method for inspecting arrangement structure
JP3288902B2 (en) Seal inspection system
KR20240032456A (en) A welding defect comfirmation method of a seat frame for vehicle
KR102592603B1 (en) Monitoring method for vision inspection apparatus
JP3135559B2 (en) Monitoring device
JP2011180047A (en) Pantograph monitoring system
CN113927217A (en) Intelligent welding system
KR20210120229A (en) Image-based jig inspection system and method
CN112858329A (en) Image detection method for bearing deformed ring
JP3137254B2 (en) Automatic welding method
JPH0760445A (en) Outer circumference welding device for thin metallic sheet, automatic follow-up method used therein and its method and method for deciding normal/defective condition of welding state
US20230236212A1 (en) Method and device for quality assessment of a processing operation