KR102468234B1 - 심층 합성곱 신경망을 이용한 레이저 가공 시스템의 가공오류 검출 시스템 및 방법 - Google Patents

심층 합성곱 신경망을 이용한 레이저 가공 시스템의 가공오류 검출 시스템 및 방법 Download PDF

Info

Publication number
KR102468234B1
KR102468234B1 KR1020217018838A KR20217018838A KR102468234B1 KR 102468234 B1 KR102468234 B1 KR 102468234B1 KR 1020217018838 A KR1020217018838 A KR 1020217018838A KR 20217018838 A KR20217018838 A KR 20217018838A KR 102468234 B1 KR102468234 B1 KR 102468234B1
Authority
KR
South Korea
Prior art keywords
data
machining
height
image
image data
Prior art date
Application number
KR1020217018838A
Other languages
English (en)
Other versions
KR20210090264A (ko
Inventor
요하임 슈바르츠
Original Assignee
프레시텍 게엠베하 운트 코 카게
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 프레시텍 게엠베하 운트 코 카게 filed Critical 프레시텍 게엠베하 운트 코 카게
Publication of KR20210090264A publication Critical patent/KR20210090264A/ko
Application granted granted Critical
Publication of KR102468234B1 publication Critical patent/KR102468234B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/02Positioning or observing the workpiece, e.g. with respect to the point of impact; Aligning, aiming or focusing the laser beam
    • B23K26/03Observing, e.g. monitoring, the workpiece
    • B23K26/032Observing, e.g. monitoring, the workpiece using optical means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K1/00Soldering, e.g. brazing, or unsoldering
    • B23K1/005Soldering by means of radiant energy
    • B23K1/0056Soldering by means of radiant energy soldering by means of beams, e.g. lasers, E.B.
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/20Bonding
    • B23K26/21Bonding by welding
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/36Removing material
    • B23K26/38Removing material by boring or cutting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K31/00Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups
    • B23K31/006Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups relating to using of neural networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K31/00Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups
    • B23K31/12Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups relating to investigating the properties, e.g. the weldability, of materials
    • B23K31/125Weld quality monitoring
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/0209Low-coherence interferometers
    • G01B9/02091Tomographic interferometers, e.g. based on optical coherence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/44Processing the detected response signal, e.g. electronic circuits specially adapted therefor
    • G01N29/4481Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/30Polynomial surface description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33044Supervised learning with second artificial neural network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Plasma & Fusion (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Quality & Reliability (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Mathematical Optimization (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Mathematical Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Laser Beam Processing (AREA)

Abstract

본 발명은 공작물을 가공하는 레이저 가공 시스템의 가공 오류를 검출하기 위한 시스템에 관한 것이다. 상기 시스템은 가공된 공작물 표면의 이미지 데이터 및 높이 데이터를 검출하는 검출 유닛; 및 컴퓨팅 유닛을 포함하고, 상기 컴퓨팅 유닛은 상기 검출된 이미지 데이터 및 높이 데이터에 기초하여 입력 텐서를 생성하고 그리고 전달 함수를 사용하여 상기 입력 텐서에 기초하여 출력 텐서를 결정하도록 설계되며, 상기 출력 텐서는 가공 오류에 대한 정보를 포함한다.

Description

심층 합성곱 신경망을 이용한 레이저 가공 시스템의 가공오류 검출 시스템 및 방법
본원은 공작물을 가공하기 위한 레이저 가공 시스템에 대한 가공오류를 인식하기 위한 시스템 및 레이저 빔에 의해 공작물을 가공하기 위한 가공 시스템에 관한 것으로, 상기 가공 시스템은 이러한 가공오류를 인식하기 위한 시스템을 포함한다. 본원은 또한 공작물을 가공하기 위한 레이저 가공 시스템에서 가공 오류를 인식하는 방법에 관한 것이다.
레이저 빔을 사용하여 공작물을 가공하기위한 가공 시스템에서, 레이저 광원 또는 레이저 광섬유 끝에서 나오는 레이저 빔은 빔 가이드 및 집광 광학계를 통해 가공 될 공작물에 초점을 맞추거나 시준된다. 가공은 예를 들어 레이저 절단, 납땜 또는 용접을 포함할 수 있다. 레이저 가공 시스템은 예를 들어 레이저 가공 헤드를 포함할 수 있다.
특히 공작물을 레이저 용접하거나 납땜하는 경우, 생성된 연결의 품질을 검사하거나 평가하는 것이 중요하다. 레이저 용접 및 납땜의 품질평가를 위한 현재 방안은 일반적으로 소위 후(post)-공정 검사를 포함한다.
용접 또는 납땜 이음새의 후-공정 검사는 일반적으로 이미지 프로세싱을 통해 수행되며, 여기에서 가공된 공작물의 표면에 용접 또는 납땜 이음매를 보여주는 2D 이미지가 분석된다. 후-공정 검사의 목적은 모든 결함의 위치를 신뢰성 있게 파악하고 식별하는 것이다. 이미지 프로세싱 용어에서, 용접 및 납땜된 이음매 표면은 확률적 또는 결정론적 질감을 포함한다. 용접 조인트의 형상(geometry) 데이터를 결정하기 위해 가공된 공작물 표면의 3D 데이터를 수집하는 것도 가능하다. 어떤 형상 데이터를 수집하고 평가해야 하는지는 각 표준에 명시되어 있다. 레이저 용접 맞춤형 블랭크의 경우, 이는 예를 들어 SEL 100 표준이다. 2D 및 3D 데이터의 추출 및 평가는 대개 분리되어 수행된다.
용접 및 납땜 이음매의 품질을 나타내거나 설명하는 중요한 특성이 데이터에서 추출되거나 계산된다. 가공 품질의 최종 평가는 특성 계산의 매개 변수화 및 질감의 계산된 특징적인 특성의 매개 변수화에 의해 수행된다. 가장 간단한 경우, 이는 특성을 특징화하는 값 사이에 있어야 하는 임계값이다. 예를 들어, 공작물 표면의 구멍(hole) 또는 기공(pore)과 같은 국소적 결함 또는 가공 오류는 대상 형상(공작물 표면의 국소적으로 극단적으로 깊거나 높은 영역)의 국소 편차를 통해 검출된다.
따라서 가공 품질을 특징짓는 특성의 추출 및 분류가 수행된다. 추출 및 분류된 특성을 기반으로, 가공 오류가 검출되고 분류되며, 가공된 공작물은 예를 들어 "양호"(즉, 추가 가공 또는 판매에 적합) 또는 "불량 (즉, 폐기물로)으로 표지되거나 분류된다. 레이저 가공의 품질을 평가하기 위해 어떤 중요한 특성이 사용될 수 있는지, 그리고 이러한 특성이 품질평가에 어떤 영향을 미치는지 등은 조정되어야할 매개변수의 수로 인해 이러한 시스템의 복잡성이 매우 크기 때문에, 해당 분야의 전문가만 결정하고 구현할 수 있다. 현 시스템에서는, 이를 위해 최대 300 개의 매개변수가 조정된다. 그러나 이러한 설정은 광범위한 지식을 습득한 전문가만 조정할 수 있다.
품질을 특징짓는 특성은 사용된 재료, 적용된 레이저 출력, 용접 속도 기타 요소에 따라 크게 달라지기 때문에 이러한 질감 분석도 복잡하다. 이는 특성의 추출 및 평가 또는 분류가 매개 변수를 통해 조정되어야 함을 의미한다. 레이저 가공을 새로운 재료로 조정하거나 가공 공정을 변경하여 표면 질감을 변경하려면 알고리즘과 이미지 프로세싱의 매개변수를 변경해야 한다. 예를 들어 제품 변경을 통해 레이저 가공을 조정할 때마다 매개 변수를 다시 설정하거나 재조정해야 한다.
따라서 전문가 훈련은 복잡하고 오래 걸린다. 또한 매개 변수를 설정하고 재조정하려면 레이저 가공 시스템의 고객측 제조 과정에서 오랜 생산 중단이 필요하다. 또한 잘못된 매개 변수화의 위험이 높다.
따라서 본 발명의 목적은 레이저 가공의 품질 평가를 단순화하는 것이다. 또한 복잡한 매개변수화 과정없이 안정적이고 신속하게 가공 오류를 검출하는 것도 본 발명의 목적이다.
나아가, 본 발명의 목적은 레이저 가공의 품질 평가 및 가공 오류의 검출을 자동화하여 공정 모니터링을 가능하게 하는 시스템을 제공하는 것이다.
또한 본 발명의 목적은 레이저 가공의 품질평가 및 가공 오류의 검출이, 변경된 가공 공정 또는 상이한 공작물 재료와 같은 변경된 환경 또는 변경된 상황에 빠르고 쉽게 적용될 수 있는 시스템을 제공하는 것이다.
나아가, 본 발명의 목적은 레이저 가공의 품질 및 가공 오류의 검출이 가공된 공작물 표면에서 획득한 원시 데이터(소위 "종단 간"가공 또는 분석)를 기반으로 평가되는 시스템을 제공하는 것이다.
이러한 목적은 독립 청구항의 주제에 의해 달성된다. 유리한 구현예 및 추가 개발은 대응하는 종속 청구항의 주제이다.
본 발명은 레이저 가공의 품질과 가공 오류의 검출이 가공된 공작물 표면의 이미지 및 높이 데이터를 기반으로 평가된다는 아이디어에 기초한다.
본원의 한 양태에 따르면, 공작물을 가공하기위한 레이저 가공 시스템의 가공 오류를 검출하기위한 시스템이 제공되며, 상기 시스템은: 공작물 표면의 이미지 데이터 및 높이 데이터를 검출하는 검출 유닛; 및 컴퓨팅 유닛을 포함하고, 상기 컴퓨팅 유닛은 전달 함수를 사용하여 검출된 이미지 데이터 및 높이 데이터에 기초하여 입력 텐서로부터의 가공 오류에 대한 정보를 포함하는 출력 텐서를 결정하도록 구성된다.
따라서, 상기 시스템은 레이저 가공 시스템에 의해 가공된 공작물에 가공 오류가 있는지 여부를 독립적으로 검출할 수 있다.
즉, 가공 오류에 대한 정보를 바탕으로 가공 시스템의 가공 공정 품질을 결정할 수 있다. 이미지와 높이 데이터의 동시 처리를 통해 평가가 더욱 신뢰성 있고, 간결하며, 그리고 신속하게 만들 수 있다.
검출 유닛은 이미지 데이터를 검출하기 위한 이미지 검출 유닛을 포함할 수 있다. 검출 유닛은 높이 데이터를 검출하기 위한 높이 검출 유닛을 더 포함할 수 있다. 이미지 검출 유닛 및 높이 검출 유닛은 각각 적어도 하나의 대응하는 센서를 포함할 수 있다.
이미지 검출 유닛은 바람직하게는 카메라 시스템, 특히 바람직하게는 입사광 LED 조명을 갖는 2D 및/또는 3D 카메라 시스템을 포함한다. 보다 바람직하게 또는 대안 적으로, 높이 검출 유닛은 삼각 측량 시스템 및/또는 OCT ( "광 간섭 단층 촬영") 시스템을 포함한다.
일 구현예에 따르면, 높이 검출 유닛은 또한 예를 들어, OCT 시스템을 통해 공작물 표면까지의 거리 즉, 레이저 가공 시스템의 가공 헤드와 공작물 표면 사이의 거리를 결정할 수 있고, 그리고 상기 거리에 기초하여 높이 데이터를 결정할 수 있다.
검출 유닛은 또한 이미지 데이터 및 높이 데이터 둘 다를 검출하도록 구성된 하나 이상의 센서를 포함할 수 있고, 예를 들어 바람직하게는 LED 조명이 있는 스테레오 카메라 시스템이다.
이미지 데이터는 바람직하게는 2차원 이미지 또는 가공된 공작물 표면 한 구획의 2 차원 이미지에 대응한다. 높이 데이터는 표면의 동일한 구획의 3차원 높이 형상에 해당할 수 있다. 즉, 이미지 데이터는 가공된 공작물 표면 한 구획의 2차원 이미지를 나타낼 수 있고, 높이 데이터는 표면의 동일한 구획의 3차원 높이 또는 표면 형상을 나타낼 수 있다.
따라서, 이미지 데이터는 이미지의 픽셀 데이터 또는 가공된 공작물 표면의 한 구획, 바람직하게는 레이저 가공 시스템에 의해 미리 가공된 공작물 표면의 한 구획의 사진을 포함할 수 있다. 높이 데이터는 가공된 공작물 표면의 동일한 구획의 각 픽셀에 대한 높이값을 포함할 수 있다. 이미지 데이터와 높이 데이터의 스케일은 동등하게 조정될 수 있다.
검출 유닛 및/또는 컴퓨팅 유닛은 바람직하게는, 구획의 영역을 보여주는 이미지의 각 픽셀에 대해 상기 동일한 영역의 높이 데이터의 높이 값이 존재하도록, 이미지 데이터 및 높이 데이터를 처리하도록 구성된다. 공작물 표면상의 영역 또는 포인트의 높이값은 바람직하게는 공작물 표면까지 평행하게 연장되는 참조 평면으로부터의 이 영역 또는 포인트의 거리를 지정할 수 있다.
검출 유닛은 높이 데이터 및 이미지 데이터로부터 2-채널 이미지를 생성하도록 구성될 수 있다.
따라서, 2-채널 이미지는 픽셀 데이터 및 상기 픽셀 데이터에 대응하는 공작물 표면의 높이값을 포함할 수 있다. 각 픽셀은 공작물 표면의 광학 이미지를 기반으로 밝기 정보 또는 그레이 레벨(gray levels)을 나타낼 수 있다.
이미지 데이터 및/또는 높이 데이터는 n×m 값을 포함할 수 있으며, 여기서 n 및 m은 자연수이다. 입력 텐서는 n×m×2 값을 포함할 수 있다. 달리 말해서, 입력 텐서는 이미지 데이터의 두 배에 해당하는 차원을 가질 수 있다. 따라서 입력 텐서는 공작물 표면의 이미지보다 두 배 많은 값을 가질 수 있다. 예를 들어 이미지는 1024×1024 픽셀을 가질 수 있다.
또한 입력 텐서는 레이저 가공 시스템의 제어 데이터를 포함할 수 있다. 이 경우 입력 텐서의 차원은 그에 따라 증가할 수 있다. 제어 데이터는 공작물 가공 중 주어진 시점에서, 레이저 가공 시스템의 레이저 출력 파워, 레이저 빔의 설정된 초점 위치, 가공 속도 등을 나타내는 적어도 하나의 값을 포함할 수 있다.
가장 간단한 경우, 출력 텐서는 공작물의 가공이 좋은지 나쁜지에 대한 정보를 포함할 수 있다. 이 정보를 바탕으로, 가공된 공작물은 추가로 가공되거나 판매되거나 폐기물로 표시되어 더 이상 사용되지 않을 수 있다. 따라서 본원에서 제공된 시스템에 의한 공작물의 이른바 가공 후 검사 목적은 가능한 모든 관련 가공 오류 또는 결함을 검출하는 것이다.
또한 본원 시스템은 공작물 표면에 존재하는 가공 오류의 유형, 위치 및/또는 크기를 표시할 수 있다.
따라서 출력 텐서는 다음 정보 중 하나 이상을 포함 할 수 있다: 가공 오류의 존재, 가공 오류의 유형, 공작물 표면에서 가공 오류의 위치, 특정 유형의 가공 오류가 발생하였을 확률, 및/또는 공작물 표면에서 가공 오류의 공간 및/또는 평면 범위.
상기 가공 오류의 유형은 다음 중 하나일 수 있다: 기공(pore), 구멍(hole), 공작물을 통한 침투 부족, 거짓 짝, 튐 또는 틈.
일반적으로 본원 시스템은 이미 가공된 공작물 상의 위치에서 오류를 검출한다. 따라서 컴퓨팅 유닛은 공작물이 레이저 가공 시스템에 의해 가공되는 동안 또는 가공이 완료된 후에 출력 텐서를 결정하도록 구성된다.
이를 통해 레이저 가공 시스템으로 공작물을 가공할 때 하나 이상의 가공 오류가 발생했는지 여부, 이러한 하나 이상의 오류가 갖는 공간적 범위, 또는 이러한 하나 이상의 오류가 공작물 표면의 어느 위치에서 발생했는지 결정할 수 있다. 또한 출력 텐서는 본원 시스템이 하나 이상의 오류의 존재를 결정했을 때 사용한 확실성 정도 또는 신뢰도에 대한 정보를 포함할 수 있다.
입력 텐서와 출력 텐서 사이의 전달 함수는 바람직하게는 (사전) 교육되거나 훈련 된 신경망에 의해 형성된다. 다시 말해서, 컴퓨팅 유닛은 신경망을 포함할 수 있다. 신경망은 오류 피드백 또는 역전파에 의해 훈련되었을 수 있다.
컴퓨팅 유닛은 바람직하게는 신경망을 훈련 시키거나 적응시키기 위한 훈련 데이터를 수신하도록 구성된 인터페이스를 갖는다. 가공 유닛은 특히, 예를 들어 훈련데이터를 기반으로 한 전달 학습을 통해 신경망을 적응 시키도록 구성될 수 있다. 또한, 가공 유닛은 제어 데이터를 수신할 수 있는데, 이는 또한 인터페이스를 통해 레이저 가공 시스템으로부터 전달 학습을 위한 입력 텐서로 이동한다.
훈련 데이터는 검출 유닛에 의해 검출된 기가공 공작물 표면의 이미지 데이터 및 높이 데이터에 기초한 미리 결정된 입력 텐서 및 각각의 상기 입력 텐서와 연관된 미리 결정된 출력 텐서를 포함 할 수 있으며, 상기 출력 텐서는 예를 들어 전문가에 의해 확인된 기가공 공작물 표면에 있는 가공 오류에 대한 정보를 포함한다. 결과적으로 전달 함수를 형성하는 신경망은 변화된 상황에 적응할 수 있다. 달리 말하면, 전달 함수가 수정된다. 변경된 상황은 예를 들어, 가공될 공작물의 재료, 오염도 및/또는 두께가 상이하거나, 또는 레이저 가공의 매개변수가 변경되는 경우를 포함할 수 있다.
전달 학습에서, 신경망을 훈련하거나 가르치는 데 사용되는 훈련 데이터 세트 또는 축소(reduced)된 훈련 데이터 세트는 새로운 예로 보완될 수 있다.
따라서 본 명세서에 설명된 양태에 따라 가공 오류를 검출하기 위한 시스템에서 전달 학습을 위해 구성된 훈련된 신경망의 사용은 시스템이 변화된 상황에 신속하게 적응될 수 있다는 장점을 갖는다.
신경망은 예를 들어 심층 합성곱(convolution) 네트워크 또는 합성곱 네트워크인 심층 신경망일 수 있다. 합성곱 네트워크는 20개 내지 40개의 합성곱 레이어, 바람직하게는 42개의 합성곱 레이어를 포함할 수 있다. 또한, 합성곱 네트워크는 소위 "완전히 연결된" 레이어를 포함할 수 있다.
본원의 추가 양태에 따르면, 레이저 빔에 의해 공작물을 가공하기 위한 레이저 가공 시스템이 제공되고, 상기 가공 시스템은 가공될 가공물 상에 레이저 빔을 방사하기 위한 레이저 가공헤드 및 본원에 설명된 양태 중 하나에 따른 가공 오류를 검출하기 위한 시스템을 포함한다. 검출 유닛은 바람직하게는 상기 레이저 가공 헤드에 배치된다.
추가 양태에 따르면, 공작물을 가공하기 위한 레이저 가공 시스템의 가공 오류를 검출하는 방법이 제공되며, 상기 방법은: 공작물 표면의 이미지 데이터 및 높이 데이터를 검출하는 단계; 상기 검출된 이미지 데이터 및 높이 데이터에 기초하여 입력 텐서를 형성하는 단계; 및 입력 텐서에 기초하고 전달 함수에 의해 가공 공정에서 가공 오류에 관한 정보를 포함하는 출력 텐서를 결정하는 단계를 포함한다.
일반적으로 전달 함수를 구성하는 신경망을 사용하면 가공 오류가 존재하는지 여부와 어떤 가공 오류인지를 시스템이 독립적으로 파악할 수 있다는 장점이 있다. 따라서, 이미지 및 높이 데이터와 같은 검출된 센서 데이터가 오류 검출에 이용될 수 있기 위해 더 이상 전처리될 필요가 없다. 또한 검출된 데이터에서 가공 품질이나 어떤 가공 오류를 특징짓는 특성을 추출할 필요가 없다.
또한 가공품질 평가 또는 가공오류 분류를 위해 어떤 추출된 특성이 필요하거나 관련되는지 결정하지 않아도 된다. 또한 가공 오류를 분류하기 위해 추출된 특성의 매개변수화를 구체화하거나 조정할 필요가 없다.
이에 따라 레이저 가공 시스템에 의한 가공 품질 또는 가공 오류의 결정 또는 평가가 단순화된다. 상기 언급된 단계는 레이저 가공전문가가 수행하거나 참석할 필요가 없다. 본원에 개시된 양태에 따른 가공 오류를 검출하기 위한 시스템은 가공 품질 또는 가공 오류의 평가 또는 분류를 독립적으로, 즉 자동으로 수행하고 쉽게 조정할 수 있다.
본 발명은 도면을 참조하여 이하 상세하게 설명된다. 도면에서:
도 1은 본 발명의 일 구현예에 따른, 레이저 빔에 의해 공작물을 가공하기위한 레이저 가공 시스템 및 가공 오류를 검출하기위한 시스템의 개략도를 도시한다;
도 2는 본 발명의 일 구현예에 따른, 가공 오류를 검출하기위한 시스템의 블록도를 도시한다;
도 3A 및 3B는 예시적인 이미지 데이터 및 높이 데이터를 도시한다;
도 4는 본 발명의 일 구현예에 따른, 심층 합성곱 신경망의 블록도를 도시한다;
도 5는 본 발명의 일 구현예에 따른, 가공 오류를 검출하는 방법을 도시한다.
이하 도면을 참조로 상세히 설명한다. 다른 언급이 없는 한, 동일하고 동일한 효과를 갖는 요소에 대해서는 이하에서 동일한 참조 기호가 사용된다.
도 1은 본원 구현예들에 따른 레이저 빔에 의해 공작물을 가공하기 위한 레이저 가공시스템(100)의 개략도를 도시한다. 레이저 가공 시스템 (100)은 레이저 가공 헤드(101), 특히 레이저 절단, 레이저 납땜 또는 레이저 용접 헤드, 및 가공 오류를 검출하기 위한 시스템(300)을 포함한다.
레이저 가공 시스템(100)은 레이저 빔 (10)("가공 빔" 또는 "가공 레이저 빔"이라고도 함)을 생성하기 위한 레이저 장치(110)를 포함한다.
구현예에 따른, 예를 들어, 가공 헤드(101)와 같은 레이저 가공 시스템(100) 또는 그 일부는 가공 방향(20)을 따라 이동가능할 수 있다. 가공 방향(20)은 공작물(1)에 대한 가공 헤드(101)와 같은 레이저 가공 시스템 (100)의 절단, 납땜 또는 용접 방향 및/또는 이동 방향일 수 있다. 특히, 가공 방향(20)은 수평방향일 수 있다. 가공 방향(20)은 "이송(feed) 방향"이라고도 지칭될 수 있다.
레이저 가공 시스템(100)은 가공 헤드(101) 및/또는 레이저 장치(110)를 제어하도록 구성된 제어 유닛 (140)에 의해 제어된다.
가공 오류를 검출하기위한 시스템(300)은 검출 유닛(310) 및 컴퓨팅 유닛(320)을 포함한다. 검출 유닛(310)은 공작물(1)의 가공된 표면(2)의 이미지 데이터 및 높이 데이터를 검출하도록 구성된다. 일 구현예에 따르면, 검출 유닛(310)은 가공 헤드(101) 위에 배열될 수 있다. 예를 들어, 검출 유닛은 가공 방향(20)을 기준으로 가공 헤드 (101)의 하향 배열될 수 있다.
컴퓨팅 유닛(320)은 검출 유닛(310)에 의해 검출된 기가공 공작물 표면(2)의 이미지 데이터 및 높이 데이터를 수신하고, 이미지 데이터 및 높이 데이터에 기초하여 입력 텐서를 형성하도록 구성된다. 컴퓨팅 유닛(320)은 컴퓨팅 유닛(320)에 접근가능한 전달 함수에 의해 입력 텐서에 기초하여 가공 오류에 대한 정보를 포함하는 출력 텐서를 결정하도록 추가로 구성된다. 달리 말해서, 출력 텐서는 하나 이상의 산술 연산 결과일 수 있으며, 레이저 가공 시스템(100)에 의해 공작물(1)이 가공되었을 때 오류(들)의 발생여부와 어떤 종류의 오류가 발생했는지에 대한 정보를 포함한다. 또한 출력 텐서는 공작물 표면(2) 오류의 유형, 위치 및 크기에 대한 정보를 포함할 수 있다.
일 구현예에 따르면, 컴퓨팅 유닛(320)은 제어 유닛(140) (도시되지 않음)과 조합된다. 즉, 컴퓨팅 유닛(320)의 기능은 공통 처리 유닛에서 제어 유닛(140)의 기능과 조합될 수 있다.
레이저 가공 시스템(100)은 가공 헤드(101)의 단부와 가공될 공작물(1) 사이의 거리를 측정하기 위한 측정장치(120)를 선택적으로 포함한다. 상기 측정장치는 광학 간섭 단층 촬영기, 특히 광학 저-간섭 단층 촬영기를 포함할 수 있다.
레이저 장치(110)는 레이저 빔(10)을 시준하기위한 시준기 렌즈(112)를 포함할 수 있다. 간섭 단층 촬영기는 광학 측정빔(13)을 시준하도록 구성된 시준 광학기(122) 및 광학 측정 빔(13)을 공작물(1) 상에 초점을 맞추도록 구성된 집속 광학기(124)를 포함할 수 있다. 본 명세서에서, 거리 측정은 간섭계의 도움으로 빛의 간섭 특성을 이용하는 광 간섭 단층 촬영의 원리에 기초한다. 광 간섭 단층 촬영기는 광대역 광원(예를 들어, 초발광 다이오드, SLD) (도시되지 않음)을 갖는 평가 유닛을 포함할 수 있다. 그러나, 레이저 장치(110)는 이러한 배열에 제한되지 않는다. 광 간섭 단층 촬영 대신, 측정 장치는 삼각 측량 시스템이나 스테레오 카메라를 사용할 수도 있다.
도 2는 일 구현예에 따른 가공 오류를 검출하기 위한 시스템(300)의 블록도를 도시한다.
시스템(300)은 검출 유닛(310)과 검퓨팅 유닛(320)을 포함한다. 검출 유닛(310)과 컴퓨팅 유닛(320)은 서로 연결되어 컴퓨팅 유닛(320)은 검출 유닛(310)에서 검출된 이미지 데이터와 높이 데이터를 수신할 수 있다.
검출 유닛(310)은 다음 요소들 중 적어도 하나를 포함할 수 있다: 가공된 공작물 표면(2)의 이미지 데이터 및 높이 데이터 모두를 검출하고 출력하도록 구성된 스테레오 카메라 시스템; 예를 들면 입사광 LED 조명, 삼각 측량 시스템 또는 OCT 시스템을 구비한 카메라 시스템.
일 구현예에 따르면, 검출 유닛(310)은 가공된 공작물 표면 (2)으로부터 이미지 데이터를 검출하도록 구성된 이미지 검출 유닛(도시되지 않음) 및 가공된 공작물 표면 (2)으로부터 높이 데이터를 검출하도록 구성된 높이 검출 유닛(도시되지 않음)을 포함한다. 이미지 검출 유닛은 예를 들어 입사광 LED 조명을 갖는 카메라 시스템을 포함할 수 있다. 높이 검출 유닛은 삼각 측량 시스템 또는 OCT 시스템, 즉 "광 간섭 단층 촬영"시스템 또는 광 간섭 단층 촬영에 기초한 시스템을 포함할 수 있다.
본 발명에 따르면, 이미지 데이터는 가공된 공작물 표면(2) 한 구획의 2차원 이미지에 대응한다. 달리 말해서, 검출되거나 캡처된 이미지 데이터는 가공된 공작물 표면(2)의 2차원 이미지를 나타내며, 이는 예시적으로 도 3B에 나타나 있으며, 이하 상세히 설명한다. 높이 데이터는 가공된 공작물 표면(2) 한 구획의 3차원 높이 형상에 대응하며, 이는 예시적으로 도 3A에 나타나 있으며, 이하 자세히 설명한다. 이미지 데이터 및 높이 데이터는 바람직하게는 가공된 공작물 표면(2)의 동일한 구획에 대한 데이터를 포함한다.
일 구현예에 따르면, 컴퓨팅 유닛(320)은 출력 텐서를 결정하기 위한 프로세서를 포함한다. 전달 함수는 일반적으로 컴퓨팅 유닛(320)의 메모리(도시되지 않음)에 저장되거나 회로, 예를 들어 FPGA로 적용된다. 메모리는 예를 들어 결정된 출력 텐서와 같은 추가 데이터를 저장하도록 구성될 수 있다.
컴퓨팅 유닛(320)은 특히 사용자와 상호작용하기 위한 그래픽 사용자 인터페이스를 포함할 수있는 입력/출력 유닛(322)을 포함할 수 있다. 컴퓨팅 유닛(320)은 데이터 인터페이스(321)를 구비할 수 있으며, 이를 통해 컴퓨팅 유닛은 출력 텐서를 추가 컴퓨팅 유닛, 컴퓨터, PC, 데이터베이스, 메모리 카드 또는 하드 드라이브 등의 외부 저장 유닛과 같은 외부 위치로 전송할 수있다. 컴퓨팅 유닛(320)은 컴퓨팅 유닛이 네트워크와 통신할 수 있는 통신 인터페이스(도시되지 않음)를 더 포함할 수 있다. 또한, 컴퓨팅 유닛(320)은 출력 유닛(322) 상에 출력 텐서를 그래픽으로 표시할 수 있다.
컴퓨팅 유닛(320)은 검출 유닛(310)에 의해 검출된 이미지 데이터 및 높이 데이터로부터 전달 함수를 위한 입력 텐서를 생성한다. 상기 이미지 데이터 및 높이 데이터는 도 3A 내지 도 3B를 참조하여 이하 상술한다.
컴퓨팅 유닛(320)은 추가로 인터페이스(321)를 통해 레이저 가공 시스템(100)의 제어 유닛(140)으로부터 제어 데이터를 수신하고 또한 제어 데이터를 입력 텐서에 통합하도록 구성될 수 있다. 제어 데이터는 예를 들어, 레이저 장치(110)의 출력 전력, 가공 헤드(101)와 공작물(1) 표면 사이의 거리, 각각의 경우 주어진 시점에서 이송 방향 및 속도를 포함할 수 있다.
전달 함수는 학습된, 즉 사전 훈련된 심층 합성곱 신경망에 의해 형성된다. 즉, 컴퓨팅 유닛은 심층 합성곱 신경망을 포함한다. 출력 텐서는 전달 함수를 입력 텐서에 적용함으로써 형성된다. 전달 함수를 사용하면 따라서 출력 텐서가 입력 텐서에서 결정된다.
출력 텐서는 하나 이상의 가공 오류에 대한 정보 또는 데이터를 포함한다. 이 정보 또는 데이터는 다음 일 수 있다: 하나 이상의 가공 오류가 있는지 여부, 상기 하나 이상의 가공 오류 유형, 가공된 공작물(1) 표면의 가공 오류 위치 및/또는 상기 가공 오류의 크기 또는 범위.
일 구현예에 따르면, 출력 텐서는 특정 유형의 가공 오류가 발생했을 확률 또는 시스템이 특정 유형의 가공 오류를 검출했다는 신뢰를 포함할 수있다. 또한, 출력 텐서는 가공 된 공작물의 표면에 있는 가공 결함의 공간적 또는 평면적 범위에 대한 정보 또는 데이터를 포함 할 수 있다.
일 구현예에 따르면, 컴퓨팅 유닛(320)은 입력 텐서 및/또는 출력 텐서를 출력 유닛(322)에 그래픽으로 표시하도록 구성될 수 있다. 예를 들어, 컴퓨팅 유닛(320)은 도 3A 또는 3B에서 볼 수 있듯이, 입력 텐서에 포함된 이미지 데이터 및/또는 높이 데이터를 가공된 공작물 표면(2)의 2차원 이미지로서 그래픽으로 표시할 수 있고, 출력 텐서에 포함된 가공 오류에 대한 정보를 이에 중첩할 수 있다.
도 3A는 고도 데이터를 나타내며, 도 3B는 일 구현예에 따른 이미지 데이터를 나타낸다. 도 3A는 삼각 측량 센서로 기록한 납땜된 이음새의 예시적인 높이 이미지를 보여준다. 도 3B는 LED 입사광 조명의 도움으로 기록한 납땜된 이음새의 예시적인 입사광 이미지를 보여준다.
일 구현예에 따르면, 검출 유닛(310) 또는 이미지 검출 유닛과 높이 검출 유닛에 의해 검출된 이미지 데이터 및 높이 데이터는 가공된 공작물 표면의 구획과 해당 높이 이미지의 기록으로부터 생성될 수 있다. 상기 기록은 2 차원 이미지 또는 사진 일 수 있으며, 바람직하게는 LED 입사광 조명 하에서 만들어지며 "입사광 이미지"라고 한다. 높이 이미지는 가공된 공작물 표면 구획의 높이 형상 또는 높이 프로파일을 나타낼 수 있다. 따라서 가공된 공작물 표면의 3 차원 형상에 대한 정보를 포함한다.
도 3A에서, 상이한 그레이 값은, 아래에서 상세히 설명되는 바와 같이 가공된 공작물 표면(2)의 상이한 높이 값을 나타낸다. 도 3B에서, 상이한 그레이 값은 예를 들어 LED 입사광 조명에 의해, 광의 반사에 의해 만들어진 가공된 공작물 표면(2)의 상이한 밝기 값을 나타낸다. 프레임 (2a, 2b)은 컴퓨팅 유닛(320)에 의해 결정된 출력 텐서에 정보로서 포함되기 때문에, 검출된 가공 오류의 크기 및 위치를 나타낸다.
높이 이미지에서 각 밝기 또는 그레이 값은 공작물 표면에 평행한 평면으로부터 거리 값에 해당하고; 입사광 이미지에서 각각의 밝기 또는 그레이 값은 검출 유닛 또는 이미지 검출 유닛의 포토 센서로 다시 반사되는 빛의 강도에 대응한다.
일 구현예에 따르면, 입사광 이미지 및 높이 이미지는 차원이 동일하도록 치수조정된다. 즉, 일 구현예에 따르면, 입사광 이미지와 높이 이미지는 가공된 공작물 표면의 동일한 부분의 기록을 보여준다. 위에서 설명한 바와 같이, 이미지는 별도의 녹화 시스템으로 녹화 될 수 있다.
일 구현예에 따르면, 입사광 이미지는 삼각 측량 라인과 그 주변의 세기로부터 삼각 측량 평가로 생성될 수 있다. 이는 삼각 측량 라인의 반사된 산란광을 포획하여 삼각 측량 라인 내부 또는 주변의 공작물 표면 영역의 입사광 이미지를 생성한다. 이들 입사광 화상 복수개를 합치면 그레이 값 이미지가 생성된다. 이러한 방식으로 삼각 측량 시스템의 피드 방향에서 생성된 그레이 값 이미지의 해상도는 삼각 측량 시스템의 스캔 속도에 의존한다.
일 구현예에 따르면, 기록 및 높이 이미지가 조합되어 2 채널 이미지를 형성한다. 따라서, 컴퓨팅 유닛(320)에 의해 생성된 입력 텐서는 n×m 픽셀의 해상도로 가공된 공작물 표면의 구획에 대한 기록 또는 이미지를 포함할 수 있고, 여기서 n 및 m은 자연수이며, 바람직하게는 각각 1024이다. 이는 이미지가 1024×1024 픽셀로 구성되어 있음을 의미한다. 입력 텐서는 각 픽셀에 대한 높이 데이터로 높이 값을 포함 할 수도 있다. 이는 입력 텐서에 1024×1024×2 차원의 2 채널 이미지가 포함되어 있음을 의미한다. 따라서 2 채널 이미지에는 각 픽셀에 대한 밝기 값과 높이 값이 포함되며, 픽셀은 공작물 표면의 구획 영역에 해당한다.
컴퓨팅 유닛(320)은 전달 함수를 이용하여 입력 텐서를 기반으로 출력 텐서를 결정한다. 출력 텐서의 입력 텐서로 전달 함수 또는 매핑은, 도 4A 및 4B를 참조하여 아래에서 상세히 설명되는 바와 같이, 심층 합성곱 신경망에 의해 구현된다.
도 4A 및 4B는 본 발명의 일 구현예에 따른 심층 합성곱 신경망(400)의 블록도를 도시한다.
입력 텐서는 이미지 데이터 및 높이 데이터를 포함하는 검출된 원시 데이터를 포함한다. 상술한 바와 같이, 입력 텐서는 입사광 이미지와 높이 이미지로 구성된 2 채널 이미지로부터 생성될 수 있다. 이러한 이미지 데이터와 높이 데이터는 심층 합성곱 신경망의 입력 텐서를 직접 형성한다. 이는 입력 텐서와 출력 텐서 사이에 소위 "종단 간"매핑 또는 분석이 수행됨을 의미한다. 따라서 중간 단계에서 특성이 계산되거나 매개 변수화되지 않는다.
이하에서 "CNN"으로 약칭되는 심층 합성곱 신경망(40)은 복수개의 코어로 합성곱을 수행하는 복수개의 레이어(410)를 포함한다. 또한, CNN(400)은 소위 "완전 연결" 레이어" 또는 블록(450)을 포함할 수 있다.
CNN은 바람직하게는, 가공 오류 또는 결함의 크기를 표시하여 가공 오류를 신속하게 검출하고 위치측정할 수 있도록 소위 You Only Look Once 방법을 사용하는 것이 바람직할 수 있다.
일 구현예에 따르면, CNN은 공작물(1)의 가공 중에 기공 (오류 "a"), 구멍 (오류 "b") 및 용접 침투 누락 (오류 "c")을 검출하도록 구성된다. 이는 가능한 가공 오류의 분류가 3가지 클라스라는 걸 의미한다. 분류 결과는 x, y, dx, dy 값 (각각의 오류 위치 및 크기)뿐만 아니라, Pc (오류 존재/부재 또는 오류 존재 확률), Ca (오류 "a" 확률), Cb (오류 "b" 확률), Cc (오류 "c" 확률)의 값을 가져야만 한다. 여기서 x 및 y 값은 x축과 y축이 있는 2 차원 직교좌표계의 좌표를 나타내며, 상기 2 차원 직교좌표계의 평면은 공작물 표면에 평행하게 배열된다. 따라서 dx, dy 값은 x 및 y 방향의 오류 범위 또는 크기를 나타낸다.
차원 1024×1024×2, 즉 크기 1024×1024 픽셀의 입사광 이미지 및 각 픽셀의 높이 값의 구현에 따른 입력 텐서(430)의 경우, CNN은 1024×1024×2 뉴런을 구비한 입력 레이어를 포함한다. 예를 들어 래스터(raster) 셀당 64×64 픽셀 크기의 소위 그리드 또는 래스터가 입사광 이미지 위에 배치된다. 이는 결과적으로 16×16×8 뉴런이 있는 출력 계층이 생성되어, 출력 텐서도 또한 16×16×8 차원을 갖는다.
예를 들어 입사광 및 높이 이미지는 256개의 그리드 또는 래스터 셀로 나뉜다. 따라서 신경망은 출력 텐서로부터 256 개의 그리드 셀 각각에 대한 분류 결과를 결정하고, 그리드 셀은 개당 8 개의 값을 포함한다. 이 8개의 값으로부터, 각 그리드 셀에 대해 가공된 공작물 표면의 분류 또는 평가 결과가 신경망에 의해 취해질 수 있다. 일 구현예에 따르면, 절차는 먼저 해당 그리드 셀에 오류가 있는지 여부를 나타내는 값 Pc를 고려하는 것이다. 오류가 있으면 Ca, Cb 및 Cc 값이 다음에 검사된다. 이는 오류 "a", 오류 "b"또는 오류 "c"의 존재여부 확률이 얼마나 높은지 검사된다는 것을 의미한다. 마지막으로 오류의 위치 및 크기 값 x, y, dx, dy가 검사된다. 이 등급별 또는 단계별 접근 방식을 통해 출력 텐서의 빠른 분류 또는 추가 처리를 보장할 수 있다.
출력 텐서 또는 그 안에 포함된 값의 검사에서, 가공된 공작물은 이어 사전 정의된 분류 알고리즘을 사용하여 "양호"또는 "불량"으로 분류될 수 있다. 즉, 상황에 따라 공작물은 판매 또는 추가 가공에 적합 ("양호") 또는 폐기물로 분류되거나 후-가공 ("불량")으로 표시될 수 있다.
다른 예시적인 구현예에 따르면, 적어도 2 개의 프레임된 직사각형, 소위 "바운딩 박스"가 각 그리드 또는 래스터 셀에 대해 연관된 확률로 계산된다. 각 프레임 사각형에 대해 각 하나씩의 개체가 위치화되고 각 오류 클래스에 대한 확률이 계산된다. 이는 16×16×2×8 뉴런이 있는 출력 레이어를 제공한다. 즉, 출력 텐서(440)도 또한 16×16×2×8 차원을 갖는다.
각 래스터 셀에 대해, 콘텐츠 y = (Pc1, x1, y1, dx1, dy1, Ca1, Cb1, Cc1; Pc2, x1, x2, dx2, dy2, Ca2, Cb2, Cc2)인 벡터 y가 있다. 인덱스 "1"은 두 프레임 사각형 중 하나를 나타내고, 인덱스 "2"는 두 프레임 사각형 중 다른 하나를 나타낸다. 그리드 셀에서, 만약 두 개의 프레임 직사각형이 미리 정의된 임계값보다 큰 확률 Pc를 갖는 경우, 일 구현예에 따르면 더 큰 "IoU 값"을 갖는 직사각형이 선택된다. 상기 IoU 값은 프레임 사각형의 유니온과 관련된 교차를 설명한다.
분류 결과는 예를 들어 "비-최대 억제"방법을 사용하여 네트워크의 출력 텐서에서 직접 읽을 수 있다. 네트워크 훈련은 GPU에 의해 지원된다. 추론은 카메라의 FPGA 또는 FPGA(미도시)를 구비한 컴퓨팅 유닛(320)의 플러그인 카드를 통해 수행된다.
도 4A 및 도 4B에 나타낸 바와 같이, CNN은 예를 들어 42 개의 합성곱 레이어를 포함하고, 적어도 일부 합성곱 레이어는 정규화 (배치 (batch) 정규화) 및 소위 잔여 블록을 포함한다.
레이어의 출력을 정규화함으로써, "폭발하는" 또는 "소멸하는" 구배(gradient) 문제를 피할 수 있다. 추론 과정의 양태는 다른 분포의 데이터에 덜 민감하다.
정규화는 일반적으로 "미니 배치"에 대한 평균값과 표준 편차를 포함한다. 그 효과는 규정(regulation)이다.
일 구현예에 따르면, 이들 매개변수는 훈련된 네트워크에서 하이퍼 매개변수로 사용된다: "배치 정규화", "내부 공변량 시프트를 감소시킴으로써 심층 네트워크 훈련 가속화"(Sergey Ioffe, Christian Szegedy에 따름).
도 4에서 "합성곱 32 3x3"블록은 32 개의 서로 다른 3x3 합성곱 필터 마스크를 갖는 합성곱 블록을 나타낸다. 이는 블록 "convolution 32 3x3"이 입력 차원 m×n×c의 텐서를 텐서 m×n×32로 생성함을 의미하고, 여기서 m은 높이, n은 너비, c는 채널 수를 나타낸다. 1024x1024x2의 2-채널 입력 텐서의 경우, 1024x1024x32 차원의 텐서, 즉 1024x1024 차원의 32개 이미지로 나타난다. 이는 다른 합성곱 블록에도 동일하게 적용된다.
도 4의 합성곱 블록에서 "/2"표시는 2의 "진행(stride)"을 나타낸다. 필터 코어가 2 픽셀만큼 전방으로 시프트되어, 차원이 절반으로 줄어든다. 상기 블록 위의 정보, 예를 들어 "512 × 512"는 채널 수가 없는 텐서의 m×n 차원을 기술한다.
"잔여 블록" 표시는 활성화 기능을 통해 값이 전달되기 전에 이전 레이어(1)의 출력이 출력 레이어(1 + 2)의 결과에 추가됨을 나타낸다.
사용된 CNN은 훈련되거나 학습된 심층 합성곱 신경망이다. 달리 말해서, CNN은 가공 오류를 검출하기 위한 시스템을 제공하기 전에 어느 것이 "양호"하고 어느 것이 "불량" 가공된 공작물 표면인지 또는 어느 것이 "양호"하고 어느 것이 "불량"한 용접 또는 납땜 이음새인지, 예를 통해서 배웠다. 즉, CNN은 가공된 공작물 표면을 "양호"또는 "불량"으로 분류하는 방법을 배웠거나 가공 오류를 검출하고, 위치를 파악하고, 이들을 유형에 따라 분류하고, 크기를 결정하는 것을 배웠다.
후(post)-가공 표면 검사의 경우, 시스템은 가공된 공작물 표면에 가공 오류가 있는지 여부를 신뢰성있게 결정해야만 한다. 공작물 표면에 어떤 오류(예: 기공, 구멍, 분출, 튐, 접착 또는 침투 부족 또는 "거짓 짝")가 있는지 검출하고 가공 오류의 위치를 파악하고 크기를 표시해야 한다. CNN을 훈련시키고 하이퍼 매개변수를 설정하기 위해, CNN에 미리 결정된 입력 텐서와 해당 출력 텐서를 제공한다. 미리 결정된 입력 텐서는 위에서 설명한 것처럼 가공된 공작물 표면의 구획에 대한 이미지 데이터와 높이 데이터를 포함한다. 대응하는 미리 결정된 출력 텐서 또는 결과 텐서는 각각의 미리 결정된 입력 텐서와 연관된다. 이 출력 텐서는 각 입력 텐서에 대한 공작물 표면의 이 섹션에 대해 원하는 CNN 결과를 포함한다.
달리 말해서, 해당하는 미리 결정된 출력 텐서는 가공된 공작물 표면의 구획에 존재하는 가공 오류의 분류, 가공 오류의 위치와 가공오류의 공간 및/또는 평면 범위에 대한 정보를 포함한다. 이러한 출력 텐서를 각각의 미리 결정된 입력 텐서와 연관짓는 것은 수동으로 수행된다(소위 검출된 이미지 및 높이 데이터의 "레이블링"). 이는 이미지와 높이 데이터가 전달 함수의 결과와 미리 결정된 연관성이 있음을 의미한다. 예를 들어, 입력 텐서로 표시되는 가공된 공작물 표면의 구획에 오류가 있는지 여부, 어떤 유형의 오류가 있는지, 가공된 공작물 표면의 어느 위치에서 가공 오류가 있는지, 예를 들어 x와 y 좌표가 있는 2 차원 좌표계를 기반으로, 그리고 x와 y방향에서 가공 오류 크기가, 출력 텐서에 지정된다.
그런 다음 CNN에 의해 생성된 전달 함수는 최적화 방법에 의해 결정되고 시스템(300), 바람직하게는 컴퓨팅 유닛(320)의 메모리에 저장된다. 최적화 방법은 예를 들어 Adam 최적화를 구비한 "역 전파"공정을 통해 수행된다. 추론의 경우, CNN은 오류 유형, 위치 및 크기와 함께 2 채널 이미지의 연관성을 제공한다.
학습된 심층 합성곱 신경망은 소위 전달학습을 통해 변화된 상황에 적응할 수 있도록 구성된다. 네트워크의 기본 교육은 시스템 시운전 전에 수행된다. 시운전 후 가공 공정이 변경되면 소위 전달학습만 수행된다. 변경된 상황은 예를 들어 재료가 변경 될 때의 경우처럼 가공할 공작물이 변경될 수 있다. 공작물 표면의 두께 또는 재료 조성도 약간 변경될 수 있다. 또한 공작물을 가공하기 위해 다른 공정 매개변수를 사용할 수 있다. 이로 인해 다른 가공 오류가 발생할 수 있다. 예를 들어, 상이한 유형의 가공 오류의 확률이 변경되거나 가공 오류가 상이하게 형성될 수 있다. 이는 신경망은 변경된 상황과 그로 인해 변경된 가공 오류에 맞게 조정되어야만 한다는 것을 의미한다.
전달 학습은 신경망의 초기 교육과 유사하다. 그러나 일반적으로 심층 합성곱 신경망의 단지 몇 개의 특정 합성곱 레이어, 특히 마지막 2~3개의 합성곱 레이어만 전달 학습에 적용된다. 변경된 신경망의 매개변수 수는 신경망을 훈련하거나 가르치는 동안보다 훨씬 적다. 이를 통해 고객사이트에서는 일반적으로 1 시간 이내에 전달학습을 신속하게 완료할 수 있다. 이는 전달학습을 사용하는 경우, 전체 신경망이 새로 훈련되거나 교육되지 않는다는 것을 의미한다.
시스템 (300)은 인터페이스 (321)를 통해 전달학습에 필요한 훈련 데이터를 수신할 수 있다.
도 5는 레이저 빔에 의해 공작물을 가공하기 위한 레이저 가공 시스템에서 가공 오류를 검출하는 방법을 도시한다. 제 1 단계 (510)는 레이저 가공 시스템에 의해 가공된 공작물 표면의 이미지 데이터 및 높이 데이터를 검출하는 것을 포함한다. 제 2 단계(520)에서, 상기 검출된 이미지 데이터 및 높이 데이터에 기초하여 입력 텐서가 생성된다. 단계(530)에서, 상기 입력 텐서에 기초하여, 전달 함수는 가공 오류에 대한 정보를 포함하는 출력 텐서를 결정하는데 사용된다.
공작물이 가공되는 동안 가공 오류를 검출하는 방법이 이미 시작되었을 수 있다. 이 방법은 또한 공작물 가공이 완료되었을 때 시작될 수도 있다.
상기 방법은 가공된 공작물 표면의 복수 부분에 대해 개별적으로 또는 병렬로 수행될 수있다. 일 구현예에 따르면, 상기 방법은 전체 가공된 공작물 표면에 대하여 한 번 수행된다. 이 경우 이미지 및 높이 데이터는 전체 가공된 공작물 표면에 대해 한 번만 검출 될 수 있으며 출력 텐서의 결정은 각 가공 된 공작물에 대해 한 번만 수행 될 수 있다.
이 방법은 어떤 가공된 공작물에 대해서도 수행할 수 있다. 일 구현예에 따르면, 이 방법은 레이저 가공 시스템에 의해 가공된 n 번째 공작물마다 수행될 수 있으며, 여기서 n은 자연수이다.
전달 함수를 형성하는 신경망을 사용하면 시스템이 가공 오류의 존재 여부와 어떤 가공오류인지를 독립적으로 검출 할 수 있다는 장점이 있다. 따라서 오류 검출에 접근하기 위해, 이미지 및 높이 데이터와 같은 검출된 센서 데이터를 더 이상 전처리할 필요가 없다. 또한 검출된 데이터에서 가공 품질이나 가공 오류를 특징화하는 특성을 추출할 필요가 없다. 또한 어떤 추출된 특성이 가공 품질 평가 또는 가공 오류 분류와 관련되거나 또는 필요한지를 결정할 필요가 없다. 또한 가공 오류를 분류하기 위해 추출된 특성의 매개변수화를 지정하거나 조정할 필요가 없다. 따라서 레이저 가공 시스템에 의한 가공품질 또는 가공오류의 결정 또는 평가가 단순화된다. 상기 언급된 단계는 레이저 가공 전문가가 수행하거나 참석할 필요가 없다.

Claims (15)

  1. 공작물(1)을 가공하기 위한 레이저 가공 시스템(100)의 가공 오류를 인식하기 위한 시스템(300)으로, 상기 시스템은:
    가공된 공작물 표면(2)의 이미지 데이터 및 높이 데이터를 검출하기 위한 검출 유닛(310); 및
    컴퓨팅 유닛(320)을 포함하고,
    상기 컴퓨팅 유닛(320)은 상기 검출된 이미지 데이터 및 상기 높이 데이터에 기초하여 입력 텐서를 생성하도록 구성되고, 그리고 상기 입력 텐서에 기초하여 전달 함수를 사용하여 출력 텐서를 결정하도록 구성되며, 상기 출력 텐서는 가공 오류에 대한 정보를 포함하고, 상기 전달 함수는 신경망 (400)에 의해 형성되고, 상기 입력 텐서는 상기 높이 데이터 및 이미지 데이터의 원시 데이터의 2-채널 이미지를 포함하는, 시스템(300).
  2. 제 1 항에 있어서,
    상기 검출 유닛(310)은 상기 이미지 데이터를 검출하기 위한 이미지 검출 유닛, 및
    상기 높이 데이터를 검출하기 위한 높이 검출 유닛을 포함하는, 시스템 (300).
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 검출 유닛 (310)은, 카메라 시스템, 스테레오 카메라 시스템, OCT (Optical Coherence Tomography) 시스템, 및 삼각 측량 시스템 중 적어도 하나를 포함하는, 시스템 (300).
  4. 제 1 항 또는 제 2 항에 있어서,
    상기 입력 텐서는 상기 이미지 데이터 및 높이 데이터의 원시 데이터를 포함하는, 시스템 (300).
  5. 제 1 항 또는 제 2 항에 있어서,
    상기 이미지 데이터는 상기 가공된 공작물 표면(2) 구획의 2-차원 이미지에 대응하는, 시스템 (300).
  6. 제 5 항에 있어서,
    상기 높이 데이터는 상기 가공된 공작물 표면(2)의 동일한 구획의 높이 형상(geometry)에 대응하는, 시스템 (300).
  7. 제 1 항 또는 제 2 항에 있어서,
    상기 검출 유닛(310) 및 상기 컴퓨팅 유닛 (320) 중 적어도 하나는, 상기 높이 데이터 및 이미지 데이터로부터 2-채널 이미지를 생성하도록 구성되는, 시스템 (300).
  8. 제 1 항 또는 제 2 항에 있어서,
    상기 출력 텐서는 다음 정보 중 하나를 포함하는 시스템 (300) :
    적어도 하나의 가공 오류의 존재, 가공 오류의 유형, 가공된 공작물 표면의 가공 오류의 위치, 특정 유형의 가공 오류 확률, 가공된 공작물 표면의 가공 오류의 공간적 범위, 가공된 공작물 표면의 가공 오류의 평면적 범위. 및 가공된 공작물 표면의 가공 오류의 공간적 및 평면적 범위.
  9. 제 1 항 또는 제 2 항에 있어서,
    상기 입력 텐서 및 상기 출력 텐서 사이의 상기 전달 함수는 학습된 심층 합성곱 신경망(400)에 의해 형성되는, 시스템 (300).
  10. 제 9 항에 있어서,
    상기 학습된 심층 합성곱 신경망(400)은 전달학습을 사용하여 변경된 상황에 적응할 수 있는, 시스템 (300).
  11. 제 9 항에 있어서,
    상기 컴퓨팅 유닛(320)은, 상기 신경망(400)을 적응시키기 위한 훈련 데이터 및 상기 출력 텐서를 결정하기 위한 제어 데이터 중 적어도 하나를 수신하도록 구성된 인터페이스(321)를 포함하는, 시스템 (300).
  12. 제 11 항에 있어서,
    상기 훈련 데이터는:
    상기 검출 유닛(310)에 의해 검출된 가공된 공작물 표면(2)의 이미지 데이터 및 높이 데이터에 기초한 미리 결정된 입력 텐서, 및
    상기 각 입력 텐서와 연관되고, 상기 가공된 공작물 표면(2)의 기존 가공 오류에 대한 정보를 포함하는 미리 결정된 출력 텐서를 포함하는, 시스템 (300).
  13. 제 1 항 또는 제 2 항에 있어서,
    상기 입력 텐서는 상기 이미지 데이터 수의 두 배인 차원을 갖는, 시스템 (300).
  14. 레이저 빔에 의해 공작물을 가공하기위한 레이저 가공 시스템(100)으로, 상기 레이저 가공 시스템(100)은:
    가공될 공작물(1)에 레이저 빔을 방사하기 위한 레이저 가공 헤드(101); 및
    제 1 항 또는 제 2 항에 따른 시스템(300)을 포함하는, 시스템 (100).
  15. 공작물(1)을 가공하기 위한 레이저 가공 시스템(100)에서 가공 오류를 인식하는, 하기의 단계를 포함하는 방법:
    가공된 공작물 표면(2)의 이미지 데이터 및 높이 데이터를 검출(510)하는 단계;
    상기 검출된 이미지 데이터 및 높이 데이터에 기초하여 입력 텐서를 생성(520)하는 단계로, 상기 입력 텐서는 상기 높이 데이터 및 이미지 데이터의 원시 데이터의 2-채널 이미지를 포함하며; 및
    전달 함수를 사용하여 가공 오류에 대한 정보를 포함하는 출력 텐서를 결정(530)하는 단계로, 상기 전달 함수는 신경망 (400)에 의해 형성됨.
KR1020217018838A 2018-11-22 2019-10-10 심층 합성곱 신경망을 이용한 레이저 가공 시스템의 가공오류 검출 시스템 및 방법 KR102468234B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102018129425.5 2018-11-22
DE102018129425.5A DE102018129425B4 (de) 2018-11-22 2018-11-22 System zur Erkennung eines Bearbeitungsfehlers für ein Laserbearbeitungssystem zur Bearbeitung eines Werkstücks, Laserbearbeitungssystem zur Bearbeitung eines Werkstücks mittels eines Laserstrahls umfassend dasselbe und Verfahren zur Erkennung eines Bearbeitungsfehlers eines Laserbearbeitungssystems zur Bearbeitung eines Werkstücks
PCT/EP2019/077481 WO2020104102A1 (de) 2018-11-22 2019-10-10 Erkennung von bearbeitungsfehlern eines laserbearbeitungssystems mithilfe von tiefen faltenden neuronalen netzen

Publications (2)

Publication Number Publication Date
KR20210090264A KR20210090264A (ko) 2021-07-19
KR102468234B1 true KR102468234B1 (ko) 2022-11-16

Family

ID=68289930

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217018838A KR102468234B1 (ko) 2018-11-22 2019-10-10 심층 합성곱 신경망을 이용한 레이저 가공 시스템의 가공오류 검출 시스템 및 방법

Country Status (7)

Country Link
US (1) US11536669B2 (ko)
EP (1) EP3883716B1 (ko)
JP (1) JP7082715B2 (ko)
KR (1) KR102468234B1 (ko)
CN (1) CN113226612B (ko)
DE (1) DE102018129425B4 (ko)
WO (1) WO2020104102A1 (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018129441B4 (de) * 2018-11-22 2023-11-16 Precitec Gmbh & Co. Kg System zur Überwachung eines Laserbearbeitungsprozesses, Laserbearbeitungssystem sowie Verfahren zur Überwachung eines Laserbearbeitungsprozesses
DE102020112116A1 (de) 2020-05-05 2021-11-11 Precitec Gmbh & Co. Kg Verfahren zum Analysieren eines Laserbearbeitungsprozesses, System zum Analysieren eines Laserbearbeitungsprozesses und Laserbearbeitungssystem mit einem solchen System
DE102020210974A1 (de) * 2020-08-31 2022-03-03 Ford Global Technologies, Llc Verfahren und Vorrichtung zum Ermitteln von Defekten während eines Oberflächenmodifizierungsverfahrens
DE102020212510A1 (de) 2020-10-02 2022-04-07 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Verfahren und Vorrichtung zum Aufzeigen des Einflusses von Schneidparametern auf eine Schnittkante
DE102021120435A1 (de) 2021-08-05 2023-02-09 Ford Global Technologies, Llc Verfahren und Vorrichtung zum Ermitteln der Größe von Defekten während eines Oberflächenmodifizierungsverfahrens
DE102021127016A1 (de) * 2021-10-19 2023-04-20 Precitec Gmbh & Co. Kg Prozesssignalrekonstruktion und Anomalie-Detektion bei Laserbearbeitungsprozessen
CN116416183A (zh) * 2021-12-29 2023-07-11 广东利元亨智能装备股份有限公司 焊缝质量检测区域确定方法、装置、计算机以及存储介质
EP4234158A1 (en) * 2022-02-25 2023-08-30 General Electric Company System and method for analyzing weld quality
DE102022115255A1 (de) 2022-06-20 2023-12-21 Trumpf Laser Gmbh System und Verfahren zur Fehlerkontrolle von Laserschweißprozessen
CN115502443B (zh) * 2022-08-16 2023-05-12 浙江聚智信阀业有限公司 多工位固定球阀阀座圈智能钻孔复合一体机
CN116051542B (zh) * 2023-03-06 2023-07-14 深圳市深视智能科技有限公司 缺陷检测方法及缺陷检测装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003516860A (ja) 1999-11-27 2003-05-20 ティッセンクルップ シュタール アクチェンゲゼルシャフト レーザーによって突き合せ溶接された金属薄板またはバンドの継ぎ目を品質管理する方法と装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10335501B4 (de) * 2002-07-31 2005-01-27 Kuka Schweissanlagen Gmbh Verfahren und Vorrichtung zum Schweißen oder Schneiden mit Laserstrahl
US20070106416A1 (en) * 2006-06-05 2007-05-10 Griffiths Joseph J Method and system for adaptively controlling a laser-based material processing process and method and system for qualifying same
US8208135B2 (en) * 2006-09-06 2012-06-26 Precitec Vision Gmbh & Co. Kg Method and device for the optical assessment of welding quality during welding
DE102008058422A1 (de) 2008-11-21 2010-05-27 Precitec Itm Gmbh Verfahren und Vorrichtung zur Überwachung eines an einem Werkstück durchzuführenden Laserbearbeitungsvorgangs sowie Laserbearbeitungskopf mit einer derartigen Vorrichtung
EP2585975B1 (en) * 2010-06-28 2018-03-21 Precitec GmbH & Co. KG A method for classifying a multitude of images recorded by a camera observing a processing area and laser material processing head using the same
DE102011104550B4 (de) * 2011-06-17 2014-04-30 Precitec Kg Optische Messvorrichtung zur Überwachung einer Fügenaht, Fügekopf und Laserschweißkopf mit der selben
DE102011078276C5 (de) * 2011-06-29 2014-04-03 Trumpf Laser- Und Systemtechnik Gmbh Verfahren zum Erkennen von Fehlern während eines Laser-Bearbeitungsprozesses sowie Laser-Bearbeitungsvorrichtung
KR101780049B1 (ko) * 2013-07-01 2017-09-19 한국전자통신연구원 레이저 용접 비드 검사 장치 및 방법
DE102014113283B4 (de) * 2014-09-15 2016-11-03 Blackbird Robotersysteme Gmbh Vorrichtung zur Remote-Laserbearbeitung mit Sensor-Scannereinrichtung
JP6625914B2 (ja) 2016-03-17 2019-12-25 ファナック株式会社 機械学習装置、レーザ加工システムおよび機械学習方法
CN105891215B (zh) * 2016-03-31 2019-01-29 浙江工业大学 基于卷积神经网络的焊接视觉检测方法及装置
CN106442543B (zh) * 2016-10-14 2019-10-15 龚新林 一种在线识别金属工件连续激光焊缝表面质量的检测方法
CN108340088A (zh) * 2018-02-07 2018-07-31 深圳信息职业技术学院 激光精密加工视觉在线监测方法及系统
CN108346151A (zh) 2018-03-12 2018-07-31 湖南大学 一种判断激光焊接熔透性的方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003516860A (ja) 1999-11-27 2003-05-20 ティッセンクルップ シュタール アクチェンゲゼルシャフト レーザーによって突き合せ溶接された金属薄板またはバンドの継ぎ目を品質管理する方法と装置

Also Published As

Publication number Publication date
JP2022509137A (ja) 2022-01-20
EP3883716A1 (de) 2021-09-29
JP7082715B2 (ja) 2022-06-08
KR20210090264A (ko) 2021-07-19
WO2020104102A1 (de) 2020-05-28
CN113226612A (zh) 2021-08-06
DE102018129425A1 (de) 2020-05-28
US20220011240A1 (en) 2022-01-13
CN113226612B (zh) 2022-11-01
DE102018129425B4 (de) 2020-07-30
US11536669B2 (en) 2022-12-27
EP3883716B1 (de) 2022-08-17

Similar Documents

Publication Publication Date Title
KR102468234B1 (ko) 심층 합성곱 신경망을 이용한 레이저 가공 시스템의 가공오류 검출 시스템 및 방법
KR102611342B1 (ko) 심층 합성곱 신경망을 이용한 레이저 가공 공정 모니터링 시스템 및 방법
US11150200B1 (en) Workpiece inspection and defect detection system indicating number of defect images for training
CN109840900A (zh) 一种应用于智能制造车间的故障在线检测系统及检测方法
US20230201956A1 (en) Method for analyzing a laser machining process, system for analyzing a laser machining process, and laser machining system comprising such a system
US20240100626A1 (en) Laser working system for performing a working process on a workpiece by means of a laser beam and method for monitoring a working process on a workpiece by means of a laser beam
KR102223706B1 (ko) 제조된 컴포넌트 결함을 국부 적응 문턱값을 사용하여 식별하기 위한 시스템, 방법 및 컴퓨터 프로그램 제품
US20180247147A1 (en) Automatic alignment of a 3d model to a test object
US9990724B2 (en) Image recording simulation in a coordinate measuring machine
US20210390681A1 (en) Workpiece inspection and defect detection system including monitoring of workpiece images
CN115713476A (zh) 基于激光焊接的视觉检测方法、装置及可读存储介质
JP2022045688A (ja) 欠陥管理装置、方法およびプログラム
KR20230013206A (ko) 인공지능을 이용하여 위험도를 평가하는 용접 검사 시스템 및 그 방법
JP3869554B2 (ja) 検査データ作成方法及び装置及びこれを用いた部品実装基板外観検査装置
KR20200080367A (ko) 불량 콘택트렌즈 검출 시스템 및 방법
JP7424800B2 (ja) 制御装置、その制御方法、及び制御システム
Brambilla et al. Automated Vision Inspection of Critical Steel Components based on Signal Analysis Extracted form Images
WO2022153743A1 (ja) 判定システム、判定方法及びプログラム
EP4019894B1 (en) Method of measuring a workpiece by using a coordinate measuring machine, and arrangement comprising a coordinate measuring machine
KR102494890B1 (ko) 철제 금형물 품질 검사를 위한 지능형 전수검사 시스템
Atkins et al. Digital Image Acquisition System used in Autonomation for mistake proofing
TW202209261A (zh) 用於光學檢測的路徑建立方法及其裝置
US20210352252A1 (en) Method, module and system for projecting onto a workpiece and image calculated on the basis of a digital mockupr
Kuric et al. Design of laser scanners data processing and their use in visual inspection system
CN117541510A (zh) 一种图像修复补全方法

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant