KR102454452B1 - Method, device and system for processing reverse engineering of car body structure using 3d scan data - Google Patents

Method, device and system for processing reverse engineering of car body structure using 3d scan data Download PDF

Info

Publication number
KR102454452B1
KR102454452B1 KR1020220084857A KR20220084857A KR102454452B1 KR 102454452 B1 KR102454452 B1 KR 102454452B1 KR 1020220084857 A KR1020220084857 A KR 1020220084857A KR 20220084857 A KR20220084857 A KR 20220084857A KR 102454452 B1 KR102454452 B1 KR 102454452B1
Authority
KR
South Korea
Prior art keywords
scan data
ratio
vehicle
length
body structure
Prior art date
Application number
KR1020220084857A
Other languages
Korean (ko)
Inventor
이윤기
Original Assignee
주식회사 에이투지오토
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이투지오토 filed Critical 주식회사 에이투지오토
Priority to KR1020220084857A priority Critical patent/KR102454452B1/en
Application granted granted Critical
Publication of KR102454452B1 publication Critical patent/KR102454452B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/18Details relating to CAD techniques using virtual or augmented reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/20Configuration CAD, e.g. designing by assembling or positioning modules selected from libraries of predesigned modules

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

According to one embodiment of the present invention, a method for processing reverse engineering of a vehicle body structure using three-dimensional (3D) scan data, which is performed by an apparatus, comprises: a step of acquiring first scan data, 3D data generated by scanning a plurality of components from a 3D scanner, respectively, when the plurality of components are scanned by the 3D scanner, respectively, in a state that a first vehicle is disassembled into the plurality of components; a step of analyzing which component is scanned to generate each of a plurality of pieces of scan data included in the first scan data; a step of checking a first point, a location where a first component is installed in the first vehicle, when it is analyzed that 1-1 scan data in the first scan data is generated by scanning the first component; and a step of performing reverse engineering of a vehicle body structure around the first point based on the 1-1 scan data. Accordingly, the present invention has an effect of processing reverse engineering of a vehicle body structure in a convenient and accurate manner by using 3D scan data.

Description

3D 스캔 데이터를 이용한 차체 구조 역설계 방법, 장치 및 시스템 {METHOD, DEVICE AND SYSTEM FOR PROCESSING REVERSE ENGINEERING OF CAR BODY STRUCTURE USING 3D SCAN DATA}Method, device and system for reverse engineering body structure using 3D scan data {METHOD, DEVICE AND SYSTEM FOR PROCESSING REVERSE ENGINEERING OF CAR BODY STRUCTURE USING 3D SCAN DATA}

아래 실시예들은 3D 스캔 데이터를 이용하여 차체 구조를 역설계하기 위한 기술에 관한 것이다.The following embodiments relate to a technique for reverse engineering a body structure using 3D scan data.

3D 스캐너를 이용한 스캔 데이터는 기하학적 모델링과 의학적 형태 계측 분야에 있어서 점차 널리 사용되고 있다. 3D 스캔 데이터를 이용하는 기술은 특정한 제품을 제조하는 공정의 결과를 체크하는 방법에도 적용될 수 있다. 제조된 제품이 설계대로 만들어졌는지를 확인하기 위하여 3D 스캔 데이터가 이용될 수 있다.Scan data using a 3D scanner is increasingly widely used in the fields of geometric modeling and medical morphology. The technology using 3D scan data can also be applied to a method of checking the results of a process for manufacturing a specific product. 3D scan data may be used to verify that the manufactured product is made as designed.

대부분의 3D 스캐너는 목표 객체를 다양한 각도에서 스캔하고 스캔 데이터를 생성할 수 있다. 이 때 3D 스캐너는 다양한 각도에서 목표 객체의 각 부분을 나누어 연속적인 데이터의 집합을 생성할 수 있다.Most 3D scanners can scan a target object from various angles and generate scan data. At this time, the 3D scanner can generate a continuous set of data by dividing each part of the target object from various angles.

3D 스캐너에 의하여 생성된 연속적인 데이터의 집합에 기초하여 목표 객체의 3차원 영상을 형성하는 과정을 정합(registration)이라 할 수 있다.A process of forming a 3D image of a target object based on a set of continuous data generated by the 3D scanner may be referred to as registration.

정합 과정은 둘 이상의 데이터 집합을 하나의 좌표계로 매핑하는 과정일 수 있다. 스캔 또는 다른 방법으로 얻어진 데이터 각각에 대해서는 좌표계가 할당될 수 있다. 데이터 중 일부는 고정된 계(fixed system)에 할당되고, 나머지 데이터는 이동 계(moving system)에 할당될 수 있다. 이동 계는 고정된 계에 수렴하도록 가상 공간 상에서 변환될 수 있다. 이러한 변환은 회전 변환 또는 평행 이동 변환을 포함할 수 있다.The registration process may be a process of mapping two or more data sets into one coordinate system. A coordinate system may be assigned to each of the data obtained by scanning or otherwise. Some of the data may be allocated to a fixed system, and the remaining data may be allocated to a moving system. A moving system can be transformed in virtual space to converge on a fixed system. Such transformations may include rotational transformations or translational transformations.

하나의 객체에 대한 복수의 스캔 데이터는 객체의 서로 다른 부분들을 스캔한 데이터이지만 복수의 스캔 데이터 각각은 서로 겹쳐 지는 부분을 포함할 수 있다. 정합 과정은 복수의 스캔 데이터 각각이 서로 겹쳐 지는 부분을 매칭하고, 복수의 스캔 데이터에 기초하여 객체의 3D 스캔 데이터를 생성할 수 있다The plurality of scan data for one object is data obtained by scanning different parts of the object, but each of the plurality of scan data may include overlapping parts. The matching process may match the overlapping portions of each of the plurality of scan data, and generate 3D scan data of the object based on the plurality of scan data.

이러한 3D 스캐너 기술이 발달함에 따라, 다양한 공정에 3D 스캐너를 응용하고자 하는 시도가 증대되고 있다.As the 3D scanner technology develops, attempts to apply the 3D scanner to various processes are increasing.

특히, 차체 구조를 역설계하는데 있어, 3D 스캐너의 사용이 필수적이기 때문에, 3D 스캔 데이터를 이용하여 편리하면서 정확하게 차체 구조를 역설계하고자 하는 요구가 증대되고 있어, 이와 관련된 기술에 대한 연구가 요구된다.In particular, since the use of a 3D scanner is essential in reverse engineering the body structure, the demand for convenient and accurate reverse engineering of the body structure using 3D scan data is increasing, and research on related technologies is required. .

한국등록특허 제10-2369093호Korean Patent Registration No. 10-2369093 한국등록특허 제10-2237374호Korean Patent No. 10-2237374 한국등록특허 제10-0933715호Korean Patent Registration No. 10-0933715 한국공개특허 제10-2020-0013416호Korean Patent Publication No. 10-2020-0013416

일실시예에 따르면, 제1 차량이 복수의 부품으로 분해되어 있는 상태에서, 복수의 부품이 3D 스캐너에 의해 각각 스캔되면, 3D 스캐너로부터 복수의 부품을 각각 스캔하여 생성된 3D 스캔 데이터인 제1 스캔 데이터를 획득하고, 제1 스캔 데이터에 포함된 복수의 스캔 데이터가 각각 어느 부품을 스캔하여 생성된 3D 스캔 데이터인지 분석하고, 제1 스캔 데이터 중에서 제1-1 스캔 데이터가 제1 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석되면, 제1 차량에서 제1 부품이 설치되는 위치인 제1 지점을 확인하고, 제1-1 스캔 데이터를 기반으로, 제1 지점의 주변에 대한 차체 구조를 역설계하는, 3D 스캔 데이터를 이용한 차체 구조 역설계 방법, 장치 및 시스템을 제공하기 위한 것을 그 목적으로 한다.According to an embodiment, when the plurality of parts are respectively scanned by the 3D scanner in a state in which the first vehicle is disassembled into a plurality of parts, the first 3D scan data that is generated by scanning the plurality of parts from the 3D scanner, respectively Acquire scan data, analyze which part is 3D scan data generated by scanning which part of the plurality of scan data included in the first scan data, and 1-1 scan data of the first scan data scans the first part If it is analyzed as the 3D scan data generated by An object of the present invention is to provide a method, apparatus, and system for reverse engineering a body structure using 3D scan data.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.Objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood from the description below.

일실시예에 따르면, 장치에 의해 수행되는, 3D 스캔 데이터를 이용하여 차체 구조를 역설계하기 위한 방법에 있어서, 제1 차량이 복수의 부품으로 분해되어 있는 상태에서, 상기 복수의 부품이 3D 스캐너에 의해 각각 스캔되면, 상기 3D 스캐너로부터 상기 복수의 부품을 각각 스캔하여 생성된 3D 스캔 데이터인 제1 스캔 데이터를 획득하는 단계; 상기 제1 스캔 데이터에 포함된 복수의 스캔 데이터가 각각 어느 부품을 스캔하여 생성된 3D 스캔 데이터인지 분석하는 단계; 상기 제1 스캔 데이터 중에서 제1-1 스캔 데이터가 제1 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석되면, 상기 제1 차량에서 상기 제1 부품이 설치되는 위치인 제1 지점을 확인하는 단계; 및 상기 제1-1 스캔 데이터를 기반으로, 상기 제1 지점의 주변에 대한 차체 구조를 역설계하는 단계를 포함하는, 3D 스캔 데이터를 이용한 차체 구조 역설계 방법이 제공된다.According to an embodiment, in a method for reverse-engineering a body structure using 3D scan data, performed by an apparatus, in a state in which a first vehicle is disassembled into a plurality of parts, the plurality of parts are configured by a 3D scanner obtaining first scan data, which is 3D scan data generated by scanning each of the plurality of parts from the 3D scanner, respectively; analyzing which part of the plurality of scan data included in the first scan data is 3D scan data generated by scanning each; If the 1-1 scan data among the first scan data is analyzed to be 3D scan data generated by scanning a first part, identifying a first point, which is a location where the first part is installed, in the first vehicle; ; and reverse-engineering the body structure around the first point based on the first-first scan data.

상기 3D 스캔 데이터를 이용한 차체 구조 역설계 방법은, 상기 제1-1 스캔 데이터를 화소 별로 인코딩 하여 제1 입력 신호를 생성하는 단계; 상기 제1 입력 신호를 인공 신경망에 입력하고, 상기 제1 입력 신호에 대한 출력으로 제1 출력 신호를 획득하는 단계; 상기 제1 출력 신호에 기초하여, 상기 제1 부품의 표면에 대한 분류 결과를 화소 별로 생성하는 단계; 및 상기 제1 부품의 표면에 대한 분류 결과를 기반으로, 상기 제1 부품의 표면에 대한 마모도를 화소 별로 설정하는 단계를 더 포함할 수 있다.The method for reverse engineering a body structure using the 3D scan data may include: generating a first input signal by encoding the 1-1 scan data for each pixel; inputting the first input signal to an artificial neural network, and obtaining a first output signal as an output of the first input signal; generating a classification result for the surface of the first part for each pixel based on the first output signal; and setting a degree of wear on the surface of the first part for each pixel based on the classification result of the surface of the first part.

상기 3D 스캔 데이터를 이용한 차체 구조 역설계 방법은, 상기 제1 부품의 표면에 대한 마모도를 화소 별로 확인하여, 미리 설정된 기준치 보다 마모도가 낮은 영역을 정상 영역으로 구분하고, 상기 기준치 보다 마모도가 높은 영역을 손상 영역으로 구분하는 단계; 상기 제1 부품의 표면에서 상기 정상 영역이 차지하는 면적의 비율인 제1 비율을 산출하고, 상기 제1 부품의 표면에서 상기 손상 영역이 차지하는 면적의 비율인 제2 비율을 산출하는 단계; 상기 제1 비율이 미리 설정된 제1 기준 비율 보다 높은지 여부를 확인하는 단계; 상기 제1 비율이 상기 제1 기준 비율 보다 높은 것으로 확인되면, 상기 제1 부품을 역설계를 통한 재조립에 사용될 부품으로 분류하는 단계; 상기 제1 비율이 상기 제1 기준 비율 보다 낮은 것으로 확인되면, 상기 제2 비율이 미리 설정된 제2 기준 비율 보다 낮은지 여부를 확인하는 단계; 상기 제2 비율이 상기 제2 기준 비율 보다 낮은 것으로 확인되면, 상기 제1 부품을 수리가 필요한 부품으로 분류하는 단계; 및 상기 제2 비율이 상기 제2 기준 비율 보다 높은 것으로 확인되면, 상기 제1 부품을 교체가 필요한 부품으로 분류하는 단계를 더 포함할 수 있다. In the method for reverse engineering the body structure using the 3D scan data, the wear level on the surface of the first part is checked for each pixel, a region with a lower degree of wear than a preset reference value is divided into a normal area, and an area with a higher degree of wear than the reference value is identified. dividing the area into damaged areas; calculating a first ratio that is a ratio of an area occupied by the normal region on the surface of the first part, and calculating a second ratio that is a ratio of an area occupied by the damaged region on the surface of the first part; checking whether the first ratio is higher than a preset first reference ratio; classifying the first part as a part to be used for reassembly through reverse engineering when it is confirmed that the first ratio is higher than the first reference ratio; when it is confirmed that the first ratio is lower than the first reference ratio, checking whether the second ratio is lower than a preset second reference ratio; classifying the first part as a part requiring repair when it is confirmed that the second ratio is lower than the second reference ratio; and classifying the first part as a part requiring replacement when it is confirmed that the second ratio is higher than the second reference ratio.

일실시예에 따르면, 3D 스캔 데이터를 이용하여 차체 구조를 역설계하기 위한 방법에 있어서, 제1 차량이 복수의 부품으로 분해되어 있는 상태에서, 상기 복수의 부품이 3D 스캐너에 의해 각각 스캔되면, 상기 3D 스캐너로부터 상기 복수의 부품을 각각 스캔하여 생성된 3D 스캔 데이터인 제1 스캔 데이터를 획득하는 단계; 상기 제1 스캔 데이터에 포함된 복수의 스캔 데이터가 각각 어느 부품을 스캔하여 생성된 3D 스캔 데이터인지 분석하는 단계; 상기 제1 스캔 데이터 중에서 제1-1 스캔 데이터가 제1 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석되면, 상기 제1 차량에서 상기 제1 부품이 설치되는 위치인 제1 지점을 확인하는 단계; 및 상기 제1-1 스캔 데이터를 기반으로, 상기 제1 지점의 주변에 대한 차체 구조를 역설계함으로써, 3D 스캔 데이터를 이용하여 편리하면서 정확하게 차체 구조를 역설계할 수 있는 효과가 있다.According to an embodiment, in a method for reverse engineering a body structure using 3D scan data, when the plurality of parts are scanned by a 3D scanner in a state in which the first vehicle is disassembled into a plurality of parts, obtaining first scan data that is 3D scan data generated by scanning the plurality of parts from the 3D scanner, respectively; analyzing which part of the plurality of scan data included in the first scan data is 3D scan data generated by scanning each; If the 1-1 scan data among the first scan data is analyzed to be 3D scan data generated by scanning a first part, identifying a first point, which is a location where the first part is installed, in the first vehicle; ; and reverse-engineering the body structure around the first point based on the 1-1 scan data, so that the body structure can be conveniently and accurately reverse-engineered using the 3D scan data.

한편, 실시예들에 따른 효과들은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.On the other hand, the effects according to the embodiments are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the art from the following description.

도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 3D 스캔 데이터를 이용하여 차체 구조를 역설계하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 3D 스캔 데이터를 나타낸 도면이다.
도 4는 일실시예에 따른 부품의 표면에 대한 마모도를 설정하는 과정을 설명하기 위한 순서도이다.
도 5는 일실시예에 따른 부품의 표면에 대한 마모도가 설정된 결과를 나타낸 도면이다.
도 6은 일실시예에 따른 부품의 수리 및 교체에 대한 필요 여부를 판단하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 부품의 크기를 추정하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 부품에 대한 이미지를 기록하여 저장하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 인공 신경망을 설명하기 위한 도면이다.
도 10은 일실시예에 따른 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.
도 11은 일실시예에 따른 장치의 구성의 예시도이다.
1 is a diagram schematically showing the configuration of a system according to an embodiment.
2 is a flowchart illustrating a process of reverse engineering a vehicle body structure using 3D scan data according to an exemplary embodiment.
3 is a diagram illustrating 3D scan data according to an exemplary embodiment.
4 is a flowchart illustrating a process of setting a wear level on a surface of a component according to an exemplary embodiment.
5 is a view showing a result of setting the degree of wear on the surface of the component according to an embodiment.
6 is a flowchart illustrating a process of determining whether repair and replacement of parts is necessary according to an exemplary embodiment.
7 is a flowchart illustrating a process of estimating the size of a component according to an exemplary embodiment.
8 is a flowchart illustrating a process of recording and storing an image of a part according to an exemplary embodiment.
9 is a diagram for explaining an artificial neural network according to an embodiment.
10 is a diagram for explaining a method of learning an artificial neural network according to an embodiment.
11 is an exemplary diagram of a configuration of an apparatus according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all modifications, equivalents and substitutes for the embodiments are included in the scope of the rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for purposes of illustration only, and may be changed and implemented in various forms. Accordingly, the embodiments are not limited to a specific disclosure form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various elements, these terms should be interpreted only for the purpose of distinguishing one element from another. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected” to another component, it may be directly connected or connected to the other component, but it should be understood that another component may exist in between.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used for the purpose of description only, and should not be construed as limiting. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In the description of the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.The embodiments may be implemented in various types of products, such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent cars, kiosks, wearable devices, and the like.

인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 규칙(Rule) 기반의 스마트 시스템과 달리 기계가 스스로 학습하고 판단하는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 규칙 기반의 스마트 시스템은 점차 심층 학습(Deep Learning) 기반 인공지능 시스템으로 대체되고 있다.An artificial intelligence (AI) system is a computer system that implements human-level intelligence, and unlike the existing rule-based smart system, the machine learns and makes decisions on its own. The more the AI system is used, the better the recognition rate and the more accurate understanding of user preferences, and the existing rule-based smart systems are gradually being replaced by deep learning-based AI systems.

인공지능 기술은 기계 학습 및 기계 학습을 활용한 요소기술들로 구성된다. 기계 학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 심층 학습 등의 기계 학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.Artificial intelligence technology consists of machine learning and element technologies using machine learning. Machine learning is an algorithm technology that categorizes/learns characteristics of input data by itself, and element technology uses machine learning algorithms such as deep learning to simulate functions such as cognition and judgment of the human brain. It consists of technical fields such as understanding, reasoning/prediction, knowledge expression, and motion control.

인공지능 기술이 응용되는 다양한 분야는 다음과 같다. 언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다. 동작 제어는 차량의 자율 주행, 로봇의 움직임을 제어하는 기술로서, 움직임 제어(항법, 충돌, 주행), 조작 제어(행동 제어) 등을 포함한다.The various fields where artificial intelligence technology is applied are as follows. Linguistic understanding is a technology for recognizing and applying/processing human language/text, and includes natural language processing, machine translation, dialogue system, question and answer, and speech recognition/synthesis. Visual understanding is a technology for recognizing and processing objects like human vision, and includes object recognition, object tracking, image search, human recognition, scene understanding, spatial understanding, image improvement, and the like. Inferential prediction is a technology for logically reasoning and predicting by judging information, and includes knowledge/probability-based reasoning, optimization prediction, preference-based planning, and recommendation. Knowledge expression is a technology that automatically processes human experience information into knowledge data, and includes knowledge construction (data generation/classification) and knowledge management (data utilization). Motion control is a technology for controlling autonomous driving of a vehicle and movement of a robot, and includes motion control (navigation, collision, driving), manipulation control (action control), and the like.

일반적으로 기계 학습 알고리즘을 실생활에 적용하기 위해서는 기계 학습의 기본 방법론의 특성상 Trial and Error 방식으로 학습을 수행하게 된다. 특히, 심층 학습의 경우 수십만 번의 반복 실행을 필요로 한다. 이를 실제 물리적인 외부 환경에서 실행하기는 불가능하여 대신 실제 물리적인 외부 환경을 컴퓨터상에서 가상으로 구현하여 시뮬레이션을 통해 학습을 수행한다.In general, in order to apply the machine learning algorithm to real life, learning is performed in the Trial and Error method due to the characteristics of the basic methodology of machine learning. In particular, deep learning requires hundreds of thousands of iterations. It is impossible to execute this in the actual physical external environment, so instead, the actual physical external environment is implemented on a computer and learning is performed through simulation.

도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.1 is a diagram schematically showing the configuration of a system according to an embodiment.

도 1을 참조하면, 일실시예에 따른 시스템은 3D 스캐너(100) 및 장치(200)를 포함할 수 있다.Referring to FIG. 1 , a system according to an embodiment may include a 3D scanner 100 and an apparatus 200 .

3D 스캐너(100)는 분석 대상을 다양한 각도에서 스캔하여, 3D 스캔 데이터를 생성할 수 있다. 여기서, 3D 스캔 데이터는 분석 대상을 스캔하여 생성된 3D 이미지이다.The 3D scanner 100 may generate 3D scan data by scanning the analysis target from various angles. Here, the 3D scan data is a 3D image generated by scanning an analysis target.

3D 스캐너(100)는 통신 모듈을 구비하여, 장치(200)와 유무선으로 통신하도록 구성될 수 있다.The 3D scanner 100 may include a communication module, and may be configured to communicate with the device 200 by wire or wireless.

장치(200)는 장치(200)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 장치(200)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 장치(200)는 추론 기능을 수행하는 적어도 하나 이상의 인공 신경망을 구비할 수 있다.The device 200 may be a self-server owned by a person or organization that provides services using the device 200, a cloud server, or a peer-to-peer (p2p) set of distributed nodes. may be The device 200 may be configured to perform all or part of an arithmetic function, a storage/referencing function, an input/output function, and a control function of a typical computer. The device 200 may include at least one artificial neural network that performs an inference function.

장치(200)는 3D 스캐너(100)와 유무선으로 통신하도록 구성될 수 있으며, 3D 스캐너(100)에 대한 전체적인 동작을 제어할 수 있다.The device 200 may be configured to communicate with the 3D scanner 100 by wire or wireless, and may control the overall operation of the 3D scanner 100 .

장치(200)는 3D 스캐너(100)로부터 3D 스캔 데이터를 획득하면, 3D 스캔 데이터를 이용하여 차체 구조를 역설계할 수 있다.When the device 200 obtains 3D scan data from the 3D scanner 100 , the device 200 may reverse engineer the body structure using the 3D scan data.

장치(200)는 차량 부품의 표면에 대한 마모도를 설정하기 위해, 인공지능을 기반으로 차량 부품의 표면을 균열에 따라 분류할 수 있으며, 이를 위해, 미리 학습된 인공 신경망을 포함할 수 있다.The device 200 may classify the surface of the vehicle part according to cracks based on artificial intelligence in order to set the degree of wear on the surface of the vehicle part, and for this, it may include a pre-trained artificial neural network.

본 발명에서, 인공지능(Artificial Intelligence, AI)은 인간의 학습능력, 추론능력, 지각능력 등을 모방하고, 이를 컴퓨터로 구현하는 기술을 의미하고, 기계 학습, 심볼릭 로직(Symbolic Logic) 등의 개념을 포함할 수 있다. 기계 학습(Machine Learning, ML)은 입력 데이터들의 특징을 스스로 분류 또는 학습하는 알고리즘 기술이다. 인공지능의 기술은 기계 학습의 알고리즘으로써 입력 데이터를 분석하고, 그 분석의 결과를 학습하며, 그 학습의 결과에 기초하여 판단이나 예측을 할 수 있다. 또한, 기계 학습의 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술들 역시 인공지능의 범주로 이해될 수 있다. 예를 들어, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야가 포함될 수 있다.In the present invention, artificial intelligence (AI) refers to a technology that imitates human learning ability, reasoning ability, perceptual ability, etc., and implements it with a computer, and the concepts of machine learning, symbolic logic, etc. may include Machine Learning (ML) is an algorithm technology that classifies or learns characteristics of input data by itself. Artificial intelligence technology is an algorithm of machine learning that can analyze input data, learn the results of the analysis, and make judgments or predictions based on the results of the learning. In addition, technologies that use machine learning algorithms to simulate functions such as cognition and judgment of the human brain can also be understood as a category of artificial intelligence. For example, technical fields such as verbal comprehension, visual comprehension, reasoning/prediction, knowledge expression, and motion control may be included.

기계 학습은 데이터를 처리한 경험을 이용해 신경망 모델을 훈련시키는 처리를 의미할 수 있다. 기계 학습을 통해 컴퓨터 소프트웨어는 스스로 데이터 처리 능력을 향상시키는 것을 의미할 수 있다. 신경망 모델은 데이터 사이의 상관 관계를 모델링하여 구축된 것으로서, 그 상관 관계는 복수의 파라미터에 의해 표현될 수 있다. 신경망 모델은 주어진 데이터로부터 특징들을 추출하고 분석하여 데이터 간의 상관 관계를 도출하는데, 이러한 과정을 반복하여 신경망 모델의 파라미터를 최적화해 나가는 것이 기계 학습이라고 할 수 있다. 예를 들어, 신경망 모델은 입출력 쌍으로 주어지는 데이터에 대하여, 입력과 출력 사이의 매핑(상관 관계)을 학습할 수 있다. 또는, 신경망 모델은 입력 데이터만 주어지는 경우에도 주어진 데이터 사이의 규칙성을 도출하여 그 관계를 학습할 수도 있다.Machine learning may refer to the process of training a neural network model using experience of processing data. With machine learning, computer software could mean improving its own data processing capabilities. The neural network model is constructed by modeling the correlation between data, and the correlation may be expressed by a plurality of parameters. A neural network model extracts and analyzes features from given data to derive correlations between data, and repeating this process to optimize parameters of a neural network model can be called machine learning. For example, a neural network model may learn a mapping (correlation) between an input and an output with respect to data given as an input/output pair. Alternatively, the neural network model may learn the relationship by deriving regularity between the given data even when only input data is given.

인공지능 학습모델 또는 신경망 모델은 인간의 뇌 구조를 컴퓨터 상에서 구현하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하며 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고받는 뉴런의 시냅틱(synaptic) 활동을 모의하여, 서로 간의 연결 관계를 가질 수 있다. 인공지능 학습모델에서 복수의 네트워크 노드들은 서로 다른 깊이의 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고받을 수 있다. 인공지능 학습모델은, 예를 들어, 인공 신경망 모델(Artificial Neural Network), 컨볼루션 신경망 모델(Convolution Neural Network: CNN) 등일 수 있다. 일 실시예로서, 인공지능 학습모델은, 지도학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning) 등의 방식에 따라 기계 학습될 수 있다. 기계 학습을 수행하기 위한 기계 학습 알고리즘에는, 의사결정트리(Decision Tree), 베이지안 망(Bayesian Network), 서포트 벡터 머신(Support Vector Machine), 인공 신경망(Artificial Neural Network), 에이다부스트(Ada-boost), 퍼셉트론(Perceptron), 유전자 프로그래밍(Genetic Programming), 군집화(Clustering) 등이 사용될 수 있다.The artificial intelligence learning model or neural network model may be designed to implement a human brain structure on a computer, and may include a plurality of network nodes that simulate neurons of a human neural network and have weights. A plurality of network nodes may have a connection relationship with each other by simulating a synaptic activity of a neuron through which a neuron sends and receives a signal through a synapse. In the AI learning model, a plurality of network nodes can exchange data according to a convolutional connection relationship while being located in layers of different depths. The artificial intelligence learning model may be, for example, an artificial neural network model, a convolutional neural network model, or the like. As an embodiment, the AI learning model may be machine-learned according to a method such as supervised learning, unsupervised learning, reinforcement learning, or the like. Machine learning algorithms for performing machine learning include Decision Tree, Bayesian Network, Support Vector Machine, Artificial Neural Network, Ada-boost. , Perceptron, Genetic Programming, Clustering, etc. may be used.

이중, CNN은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. CNN은 하나 또는 여러 개의 합성곱 계층과 그 위에 올려진 일반적인 인공 신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 CNN은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 다른 딥러닝 구조들과 비교해서, CNN은 영상, 음성 분야 모두에서 좋은 성능을 보여준다. CNN은 또한 표준 역전달을 통해 훈련될 수 있다. CNN은 다른 피드포워드 인공 신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다.Among them, CNNs are a type of multilayer perceptrons designed to use minimal preprocessing. CNN consists of one or several convolutional layers and general artificial neural network layers on top of it, and additionally utilizes weights and pooling layers. Thanks to this structure, CNN can fully utilize the input data of the two-dimensional structure. Compared with other deep learning structures, CNN shows good performance in both video and audio fields. CNNs can also be trained through standard back-passing. CNNs are easier to train than other feedforward artificial neural network techniques and have the advantage of using fewer parameters.

컨볼루션 네트워크는 묶인 파라미터들을 가지는 노드들의 집합들을 포함하는 신경 네트워크들이다. 사용 가능한 트레이닝 데이터의 크기 증가와 연산 능력의 가용성이, 구분적 선형 단위 및 드롭아웃 트레이닝과 같은 알고리즘 발전과 결합되어, 많은 컴퓨터 비전 작업들이 크게 개선되었다. 오늘날 많은 작업에 사용할 수 있는 데이터 세트들과 같은 엄청난 양의 데이터 세트에서는 초과 맞춤(outfitting)이 중요하지 않으며, 네트워크의 크기를 늘리면 테스트 정확도가 향상된다. 컴퓨팅 리소스들의 최적 사용은 제한 요소가 된다. 이를 위해, 심층 신경 네트워크들의 분산된, 확장 가능한 구현예가 사용될 수 있다.Convolutional networks are neural networks that contain sets of nodes with bound parameters. The increased size of available training data and the availability of computational power, combined with advances in algorithms such as piecewise linear units and dropout training, have greatly improved many computer vision tasks. For huge data sets, such as those available for many tasks today, overfitting is not important, and increasing the size of the network improves test accuracy. Optimal use of computing resources becomes a limiting factor. To this end, a distributed, scalable implementation of deep neural networks may be used.

도 2는 일실시예에 따른 3D 스캔 데이터를 이용하여 차체 구조를 역설계하는 과정을 설명하기 위한 순서도이고, 도 3은 일실시예에 따른 3D 스캔 데이터를 나타낸 도면이다.FIG. 2 is a flowchart illustrating a process of reverse engineering a vehicle body structure using 3D scan data according to an exemplary embodiment, and FIG. 3 is a diagram illustrating 3D scan data according to an exemplary embodiment.

도 2를 참조하면, 먼저, S201 단계에서, 장치(200)는 제1 차량이 복수의 부품으로 분해되어 있는 상태에서, 복수의 부품이 3D 스캐너(100)에 의해 각각 스캔되면, 3D 스캐너(100)로부터 복수의 부품을 각각 스캔하여 생성된 3D 스캔 데이터인 제1 스캔 데이터를 획득할 수 있다.Referring to FIG. 2 , first, in step S201 , in the device 200 in a state in which the first vehicle is disassembled into a plurality of parts, when the plurality of parts are scanned by the 3D scanner 100 respectively, the 3D scanner 100 ) to obtain first scan data, which is 3D scan data generated by scanning a plurality of parts, respectively.

구체적으로, 제1 차량이 복수의 부품으로 분해되어 있는 상태에서, 3D 스캐너(100)는 복수의 부품을 각각 스캔하여, 도 3에 도시된 바와 같이, 복수의 부품 각각에 대한 스캔 데이터를 생성할 수 있다. 이때, 3D 스캐너(100)는 복수의 부품 각각을 스캔하여 3D 스캔 데이터를 생성할 수 있고, 복수의 부품 각각에 대한 3D 스캔 데이터를 취합하여, 취합된 스캔 데이터를 제1 스캔 데이터로 생성할 수 있다. 이후, 장치(200)는 3D 스캐너(100)로부터 제1 스캔 데이터를 획득할 수 있다.Specifically, in a state in which the first vehicle is disassembled into a plurality of parts, the 3D scanner 100 scans each of the plurality of parts to generate scan data for each of the plurality of parts, as shown in FIG. 3 . can In this case, the 3D scanner 100 may generate 3D scan data by scanning each of the plurality of parts, and may collect 3D scan data for each of the plurality of parts to generate the collected scan data as first scan data. have. Thereafter, the device 200 may acquire first scan data from the 3D scanner 100 .

예를 들어, 제1 차량이 제1 부품, 제2 부품 및 제3 부품으로 분해되어 있는 상태인 경우, 3D 스캐너(100)는 제1 부품을 스캔하여 제1-1 스캔 데이터를 생성할 수 있고, 제2 부품을 스캔하여 제1-2 스캔 데이터를 생성할 수 있고, 제3 부품을 스캔하여 제1-3 스캔 데이터를 생성할 수 있고, 제1-1 스캔 데이터, 제1-2 스캔 데이터 및 제1-3 스캔 데이터를 취합하여, 제1-1 스캔 데이터, 제1-2 스캔 데이터 및 제1-3 스캔 데이터를 포함하는 스캔 데이터를 제1 스캔 데이터로 생성할 수 있다. 이후, 장치(200)는 3D 스캐너(100)로부터 제1-1 스캔 데이터, 제1-2 스캔 데이터 및 제1-3 스캔 데이터를 포함하는 제1 스캔 데이터를 획득할 수 있다.For example, when the first vehicle is in a state of being disassembled into a first part, a second part, and a third part, the 3D scanner 100 may scan the first part to generate 1-1 scan data, , scan the second part to generate 1-2 scan data, scan the third part to generate 1-3 scan data, 1-1 scan data, 1-2 scan data And by collecting the 1-3 scan data, scan data including the 1-1 scan data, the 1-2 scan data, and the 1-3 scan data may be generated as the first scan data. Thereafter, the apparatus 200 may obtain first scan data including the 1-1 scan data, the 1-2 scan data, and the 1-3 scan data from the 3D scanner 100 .

장치(200)는 3D 스캐너(100)로부터 스캔 데이터를 획득하기 전에, 3D 스캐너(100)로부터 제1 차량의 식별 정보를 획득하거나, 3D 스캐너(100)와 연결된 단말로부터 제1 차량의 식별 정보를 획득할 수 있다. 여기서, 제1 차량의 식별 정보는 제1 차량을 식별할 수 있는 정보로, 제1 차량의 종류, 모델명 등을 포함할 수 있다.Before acquiring the scan data from the 3D scanner 100 , the device 200 obtains identification information of the first vehicle from the 3D scanner 100 , or obtains identification information of the first vehicle from a terminal connected to the 3D scanner 100 . can be obtained Here, the identification information of the first vehicle is information capable of identifying the first vehicle, and may include the type and model name of the first vehicle.

장치(200)는 제1 차량의 식별 정보를 획득한 후, 3D 스캐너(100)로부터 제1 스캔 데이터를 획득하면, 제1 스캔 데이터를 제1 차량의 부품들을 스캔하여 생성된 스캔 데이터로 파악할 수 있다.After obtaining the identification information of the first vehicle, when the device 200 obtains the first scan data from the 3D scanner 100, the first scan data can be identified as scan data generated by scanning parts of the first vehicle. have.

S202 단계에서, 장치(200)는 제1 스캔 데이터에 포함된 복수의 스캔 데이터가 각각 어느 부품을 스캔하여 생성된 3D 스캔 데이터인지 분석할 수 있다. 이때, 장치(200)는 제1 스캔 데이터에 포함된 복수의 스캔 데이터 각각을 통해 각 부품의 형태를 확인하고, 각 부품의 형태를 미리 등록된 부품의 형태와 비교하여 각 부품이 어느 부품을 스캔한 것인지에 대해 분석할 수 있다. 이를 위해, 장치(200)의 데이터베이스에는 차량의 부품 별로 등록되어 있는 3D 스캔 데이터가 저장되어 있다.In step S202 , the apparatus 200 may analyze which part of the plurality of scan data included in the first scan data is 3D scan data generated by scanning each part. At this time, the device 200 checks the shape of each part through each of the plurality of scan data included in the first scan data, and compares the shape of each part with the shape of the previously registered part to scan which part each part You can analyze what you did. To this end, 3D scan data registered for each part of the vehicle is stored in the database of the device 200 .

예를 들어, 제1 스캔 데이터에 제1-1 스캔 데이터, 제1-2 스캔 데이터 및 제1-3 스캔 데이터가 포함되어 있는 경우, 장치(200)는 제1-1 스캔 데이터와 데이터베이스에 저장된 부품들의 3D 스캔 데이터를 비교하여, 제1-1 스캔 데이터를 통해 확인된 부품의 형태와 제1 부품의 3D 스캔 데이터를 통해 확인된 부품의 형태가 일치하거나 가장 유사한 것으로 판단되면, 제1-1 스캔 데이터가 제1 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석할 수 있다. 또한, 장치(200)는 제1-2 스캔 데이터와 데이터베이스에 저장된 부품들의 3D 스캔 데이터를 비교하여, 제1-2 스캔 데이터를 통해 확인된 부품의 형태와 제2 부품의 3D 스캔 데이터를 통해 확인된 부품의 형태가 일치하거나 가장 유사한 것으로 판단되면, 제1-2 스캔 데이터가 제2 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석할 수 있다. 또한, 장치(200)는 제1-3 스캔 데이터와 데이터베이스에 저장된 부품들의 3D 스캔 데이터를 비교하여, 제1-3 스캔 데이터를 통해 확인된 부품의 형태와 제3 부품의 3D 스캔 데이터를 통해 확인된 부품의 형태가 일치하거나 가장 유사한 것으로 판단되면, 제1-3 스캔 데이터가 제3 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석할 수 있다.For example, when the first scan data includes the 1-1 scan data, the 1-2 scan data, and the 1-3 scan data, the device 200 stores the 1-1 scan data and the data stored in the database. By comparing the 3D scan data of the parts, if it is determined that the shape of the part identified through the 1-1 scan data matches or is most similar to the shape of the part identified through the 3D scan data of the first part, 1-1 The scan data may be analyzed as 3D scan data generated by scanning the first part. In addition, the apparatus 200 compares the 1-2 scan data with the 3D scan data of the parts stored in the database, and confirms the shape of the part identified through the 1-2 scan data and the 3D scan data of the second part When it is determined that the shapes of the parts are identical or most similar, the 1-2 scan data may be analyzed as 3D scan data generated by scanning the second part. In addition, the device 200 compares the 1-3 scan data with the 3D scan data of the parts stored in the database, and confirms the shape of the part identified through the 1-3 scan data and the 3D scan data of the third part When it is determined that the shapes of the parts are identical or most similar, the 1-3 scan data may be analyzed as 3D scan data generated by scanning the third part.

S203 단계에서, 장치(200)는 제1 스캔 데이터 중에서 제1-n 스캔 데이터가 제n 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석할 수 있다.In operation S203 , the apparatus 200 may analyze 1-n-th scan data among the first scan data as 3D scan data generated by scanning the n-th part.

예를 들어, 장치(200)는 제1 스캔 데이터 중에서 제1-1 스캔 데이터가 제1 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석할 수 있다.For example, the apparatus 200 may analyze the first-first scan data among the first scan data as 3D scan data generated by scanning the first part.

S204 단계에서, 장치(200)는 제1 스캔 데이터 중에서 제1-n 스캔 데이터가 제n 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석되면, 제1 차량에서 제n 부품이 설치되는 위치인 제n 지점을 확인할 수 있다. 이를 위해, 장치(200)의 데이터베이스에는 부품 별로 차량에 설치되는 위치가 3차원 좌표 정보로 저장되어 있다.In step S204, the device 200 analyzes that the 1-n-th scan data among the first scan data is 3D scan data generated by scanning the n-th part, the n-th part being the position where the n-th part is installed in the first vehicle. n points can be identified. To this end, in the database of the device 200 , the location where each part is installed in the vehicle is stored as 3D coordinate information.

예를 들어, 장치(200)는 제1 스캔 데이터 중에서 제1-1 스캔 데이터가 제1 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석되면, 제1 차량에서 제1 부품이 설치되는 위치인 제1 지점을 확인할 수 있다. 이때, 장치(200)는 데이터베이스를 조회하여, 제1 부품에 대한 3차원 좌표 정보를 획득한 후, 제1 부품에 대한 3차원 좌표 정보를 이용하여 제1 지점을 확인할 수 있다.For example, if the device 200 analyzes that the 1-1 scan data among the first scan data is 3D scan data generated by scanning the first part, the device 200 determines the position where the first part is installed in the first vehicle. 1 point can be checked. In this case, the device 200 may search the database to obtain 3D coordinate information on the first part, and then check the first point by using the 3D coordinate information on the first part.

S205 단계에서, 장치(200)는 제1 차량에서 제n 부품이 설치되는 위치가 제n 지점으로 확인되면, 제1-n 스캔 데이터를 기반으로, 제1 지점의 주변에 대한 차체 구조를 역설계할 수 있다.In step S205 , when the location where the n-th part is installed in the first vehicle is identified as the n-th point, the device 200 reverse-engineers the body structure around the first point based on the 1-n-th scan data. can do.

예를 들어, 장치(200)는 제1 차량에서 제1 부품이 설치되는 위치가 제1 지점으로 확인되면, 제1-1 스캔 데이터를 기반으로, 제1 지점의 주변에 대한 차체 구조를 역설계할 수 있다.For example, when the location where the first part is installed in the first vehicle is confirmed as the first point, the device 200 reverse-engineers the body structure around the first point based on the 1-1 scan data. can do.

S206 단계에서, 장치(200)는 제1 스캔 데이터 중에서 분석되지 않은 스캔 데이터가 있는지 여부를 확인할 수 있다.In step S206 , the device 200 may determine whether there is unanalyzed scan data among the first scan data.

S206 단계에서 분석되지 않은 스캔 데이터가 있는 것으로 확인되면, S203 단계로 되돌아가, S203 단계부터 S206 단계까지의 과정이 다시 수행될 수 있다.If it is confirmed in step S206 that there is unanalyzed scan data, the process returns to step S203 and the processes from step S203 to step S206 may be performed again.

예를 들어, 장치(200)는 제1-1 스캔 데이터를 기반으로, 제1 지점의 주변에 대한 차체 구조를 역설계한 경우, 제1-1 스캔 데이터에 대한 분석을 완료한 것으로 설정할 수 있고, 제1 스캔 데이터 중에서 제1-1 스캔 데이터에 대한 분석만 완료되고 제1-2 스캔 데이터의 분석이 완료되지 않은 것으로 확인되면, 제1-2 스캔 데이터가 제2 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석하고, 제1 차량에서 제2 부품이 설치되는 위치인 제2 지점을 확인하고, 제1-2 스캔 데이터를 기반으로, 제2 지점의 주변에 대한 차체 구조를 역설계할 수 있다.For example, when the body structure around the first point is reverse-engineered based on the 1-1 scan data, the device 200 may be set as having completed the analysis of the 1-1 scan data, , when it is confirmed that only the analysis of the 1-1 scan data among the first scan data is completed and the analysis of the 1-2 scan data is not completed, the 1-2 scan data is 3D generated by scanning the second part Analyze as scan data, check the second point where the second part is installed in the first vehicle, and reverse engineer the body structure around the second point based on the 1-2 scan data have.

장치(200)는 차체 구조를 역설계할 때, 제1 부품과 제2 부품이 인접하여 위치하는 경우, 제1-1 스캔 데이터 및 제1-2 스캔 데이터를 기반으로, 제1 부품과 제2 부품의 연결 부분에 대한 차체 구조를 역설계할 수 있다.When the body structure is reverse-engineered, when the first part and the second part are located adjacent to each other, the apparatus 200 determines the first part and the second part based on the 1-1 scan data and the 1-2 scan data. It is possible to reverse engineer the body structure for the connecting parts of the parts.

스캔 데이터를 기반으로 차체 구조를 역설계하는 방식은 공지된 다양한 기술을 적용하여 수행될 수 있다.The method of reverse engineering the body structure based on the scan data may be performed by applying various known techniques.

도 4는 일실시예에 따른 부품의 표면에 대한 마모도를 설정하는 과정을 설명하기 위한 순서도이고, 도 5는 일실시예에 따른 부품의 표면에 대한 마모도가 설정된 결과를 나타낸 도면이다.4 is a flowchart for explaining a process of setting the degree of wear on the surface of the part according to an embodiment, and FIG. 5 is a view showing the result of setting the degree of wear on the surface of the part according to the embodiment.

도 4를 참조하면, 먼저, S401 단계에서, 장치(200)는 제1-1 스캔 데이터를 화소 별로 인코딩하여 제1 입력 신호를 생성할 수 있다.Referring to FIG. 4 , first, in step S401 , the device 200 may generate a first input signal by encoding the first-first scan data for each pixel.

구체적으로, 장치(200)는 제1-1 스캔 데이터를 통해 3D 이미지를 확인하고 3D 이미지의 픽셀을 색 정보로 인코딩하여 제1 입력 신호를 생성할 수 있다. 색 정보는 RGB 색상 정보, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다. 장치(200)는 색 정보를 수치화된 값으로 환산할 수 있으며, 이 값을 포함한 데이터 시트 형태로 제1-1 스캔 데이터를 화소 별로 인코딩할 수 있다.Specifically, the device 200 may generate a first input signal by identifying a 3D image through the 1-1 scan data and encoding pixels of the 3D image with color information. The color information may include, but is not limited to, RGB color information, brightness information, saturation information, and depth information. The device 200 may convert color information into a numerical value, and may encode the first-first scan data for each pixel in the form of a data sheet including the value.

S402 단계에서, 장치(200)는 제1 입력 신호를 장치(200) 내 미리 학습된 인공 신경망에 입력할 수 있다.In step S402 , the device 200 may input the first input signal to the pre-trained artificial neural network in the device 200 .

일실시예에 따른 인공 신경망은 특징 추출 신경망과 분류 신경망으로 구성되어 있으며 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.The artificial neural network according to an embodiment is composed of a feature extraction neural network and a classification neural network, and the feature extraction neural network sequentially stacks a convolutional layer and a pooling layer on an input signal. The convolution layer includes a convolution operation, a convolution filter, and an activation function. The calculation of the convolution filter is adjusted according to the matrix size of the target input, but a 9X9 matrix is generally used. The activation function generally uses, but is not limited to, a ReLU function, a sigmoid function, and a tanh function. The pooling layer is a layer that reduces the size of the input matrix, and uses a method of extracting representative values by tying pixels in a specific area. In general, the average value or the maximum value is often used for the calculation of the pooling layer, but is not limited thereto. The operation is performed using a square matrix, usually a 9x9 matrix. The convolutional layer and the pooling layer are repeated alternately until the corresponding input becomes small enough while maintaining the difference.

일실시예에 따르면, 분류 신경망은 히든 레이어와 출력 레이어를 가지고 있다. 부품의 표면의 균열 단계를 분류하기 위한 인공 신경망의 분류 신경망은 5층 이하의 히든 레이어로 구성되며, 총 50개 이하의 히든 레이어 노드를 포함할 수 있다. 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 분류 신경망의 출력 레이어 노드는 총 1개이며, 부품의 표면의 분류에 대한 출력값을 출력 레이어 노드에 출력할 수 있다. 인공 신경망에 대한 자세한 설명은 도 9를 참조하여 후술한다.According to an embodiment, the classification neural network has a hidden layer and an output layer. Classification of artificial neural networks for classifying crack stages on the surface of parts The neural network consists of 5 or less hidden layers, and may include a total of 50 or less hidden layer nodes. The activation function of the hidden layer uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. There is a total of one output layer node of the classification neural network, and an output value for classification of the surface of a part can be output to the output layer node. A detailed description of the artificial neural network will be described later with reference to FIG. 9 .

S403 단계에서, 장치(200)는 인공 신경망의 입력의 결과에 기초하여, 제1 입력 신호에 대한 출력으로 제1 출력 신호를 획득할 수 있다. 여기서, 제1 출력 신호는 제1 입력 신호와 대응되도록 생성될 수 있다. 즉, 제1 입력 신호가 n개의 화소를 인코딩 하여 생성된 경우, 제1 출력 신호는 n개의 화소에 대한 출력값을 포함할 수 있다.In step S403 , the apparatus 200 may obtain a first output signal as an output of the first input signal based on a result of the input of the artificial neural network. Here, the first output signal may be generated to correspond to the first input signal. That is, when the first input signal is generated by encoding n pixels, the first output signal may include output values for the n pixels.

S404 단계에서, 장치(200)는 제1 출력 신호에 기초하여, 제1 부품의 표면에 대한 분류 결과를 화소 별로 생성할 수 있다. 여기서, 분류 결과는 부품의 표면이 균열의 어느 단계로 분류되는지에 대한 정보를 포함할 수 있다.In operation S404 , the device 200 may generate a classification result for the surface of the first part for each pixel based on the first output signal. Here, the classification result may include information on which stage of cracking the surface of the part is classified into.

예를 들어, 장치(200)는 제1 출력 신호의 출력값을 확인한 결과, 제1 화소에 대한 출력값이 1인 경우, 제1 화소의 표면이 균열 1단계에 해당하는 것으로 분류 결과를 생성하고, 제2 화소에 대한 출력값이 2인 경우, 제2 화소의 표면이 균열 2단계에 해당하는 것으로 분류 결과를 생성할 수 있다. 균열 단계가 올라갈수록 표면에 균열이 더 심각해진다는 것을 의미할 수 있다.For example, when the output value of the first pixel is 1 as a result of checking the output value of the first output signal, the device 200 generates a classification result as that the surface of the first pixel corresponds to the crack stage 1, When the output value for 2 pixels is 2, the classification result may be generated as the surface of the second pixel corresponds to the second crack stage. The higher the crack stage, the more severe the cracks on the surface.

S405 단계에서, 장치(200)는 제1 부품의 표면에 대한 분류 결과를 기반으로, 제1 부품의 표면에 대한 마모도를 화소 별로 설정할 수 있다.In operation S405 , the device 200 may set the wear level of the surface of the first part for each pixel based on the classification result of the surface of the first part.

예를 들어, 장치(200)는 제1 부품의 표면에서 제1 화소의 표면이 균열 1단계에 해당하는 것으로 확인되면, 제1 화소의 마모도를 1로 설정하고, 제1 화소의 표면이 균열 2단계에 해당하는 것으로 확인되면, 제1 화소의 마모도를 2로 설정할 수 있다.For example, if it is determined that the surface of the first pixel on the surface of the first part corresponds to crack stage 1, the device 200 sets the wear level of the first pixel to 1, and the surface of the first pixel is cracked 2 If it is confirmed that the step corresponds to the first pixel, the wear level of the first pixel may be set to 2 .

제1 부품의 표면에 대한 마모도가 화소 별로 설정되면, 도 5에 도시된 바와 같이, 제1 부품의 표면에 대한 마모도가 설정값에 따라 상이한 색으로 표시될 수 있다.When the wear level on the surface of the first part is set for each pixel, as shown in FIG. 5 , the wear degree on the surface of the first part may be displayed in different colors according to the set value.

도 6은 일실시예에 따른 부품의 수리 및 교체에 대한 필요 여부를 판단하는 과정을 설명하기 위한 순서도이다.6 is a flowchart illustrating a process of determining whether repair and replacement of parts is necessary according to an exemplary embodiment.

도 6을 참조하면, 먼저, S601 단계에서, 장치(200)는 제1 부품의 표면에 대한 마모도를 화소 별로 확인하여, 정상 영역과 손상 영역을 구분할 수 있다. 이때, 장치(200)는 기준치 보다 마모도가 낮은 영역을 정상 영역으로 구분하고, 기준치 보다 마모도가 높은 영역을 손상 영역으로 구분할 수 있다. 여기서, 기준치는 실시예에 따라 상이하게 설정될 수 있다.Referring to FIG. 6 , first, in step S601 , the device 200 may identify a wear level on the surface of the first component for each pixel, and distinguish a normal region from a damaged region. In this case, the apparatus 200 may classify an area having a lower degree of wear than the reference value as a normal area, and may classify an area having a higher degree of wear than the reference value as a damaged area. Here, the reference value may be set differently depending on the embodiment.

S602 단계에서, 장치(200)는 제1 부품의 표면에서 정상 영역이 차지하는 면적의 비율인 제1 비율을 산출하고, 제1 부품의 표면에서 손상 영역이 차지하는 면적의 비율인 제2 비율을 산출할 수 있다.In step S602, the device 200 calculates a first ratio that is the ratio of the area occupied by the normal region on the surface of the first part, and calculates a second ratio that is the ratio of the area occupied by the damaged region on the surface of the first part. can

S603 단계에서, 장치(200)는 제1 비율이 제1 기준 비율 보다 높은지 여부를 확인할 수 있다. 여기서, 제1 기준 비율은 실시예에 따라 상이하게 설정될 수 있다.In step S603 , the device 200 may determine whether the first ratio is higher than the first reference ratio. Here, the first reference ratio may be set differently depending on the embodiment.

S603 단계에서 제1 비율이 제1 기준 비율 보다 높은 것으로 확인되면, S605 단계에서, 장치(200)는 제1 부품을 역설계를 통한 재조립에 사용될 부품으로 분류할 수 있다.If it is determined in step S603 that the first ratio is higher than the first reference ratio, in step S605 , the apparatus 200 may classify the first part as a part to be used for reassembly through reverse engineering.

예를 들어, 제1 기준 비율이 90%로 설정된 경우, 장치(200)는 제1 비율이 95%로 확인되면, 제1 부품을 역설계를 통한 재조립에 사용될 부품으로 분류할 수 있다.For example, when the first reference ratio is set to 90%, the apparatus 200 may classify the first part as a part to be used for reassembly through reverse engineering when it is confirmed that the first ratio is 95%.

S603 단계에서 제1 비율이 제1 기준 비율 보다 낮은 것으로 확인되면, S604 단계에서, 장치(200)는 제2 비율이 제2 기준 비율 보다 낮은지 여부를 확인할 수 있다. 여기서, 제2 기준 비율은 실시예에 따라 상이하게 설정될 수 있다.If it is determined in step S603 that the first ratio is lower than the first reference ratio, in step S604 , the device 200 may determine whether the second ratio is lower than the second reference ratio. Here, the second reference ratio may be set differently according to embodiments.

S604 단계에서 제2 비율이 제2 기준 비율 보다 낮은 것으로 확인되면, S606 단계에서, 장치(200)는 제1 부품을 수리가 필요한 부품으로 분류할 수 있다.If it is determined in step S604 that the second ratio is lower than the second reference ratio, in step S606 , the device 200 may classify the first part as a part requiring repair.

예를 들어, 제2 기준 비율이 20%로 설정된 경우, 장치(200)는 제2 비율이 15%로 확인되면, 제1 부품을 수리가 필요한 부품으로 분류할 수 있다.For example, when the second reference ratio is set to 20% and the second reference ratio is 15%, the device 200 may classify the first part as a part requiring repair.

S604 단계에서 제2 비율이 제2 기준 비율 보다 높은 것으로 확인되면, S607 단계에서, 장치(200)는 제1 부품을 교체가 필요한 부품으로 분류할 수 있다.If it is determined in step S604 that the second ratio is higher than the second reference ratio, in step S607 , the device 200 may classify the first part as a part requiring replacement.

예를 들어, 제2 기준 비율이 20%로 설정된 경우, 장치(200)는 제2 비율이 25%로 확인되면, 제1 부품을 교체가 필요한 부품으로 분류할 수 있다.For example, when the second reference ratio is set to 20%, the device 200 may classify the first part as a part requiring replacement when it is confirmed that the second ratio is 25%.

도 7은 일실시예에 따른 부품의 크기를 추정하는 과정을 설명하기 위한 순서도이다.7 is a flowchart illustrating a process of estimating the size of a component according to an exemplary embodiment.

도 7을 참조하면, 먼저, S701 단계에서, 장치(200)는 제1 차량이 분해되어 있지 않은 상태에서, 제1 차량이 3D 스캐너(100)에 의해 스캔되면, 3D 스캐너(100)로부터 제1 차량을 스캔하여 생성된 3D 스캔 데이터인 제2 스캔 데이터를 획득할 수 있다.Referring to FIG. 7 , first, in step S701 , when the first vehicle is scanned by the 3D scanner 100 in a state in which the first vehicle is not disassembled, the device 200 receives the first from the 3D scanner 100 . Second scan data that is 3D scan data generated by scanning the vehicle may be acquired.

S702 단계에서, 장치(200)는 제2 스캔 데이터를 기반으로, 제1 차량에 설치되어 있는 복수의 부품을 확인할 수 있다.In step S702 , the device 200 may identify a plurality of parts installed in the first vehicle based on the second scan data.

구체적으로, 장치(200)의 데이터베이스에는 제1 차량의 부품 별로 등록되어 있는 3D 스캔 데이터가 저장되어 있으며, 장치(200)는 제2 스캔 데이터와 데이터베이스에 저장된 부품들의 3D 스캔 데이터를 비교하여, 제1 차량에 설치되어 있는 복수의 부품을 각각 확인할 수 있다.Specifically, 3D scan data registered for each part of the first vehicle is stored in the database of the device 200, and the device 200 compares the second scan data with the 3D scan data of the parts stored in the database, 1 You can check each of a plurality of parts installed in a vehicle.

S703 단계에서, 장치(200)는 제1 차량에 설치되어 있는 복수의 부품을 확인한 결과, 제1 차량에 제1 부품 및 제2 부품이 설치되어 있는 것을 확인할 수 있다.In step S703 , as a result of checking the plurality of parts installed in the first vehicle, the device 200 may determine that the first part and the second part are installed in the first vehicle.

장치(200)는 제1 차량에 제1 부품 및 제2 부품이 설치되어 있는 것으로 확인되면, S704 단계에서, 제2 스캔 데이터를 기반으로, 제1 차량에서 제1 부품이 차지하는 영역인 제1 영역을 검출하고, S705 단계에서, 제2 스캔 데이터를 기반으로, 제1 차량에서 제2 부품이 차지하는 영역인 제2 영역을 검출할 수 있다.If the device 200 determines that the first part and the second part are installed in the first vehicle, in step S704 , based on the second scan data, the first area that is the area occupied by the first part in the first vehicle , and in step S705 , a second area that is an area occupied by the second component in the first vehicle may be detected based on the second scan data.

장치(200)는 제1 영역을 검출하는데 있어, 제2 스캔 데이터를 기반으로, 제1 차량에서 제1 부품의 형태에 대한 특징을 분석하여, 제1 부품의 경계를 인식한 후, 인식된 제1 부품의 경계를 통해 제1 영역을 검출할 수 있다. 이때, 장치(200)는 3차원의 공간 상에서 2차원의 박스 형태로 제1 영역을 검출할 수 있다.In detecting the first area, the device 200 analyzes the characteristics of the shape of the first part in the first vehicle based on the second scan data, recognizes the boundary of the first part, and then recognizes the recognized second part. The first region may be detected through the boundary of one part. In this case, the apparatus 200 may detect the first region in the form of a two-dimensional box in a three-dimensional space.

또한, 장치(200)는 제2 영역을 검출하는데 있어, 제2 스캔 데이터를 기반으로, 제1 차량에서 제2 부품의 형태에 대한 특징을 분석하여, 제2 부품의 경계를 인식한 후, 인식된 제2 부품의 경계를 통해 제2 영역을 검출할 수 있다. 이때, 장치(200)는 3차원의 공간 상에서 2차원의 박스 형태로 제2 영역을 검출할 수 있다.In addition, in detecting the second region, the device 200 analyzes the characteristics of the shape of the second part in the first vehicle based on the second scan data, recognizes the boundary of the second part, and then recognizes The second region may be detected through the boundary of the second part. In this case, the apparatus 200 may detect the second region in the form of a two-dimensional box in a three-dimensional space.

S706 단계에서, 장치(200)는 제2 스캔 데이터를 기반으로, 제1 차량에서 제1 영역의 길이를 추정하여, 추정된 길이로 제1 길이를 설정할 수 있다.In operation S706 , the apparatus 200 may estimate the length of the first area in the first vehicle based on the second scan data, and set the first length as the estimated length.

예를 들어, 장치(200)는 3차원의 공간 상에서 2차원의 박스 형태로 제1 영역이 검출되면, 제1 영역의 장축과 대각선의 길이를 확인하고, 제1 영역의 장축과 대각선의 평균값으로 제1 길이를 설정할 수 있다.For example, when the first region is detected in the form of a two-dimensional box in the three-dimensional space, the apparatus 200 checks the lengths of the long axis and the diagonal of the first region, and uses the average value of the long axis and the diagonal of the first region. The first length may be set.

S707 단계에서, 장치(200)는 제2 스캔 데이터를 기반으로, 제1 차량에서 제2 영역의 길이를 추정하여, 추정된 길이로 제2 길이를 설정할 수 있다.In operation S707 , the device 200 may estimate the length of the second area in the first vehicle based on the second scan data, and set the second length as the estimated length.

예를 들어, 장치(200)는 3차원의 공간 상에서 2차원의 박스 형태로 제2 영역이 검출되면, 제2 영역의 장축과 대각선의 길이를 확인하고, 제2 영역의 장축과 대각선의 평균값으로 제2 길이를 설정할 수 있다.For example, when the second region is detected in the form of a two-dimensional box in the three-dimensional space, the device 200 checks the lengths of the long axis and the diagonal of the second region, and uses the average value of the long axis and the diagonal of the second region. A second length may be set.

S708 단계에서, 장치(200)는 제1 부품의 실제 길이인 제3 길이를 확인할 수 있다. 이를 위해, 장치(200)의 데이터베이스에는 차량의 부품 별로 구분된 실제 길이에 대한 정보가 저장되어 있으며, 장치(200)는 데이터베이스에 저장된 정보를 조회하여, 제1 부품의 실제 길이인 제3 길이를 확인할 수 있다.In step S708 , the device 200 may identify a third length that is an actual length of the first part. To this end, the database of the device 200 stores information on the actual length divided by parts of the vehicle, and the device 200 retrieves the information stored in the database to determine the third length, which is the actual length of the first part. can be checked

S709 단계에서, 장치(200)는 제1 길이, 제2 길이 및 제3 길이를 이용하여, 제2 부품의 실제 길이인 제4 길이를 추정할 수 있다.In operation S709 , the apparatus 200 may estimate a fourth length that is an actual length of the second part by using the first length, the second length, and the third length.

구체적으로, 장치(200)는 제1 길이 및 제3 길이의 비율인 길이 비율을 산출하고, 산출된 길이 비율에 제2 길이를 적용하여, 제4 길이를 산출하는 과정을 통해, 제4 길이를 추정할 수 있다.Specifically, the apparatus 200 calculates a length ratio, which is a ratio of the first length and the third length, applies the second length to the calculated length ratio, and calculates the fourth length through the process of calculating the fourth length. can be estimated

예를 들어, 제1 길이가 10cm이고, 제2 길이가 20cm이고, 제3 길이가 15cm인 경우, 장치(200)는 제1 길이 및 제3 길이를 이용하여 길이 비율을 1.5로 산출할 수 있으며, 길이 비율에 제2 길이를 적용하여, 제4 길이를 30cm로 산출할 수 있다.For example, if the first length is 10 cm, the second length is 20 cm, and the third length is 15 cm, the device 200 may use the first length and the third length to calculate a length ratio of 1.5, , by applying the second length to the length ratio, the fourth length may be calculated as 30 cm.

도 8은 일실시예에 따른 부품에 대한 이미지를 기록하여 저장하는 과정을 설명하기 위한 순서도이다.8 is a flowchart illustrating a process of recording and storing an image of a part according to an exemplary embodiment.

도 8을 참조하면, 먼저, S801 단계에서, 장치(200)는 카메라를 통해 제1 부품에 대한 촬영이 수행되고 있는 경우, 카메라로부터 제1 부품의 촬영으로 생성된 영상 정보를 획득할 수 있다. 이때, 카메라는 제1 부품에 대한 촬영을 수행하고 있으며, 장치(200)는 제1 부품의 촬영으로 생성된 영상 정보를 실시간으로 획득할 수 있다. 이를 위해, 카메라는 장치(200)와 유무선으로 통신하도록 구성될 수 있다.Referring to FIG. 8 , first, in step S801 , when the first part is being photographed through the camera, the device 200 may acquire image information generated by the photographing of the first part from the camera. In this case, the camera is capturing the first part, and the device 200 may acquire image information generated by capturing the first part in real time. To this end, the camera may be configured to communicate with the device 200 in a wired or wireless manner.

S802 단계에서, 장치(200)는 영상 정보에서 제1 시점의 영상 이미지를 제1 이미지로 추출할 수 있다. 즉, 장치(200)는 영상 정보에서 제1 시점의 영상을 캡처하여, 캡처한 이미지를 제1 이미지로 추출할 수 있다. 여기서, 제1 시점은 실시예에 따라 상이하게 설정될 수 있다.In step S802 , the device 200 may extract the video image of the first viewpoint from the video information as the first image. That is, the device 200 may capture the image of the first viewpoint from the image information, and extract the captured image as the first image. Here, the first time point may be set differently depending on the embodiment.

S803 단계에서, 장치(200)는 제1 이미지에서 제1 부품이 차지하고 있는 구역을 제1 구역으로 구분할 수 있다.In step S803 , the device 200 may classify an area occupied by the first part in the first image as the first area.

구체적으로, 장치(200)는 제1 이미지를 분석하여, 제1 이미지 상에 있는 제1 부품을 인식할 수 있으며, 제1 이미지 상에서 가장 좌측에 위치하는 제1 부품의 위치를 제1 위치로 확인하고, 제1 이미지 상에서 가장 상측에 위치하는 제1 부품의 위치를 제2 위치로 확인하고, 제1 이미지 상에서 가장 우측에 위치하는 제1 부품의 위치를 제3 위치로 확인하고, 제1 이미지 상에서 가장 하측에 위치하는 제1 부품의 위치를 제4 위치로 확인할 수 있다.Specifically, the device 200 may analyze the first image to recognize the first part on the first image, and confirm the position of the first part located on the leftmost side on the first image as the first position. and confirming the position of the first part located on the uppermost side on the first image as the second position, confirming the position of the first part located on the rightmost side on the first image as the third position, and on the first image The position of the first part located at the lowermost position may be confirmed as the fourth position.

이후, 장치(200)는 제1 위치를 기준으로 상하 방향으로 확장한 제1 직선을 생성하고, 제2 위치를 기준으로 좌우 방향으로 확장한 제2 직선을 생성하고, 제3 위치를 기준으로 상하 방향으로 확장한 제3 직선을 생성하고, 제4 위치를 기준으로 좌우 방향으로 확장한 제4 직선을 생성할 수 있다.Then, the device 200 generates a first straight line extending in the vertical direction based on the first position, generates a second straight line extending in the left and right direction based on the second position, and vertically based on the third position. A third straight line extending in the direction may be generated, and a fourth straight line extending in a left and right direction based on the fourth position may be generated.

이후, 장치(200)는 제1 직선, 제2 직선, 제3 직선 및 제4 직선을 연결한 구역을 제1 구역으로 설정한 후, 제1 이미지에서 제1 구역을 구분할 수 있다.Thereafter, the device 200 may distinguish the first region from the first image after setting the region connecting the first straight line, the second straight line, the third straight line, and the fourth straight line as the first region.

S804 단계에서, 장치(200)는 제1 이미지에서 제1 구역이 있는 부분을 분할하여, 분할된 이미지를 제1-1 이미지로 추출할 수 있다.In operation S804 , the device 200 may divide a portion having the first region in the first image, and extract the divided image as the 1-1 image.

S805 단계에서, 장치(200)는 제1-1 이미지에 이물질이 있는 것으로 인식되는지 여부를 확인할 수 있다. 즉, 장치(200)는 제1-1 이미지 상에서 제1 부품 이외에 다른 형태의 이물질이 인식되는지 여부를 확인하여, 지1-1 이미지에 이물질이 있는지 여부를 확인할 수 있다.In step S805 , the device 200 may check whether it is recognized that there is a foreign object in the 1-1 image. That is, the device 200 may check whether foreign substances in a form other than the first part are recognized on the 1-1 image, and may determine whether there is a foreign substance in the 1-1 image.

S805 단계에서 제1-1 이미지에 이물질이 있는 것으로 확인되면, S806 단계에서, 장치(200)는 제1-1 이미지에서 이물질이 차지하고 있는 구역을 제2 구역으로 구분할 수 있다. 이때, 장치(200)는 제1 이미지에서 제1 구역을 구분하는 방식과 동일한 방식을 통해, 제1-1 이미지에서 제2 구역을 구분할 수 있다.If it is determined in step S805 that there is a foreign material in the 1-1 image, in step S806 , the device 200 may classify an area occupied by the foreign material in the 1-1 image as a second area. In this case, the device 200 may distinguish the second region from the 1-1 image through the same method as the method for distinguishing the first region from the first image.

S807 단계에서, 장치(200)는 영상 정보를 제1 시점으로부터 시간상 역순으로 재생하여 분석할 수 있다.In step S807 , the device 200 may analyze the image information by reproducing the image information in reverse chronological order from the first time point.

S808 단계에서, 장치(200)는 영상 정보를 제1 시점으로부터 시간상 역순으로 재생하여 분석한 결과, 제2 시점에 제2 구역 내에 이물질이 없는 것을 확인할 수 있다.In step S808 , as a result of analyzing and reproducing the image information in reverse chronological order from the first time point, the device 200 may confirm that there is no foreign material in the second area at the second time point.

S809 단계에서, 장치(200)는 영상 정보에서 제2 시점의 영상 이미지를 제2 이미지로 추출할 수 있다. 즉, 장치(200)는 영상 정보에서 제2 시점의 영상을 캡처하여, 캡처한 이미지를 제2 이미지로 추출할 수 있다.In step S809 , the device 200 may extract the video image of the second viewpoint from the video information as the second image. That is, the device 200 may capture the image of the second viewpoint from the image information, and extract the captured image as the second image.

S810 단계에서, 장치(200)는 제2 이미지에서 제2 구역이 있는 부분을 분할하여 제2-1 이미지를 추출할 수 있다.In operation S810 , the device 200 may extract a 2-1 image by dividing a portion having the second region from the second image.

S811 단계에서, 장치(200)는 제1-1 이미지에서 제2 구역이 있는 부분을 제2-1 이미지로 교체할 수 있다.In step S811 , the device 200 may replace the portion having the second region in the 1-1 image with the 2-1 image.

구체적으로, 장치(200)는 제1-1 이미지에 이물질이 있는 것으로 확인되면, 제1-1 이미지에서 이물질이 차지하고 있는 구역을 제2 구역으로 구분할 수 있고, 제1-1 이미지에서 제2 구역이 있는 부분을 삭제하고, 삭제된 위치에 제2-1 이미지를 삽입하여, 제1-1 이미지와 제2-1 이미지가 결합된 제1-1 이미지를 생성할 수 있다. 즉, 제1-1 이미지에서 제2 구역이 있는 부분이 제2-1 이미지로 교체되어, 제1-1 이미지에 있었던 이물질이 삭제되고, 삭제된 자리에 이물질이 없는 부분이 추가되어, 제1-1 이미지에서는 더 이상 이물질이 인식되지 않을 수 있다.Specifically, when it is confirmed that there is a foreign material in the 1-1 image, the device 200 may classify the area occupied by the foreign material in the 1-1 image as a second area, and in the 1-1 image, the second area A 1-1 image in which the 1-1 image and the 2-1 image are combined may be generated by deleting the portion with the 2-1 image and inserting the 2-1 image at the deleted position. That is, the part with the second zone in the 1-1 image is replaced with the 2-1 image, the foreign material in the 1-1 image is deleted, and a part without the foreign material is added to the deleted position, -1 Foreign objects may no longer be recognized in the image.

도 9는 일실시예에 따른 인공 신경망을 설명하기 위한 도면이다.9 is a diagram for explaining an artificial neural network according to an embodiment.

일실시예에 따른 인공 신경망(900)은 스캔 데이터의 인코딩에 의해 생성된 입력 신호를 입력으로 하여, 부품의 표면이 균열의 어느 단계로 분류되는지에 대한 정보를 출력으로 할 수 있다.The artificial neural network 900 according to an embodiment may receive as an input an input signal generated by encoding scan data, and output information on which stage of crack the surface of the part is classified into.

일실시예에 따른 인코딩은 이미지의 픽셀 별 색 정보를 수치화된 데이터 시트 형태로 저장하는 방식으로 이뤄질 수 있는데, 색 정보는 하나의 픽셀이 가지고 있는 RGB 색상, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다.Encoding according to an embodiment may be performed by storing color information for each pixel of an image in the form of a digitized data sheet, and the color information includes RGB color, brightness information, saturation information, and depth information of one pixel. can, but is not limited to.

일실시예에 따르면, 인공 신경망(900)은 특징 추출 신경망(910)과 분류 신경망(920)으로 구성되어 있으며, 특징 추출 신경망(910)은 이미지에서 부품 영역과 배경 영역을 분리하는 작업을 수행할 수 있으며, 분류 신경망(920)은 이미지 내에서 부품의 표면이 균열의 어느 단계로 분류되는지 여부를 파악하는 작업을 수행하도록 할 수 있다.According to an embodiment, the artificial neural network 900 is composed of a feature extraction neural network 910 and a classification neural network 920, and the feature extraction neural network 910 separates a part region and a background region from an image. In addition, the classification neural network 920 may perform an operation of determining whether the surface of the part is classified as a crack in the image.

특징 추출 신경망(910)이 부품 영역과 배경 영역을 구분하는 방법은 이미지를 인코딩한 입력 신호의 데이터 시트로부터 색 정보의 각 값들의 변화가 한 픽셀을 포함하는 8개의 픽셀 중 6개 이상에서 30% 이상의 변화가 생긴 것으로 감지되는 픽셀들의 묶음을 부품 영역과 배경 영역의 경계로 삼을 수 있으나, 이에 국한하지 않는다.The method in which the feature extraction neural network 910 distinguishes the part region and the background region is that the change in each value of color information from the data sheet of the input signal encoding the image is 30% in 6 or more of 8 pixels including one pixel. A bundle of pixels detected as having an abnormal change may be used as a boundary between the part area and the background area, but is not limited thereto.

특징 추출 신경망(910)은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.The feature extraction neural network 910 stacks the input signal by sequentially stacking a convolutional layer and a pooling layer. The convolution layer includes a convolution operation, a convolution filter, and an activation function. The calculation of the convolution filter is adjusted according to the matrix size of the target input, but a 9X9 matrix is generally used. The activation function generally uses, but is not limited to, a ReLU function, a sigmoid function, and a tanh function. The pooling layer is a layer that reduces the size of the input matrix, and uses a method of extracting representative values by tying pixels in a specific area. In general, the average value or the maximum value is often used for the calculation of the pooling layer, but is not limited thereto. The operation is performed using a square matrix, usually a 9x9 matrix. The convolutional layer and the pooling layer are repeated alternately until the corresponding input becomes small enough while maintaining the difference.

분류 신경망(920)은 특징 추출 신경망(910)을 통해 배경으로부터 구분된 부품 영역의 표면을 확인하고, 미리 정의된 균열의 단계별 표면 상태와 유사한지 여부를 확인하여, 부품 영역의 표면이 균열의 어느 단계로 분류되는지 여부를 파악할 수 있다. 균열의 단계별 표면 상태와 비교하기 위해, 데이터베이스에 저장된 정보들을 활용할 수 있다.The classification neural network 920 checks the surface of the part region separated from the background through the feature extraction neural network 910, and checks whether the surface state of the predefined crack is similar to the step-by-step surface state, so that the surface of the part region is the type of crack. It can be determined whether or not they are classified into stages. Information stored in the database can be used to compare the crack phase with the surface state.

분류 신경망(920)은 히든 레이어와 출력 레이어를 가지고 있으며, 5층 이하의 히든 레이어로 구성되어, 총 50개 이하의 히든 레이어 노드를 포함하고, 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다.The classification neural network 920 has a hidden layer and an output layer, and is composed of five or less hidden layers, including a total of 50 or less hidden layer nodes, and the activation function of the hidden layer is a ReLU function and a sigmoid function. and tanh functions, but is not limited thereto.

분류 신경망(920)는 총 1개의 출력층 노드만 포함할 수 있다.The classification neural network 920 may include only one output layer node in total.

분류 신경망(920)의 출력은 부품 표면이 균열의 어느 단계로 분류되는지에 대한 출력값으로, 균열의 어느 단계에 해당하는지를 지시할 수 있다. 예를 들어, 출력값이 1인 경우, 부품 표면이 균열 1단계에 해당하는 것을 지시하고, 출력값이 2인 경우, 부품 표면이 균열 2단계에 해당하는 것을 지시할 수 있다.The output of the classification neural network 920 is an output value for which stage of the crack the part surface is classified, and may indicate which stage of the crack it corresponds to. For example, when the output value is 1, it may indicate that the part surface corresponds to the crack stage 1, and when the output value is 2, it may indicate that the part surface corresponds to the crack stage 2.

분류 신경망(920)의 출력은 입력 신호가 n개의 화소를 인코딩 하여 생성된 경우, n개로 출력될 수 있다.The output of the classification neural network 920 may be output to n when the input signal is generated by encoding n pixels.

일실시예에 따르면, 인공 신경망(900)은 사용자가 인공 신경망(900)에 따른 출력의 문제점 발견 시 사용자에 의해 입력된 수정 정답에 의해 생성되는 제1 학습 신호를 전달받아 학습할 수 있다. 인공 신경망(900)에 따른 출력의 문제점은 부품 표면에 대해 균열의 다른 단계로 분류한 출력값을 출력한 경우를 의미할 수 있다.According to an embodiment, the artificial neural network 900 may learn by receiving the first learning signal generated by the corrected correct answer input by the user when the user discovers a problem in the output according to the artificial neural network 900 . The problem of output according to the artificial neural network 900 may mean a case in which output values classified into different stages of cracking are output on the surface of the part.

일실시예에 따른 제1 학습 신호는 정답과 출력값의 오차를 바탕으로 만들어지며, 경우에 따라 델타를 이용하는 SGD나 배치 방식 혹은 역전파 알고리즘을 따르는 방식을 사용할 수 있다. 인공 신경망(900)은 제1 학습 신호에 의해 기존의 가중치를 수정해 학습을 수행하며, 경우에 따라 모멘텀을 사용할 수 있다. 오차의 계산에는 비용함수가 사용될 수 있는데, 비용함수로 Cross entropy 함수를 사용할 수 있다. 이하 도 10을 참조하여 인공 신경망(900)의 학습 내용이 후술된다.The first learning signal according to an embodiment is created based on the error between the correct answer and the output value, and in some cases, SGD using delta, a batch method, or a method following a backpropagation algorithm may be used. The artificial neural network 900 performs learning by modifying an existing weight according to the first learning signal, and may use momentum in some cases. A cost function can be used to calculate the error, and a cross entropy function can be used as the cost function. Hereinafter, the learning contents of the artificial neural network 900 will be described with reference to FIG. 10 .

도 10은 일실시예에 따른 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.10 is a diagram for explaining a method of learning an artificial neural network according to an embodiment.

일실시예에 따르면, 학습 장치는 인공 신경망(900)을 학습시킬 수 있다. 학습 장치는 장치(200)와 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니다.According to an embodiment, the learning apparatus may train the artificial neural network 900 . The learning device may be a separate entity different from the device 200 , but is not limited thereto.

일실시예에 따르면, 인공 신경망(900)은 트레이닝 샘플들이 입력되는 입력 레이어와 트레이닝 출력들을 출력하는 출력 레이어를 포함하고, 트레이닝 출력들과 제1 레이블들 사이의 차이에 기초하여 학습될 수 있다. 여기서, 제1 레이블들은 균열의 단계별로 등록되어 있는 대표 이미지에 기초하여 정의될 수 있다. 인공 신경망(900)은 복수의 노드들의 그룹으로 연결되어 있고, 연결된 노드들 사이의 가중치들과 노드들을 활성화시키는 활성화 함수에 의해 정의된다. According to an embodiment, the artificial neural network 900 includes an input layer to which training samples are input and an output layer to output training outputs, and may be trained based on a difference between the training outputs and the first labels. Here, the first labels may be defined based on a representative image registered for each stage of the crack. The artificial neural network 900 is connected to a group of a plurality of nodes, and is defined by weights between the connected nodes and an activation function that activates the nodes.

학습 장치는 GD(Gradient Decent) 기법 또는 SGD(Stochastic Gradient Descent) 기법을 이용하여 인공 신경망(900)을 학습시킬 수 있다. 학습 장치는 인공 신경망(900)의 출력들 및 레이블들 의해 설계된 손실 함수를 이용할 수 있다.The learning apparatus may train the artificial neural network 900 using a Gradient Decent (GD) technique or a Stochastic Gradient Descent (SGD) technique. The learning apparatus may use a loss function designed by the outputs and labels of the artificial neural network 900 .

학습 장치는 미리 정의된 손실 함수(loss function)을 이용하여 트레이닝 에러를 계산할 수 있다. 손실 함수는 레이블, 출력 및 파라미터를 입력 변수로 미리 정의될 수 있고, 여기서 파라미터는 인공 신경망(900) 내 가중치들에 의해 설정될 수 있다. 예를 들어, 손실 함수는 MSE(Mean Square Error) 형태, 엔트로피(entropy) 형태 등으로 설계될 수 있는데, 손실 함수가 설계되는 실시예에는 다양한 기법 또는 방식이 채용될 수 있다.The learning apparatus may calculate a training error using a predefined loss function. The loss function may be predefined with a label, an output, and a parameter as input variables, where the parameter may be set by weights in the artificial neural network 900 . For example, the loss function may be designed in a Mean Square Error (MSE) form, an entropy form, or the like, and various techniques or methods may be employed in an embodiment in which the loss function is designed.

학습 장치는 역전파(backpropagation) 기법을 이용하여 트레이닝 에러에 영향을 주는 가중치들을 찾아낼 수 있다. 여기서, 가중치들은 인공 신경망(900) 내 노드들 사이의 관계들이다. 학습 장치는 역전파 기법을 통해 찾아낸 가중치들을 최적화시키기 위해 레이블들 및 출력들을 이용한 SGD 기법을 이용할 수 있다. 예를 들어, 학습 장치는 레이블들, 출력들 및 가중치들에 기초하여 정의된 손실 함수의 가중치들을 SGD 기법을 이용하여 갱신할 수 있다.The learning apparatus may find weights affecting the training error by using a backpropagation technique. Here, the weights are relationships between nodes in the artificial neural network 900 . The learning apparatus may use the SGD technique using labels and outputs to optimize the weights found through the backpropagation technique. For example, the learning apparatus may update the weights of the loss function defined based on the labels, outputs, and weights using the SGD technique.

일실시예에 따르면, 학습 장치는 데이터베이스로부터 레이블드 트레이닝 균열 단계별 대표 이미지들(1001)을 획득할 수 있다. 학습 장치는 균열 단계별 대표 이미지들(1001)에 각각 미리 레이블링된 정보를 획득할 수 있는데, 균열 단계별 대표 이미지들(1001)은 미리 분류된 균열 단계에 따라 레이블링될 수 있다.According to an embodiment, the learning apparatus may acquire representative images 1001 of each labeled training crack stage from the database. The learning apparatus may obtain pre-labeled information on each of the crack stage representative images 1001, and the crack stage representative images 1001 may be labeled according to the pre-classified crack stage.

일실시예에 따르면, 학습 장치는 1000개의 레이블드 트레이닝 균열 단계별 대표 이미지들(1001)을 획득할 수 있으며, 레이블드 트레이닝 균열 단계별 대표 이미지들(1001)에 기초하여 제1 트레이닝 균열 단계별 벡터들(1002)을 생성할 수 있다. 제1 트레이닝 균열 단계별 벡터들(1002)을 추출하는데는 다양한 방식이 채용될 수 있다.According to an embodiment, the learning apparatus may acquire 1000 labeled training crack stage representative images 1001, and based on the labeled training crack stage representative images 1001, the first training crack stage vectors ( 1002) can be created. Various methods may be employed for extracting the first training crack step vectors 1002 .

일실시예에 따르면, 학습 장치는 제1 트레이닝 균열 단계별 벡터들(1002)을 인공 신경망(900)에 적용하여 제1 트레이닝 출력들(1003)을 획득할 수 있다. 학습 장치는 제1 트레이닝 출력들(1003)과 제1 레이블들(1004)에 기초하여 인공 신경망(900)을 학습시킬 수 있다. 학습 장치는 제1 트레이닝 출력들(1003)에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 인공 신경망(900) 내 노드들의 연결 관계를 최적화하여 인공 신경망(900)을 학습시킬 수 있다.According to an embodiment, the learning apparatus may obtain the first training outputs 1003 by applying the first training crack step-by-step vectors 1002 to the artificial neural network 900 . The learning apparatus may train the artificial neural network 900 based on the first training outputs 1003 and the first labels 1004 . The learning apparatus may train the artificial neural network 900 by calculating training errors corresponding to the first training outputs 1003 and optimizing the connection relationship of nodes in the artificial neural network 900 to minimize the training errors. .

도 11은 일실시예에 따른 장치의 구성의 예시도이다.11 is an exemplary diagram of a configuration of an apparatus according to an embodiment.

일실시예에 따른 장치(200)는 프로세서(201) 및 메모리(202)를 포함한다. 프로세서(201)는 도 1 내지 도 10을 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 10을 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(200)를 이용하는 자 또는 단체는 도 1 내지 도 10을 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.The device 200 according to one embodiment includes a processor 201 and a memory 202 . The processor 201 may include at least one of the devices described above with reference to FIGS. 1 to 10 , or perform at least one method described above with reference to FIGS. 1 to 10 . A person or organization using the apparatus 200 may provide a service related to some or all of the methods described above with reference to FIGS. 1 to 10 .

메모리(202)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(202)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.The memory 202 may store information related to the above-described methods or a program in which the methods described below are implemented. Memory 202 may be volatile memory or non-volatile memory.

프로세서(201)는 프로그램을 실행하고, 장치(200)를 제어할 수 있다. 프로세서(201)에 의하여 실행되는 프로그램의 코드는 메모리(202)에 저장될 수 있다. 장치(200)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.The processor 201 may execute a program and control the device 200 . The code of the program executed by the processor 201 may be stored in the memory 202 . The device 200 may be connected to an external device (eg, a personal computer or a network) through an input/output device (not shown), and may exchange data through wired/wireless communication.

장치(200)는 인공 신경망을 학습시키거나, 학습된 인공 신경망을 이용하는데 사용될 수 있다. 메모리(202)는 학습 중인 또는 학습된 인공 신경망을 포함할 수 있다. 프로세서(201)는 메모리(202)에 저장된 인공 신경망 알고리즘을 학습시키거나 실행시킬 수 있다. 인공 신경망을 학습시키는 장치(200)와 학습된 인공 신경망을 이용하는 장치(200)는 동일할 수도 있고 개별적일 수도 있다.The device 200 may be used to train an artificial neural network or to use a learned artificial neural network. Memory 202 may include a learning or learned artificial neural network. The processor 201 may learn or execute an artificial neural network algorithm stored in the memory 202 . The apparatus 200 for learning an artificial neural network and the apparatus 200 for using the learned artificial neural network may be the same or may be separate.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the apparatus, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (3)

장치에 의해 수행되는, 3D 스캔 데이터를 이용하여 차체 구조를 역설계하기 위한 방법에 있어서,
제1 차량이 복수의 부품으로 분해되어 있는 상태에서, 상기 복수의 부품이 3D 스캐너에 의해 각각 스캔되면, 상기 3D 스캐너로부터 상기 복수의 부품을 각각 스캔하여 생성된 3D 스캔 데이터인 제1 스캔 데이터를 획득하는 단계;
상기 제1 스캔 데이터에 포함된 복수의 스캔 데이터가 각각 어느 부품을 스캔하여 생성된 3D 스캔 데이터인지 분석하는 단계;
상기 제1 스캔 데이터 중에서 제1-1 스캔 데이터가 제1 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석되면, 데이터베이스로부터 상기 제1 부품에 대한 정보를 획득하여 상기 제1 차량에서 상기 제1 부품이 설치되는 위치인 제1 지점을 확인하는 단계;
상기 제1-1 스캔 데이터를 기반으로, 상기 제1 지점의 주변에 대한 차체 구조를 역설계하는 단계;
상기 제1 차량이 분해되어 있지 않은 상태에서, 상기 제1 차량이 상기 3D 스캐너에 의해 스캔되면, 상기 3D 스캐너로부터 상기 제1 차량을 스캔하여 생성된 3D 스캔 데이터인 제2 스캔 데이터를 획득하는 단계;
상기 제2 스캔 데이터를 기반으로, 상기 제1 차량에 설치되어 있는 복수의 부품을 확인하는 단계;
상기 제1 차량에 상기 제1 부품 및 제2 부품이 설치되어 있는 것으로 확인되면, 상기 제2 스캔 데이터를 기반으로, 상기 제1 차량에서 상기 제1 부품이 차지하는 영역인 제1 영역을 검출하고, 상기 제1 차량에서 상기 제2 부품이 차지하는 영역인 제2 영역을 검출하는 단계;
상기 제2 스캔 데이터를 기반으로, 상기 제1 차량에서 상기 제1 영역의 길이를 추정하여, 제1 길이를 설정하고, 상기 제1 차량에서 상기 제2 영역의 길이를 추정하여, 제2 길이를 설정하는 단계;
상기 데이터베이스에 저장된 정보를 이용하여 상기 제1 부품의 실제 길이인 제3 길이를 확인하는 단계; 및
상기 제1 길이, 상기 제2 길이 및 상기 제3 길이를 이용하여, 상기 제2 부품의 실제 길이인 제4 길이를 추정하는 단계를 포함하는,
3D 스캔 데이터를 이용한 차체 구조 역설계 방법.
A method for reverse engineering a body structure using 3D scan data, performed by an apparatus, comprising:
In a state in which the first vehicle is disassembled into a plurality of parts, when the plurality of parts are respectively scanned by the 3D scanner, the first scan data that is 3D scan data generated by scanning the plurality of parts from the 3D scanner obtaining;
analyzing which part of the plurality of scan data included in the first scan data is 3D scan data generated by scanning each;
When it is analyzed that the 1-1 scan data among the first scan data is 3D scan data generated by scanning a first part, information on the first part is obtained from a database to obtain the first part in the first vehicle. confirming a first point, which is an installation location;
reverse-engineering a body structure around the first point based on the 1-1 scan data;
When the first vehicle is scanned by the 3D scanner in a state in which the first vehicle is not disassembled, obtaining second scan data that is 3D scan data generated by scanning the first vehicle from the 3D scanner ;
identifying a plurality of parts installed in the first vehicle based on the second scan data;
When it is confirmed that the first part and the second part are installed in the first vehicle, a first area that is an area occupied by the first part in the first vehicle is detected based on the second scan data, detecting a second area that is an area occupied by the second component in the first vehicle;
Based on the second scan data, by estimating the length of the first region in the first vehicle, the first length is set, and by estimating the length of the second region in the first vehicle, the second length is determined setting;
checking a third length that is an actual length of the first part using information stored in the database; and
estimating a fourth length that is an actual length of the second part by using the first length, the second length and the third length;
A body structure reverse engineering method using 3D scan data.
제1항에 있어서,
상기 제1-1 스캔 데이터를 화소 별로 인코딩 하여 제1 입력 신호를 생성하는 단계;
상기 제1 입력 신호를 인공 신경망에 입력하고, 상기 제1 입력 신호에 대한 출력으로 제1 출력 신호를 획득하는 단계;
상기 제1 출력 신호에 기초하여, 상기 제1 부품의 표면에 대한 분류 결과를 화소 별로 생성하는 단계; 및
상기 제1 부품의 표면에 대한 분류 결과를 기반으로, 상기 제1 부품의 표면에 대한 마모도를 화소 별로 설정하는 단계를 더 포함하는,
3D 스캔 데이터를 이용한 차체 구조 역설계 방법.
The method of claim 1,
generating a first input signal by encoding the 1-1 scan data for each pixel;
inputting the first input signal to an artificial neural network, and obtaining a first output signal as an output of the first input signal;
generating a classification result for the surface of the first part for each pixel based on the first output signal; and
Based on the classification result for the surface of the first part, further comprising the step of setting the degree of wear on the surface of the first part for each pixel,
A body structure reverse engineering method using 3D scan data.
제2항에 있어서,
상기 제1 부품의 표면에 대한 마모도를 화소 별로 확인하여, 미리 설정된 기준치 보다 마모도가 낮은 영역을 정상 영역으로 구분하고, 상기 기준치 보다 마모도가 높은 영역을 손상 영역으로 구분하는 단계;
상기 제1 부품의 표면에서 상기 정상 영역이 차지하는 면적의 비율인 제1 비율을 산출하고, 상기 제1 부품의 표면에서 상기 손상 영역이 차지하는 면적의 비율인 제2 비율을 산출하는 단계;
상기 제1 비율이 미리 설정된 제1 기준 비율 보다 높은지 여부를 확인하는 단계;
상기 제1 비율이 상기 제1 기준 비율 보다 높은 것으로 확인되면, 상기 제1 부품을 역설계를 통한 재조립에 사용될 부품으로 분류하는 단계;
상기 제1 비율이 상기 제1 기준 비율 보다 낮은 것으로 확인되면, 상기 제2 비율이 미리 설정된 제2 기준 비율 보다 낮은지 여부를 확인하는 단계;
상기 제2 비율이 상기 제2 기준 비율 보다 낮은 것으로 확인되면, 상기 제1 부품을 수리가 필요한 부품으로 분류하는 단계; 및
상기 제2 비율이 상기 제2 기준 비율 보다 높은 것으로 확인되면, 상기 제1 부품을 교체가 필요한 부품으로 분류하는 단계를 더 포함하는,
3D 스캔 데이터를 이용한 차체 구조 역설계 방법.
3. The method of claim 2,
checking the degree of wear on the surface of the first part for each pixel, classifying an area with a lower degree of wear than a preset reference value as a normal area, and classifying an area with a higher degree of wear than the reference value as a damaged area;
calculating a first ratio that is a ratio of an area occupied by the normal region on the surface of the first part, and calculating a second ratio that is a ratio of an area occupied by the damaged region on the surface of the first part;
checking whether the first ratio is higher than a preset first reference ratio;
classifying the first part as a part to be used for reassembly through reverse engineering when it is confirmed that the first ratio is higher than the first reference ratio;
when it is confirmed that the first ratio is lower than the first reference ratio, checking whether the second ratio is lower than a preset second reference ratio;
classifying the first part as a part requiring repair when it is confirmed that the second ratio is lower than the second reference ratio; and
When it is confirmed that the second ratio is higher than the second reference ratio, further comprising the step of classifying the first part as a part requiring replacement,
A body structure reverse engineering method using 3D scan data.
KR1020220084857A 2022-07-11 2022-07-11 Method, device and system for processing reverse engineering of car body structure using 3d scan data KR102454452B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220084857A KR102454452B1 (en) 2022-07-11 2022-07-11 Method, device and system for processing reverse engineering of car body structure using 3d scan data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220084857A KR102454452B1 (en) 2022-07-11 2022-07-11 Method, device and system for processing reverse engineering of car body structure using 3d scan data

Publications (1)

Publication Number Publication Date
KR102454452B1 true KR102454452B1 (en) 2022-10-14

Family

ID=83600050

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220084857A KR102454452B1 (en) 2022-07-11 2022-07-11 Method, device and system for processing reverse engineering of car body structure using 3d scan data

Country Status (1)

Country Link
KR (1) KR102454452B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100933715B1 (en) 2006-05-09 2009-12-24 주식회사 아이너스기술 System and method for modeling precision analysis of reverse engineering execution using 3D scan data
KR101392823B1 (en) * 2013-01-28 2014-05-12 한국기술교육대학교 산학협력단 Method to detect vehicle parts using image alalysis and apparatus therefor
KR101661102B1 (en) * 2015-09-30 2016-09-30 자동차부품연구원 Tuning Method of Vehicle Using 3D Scan Data
KR20200013416A (en) 2018-07-30 2020-02-07 (주)캠시스 Method for converting an internal combustion engine vehicle into an electric vehicle
JP2020187749A (en) * 2019-05-10 2020-11-19 コントロールエキスパート ゲーエムベーハーControlExpert GmbH Method for assessing damage to motor vehicle
KR102237374B1 (en) 2020-09-09 2021-04-07 정구봉 Method and system for manufacturing parts and parts inspection jig using 3d printing
KR20210157000A (en) * 2020-06-19 2021-12-28 현대자동차주식회사 System and method for underbody inspection of vehicle
KR102369093B1 (en) 2020-11-26 2022-03-02 김수지 Manufacturing method using reverse modeling

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100933715B1 (en) 2006-05-09 2009-12-24 주식회사 아이너스기술 System and method for modeling precision analysis of reverse engineering execution using 3D scan data
KR101392823B1 (en) * 2013-01-28 2014-05-12 한국기술교육대학교 산학협력단 Method to detect vehicle parts using image alalysis and apparatus therefor
KR101661102B1 (en) * 2015-09-30 2016-09-30 자동차부품연구원 Tuning Method of Vehicle Using 3D Scan Data
KR20200013416A (en) 2018-07-30 2020-02-07 (주)캠시스 Method for converting an internal combustion engine vehicle into an electric vehicle
JP2020187749A (en) * 2019-05-10 2020-11-19 コントロールエキスパート ゲーエムベーハーControlExpert GmbH Method for assessing damage to motor vehicle
KR20210157000A (en) * 2020-06-19 2021-12-28 현대자동차주식회사 System and method for underbody inspection of vehicle
KR102237374B1 (en) 2020-09-09 2021-04-07 정구봉 Method and system for manufacturing parts and parts inspection jig using 3d printing
KR102369093B1 (en) 2020-11-26 2022-03-02 김수지 Manufacturing method using reverse modeling

Similar Documents

Publication Publication Date Title
EP3319016B1 (en) Control systems using deep reinforcement learning
JP6889728B2 (en) Structural learning in convolutional neural networks
EP4064130A1 (en) Neural network model update method, and image processing method and device
CN111738231B (en) Target object detection method and device, computer equipment and storage medium
KR102548732B1 (en) Apparatus and Method for learning a neural network
US10769261B2 (en) User image verification
CN111797895B (en) Training method, data processing method, system and equipment for classifier
US11068747B2 (en) Computer architecture for object detection using point-wise labels
US20200125930A1 (en) Artificial neural network and method of training an artificial neural network with epigenetic neurogenesis
CN114912612A (en) Bird identification method and device, computer equipment and storage medium
Gollapudi et al. Deep learning for computer vision
Jaafra et al. A review of meta-reinforcement learning for deep neural networks architecture search
KR102553041B1 (en) Method, device and system for providing matching platform service between user and interior supplier based on artificial intelligence model
Dai et al. Camera view planning based on generative adversarial imitation learning in indoor active exploration
EP3893146A1 (en) An apparatus for determining a classifier for identifying objects in an image, an apparatus for identifying objects in an image and corresponding methods
KR102426803B1 (en) Method, device and system for automatically uploading overseas sales page of product based on artificial intelligence
Rekabdar et al. A scale and translation invariant approach for early classification of spatio-temporal patterns using spiking neural networks
KR102454452B1 (en) Method, device and system for processing reverse engineering of car body structure using 3d scan data
JP7225731B2 (en) Imaging multivariable data sequences
KR102447046B1 (en) Method, device and system for designing clinical trial protocol based on artificial intelligence
Rekabdar et al. Scale and translation invariant learning of spatio-temporal patterns using longest common subsequences and spiking neural networks
KR102428941B1 (en) Method, device and system for generating textured 3d scan data through image registration based on scanning of broadband lidar
Sevugan et al. Optimized navigation of mobile robots based on Faster R-CNN in wireless sensor network
US11244198B2 (en) Input partitioning for deep learning of large image data
Lin et al. Using Fully Convolutional Networks for Floor Area Detection.

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant