KR102454452B1 - Method, device and system for processing reverse engineering of car body structure using 3d scan data - Google Patents
Method, device and system for processing reverse engineering of car body structure using 3d scan data Download PDFInfo
- Publication number
- KR102454452B1 KR102454452B1 KR1020220084857A KR20220084857A KR102454452B1 KR 102454452 B1 KR102454452 B1 KR 102454452B1 KR 1020220084857 A KR1020220084857 A KR 1020220084857A KR 20220084857 A KR20220084857 A KR 20220084857A KR 102454452 B1 KR102454452 B1 KR 102454452B1
- Authority
- KR
- South Korea
- Prior art keywords
- scan data
- ratio
- vehicle
- length
- body structure
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/15—Vehicle, aircraft or watercraft design
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/18—Details relating to CAD techniques using virtual or augmented reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/20—Configuration CAD, e.g. designing by assembling or positioning modules selected from libraries of predesigned modules
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
아래 실시예들은 3D 스캔 데이터를 이용하여 차체 구조를 역설계하기 위한 기술에 관한 것이다.The following embodiments relate to a technique for reverse engineering a body structure using 3D scan data.
3D 스캐너를 이용한 스캔 데이터는 기하학적 모델링과 의학적 형태 계측 분야에 있어서 점차 널리 사용되고 있다. 3D 스캔 데이터를 이용하는 기술은 특정한 제품을 제조하는 공정의 결과를 체크하는 방법에도 적용될 수 있다. 제조된 제품이 설계대로 만들어졌는지를 확인하기 위하여 3D 스캔 데이터가 이용될 수 있다.Scan data using a 3D scanner is increasingly widely used in the fields of geometric modeling and medical morphology. The technology using 3D scan data can also be applied to a method of checking the results of a process for manufacturing a specific product. 3D scan data may be used to verify that the manufactured product is made as designed.
대부분의 3D 스캐너는 목표 객체를 다양한 각도에서 스캔하고 스캔 데이터를 생성할 수 있다. 이 때 3D 스캐너는 다양한 각도에서 목표 객체의 각 부분을 나누어 연속적인 데이터의 집합을 생성할 수 있다.Most 3D scanners can scan a target object from various angles and generate scan data. At this time, the 3D scanner can generate a continuous set of data by dividing each part of the target object from various angles.
3D 스캐너에 의하여 생성된 연속적인 데이터의 집합에 기초하여 목표 객체의 3차원 영상을 형성하는 과정을 정합(registration)이라 할 수 있다.A process of forming a 3D image of a target object based on a set of continuous data generated by the 3D scanner may be referred to as registration.
정합 과정은 둘 이상의 데이터 집합을 하나의 좌표계로 매핑하는 과정일 수 있다. 스캔 또는 다른 방법으로 얻어진 데이터 각각에 대해서는 좌표계가 할당될 수 있다. 데이터 중 일부는 고정된 계(fixed system)에 할당되고, 나머지 데이터는 이동 계(moving system)에 할당될 수 있다. 이동 계는 고정된 계에 수렴하도록 가상 공간 상에서 변환될 수 있다. 이러한 변환은 회전 변환 또는 평행 이동 변환을 포함할 수 있다.The registration process may be a process of mapping two or more data sets into one coordinate system. A coordinate system may be assigned to each of the data obtained by scanning or otherwise. Some of the data may be allocated to a fixed system, and the remaining data may be allocated to a moving system. A moving system can be transformed in virtual space to converge on a fixed system. Such transformations may include rotational transformations or translational transformations.
하나의 객체에 대한 복수의 스캔 데이터는 객체의 서로 다른 부분들을 스캔한 데이터이지만 복수의 스캔 데이터 각각은 서로 겹쳐 지는 부분을 포함할 수 있다. 정합 과정은 복수의 스캔 데이터 각각이 서로 겹쳐 지는 부분을 매칭하고, 복수의 스캔 데이터에 기초하여 객체의 3D 스캔 데이터를 생성할 수 있다The plurality of scan data for one object is data obtained by scanning different parts of the object, but each of the plurality of scan data may include overlapping parts. The matching process may match the overlapping portions of each of the plurality of scan data, and generate 3D scan data of the object based on the plurality of scan data.
이러한 3D 스캐너 기술이 발달함에 따라, 다양한 공정에 3D 스캐너를 응용하고자 하는 시도가 증대되고 있다.As the 3D scanner technology develops, attempts to apply the 3D scanner to various processes are increasing.
특히, 차체 구조를 역설계하는데 있어, 3D 스캐너의 사용이 필수적이기 때문에, 3D 스캔 데이터를 이용하여 편리하면서 정확하게 차체 구조를 역설계하고자 하는 요구가 증대되고 있어, 이와 관련된 기술에 대한 연구가 요구된다.In particular, since the use of a 3D scanner is essential in reverse engineering the body structure, the demand for convenient and accurate reverse engineering of the body structure using 3D scan data is increasing, and research on related technologies is required. .
일실시예에 따르면, 제1 차량이 복수의 부품으로 분해되어 있는 상태에서, 복수의 부품이 3D 스캐너에 의해 각각 스캔되면, 3D 스캐너로부터 복수의 부품을 각각 스캔하여 생성된 3D 스캔 데이터인 제1 스캔 데이터를 획득하고, 제1 스캔 데이터에 포함된 복수의 스캔 데이터가 각각 어느 부품을 스캔하여 생성된 3D 스캔 데이터인지 분석하고, 제1 스캔 데이터 중에서 제1-1 스캔 데이터가 제1 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석되면, 제1 차량에서 제1 부품이 설치되는 위치인 제1 지점을 확인하고, 제1-1 스캔 데이터를 기반으로, 제1 지점의 주변에 대한 차체 구조를 역설계하는, 3D 스캔 데이터를 이용한 차체 구조 역설계 방법, 장치 및 시스템을 제공하기 위한 것을 그 목적으로 한다.According to an embodiment, when the plurality of parts are respectively scanned by the 3D scanner in a state in which the first vehicle is disassembled into a plurality of parts, the first 3D scan data that is generated by scanning the plurality of parts from the 3D scanner, respectively Acquire scan data, analyze which part is 3D scan data generated by scanning which part of the plurality of scan data included in the first scan data, and 1-1 scan data of the first scan data scans the first part If it is analyzed as the 3D scan data generated by An object of the present invention is to provide a method, apparatus, and system for reverse engineering a body structure using 3D scan data.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.Objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood from the description below.
일실시예에 따르면, 장치에 의해 수행되는, 3D 스캔 데이터를 이용하여 차체 구조를 역설계하기 위한 방법에 있어서, 제1 차량이 복수의 부품으로 분해되어 있는 상태에서, 상기 복수의 부품이 3D 스캐너에 의해 각각 스캔되면, 상기 3D 스캐너로부터 상기 복수의 부품을 각각 스캔하여 생성된 3D 스캔 데이터인 제1 스캔 데이터를 획득하는 단계; 상기 제1 스캔 데이터에 포함된 복수의 스캔 데이터가 각각 어느 부품을 스캔하여 생성된 3D 스캔 데이터인지 분석하는 단계; 상기 제1 스캔 데이터 중에서 제1-1 스캔 데이터가 제1 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석되면, 상기 제1 차량에서 상기 제1 부품이 설치되는 위치인 제1 지점을 확인하는 단계; 및 상기 제1-1 스캔 데이터를 기반으로, 상기 제1 지점의 주변에 대한 차체 구조를 역설계하는 단계를 포함하는, 3D 스캔 데이터를 이용한 차체 구조 역설계 방법이 제공된다.According to an embodiment, in a method for reverse-engineering a body structure using 3D scan data, performed by an apparatus, in a state in which a first vehicle is disassembled into a plurality of parts, the plurality of parts are configured by a 3D scanner obtaining first scan data, which is 3D scan data generated by scanning each of the plurality of parts from the 3D scanner, respectively; analyzing which part of the plurality of scan data included in the first scan data is 3D scan data generated by scanning each; If the 1-1 scan data among the first scan data is analyzed to be 3D scan data generated by scanning a first part, identifying a first point, which is a location where the first part is installed, in the first vehicle; ; and reverse-engineering the body structure around the first point based on the first-first scan data.
상기 3D 스캔 데이터를 이용한 차체 구조 역설계 방법은, 상기 제1-1 스캔 데이터를 화소 별로 인코딩 하여 제1 입력 신호를 생성하는 단계; 상기 제1 입력 신호를 인공 신경망에 입력하고, 상기 제1 입력 신호에 대한 출력으로 제1 출력 신호를 획득하는 단계; 상기 제1 출력 신호에 기초하여, 상기 제1 부품의 표면에 대한 분류 결과를 화소 별로 생성하는 단계; 및 상기 제1 부품의 표면에 대한 분류 결과를 기반으로, 상기 제1 부품의 표면에 대한 마모도를 화소 별로 설정하는 단계를 더 포함할 수 있다.The method for reverse engineering a body structure using the 3D scan data may include: generating a first input signal by encoding the 1-1 scan data for each pixel; inputting the first input signal to an artificial neural network, and obtaining a first output signal as an output of the first input signal; generating a classification result for the surface of the first part for each pixel based on the first output signal; and setting a degree of wear on the surface of the first part for each pixel based on the classification result of the surface of the first part.
상기 3D 스캔 데이터를 이용한 차체 구조 역설계 방법은, 상기 제1 부품의 표면에 대한 마모도를 화소 별로 확인하여, 미리 설정된 기준치 보다 마모도가 낮은 영역을 정상 영역으로 구분하고, 상기 기준치 보다 마모도가 높은 영역을 손상 영역으로 구분하는 단계; 상기 제1 부품의 표면에서 상기 정상 영역이 차지하는 면적의 비율인 제1 비율을 산출하고, 상기 제1 부품의 표면에서 상기 손상 영역이 차지하는 면적의 비율인 제2 비율을 산출하는 단계; 상기 제1 비율이 미리 설정된 제1 기준 비율 보다 높은지 여부를 확인하는 단계; 상기 제1 비율이 상기 제1 기준 비율 보다 높은 것으로 확인되면, 상기 제1 부품을 역설계를 통한 재조립에 사용될 부품으로 분류하는 단계; 상기 제1 비율이 상기 제1 기준 비율 보다 낮은 것으로 확인되면, 상기 제2 비율이 미리 설정된 제2 기준 비율 보다 낮은지 여부를 확인하는 단계; 상기 제2 비율이 상기 제2 기준 비율 보다 낮은 것으로 확인되면, 상기 제1 부품을 수리가 필요한 부품으로 분류하는 단계; 및 상기 제2 비율이 상기 제2 기준 비율 보다 높은 것으로 확인되면, 상기 제1 부품을 교체가 필요한 부품으로 분류하는 단계를 더 포함할 수 있다. In the method for reverse engineering the body structure using the 3D scan data, the wear level on the surface of the first part is checked for each pixel, a region with a lower degree of wear than a preset reference value is divided into a normal area, and an area with a higher degree of wear than the reference value is identified. dividing the area into damaged areas; calculating a first ratio that is a ratio of an area occupied by the normal region on the surface of the first part, and calculating a second ratio that is a ratio of an area occupied by the damaged region on the surface of the first part; checking whether the first ratio is higher than a preset first reference ratio; classifying the first part as a part to be used for reassembly through reverse engineering when it is confirmed that the first ratio is higher than the first reference ratio; when it is confirmed that the first ratio is lower than the first reference ratio, checking whether the second ratio is lower than a preset second reference ratio; classifying the first part as a part requiring repair when it is confirmed that the second ratio is lower than the second reference ratio; and classifying the first part as a part requiring replacement when it is confirmed that the second ratio is higher than the second reference ratio.
일실시예에 따르면, 3D 스캔 데이터를 이용하여 차체 구조를 역설계하기 위한 방법에 있어서, 제1 차량이 복수의 부품으로 분해되어 있는 상태에서, 상기 복수의 부품이 3D 스캐너에 의해 각각 스캔되면, 상기 3D 스캐너로부터 상기 복수의 부품을 각각 스캔하여 생성된 3D 스캔 데이터인 제1 스캔 데이터를 획득하는 단계; 상기 제1 스캔 데이터에 포함된 복수의 스캔 데이터가 각각 어느 부품을 스캔하여 생성된 3D 스캔 데이터인지 분석하는 단계; 상기 제1 스캔 데이터 중에서 제1-1 스캔 데이터가 제1 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석되면, 상기 제1 차량에서 상기 제1 부품이 설치되는 위치인 제1 지점을 확인하는 단계; 및 상기 제1-1 스캔 데이터를 기반으로, 상기 제1 지점의 주변에 대한 차체 구조를 역설계함으로써, 3D 스캔 데이터를 이용하여 편리하면서 정확하게 차체 구조를 역설계할 수 있는 효과가 있다.According to an embodiment, in a method for reverse engineering a body structure using 3D scan data, when the plurality of parts are scanned by a 3D scanner in a state in which the first vehicle is disassembled into a plurality of parts, obtaining first scan data that is 3D scan data generated by scanning the plurality of parts from the 3D scanner, respectively; analyzing which part of the plurality of scan data included in the first scan data is 3D scan data generated by scanning each; If the 1-1 scan data among the first scan data is analyzed to be 3D scan data generated by scanning a first part, identifying a first point, which is a location where the first part is installed, in the first vehicle; ; and reverse-engineering the body structure around the first point based on the 1-1 scan data, so that the body structure can be conveniently and accurately reverse-engineered using the 3D scan data.
한편, 실시예들에 따른 효과들은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.On the other hand, the effects according to the embodiments are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the art from the following description.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 3D 스캔 데이터를 이용하여 차체 구조를 역설계하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 3D 스캔 데이터를 나타낸 도면이다.
도 4는 일실시예에 따른 부품의 표면에 대한 마모도를 설정하는 과정을 설명하기 위한 순서도이다.
도 5는 일실시예에 따른 부품의 표면에 대한 마모도가 설정된 결과를 나타낸 도면이다.
도 6은 일실시예에 따른 부품의 수리 및 교체에 대한 필요 여부를 판단하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 부품의 크기를 추정하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 부품에 대한 이미지를 기록하여 저장하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 인공 신경망을 설명하기 위한 도면이다.
도 10은 일실시예에 따른 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.
도 11은 일실시예에 따른 장치의 구성의 예시도이다.1 is a diagram schematically showing the configuration of a system according to an embodiment.
2 is a flowchart illustrating a process of reverse engineering a vehicle body structure using 3D scan data according to an exemplary embodiment.
3 is a diagram illustrating 3D scan data according to an exemplary embodiment.
4 is a flowchart illustrating a process of setting a wear level on a surface of a component according to an exemplary embodiment.
5 is a view showing a result of setting the degree of wear on the surface of the component according to an embodiment.
6 is a flowchart illustrating a process of determining whether repair and replacement of parts is necessary according to an exemplary embodiment.
7 is a flowchart illustrating a process of estimating the size of a component according to an exemplary embodiment.
8 is a flowchart illustrating a process of recording and storing an image of a part according to an exemplary embodiment.
9 is a diagram for explaining an artificial neural network according to an embodiment.
10 is a diagram for explaining a method of learning an artificial neural network according to an embodiment.
11 is an exemplary diagram of a configuration of an apparatus according to an embodiment.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all modifications, equivalents and substitutes for the embodiments are included in the scope of the rights.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for purposes of illustration only, and may be changed and implemented in various forms. Accordingly, the embodiments are not limited to a specific disclosure form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various elements, these terms should be interpreted only for the purpose of distinguishing one element from another. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected” to another component, it may be directly connected or connected to the other component, but it should be understood that another component may exist in between.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used for the purpose of description only, and should not be construed as limiting. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In the description of the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.The embodiments may be implemented in various types of products, such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent cars, kiosks, wearable devices, and the like.
인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 규칙(Rule) 기반의 스마트 시스템과 달리 기계가 스스로 학습하고 판단하는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 규칙 기반의 스마트 시스템은 점차 심층 학습(Deep Learning) 기반 인공지능 시스템으로 대체되고 있다.An artificial intelligence (AI) system is a computer system that implements human-level intelligence, and unlike the existing rule-based smart system, the machine learns and makes decisions on its own. The more the AI system is used, the better the recognition rate and the more accurate understanding of user preferences, and the existing rule-based smart systems are gradually being replaced by deep learning-based AI systems.
인공지능 기술은 기계 학습 및 기계 학습을 활용한 요소기술들로 구성된다. 기계 학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 심층 학습 등의 기계 학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.Artificial intelligence technology consists of machine learning and element technologies using machine learning. Machine learning is an algorithm technology that categorizes/learns characteristics of input data by itself, and element technology uses machine learning algorithms such as deep learning to simulate functions such as cognition and judgment of the human brain. It consists of technical fields such as understanding, reasoning/prediction, knowledge expression, and motion control.
인공지능 기술이 응용되는 다양한 분야는 다음과 같다. 언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다. 동작 제어는 차량의 자율 주행, 로봇의 움직임을 제어하는 기술로서, 움직임 제어(항법, 충돌, 주행), 조작 제어(행동 제어) 등을 포함한다.The various fields where artificial intelligence technology is applied are as follows. Linguistic understanding is a technology for recognizing and applying/processing human language/text, and includes natural language processing, machine translation, dialogue system, question and answer, and speech recognition/synthesis. Visual understanding is a technology for recognizing and processing objects like human vision, and includes object recognition, object tracking, image search, human recognition, scene understanding, spatial understanding, image improvement, and the like. Inferential prediction is a technology for logically reasoning and predicting by judging information, and includes knowledge/probability-based reasoning, optimization prediction, preference-based planning, and recommendation. Knowledge expression is a technology that automatically processes human experience information into knowledge data, and includes knowledge construction (data generation/classification) and knowledge management (data utilization). Motion control is a technology for controlling autonomous driving of a vehicle and movement of a robot, and includes motion control (navigation, collision, driving), manipulation control (action control), and the like.
일반적으로 기계 학습 알고리즘을 실생활에 적용하기 위해서는 기계 학습의 기본 방법론의 특성상 Trial and Error 방식으로 학습을 수행하게 된다. 특히, 심층 학습의 경우 수십만 번의 반복 실행을 필요로 한다. 이를 실제 물리적인 외부 환경에서 실행하기는 불가능하여 대신 실제 물리적인 외부 환경을 컴퓨터상에서 가상으로 구현하여 시뮬레이션을 통해 학습을 수행한다.In general, in order to apply the machine learning algorithm to real life, learning is performed in the Trial and Error method due to the characteristics of the basic methodology of machine learning. In particular, deep learning requires hundreds of thousands of iterations. It is impossible to execute this in the actual physical external environment, so instead, the actual physical external environment is implemented on a computer and learning is performed through simulation.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.1 is a diagram schematically showing the configuration of a system according to an embodiment.
도 1을 참조하면, 일실시예에 따른 시스템은 3D 스캐너(100) 및 장치(200)를 포함할 수 있다.Referring to FIG. 1 , a system according to an embodiment may include a
3D 스캐너(100)는 분석 대상을 다양한 각도에서 스캔하여, 3D 스캔 데이터를 생성할 수 있다. 여기서, 3D 스캔 데이터는 분석 대상을 스캔하여 생성된 3D 이미지이다.The
3D 스캐너(100)는 통신 모듈을 구비하여, 장치(200)와 유무선으로 통신하도록 구성될 수 있다.The
장치(200)는 장치(200)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 장치(200)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 장치(200)는 추론 기능을 수행하는 적어도 하나 이상의 인공 신경망을 구비할 수 있다.The
장치(200)는 3D 스캐너(100)와 유무선으로 통신하도록 구성될 수 있으며, 3D 스캐너(100)에 대한 전체적인 동작을 제어할 수 있다.The
장치(200)는 3D 스캐너(100)로부터 3D 스캔 데이터를 획득하면, 3D 스캔 데이터를 이용하여 차체 구조를 역설계할 수 있다.When the
장치(200)는 차량 부품의 표면에 대한 마모도를 설정하기 위해, 인공지능을 기반으로 차량 부품의 표면을 균열에 따라 분류할 수 있으며, 이를 위해, 미리 학습된 인공 신경망을 포함할 수 있다.The
본 발명에서, 인공지능(Artificial Intelligence, AI)은 인간의 학습능력, 추론능력, 지각능력 등을 모방하고, 이를 컴퓨터로 구현하는 기술을 의미하고, 기계 학습, 심볼릭 로직(Symbolic Logic) 등의 개념을 포함할 수 있다. 기계 학습(Machine Learning, ML)은 입력 데이터들의 특징을 스스로 분류 또는 학습하는 알고리즘 기술이다. 인공지능의 기술은 기계 학습의 알고리즘으로써 입력 데이터를 분석하고, 그 분석의 결과를 학습하며, 그 학습의 결과에 기초하여 판단이나 예측을 할 수 있다. 또한, 기계 학습의 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술들 역시 인공지능의 범주로 이해될 수 있다. 예를 들어, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야가 포함될 수 있다.In the present invention, artificial intelligence (AI) refers to a technology that imitates human learning ability, reasoning ability, perceptual ability, etc., and implements it with a computer, and the concepts of machine learning, symbolic logic, etc. may include Machine Learning (ML) is an algorithm technology that classifies or learns characteristics of input data by itself. Artificial intelligence technology is an algorithm of machine learning that can analyze input data, learn the results of the analysis, and make judgments or predictions based on the results of the learning. In addition, technologies that use machine learning algorithms to simulate functions such as cognition and judgment of the human brain can also be understood as a category of artificial intelligence. For example, technical fields such as verbal comprehension, visual comprehension, reasoning/prediction, knowledge expression, and motion control may be included.
기계 학습은 데이터를 처리한 경험을 이용해 신경망 모델을 훈련시키는 처리를 의미할 수 있다. 기계 학습을 통해 컴퓨터 소프트웨어는 스스로 데이터 처리 능력을 향상시키는 것을 의미할 수 있다. 신경망 모델은 데이터 사이의 상관 관계를 모델링하여 구축된 것으로서, 그 상관 관계는 복수의 파라미터에 의해 표현될 수 있다. 신경망 모델은 주어진 데이터로부터 특징들을 추출하고 분석하여 데이터 간의 상관 관계를 도출하는데, 이러한 과정을 반복하여 신경망 모델의 파라미터를 최적화해 나가는 것이 기계 학습이라고 할 수 있다. 예를 들어, 신경망 모델은 입출력 쌍으로 주어지는 데이터에 대하여, 입력과 출력 사이의 매핑(상관 관계)을 학습할 수 있다. 또는, 신경망 모델은 입력 데이터만 주어지는 경우에도 주어진 데이터 사이의 규칙성을 도출하여 그 관계를 학습할 수도 있다.Machine learning may refer to the process of training a neural network model using experience of processing data. With machine learning, computer software could mean improving its own data processing capabilities. The neural network model is constructed by modeling the correlation between data, and the correlation may be expressed by a plurality of parameters. A neural network model extracts and analyzes features from given data to derive correlations between data, and repeating this process to optimize parameters of a neural network model can be called machine learning. For example, a neural network model may learn a mapping (correlation) between an input and an output with respect to data given as an input/output pair. Alternatively, the neural network model may learn the relationship by deriving regularity between the given data even when only input data is given.
인공지능 학습모델 또는 신경망 모델은 인간의 뇌 구조를 컴퓨터 상에서 구현하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하며 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고받는 뉴런의 시냅틱(synaptic) 활동을 모의하여, 서로 간의 연결 관계를 가질 수 있다. 인공지능 학습모델에서 복수의 네트워크 노드들은 서로 다른 깊이의 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고받을 수 있다. 인공지능 학습모델은, 예를 들어, 인공 신경망 모델(Artificial Neural Network), 컨볼루션 신경망 모델(Convolution Neural Network: CNN) 등일 수 있다. 일 실시예로서, 인공지능 학습모델은, 지도학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning) 등의 방식에 따라 기계 학습될 수 있다. 기계 학습을 수행하기 위한 기계 학습 알고리즘에는, 의사결정트리(Decision Tree), 베이지안 망(Bayesian Network), 서포트 벡터 머신(Support Vector Machine), 인공 신경망(Artificial Neural Network), 에이다부스트(Ada-boost), 퍼셉트론(Perceptron), 유전자 프로그래밍(Genetic Programming), 군집화(Clustering) 등이 사용될 수 있다.The artificial intelligence learning model or neural network model may be designed to implement a human brain structure on a computer, and may include a plurality of network nodes that simulate neurons of a human neural network and have weights. A plurality of network nodes may have a connection relationship with each other by simulating a synaptic activity of a neuron through which a neuron sends and receives a signal through a synapse. In the AI learning model, a plurality of network nodes can exchange data according to a convolutional connection relationship while being located in layers of different depths. The artificial intelligence learning model may be, for example, an artificial neural network model, a convolutional neural network model, or the like. As an embodiment, the AI learning model may be machine-learned according to a method such as supervised learning, unsupervised learning, reinforcement learning, or the like. Machine learning algorithms for performing machine learning include Decision Tree, Bayesian Network, Support Vector Machine, Artificial Neural Network, Ada-boost. , Perceptron, Genetic Programming, Clustering, etc. may be used.
이중, CNN은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. CNN은 하나 또는 여러 개의 합성곱 계층과 그 위에 올려진 일반적인 인공 신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 CNN은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 다른 딥러닝 구조들과 비교해서, CNN은 영상, 음성 분야 모두에서 좋은 성능을 보여준다. CNN은 또한 표준 역전달을 통해 훈련될 수 있다. CNN은 다른 피드포워드 인공 신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다.Among them, CNNs are a type of multilayer perceptrons designed to use minimal preprocessing. CNN consists of one or several convolutional layers and general artificial neural network layers on top of it, and additionally utilizes weights and pooling layers. Thanks to this structure, CNN can fully utilize the input data of the two-dimensional structure. Compared with other deep learning structures, CNN shows good performance in both video and audio fields. CNNs can also be trained through standard back-passing. CNNs are easier to train than other feedforward artificial neural network techniques and have the advantage of using fewer parameters.
컨볼루션 네트워크는 묶인 파라미터들을 가지는 노드들의 집합들을 포함하는 신경 네트워크들이다. 사용 가능한 트레이닝 데이터의 크기 증가와 연산 능력의 가용성이, 구분적 선형 단위 및 드롭아웃 트레이닝과 같은 알고리즘 발전과 결합되어, 많은 컴퓨터 비전 작업들이 크게 개선되었다. 오늘날 많은 작업에 사용할 수 있는 데이터 세트들과 같은 엄청난 양의 데이터 세트에서는 초과 맞춤(outfitting)이 중요하지 않으며, 네트워크의 크기를 늘리면 테스트 정확도가 향상된다. 컴퓨팅 리소스들의 최적 사용은 제한 요소가 된다. 이를 위해, 심층 신경 네트워크들의 분산된, 확장 가능한 구현예가 사용될 수 있다.Convolutional networks are neural networks that contain sets of nodes with bound parameters. The increased size of available training data and the availability of computational power, combined with advances in algorithms such as piecewise linear units and dropout training, have greatly improved many computer vision tasks. For huge data sets, such as those available for many tasks today, overfitting is not important, and increasing the size of the network improves test accuracy. Optimal use of computing resources becomes a limiting factor. To this end, a distributed, scalable implementation of deep neural networks may be used.
도 2는 일실시예에 따른 3D 스캔 데이터를 이용하여 차체 구조를 역설계하는 과정을 설명하기 위한 순서도이고, 도 3은 일실시예에 따른 3D 스캔 데이터를 나타낸 도면이다.FIG. 2 is a flowchart illustrating a process of reverse engineering a vehicle body structure using 3D scan data according to an exemplary embodiment, and FIG. 3 is a diagram illustrating 3D scan data according to an exemplary embodiment.
도 2를 참조하면, 먼저, S201 단계에서, 장치(200)는 제1 차량이 복수의 부품으로 분해되어 있는 상태에서, 복수의 부품이 3D 스캐너(100)에 의해 각각 스캔되면, 3D 스캐너(100)로부터 복수의 부품을 각각 스캔하여 생성된 3D 스캔 데이터인 제1 스캔 데이터를 획득할 수 있다.Referring to FIG. 2 , first, in step S201 , in the
구체적으로, 제1 차량이 복수의 부품으로 분해되어 있는 상태에서, 3D 스캐너(100)는 복수의 부품을 각각 스캔하여, 도 3에 도시된 바와 같이, 복수의 부품 각각에 대한 스캔 데이터를 생성할 수 있다. 이때, 3D 스캐너(100)는 복수의 부품 각각을 스캔하여 3D 스캔 데이터를 생성할 수 있고, 복수의 부품 각각에 대한 3D 스캔 데이터를 취합하여, 취합된 스캔 데이터를 제1 스캔 데이터로 생성할 수 있다. 이후, 장치(200)는 3D 스캐너(100)로부터 제1 스캔 데이터를 획득할 수 있다.Specifically, in a state in which the first vehicle is disassembled into a plurality of parts, the
예를 들어, 제1 차량이 제1 부품, 제2 부품 및 제3 부품으로 분해되어 있는 상태인 경우, 3D 스캐너(100)는 제1 부품을 스캔하여 제1-1 스캔 데이터를 생성할 수 있고, 제2 부품을 스캔하여 제1-2 스캔 데이터를 생성할 수 있고, 제3 부품을 스캔하여 제1-3 스캔 데이터를 생성할 수 있고, 제1-1 스캔 데이터, 제1-2 스캔 데이터 및 제1-3 스캔 데이터를 취합하여, 제1-1 스캔 데이터, 제1-2 스캔 데이터 및 제1-3 스캔 데이터를 포함하는 스캔 데이터를 제1 스캔 데이터로 생성할 수 있다. 이후, 장치(200)는 3D 스캐너(100)로부터 제1-1 스캔 데이터, 제1-2 스캔 데이터 및 제1-3 스캔 데이터를 포함하는 제1 스캔 데이터를 획득할 수 있다.For example, when the first vehicle is in a state of being disassembled into a first part, a second part, and a third part, the
장치(200)는 3D 스캐너(100)로부터 스캔 데이터를 획득하기 전에, 3D 스캐너(100)로부터 제1 차량의 식별 정보를 획득하거나, 3D 스캐너(100)와 연결된 단말로부터 제1 차량의 식별 정보를 획득할 수 있다. 여기서, 제1 차량의 식별 정보는 제1 차량을 식별할 수 있는 정보로, 제1 차량의 종류, 모델명 등을 포함할 수 있다.Before acquiring the scan data from the
장치(200)는 제1 차량의 식별 정보를 획득한 후, 3D 스캐너(100)로부터 제1 스캔 데이터를 획득하면, 제1 스캔 데이터를 제1 차량의 부품들을 스캔하여 생성된 스캔 데이터로 파악할 수 있다.After obtaining the identification information of the first vehicle, when the
S202 단계에서, 장치(200)는 제1 스캔 데이터에 포함된 복수의 스캔 데이터가 각각 어느 부품을 스캔하여 생성된 3D 스캔 데이터인지 분석할 수 있다. 이때, 장치(200)는 제1 스캔 데이터에 포함된 복수의 스캔 데이터 각각을 통해 각 부품의 형태를 확인하고, 각 부품의 형태를 미리 등록된 부품의 형태와 비교하여 각 부품이 어느 부품을 스캔한 것인지에 대해 분석할 수 있다. 이를 위해, 장치(200)의 데이터베이스에는 차량의 부품 별로 등록되어 있는 3D 스캔 데이터가 저장되어 있다.In step S202 , the
예를 들어, 제1 스캔 데이터에 제1-1 스캔 데이터, 제1-2 스캔 데이터 및 제1-3 스캔 데이터가 포함되어 있는 경우, 장치(200)는 제1-1 스캔 데이터와 데이터베이스에 저장된 부품들의 3D 스캔 데이터를 비교하여, 제1-1 스캔 데이터를 통해 확인된 부품의 형태와 제1 부품의 3D 스캔 데이터를 통해 확인된 부품의 형태가 일치하거나 가장 유사한 것으로 판단되면, 제1-1 스캔 데이터가 제1 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석할 수 있다. 또한, 장치(200)는 제1-2 스캔 데이터와 데이터베이스에 저장된 부품들의 3D 스캔 데이터를 비교하여, 제1-2 스캔 데이터를 통해 확인된 부품의 형태와 제2 부품의 3D 스캔 데이터를 통해 확인된 부품의 형태가 일치하거나 가장 유사한 것으로 판단되면, 제1-2 스캔 데이터가 제2 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석할 수 있다. 또한, 장치(200)는 제1-3 스캔 데이터와 데이터베이스에 저장된 부품들의 3D 스캔 데이터를 비교하여, 제1-3 스캔 데이터를 통해 확인된 부품의 형태와 제3 부품의 3D 스캔 데이터를 통해 확인된 부품의 형태가 일치하거나 가장 유사한 것으로 판단되면, 제1-3 스캔 데이터가 제3 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석할 수 있다.For example, when the first scan data includes the 1-1 scan data, the 1-2 scan data, and the 1-3 scan data, the
S203 단계에서, 장치(200)는 제1 스캔 데이터 중에서 제1-n 스캔 데이터가 제n 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석할 수 있다.In operation S203 , the
예를 들어, 장치(200)는 제1 스캔 데이터 중에서 제1-1 스캔 데이터가 제1 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석할 수 있다.For example, the
S204 단계에서, 장치(200)는 제1 스캔 데이터 중에서 제1-n 스캔 데이터가 제n 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석되면, 제1 차량에서 제n 부품이 설치되는 위치인 제n 지점을 확인할 수 있다. 이를 위해, 장치(200)의 데이터베이스에는 부품 별로 차량에 설치되는 위치가 3차원 좌표 정보로 저장되어 있다.In step S204, the
예를 들어, 장치(200)는 제1 스캔 데이터 중에서 제1-1 스캔 데이터가 제1 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석되면, 제1 차량에서 제1 부품이 설치되는 위치인 제1 지점을 확인할 수 있다. 이때, 장치(200)는 데이터베이스를 조회하여, 제1 부품에 대한 3차원 좌표 정보를 획득한 후, 제1 부품에 대한 3차원 좌표 정보를 이용하여 제1 지점을 확인할 수 있다.For example, if the
S205 단계에서, 장치(200)는 제1 차량에서 제n 부품이 설치되는 위치가 제n 지점으로 확인되면, 제1-n 스캔 데이터를 기반으로, 제1 지점의 주변에 대한 차체 구조를 역설계할 수 있다.In step S205 , when the location where the n-th part is installed in the first vehicle is identified as the n-th point, the
예를 들어, 장치(200)는 제1 차량에서 제1 부품이 설치되는 위치가 제1 지점으로 확인되면, 제1-1 스캔 데이터를 기반으로, 제1 지점의 주변에 대한 차체 구조를 역설계할 수 있다.For example, when the location where the first part is installed in the first vehicle is confirmed as the first point, the
S206 단계에서, 장치(200)는 제1 스캔 데이터 중에서 분석되지 않은 스캔 데이터가 있는지 여부를 확인할 수 있다.In step S206 , the
S206 단계에서 분석되지 않은 스캔 데이터가 있는 것으로 확인되면, S203 단계로 되돌아가, S203 단계부터 S206 단계까지의 과정이 다시 수행될 수 있다.If it is confirmed in step S206 that there is unanalyzed scan data, the process returns to step S203 and the processes from step S203 to step S206 may be performed again.
예를 들어, 장치(200)는 제1-1 스캔 데이터를 기반으로, 제1 지점의 주변에 대한 차체 구조를 역설계한 경우, 제1-1 스캔 데이터에 대한 분석을 완료한 것으로 설정할 수 있고, 제1 스캔 데이터 중에서 제1-1 스캔 데이터에 대한 분석만 완료되고 제1-2 스캔 데이터의 분석이 완료되지 않은 것으로 확인되면, 제1-2 스캔 데이터가 제2 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석하고, 제1 차량에서 제2 부품이 설치되는 위치인 제2 지점을 확인하고, 제1-2 스캔 데이터를 기반으로, 제2 지점의 주변에 대한 차체 구조를 역설계할 수 있다.For example, when the body structure around the first point is reverse-engineered based on the 1-1 scan data, the
장치(200)는 차체 구조를 역설계할 때, 제1 부품과 제2 부품이 인접하여 위치하는 경우, 제1-1 스캔 데이터 및 제1-2 스캔 데이터를 기반으로, 제1 부품과 제2 부품의 연결 부분에 대한 차체 구조를 역설계할 수 있다.When the body structure is reverse-engineered, when the first part and the second part are located adjacent to each other, the
스캔 데이터를 기반으로 차체 구조를 역설계하는 방식은 공지된 다양한 기술을 적용하여 수행될 수 있다.The method of reverse engineering the body structure based on the scan data may be performed by applying various known techniques.
도 4는 일실시예에 따른 부품의 표면에 대한 마모도를 설정하는 과정을 설명하기 위한 순서도이고, 도 5는 일실시예에 따른 부품의 표면에 대한 마모도가 설정된 결과를 나타낸 도면이다.4 is a flowchart for explaining a process of setting the degree of wear on the surface of the part according to an embodiment, and FIG. 5 is a view showing the result of setting the degree of wear on the surface of the part according to the embodiment.
도 4를 참조하면, 먼저, S401 단계에서, 장치(200)는 제1-1 스캔 데이터를 화소 별로 인코딩하여 제1 입력 신호를 생성할 수 있다.Referring to FIG. 4 , first, in step S401 , the
구체적으로, 장치(200)는 제1-1 스캔 데이터를 통해 3D 이미지를 확인하고 3D 이미지의 픽셀을 색 정보로 인코딩하여 제1 입력 신호를 생성할 수 있다. 색 정보는 RGB 색상 정보, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다. 장치(200)는 색 정보를 수치화된 값으로 환산할 수 있으며, 이 값을 포함한 데이터 시트 형태로 제1-1 스캔 데이터를 화소 별로 인코딩할 수 있다.Specifically, the
S402 단계에서, 장치(200)는 제1 입력 신호를 장치(200) 내 미리 학습된 인공 신경망에 입력할 수 있다.In step S402 , the
일실시예에 따른 인공 신경망은 특징 추출 신경망과 분류 신경망으로 구성되어 있으며 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.The artificial neural network according to an embodiment is composed of a feature extraction neural network and a classification neural network, and the feature extraction neural network sequentially stacks a convolutional layer and a pooling layer on an input signal. The convolution layer includes a convolution operation, a convolution filter, and an activation function. The calculation of the convolution filter is adjusted according to the matrix size of the target input, but a 9X9 matrix is generally used. The activation function generally uses, but is not limited to, a ReLU function, a sigmoid function, and a tanh function. The pooling layer is a layer that reduces the size of the input matrix, and uses a method of extracting representative values by tying pixels in a specific area. In general, the average value or the maximum value is often used for the calculation of the pooling layer, but is not limited thereto. The operation is performed using a square matrix, usually a 9x9 matrix. The convolutional layer and the pooling layer are repeated alternately until the corresponding input becomes small enough while maintaining the difference.
일실시예에 따르면, 분류 신경망은 히든 레이어와 출력 레이어를 가지고 있다. 부품의 표면의 균열 단계를 분류하기 위한 인공 신경망의 분류 신경망은 5층 이하의 히든 레이어로 구성되며, 총 50개 이하의 히든 레이어 노드를 포함할 수 있다. 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 분류 신경망의 출력 레이어 노드는 총 1개이며, 부품의 표면의 분류에 대한 출력값을 출력 레이어 노드에 출력할 수 있다. 인공 신경망에 대한 자세한 설명은 도 9를 참조하여 후술한다.According to an embodiment, the classification neural network has a hidden layer and an output layer. Classification of artificial neural networks for classifying crack stages on the surface of parts The neural network consists of 5 or less hidden layers, and may include a total of 50 or less hidden layer nodes. The activation function of the hidden layer uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. There is a total of one output layer node of the classification neural network, and an output value for classification of the surface of a part can be output to the output layer node. A detailed description of the artificial neural network will be described later with reference to FIG. 9 .
S403 단계에서, 장치(200)는 인공 신경망의 입력의 결과에 기초하여, 제1 입력 신호에 대한 출력으로 제1 출력 신호를 획득할 수 있다. 여기서, 제1 출력 신호는 제1 입력 신호와 대응되도록 생성될 수 있다. 즉, 제1 입력 신호가 n개의 화소를 인코딩 하여 생성된 경우, 제1 출력 신호는 n개의 화소에 대한 출력값을 포함할 수 있다.In step S403 , the
S404 단계에서, 장치(200)는 제1 출력 신호에 기초하여, 제1 부품의 표면에 대한 분류 결과를 화소 별로 생성할 수 있다. 여기서, 분류 결과는 부품의 표면이 균열의 어느 단계로 분류되는지에 대한 정보를 포함할 수 있다.In operation S404 , the
예를 들어, 장치(200)는 제1 출력 신호의 출력값을 확인한 결과, 제1 화소에 대한 출력값이 1인 경우, 제1 화소의 표면이 균열 1단계에 해당하는 것으로 분류 결과를 생성하고, 제2 화소에 대한 출력값이 2인 경우, 제2 화소의 표면이 균열 2단계에 해당하는 것으로 분류 결과를 생성할 수 있다. 균열 단계가 올라갈수록 표면에 균열이 더 심각해진다는 것을 의미할 수 있다.For example, when the output value of the first pixel is 1 as a result of checking the output value of the first output signal, the
S405 단계에서, 장치(200)는 제1 부품의 표면에 대한 분류 결과를 기반으로, 제1 부품의 표면에 대한 마모도를 화소 별로 설정할 수 있다.In operation S405 , the
예를 들어, 장치(200)는 제1 부품의 표면에서 제1 화소의 표면이 균열 1단계에 해당하는 것으로 확인되면, 제1 화소의 마모도를 1로 설정하고, 제1 화소의 표면이 균열 2단계에 해당하는 것으로 확인되면, 제1 화소의 마모도를 2로 설정할 수 있다.For example, if it is determined that the surface of the first pixel on the surface of the first part corresponds to crack stage 1, the
제1 부품의 표면에 대한 마모도가 화소 별로 설정되면, 도 5에 도시된 바와 같이, 제1 부품의 표면에 대한 마모도가 설정값에 따라 상이한 색으로 표시될 수 있다.When the wear level on the surface of the first part is set for each pixel, as shown in FIG. 5 , the wear degree on the surface of the first part may be displayed in different colors according to the set value.
도 6은 일실시예에 따른 부품의 수리 및 교체에 대한 필요 여부를 판단하는 과정을 설명하기 위한 순서도이다.6 is a flowchart illustrating a process of determining whether repair and replacement of parts is necessary according to an exemplary embodiment.
도 6을 참조하면, 먼저, S601 단계에서, 장치(200)는 제1 부품의 표면에 대한 마모도를 화소 별로 확인하여, 정상 영역과 손상 영역을 구분할 수 있다. 이때, 장치(200)는 기준치 보다 마모도가 낮은 영역을 정상 영역으로 구분하고, 기준치 보다 마모도가 높은 영역을 손상 영역으로 구분할 수 있다. 여기서, 기준치는 실시예에 따라 상이하게 설정될 수 있다.Referring to FIG. 6 , first, in step S601 , the
S602 단계에서, 장치(200)는 제1 부품의 표면에서 정상 영역이 차지하는 면적의 비율인 제1 비율을 산출하고, 제1 부품의 표면에서 손상 영역이 차지하는 면적의 비율인 제2 비율을 산출할 수 있다.In step S602, the
S603 단계에서, 장치(200)는 제1 비율이 제1 기준 비율 보다 높은지 여부를 확인할 수 있다. 여기서, 제1 기준 비율은 실시예에 따라 상이하게 설정될 수 있다.In step S603 , the
S603 단계에서 제1 비율이 제1 기준 비율 보다 높은 것으로 확인되면, S605 단계에서, 장치(200)는 제1 부품을 역설계를 통한 재조립에 사용될 부품으로 분류할 수 있다.If it is determined in step S603 that the first ratio is higher than the first reference ratio, in step S605 , the
예를 들어, 제1 기준 비율이 90%로 설정된 경우, 장치(200)는 제1 비율이 95%로 확인되면, 제1 부품을 역설계를 통한 재조립에 사용될 부품으로 분류할 수 있다.For example, when the first reference ratio is set to 90%, the
S603 단계에서 제1 비율이 제1 기준 비율 보다 낮은 것으로 확인되면, S604 단계에서, 장치(200)는 제2 비율이 제2 기준 비율 보다 낮은지 여부를 확인할 수 있다. 여기서, 제2 기준 비율은 실시예에 따라 상이하게 설정될 수 있다.If it is determined in step S603 that the first ratio is lower than the first reference ratio, in step S604 , the
S604 단계에서 제2 비율이 제2 기준 비율 보다 낮은 것으로 확인되면, S606 단계에서, 장치(200)는 제1 부품을 수리가 필요한 부품으로 분류할 수 있다.If it is determined in step S604 that the second ratio is lower than the second reference ratio, in step S606 , the
예를 들어, 제2 기준 비율이 20%로 설정된 경우, 장치(200)는 제2 비율이 15%로 확인되면, 제1 부품을 수리가 필요한 부품으로 분류할 수 있다.For example, when the second reference ratio is set to 20% and the second reference ratio is 15%, the
S604 단계에서 제2 비율이 제2 기준 비율 보다 높은 것으로 확인되면, S607 단계에서, 장치(200)는 제1 부품을 교체가 필요한 부품으로 분류할 수 있다.If it is determined in step S604 that the second ratio is higher than the second reference ratio, in step S607 , the
예를 들어, 제2 기준 비율이 20%로 설정된 경우, 장치(200)는 제2 비율이 25%로 확인되면, 제1 부품을 교체가 필요한 부품으로 분류할 수 있다.For example, when the second reference ratio is set to 20%, the
도 7은 일실시예에 따른 부품의 크기를 추정하는 과정을 설명하기 위한 순서도이다.7 is a flowchart illustrating a process of estimating the size of a component according to an exemplary embodiment.
도 7을 참조하면, 먼저, S701 단계에서, 장치(200)는 제1 차량이 분해되어 있지 않은 상태에서, 제1 차량이 3D 스캐너(100)에 의해 스캔되면, 3D 스캐너(100)로부터 제1 차량을 스캔하여 생성된 3D 스캔 데이터인 제2 스캔 데이터를 획득할 수 있다.Referring to FIG. 7 , first, in step S701 , when the first vehicle is scanned by the
S702 단계에서, 장치(200)는 제2 스캔 데이터를 기반으로, 제1 차량에 설치되어 있는 복수의 부품을 확인할 수 있다.In step S702 , the
구체적으로, 장치(200)의 데이터베이스에는 제1 차량의 부품 별로 등록되어 있는 3D 스캔 데이터가 저장되어 있으며, 장치(200)는 제2 스캔 데이터와 데이터베이스에 저장된 부품들의 3D 스캔 데이터를 비교하여, 제1 차량에 설치되어 있는 복수의 부품을 각각 확인할 수 있다.Specifically, 3D scan data registered for each part of the first vehicle is stored in the database of the
S703 단계에서, 장치(200)는 제1 차량에 설치되어 있는 복수의 부품을 확인한 결과, 제1 차량에 제1 부품 및 제2 부품이 설치되어 있는 것을 확인할 수 있다.In step S703 , as a result of checking the plurality of parts installed in the first vehicle, the
장치(200)는 제1 차량에 제1 부품 및 제2 부품이 설치되어 있는 것으로 확인되면, S704 단계에서, 제2 스캔 데이터를 기반으로, 제1 차량에서 제1 부품이 차지하는 영역인 제1 영역을 검출하고, S705 단계에서, 제2 스캔 데이터를 기반으로, 제1 차량에서 제2 부품이 차지하는 영역인 제2 영역을 검출할 수 있다.If the
장치(200)는 제1 영역을 검출하는데 있어, 제2 스캔 데이터를 기반으로, 제1 차량에서 제1 부품의 형태에 대한 특징을 분석하여, 제1 부품의 경계를 인식한 후, 인식된 제1 부품의 경계를 통해 제1 영역을 검출할 수 있다. 이때, 장치(200)는 3차원의 공간 상에서 2차원의 박스 형태로 제1 영역을 검출할 수 있다.In detecting the first area, the
또한, 장치(200)는 제2 영역을 검출하는데 있어, 제2 스캔 데이터를 기반으로, 제1 차량에서 제2 부품의 형태에 대한 특징을 분석하여, 제2 부품의 경계를 인식한 후, 인식된 제2 부품의 경계를 통해 제2 영역을 검출할 수 있다. 이때, 장치(200)는 3차원의 공간 상에서 2차원의 박스 형태로 제2 영역을 검출할 수 있다.In addition, in detecting the second region, the
S706 단계에서, 장치(200)는 제2 스캔 데이터를 기반으로, 제1 차량에서 제1 영역의 길이를 추정하여, 추정된 길이로 제1 길이를 설정할 수 있다.In operation S706 , the
예를 들어, 장치(200)는 3차원의 공간 상에서 2차원의 박스 형태로 제1 영역이 검출되면, 제1 영역의 장축과 대각선의 길이를 확인하고, 제1 영역의 장축과 대각선의 평균값으로 제1 길이를 설정할 수 있다.For example, when the first region is detected in the form of a two-dimensional box in the three-dimensional space, the
S707 단계에서, 장치(200)는 제2 스캔 데이터를 기반으로, 제1 차량에서 제2 영역의 길이를 추정하여, 추정된 길이로 제2 길이를 설정할 수 있다.In operation S707 , the
예를 들어, 장치(200)는 3차원의 공간 상에서 2차원의 박스 형태로 제2 영역이 검출되면, 제2 영역의 장축과 대각선의 길이를 확인하고, 제2 영역의 장축과 대각선의 평균값으로 제2 길이를 설정할 수 있다.For example, when the second region is detected in the form of a two-dimensional box in the three-dimensional space, the
S708 단계에서, 장치(200)는 제1 부품의 실제 길이인 제3 길이를 확인할 수 있다. 이를 위해, 장치(200)의 데이터베이스에는 차량의 부품 별로 구분된 실제 길이에 대한 정보가 저장되어 있으며, 장치(200)는 데이터베이스에 저장된 정보를 조회하여, 제1 부품의 실제 길이인 제3 길이를 확인할 수 있다.In step S708 , the
S709 단계에서, 장치(200)는 제1 길이, 제2 길이 및 제3 길이를 이용하여, 제2 부품의 실제 길이인 제4 길이를 추정할 수 있다.In operation S709 , the
구체적으로, 장치(200)는 제1 길이 및 제3 길이의 비율인 길이 비율을 산출하고, 산출된 길이 비율에 제2 길이를 적용하여, 제4 길이를 산출하는 과정을 통해, 제4 길이를 추정할 수 있다.Specifically, the
예를 들어, 제1 길이가 10cm이고, 제2 길이가 20cm이고, 제3 길이가 15cm인 경우, 장치(200)는 제1 길이 및 제3 길이를 이용하여 길이 비율을 1.5로 산출할 수 있으며, 길이 비율에 제2 길이를 적용하여, 제4 길이를 30cm로 산출할 수 있다.For example, if the first length is 10 cm, the second length is 20 cm, and the third length is 15 cm, the
도 8은 일실시예에 따른 부품에 대한 이미지를 기록하여 저장하는 과정을 설명하기 위한 순서도이다.8 is a flowchart illustrating a process of recording and storing an image of a part according to an exemplary embodiment.
도 8을 참조하면, 먼저, S801 단계에서, 장치(200)는 카메라를 통해 제1 부품에 대한 촬영이 수행되고 있는 경우, 카메라로부터 제1 부품의 촬영으로 생성된 영상 정보를 획득할 수 있다. 이때, 카메라는 제1 부품에 대한 촬영을 수행하고 있으며, 장치(200)는 제1 부품의 촬영으로 생성된 영상 정보를 실시간으로 획득할 수 있다. 이를 위해, 카메라는 장치(200)와 유무선으로 통신하도록 구성될 수 있다.Referring to FIG. 8 , first, in step S801 , when the first part is being photographed through the camera, the
S802 단계에서, 장치(200)는 영상 정보에서 제1 시점의 영상 이미지를 제1 이미지로 추출할 수 있다. 즉, 장치(200)는 영상 정보에서 제1 시점의 영상을 캡처하여, 캡처한 이미지를 제1 이미지로 추출할 수 있다. 여기서, 제1 시점은 실시예에 따라 상이하게 설정될 수 있다.In step S802 , the
S803 단계에서, 장치(200)는 제1 이미지에서 제1 부품이 차지하고 있는 구역을 제1 구역으로 구분할 수 있다.In step S803 , the
구체적으로, 장치(200)는 제1 이미지를 분석하여, 제1 이미지 상에 있는 제1 부품을 인식할 수 있으며, 제1 이미지 상에서 가장 좌측에 위치하는 제1 부품의 위치를 제1 위치로 확인하고, 제1 이미지 상에서 가장 상측에 위치하는 제1 부품의 위치를 제2 위치로 확인하고, 제1 이미지 상에서 가장 우측에 위치하는 제1 부품의 위치를 제3 위치로 확인하고, 제1 이미지 상에서 가장 하측에 위치하는 제1 부품의 위치를 제4 위치로 확인할 수 있다.Specifically, the
이후, 장치(200)는 제1 위치를 기준으로 상하 방향으로 확장한 제1 직선을 생성하고, 제2 위치를 기준으로 좌우 방향으로 확장한 제2 직선을 생성하고, 제3 위치를 기준으로 상하 방향으로 확장한 제3 직선을 생성하고, 제4 위치를 기준으로 좌우 방향으로 확장한 제4 직선을 생성할 수 있다.Then, the
이후, 장치(200)는 제1 직선, 제2 직선, 제3 직선 및 제4 직선을 연결한 구역을 제1 구역으로 설정한 후, 제1 이미지에서 제1 구역을 구분할 수 있다.Thereafter, the
S804 단계에서, 장치(200)는 제1 이미지에서 제1 구역이 있는 부분을 분할하여, 분할된 이미지를 제1-1 이미지로 추출할 수 있다.In operation S804 , the
S805 단계에서, 장치(200)는 제1-1 이미지에 이물질이 있는 것으로 인식되는지 여부를 확인할 수 있다. 즉, 장치(200)는 제1-1 이미지 상에서 제1 부품 이외에 다른 형태의 이물질이 인식되는지 여부를 확인하여, 지1-1 이미지에 이물질이 있는지 여부를 확인할 수 있다.In step S805 , the
S805 단계에서 제1-1 이미지에 이물질이 있는 것으로 확인되면, S806 단계에서, 장치(200)는 제1-1 이미지에서 이물질이 차지하고 있는 구역을 제2 구역으로 구분할 수 있다. 이때, 장치(200)는 제1 이미지에서 제1 구역을 구분하는 방식과 동일한 방식을 통해, 제1-1 이미지에서 제2 구역을 구분할 수 있다.If it is determined in step S805 that there is a foreign material in the 1-1 image, in step S806 , the
S807 단계에서, 장치(200)는 영상 정보를 제1 시점으로부터 시간상 역순으로 재생하여 분석할 수 있다.In step S807 , the
S808 단계에서, 장치(200)는 영상 정보를 제1 시점으로부터 시간상 역순으로 재생하여 분석한 결과, 제2 시점에 제2 구역 내에 이물질이 없는 것을 확인할 수 있다.In step S808 , as a result of analyzing and reproducing the image information in reverse chronological order from the first time point, the
S809 단계에서, 장치(200)는 영상 정보에서 제2 시점의 영상 이미지를 제2 이미지로 추출할 수 있다. 즉, 장치(200)는 영상 정보에서 제2 시점의 영상을 캡처하여, 캡처한 이미지를 제2 이미지로 추출할 수 있다.In step S809 , the
S810 단계에서, 장치(200)는 제2 이미지에서 제2 구역이 있는 부분을 분할하여 제2-1 이미지를 추출할 수 있다.In operation S810 , the
S811 단계에서, 장치(200)는 제1-1 이미지에서 제2 구역이 있는 부분을 제2-1 이미지로 교체할 수 있다.In step S811 , the
구체적으로, 장치(200)는 제1-1 이미지에 이물질이 있는 것으로 확인되면, 제1-1 이미지에서 이물질이 차지하고 있는 구역을 제2 구역으로 구분할 수 있고, 제1-1 이미지에서 제2 구역이 있는 부분을 삭제하고, 삭제된 위치에 제2-1 이미지를 삽입하여, 제1-1 이미지와 제2-1 이미지가 결합된 제1-1 이미지를 생성할 수 있다. 즉, 제1-1 이미지에서 제2 구역이 있는 부분이 제2-1 이미지로 교체되어, 제1-1 이미지에 있었던 이물질이 삭제되고, 삭제된 자리에 이물질이 없는 부분이 추가되어, 제1-1 이미지에서는 더 이상 이물질이 인식되지 않을 수 있다.Specifically, when it is confirmed that there is a foreign material in the 1-1 image, the
도 9는 일실시예에 따른 인공 신경망을 설명하기 위한 도면이다.9 is a diagram for explaining an artificial neural network according to an embodiment.
일실시예에 따른 인공 신경망(900)은 스캔 데이터의 인코딩에 의해 생성된 입력 신호를 입력으로 하여, 부품의 표면이 균열의 어느 단계로 분류되는지에 대한 정보를 출력으로 할 수 있다.The artificial
일실시예에 따른 인코딩은 이미지의 픽셀 별 색 정보를 수치화된 데이터 시트 형태로 저장하는 방식으로 이뤄질 수 있는데, 색 정보는 하나의 픽셀이 가지고 있는 RGB 색상, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다.Encoding according to an embodiment may be performed by storing color information for each pixel of an image in the form of a digitized data sheet, and the color information includes RGB color, brightness information, saturation information, and depth information of one pixel. can, but is not limited to.
일실시예에 따르면, 인공 신경망(900)은 특징 추출 신경망(910)과 분류 신경망(920)으로 구성되어 있으며, 특징 추출 신경망(910)은 이미지에서 부품 영역과 배경 영역을 분리하는 작업을 수행할 수 있으며, 분류 신경망(920)은 이미지 내에서 부품의 표면이 균열의 어느 단계로 분류되는지 여부를 파악하는 작업을 수행하도록 할 수 있다.According to an embodiment, the artificial
특징 추출 신경망(910)이 부품 영역과 배경 영역을 구분하는 방법은 이미지를 인코딩한 입력 신호의 데이터 시트로부터 색 정보의 각 값들의 변화가 한 픽셀을 포함하는 8개의 픽셀 중 6개 이상에서 30% 이상의 변화가 생긴 것으로 감지되는 픽셀들의 묶음을 부품 영역과 배경 영역의 경계로 삼을 수 있으나, 이에 국한하지 않는다.The method in which the feature extraction neural network 910 distinguishes the part region and the background region is that the change in each value of color information from the data sheet of the input signal encoding the image is 30% in 6 or more of 8 pixels including one pixel. A bundle of pixels detected as having an abnormal change may be used as a boundary between the part area and the background area, but is not limited thereto.
특징 추출 신경망(910)은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.The feature extraction neural network 910 stacks the input signal by sequentially stacking a convolutional layer and a pooling layer. The convolution layer includes a convolution operation, a convolution filter, and an activation function. The calculation of the convolution filter is adjusted according to the matrix size of the target input, but a 9X9 matrix is generally used. The activation function generally uses, but is not limited to, a ReLU function, a sigmoid function, and a tanh function. The pooling layer is a layer that reduces the size of the input matrix, and uses a method of extracting representative values by tying pixels in a specific area. In general, the average value or the maximum value is often used for the calculation of the pooling layer, but is not limited thereto. The operation is performed using a square matrix, usually a 9x9 matrix. The convolutional layer and the pooling layer are repeated alternately until the corresponding input becomes small enough while maintaining the difference.
분류 신경망(920)은 특징 추출 신경망(910)을 통해 배경으로부터 구분된 부품 영역의 표면을 확인하고, 미리 정의된 균열의 단계별 표면 상태와 유사한지 여부를 확인하여, 부품 영역의 표면이 균열의 어느 단계로 분류되는지 여부를 파악할 수 있다. 균열의 단계별 표면 상태와 비교하기 위해, 데이터베이스에 저장된 정보들을 활용할 수 있다.The classification neural network 920 checks the surface of the part region separated from the background through the feature extraction neural network 910, and checks whether the surface state of the predefined crack is similar to the step-by-step surface state, so that the surface of the part region is the type of crack. It can be determined whether or not they are classified into stages. Information stored in the database can be used to compare the crack phase with the surface state.
분류 신경망(920)은 히든 레이어와 출력 레이어를 가지고 있으며, 5층 이하의 히든 레이어로 구성되어, 총 50개 이하의 히든 레이어 노드를 포함하고, 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다.The classification neural network 920 has a hidden layer and an output layer, and is composed of five or less hidden layers, including a total of 50 or less hidden layer nodes, and the activation function of the hidden layer is a ReLU function and a sigmoid function. and tanh functions, but is not limited thereto.
분류 신경망(920)는 총 1개의 출력층 노드만 포함할 수 있다.The classification neural network 920 may include only one output layer node in total.
분류 신경망(920)의 출력은 부품 표면이 균열의 어느 단계로 분류되는지에 대한 출력값으로, 균열의 어느 단계에 해당하는지를 지시할 수 있다. 예를 들어, 출력값이 1인 경우, 부품 표면이 균열 1단계에 해당하는 것을 지시하고, 출력값이 2인 경우, 부품 표면이 균열 2단계에 해당하는 것을 지시할 수 있다.The output of the classification neural network 920 is an output value for which stage of the crack the part surface is classified, and may indicate which stage of the crack it corresponds to. For example, when the output value is 1, it may indicate that the part surface corresponds to the crack stage 1, and when the output value is 2, it may indicate that the part surface corresponds to the crack stage 2.
분류 신경망(920)의 출력은 입력 신호가 n개의 화소를 인코딩 하여 생성된 경우, n개로 출력될 수 있다.The output of the classification neural network 920 may be output to n when the input signal is generated by encoding n pixels.
일실시예에 따르면, 인공 신경망(900)은 사용자가 인공 신경망(900)에 따른 출력의 문제점 발견 시 사용자에 의해 입력된 수정 정답에 의해 생성되는 제1 학습 신호를 전달받아 학습할 수 있다. 인공 신경망(900)에 따른 출력의 문제점은 부품 표면에 대해 균열의 다른 단계로 분류한 출력값을 출력한 경우를 의미할 수 있다.According to an embodiment, the artificial
일실시예에 따른 제1 학습 신호는 정답과 출력값의 오차를 바탕으로 만들어지며, 경우에 따라 델타를 이용하는 SGD나 배치 방식 혹은 역전파 알고리즘을 따르는 방식을 사용할 수 있다. 인공 신경망(900)은 제1 학습 신호에 의해 기존의 가중치를 수정해 학습을 수행하며, 경우에 따라 모멘텀을 사용할 수 있다. 오차의 계산에는 비용함수가 사용될 수 있는데, 비용함수로 Cross entropy 함수를 사용할 수 있다. 이하 도 10을 참조하여 인공 신경망(900)의 학습 내용이 후술된다.The first learning signal according to an embodiment is created based on the error between the correct answer and the output value, and in some cases, SGD using delta, a batch method, or a method following a backpropagation algorithm may be used. The artificial
도 10은 일실시예에 따른 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.10 is a diagram for explaining a method of learning an artificial neural network according to an embodiment.
일실시예에 따르면, 학습 장치는 인공 신경망(900)을 학습시킬 수 있다. 학습 장치는 장치(200)와 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니다.According to an embodiment, the learning apparatus may train the artificial
일실시예에 따르면, 인공 신경망(900)은 트레이닝 샘플들이 입력되는 입력 레이어와 트레이닝 출력들을 출력하는 출력 레이어를 포함하고, 트레이닝 출력들과 제1 레이블들 사이의 차이에 기초하여 학습될 수 있다. 여기서, 제1 레이블들은 균열의 단계별로 등록되어 있는 대표 이미지에 기초하여 정의될 수 있다. 인공 신경망(900)은 복수의 노드들의 그룹으로 연결되어 있고, 연결된 노드들 사이의 가중치들과 노드들을 활성화시키는 활성화 함수에 의해 정의된다. According to an embodiment, the artificial
학습 장치는 GD(Gradient Decent) 기법 또는 SGD(Stochastic Gradient Descent) 기법을 이용하여 인공 신경망(900)을 학습시킬 수 있다. 학습 장치는 인공 신경망(900)의 출력들 및 레이블들 의해 설계된 손실 함수를 이용할 수 있다.The learning apparatus may train the artificial
학습 장치는 미리 정의된 손실 함수(loss function)을 이용하여 트레이닝 에러를 계산할 수 있다. 손실 함수는 레이블, 출력 및 파라미터를 입력 변수로 미리 정의될 수 있고, 여기서 파라미터는 인공 신경망(900) 내 가중치들에 의해 설정될 수 있다. 예를 들어, 손실 함수는 MSE(Mean Square Error) 형태, 엔트로피(entropy) 형태 등으로 설계될 수 있는데, 손실 함수가 설계되는 실시예에는 다양한 기법 또는 방식이 채용될 수 있다.The learning apparatus may calculate a training error using a predefined loss function. The loss function may be predefined with a label, an output, and a parameter as input variables, where the parameter may be set by weights in the artificial
학습 장치는 역전파(backpropagation) 기법을 이용하여 트레이닝 에러에 영향을 주는 가중치들을 찾아낼 수 있다. 여기서, 가중치들은 인공 신경망(900) 내 노드들 사이의 관계들이다. 학습 장치는 역전파 기법을 통해 찾아낸 가중치들을 최적화시키기 위해 레이블들 및 출력들을 이용한 SGD 기법을 이용할 수 있다. 예를 들어, 학습 장치는 레이블들, 출력들 및 가중치들에 기초하여 정의된 손실 함수의 가중치들을 SGD 기법을 이용하여 갱신할 수 있다.The learning apparatus may find weights affecting the training error by using a backpropagation technique. Here, the weights are relationships between nodes in the artificial
일실시예에 따르면, 학습 장치는 데이터베이스로부터 레이블드 트레이닝 균열 단계별 대표 이미지들(1001)을 획득할 수 있다. 학습 장치는 균열 단계별 대표 이미지들(1001)에 각각 미리 레이블링된 정보를 획득할 수 있는데, 균열 단계별 대표 이미지들(1001)은 미리 분류된 균열 단계에 따라 레이블링될 수 있다.According to an embodiment, the learning apparatus may acquire
일실시예에 따르면, 학습 장치는 1000개의 레이블드 트레이닝 균열 단계별 대표 이미지들(1001)을 획득할 수 있으며, 레이블드 트레이닝 균열 단계별 대표 이미지들(1001)에 기초하여 제1 트레이닝 균열 단계별 벡터들(1002)을 생성할 수 있다. 제1 트레이닝 균열 단계별 벡터들(1002)을 추출하는데는 다양한 방식이 채용될 수 있다.According to an embodiment, the learning apparatus may acquire 1000 labeled training crack
일실시예에 따르면, 학습 장치는 제1 트레이닝 균열 단계별 벡터들(1002)을 인공 신경망(900)에 적용하여 제1 트레이닝 출력들(1003)을 획득할 수 있다. 학습 장치는 제1 트레이닝 출력들(1003)과 제1 레이블들(1004)에 기초하여 인공 신경망(900)을 학습시킬 수 있다. 학습 장치는 제1 트레이닝 출력들(1003)에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 인공 신경망(900) 내 노드들의 연결 관계를 최적화하여 인공 신경망(900)을 학습시킬 수 있다.According to an embodiment, the learning apparatus may obtain the
도 11은 일실시예에 따른 장치의 구성의 예시도이다.11 is an exemplary diagram of a configuration of an apparatus according to an embodiment.
일실시예에 따른 장치(200)는 프로세서(201) 및 메모리(202)를 포함한다. 프로세서(201)는 도 1 내지 도 10을 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 10을 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(200)를 이용하는 자 또는 단체는 도 1 내지 도 10을 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.The
메모리(202)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(202)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.The
프로세서(201)는 프로그램을 실행하고, 장치(200)를 제어할 수 있다. 프로세서(201)에 의하여 실행되는 프로그램의 코드는 메모리(202)에 저장될 수 있다. 장치(200)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.The
장치(200)는 인공 신경망을 학습시키거나, 학습된 인공 신경망을 이용하는데 사용될 수 있다. 메모리(202)는 학습 중인 또는 학습된 인공 신경망을 포함할 수 있다. 프로세서(201)는 메모리(202)에 저장된 인공 신경망 알고리즘을 학습시키거나 실행시킬 수 있다. 인공 신경망을 학습시키는 장치(200)와 학습된 인공 신경망을 이용하는 장치(200)는 동일할 수도 있고 개별적일 수도 있다.The
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the apparatus, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (3)
제1 차량이 복수의 부품으로 분해되어 있는 상태에서, 상기 복수의 부품이 3D 스캐너에 의해 각각 스캔되면, 상기 3D 스캐너로부터 상기 복수의 부품을 각각 스캔하여 생성된 3D 스캔 데이터인 제1 스캔 데이터를 획득하는 단계;
상기 제1 스캔 데이터에 포함된 복수의 스캔 데이터가 각각 어느 부품을 스캔하여 생성된 3D 스캔 데이터인지 분석하는 단계;
상기 제1 스캔 데이터 중에서 제1-1 스캔 데이터가 제1 부품을 스캔하여 생성된 3D 스캔 데이터인 것으로 분석되면, 데이터베이스로부터 상기 제1 부품에 대한 정보를 획득하여 상기 제1 차량에서 상기 제1 부품이 설치되는 위치인 제1 지점을 확인하는 단계;
상기 제1-1 스캔 데이터를 기반으로, 상기 제1 지점의 주변에 대한 차체 구조를 역설계하는 단계;
상기 제1 차량이 분해되어 있지 않은 상태에서, 상기 제1 차량이 상기 3D 스캐너에 의해 스캔되면, 상기 3D 스캐너로부터 상기 제1 차량을 스캔하여 생성된 3D 스캔 데이터인 제2 스캔 데이터를 획득하는 단계;
상기 제2 스캔 데이터를 기반으로, 상기 제1 차량에 설치되어 있는 복수의 부품을 확인하는 단계;
상기 제1 차량에 상기 제1 부품 및 제2 부품이 설치되어 있는 것으로 확인되면, 상기 제2 스캔 데이터를 기반으로, 상기 제1 차량에서 상기 제1 부품이 차지하는 영역인 제1 영역을 검출하고, 상기 제1 차량에서 상기 제2 부품이 차지하는 영역인 제2 영역을 검출하는 단계;
상기 제2 스캔 데이터를 기반으로, 상기 제1 차량에서 상기 제1 영역의 길이를 추정하여, 제1 길이를 설정하고, 상기 제1 차량에서 상기 제2 영역의 길이를 추정하여, 제2 길이를 설정하는 단계;
상기 데이터베이스에 저장된 정보를 이용하여 상기 제1 부품의 실제 길이인 제3 길이를 확인하는 단계; 및
상기 제1 길이, 상기 제2 길이 및 상기 제3 길이를 이용하여, 상기 제2 부품의 실제 길이인 제4 길이를 추정하는 단계를 포함하는,
3D 스캔 데이터를 이용한 차체 구조 역설계 방법.A method for reverse engineering a body structure using 3D scan data, performed by an apparatus, comprising:
In a state in which the first vehicle is disassembled into a plurality of parts, when the plurality of parts are respectively scanned by the 3D scanner, the first scan data that is 3D scan data generated by scanning the plurality of parts from the 3D scanner obtaining;
analyzing which part of the plurality of scan data included in the first scan data is 3D scan data generated by scanning each;
When it is analyzed that the 1-1 scan data among the first scan data is 3D scan data generated by scanning a first part, information on the first part is obtained from a database to obtain the first part in the first vehicle. confirming a first point, which is an installation location;
reverse-engineering a body structure around the first point based on the 1-1 scan data;
When the first vehicle is scanned by the 3D scanner in a state in which the first vehicle is not disassembled, obtaining second scan data that is 3D scan data generated by scanning the first vehicle from the 3D scanner ;
identifying a plurality of parts installed in the first vehicle based on the second scan data;
When it is confirmed that the first part and the second part are installed in the first vehicle, a first area that is an area occupied by the first part in the first vehicle is detected based on the second scan data, detecting a second area that is an area occupied by the second component in the first vehicle;
Based on the second scan data, by estimating the length of the first region in the first vehicle, the first length is set, and by estimating the length of the second region in the first vehicle, the second length is determined setting;
checking a third length that is an actual length of the first part using information stored in the database; and
estimating a fourth length that is an actual length of the second part by using the first length, the second length and the third length;
A body structure reverse engineering method using 3D scan data.
상기 제1-1 스캔 데이터를 화소 별로 인코딩 하여 제1 입력 신호를 생성하는 단계;
상기 제1 입력 신호를 인공 신경망에 입력하고, 상기 제1 입력 신호에 대한 출력으로 제1 출력 신호를 획득하는 단계;
상기 제1 출력 신호에 기초하여, 상기 제1 부품의 표면에 대한 분류 결과를 화소 별로 생성하는 단계; 및
상기 제1 부품의 표면에 대한 분류 결과를 기반으로, 상기 제1 부품의 표면에 대한 마모도를 화소 별로 설정하는 단계를 더 포함하는,
3D 스캔 데이터를 이용한 차체 구조 역설계 방법.The method of claim 1,
generating a first input signal by encoding the 1-1 scan data for each pixel;
inputting the first input signal to an artificial neural network, and obtaining a first output signal as an output of the first input signal;
generating a classification result for the surface of the first part for each pixel based on the first output signal; and
Based on the classification result for the surface of the first part, further comprising the step of setting the degree of wear on the surface of the first part for each pixel,
A body structure reverse engineering method using 3D scan data.
상기 제1 부품의 표면에 대한 마모도를 화소 별로 확인하여, 미리 설정된 기준치 보다 마모도가 낮은 영역을 정상 영역으로 구분하고, 상기 기준치 보다 마모도가 높은 영역을 손상 영역으로 구분하는 단계;
상기 제1 부품의 표면에서 상기 정상 영역이 차지하는 면적의 비율인 제1 비율을 산출하고, 상기 제1 부품의 표면에서 상기 손상 영역이 차지하는 면적의 비율인 제2 비율을 산출하는 단계;
상기 제1 비율이 미리 설정된 제1 기준 비율 보다 높은지 여부를 확인하는 단계;
상기 제1 비율이 상기 제1 기준 비율 보다 높은 것으로 확인되면, 상기 제1 부품을 역설계를 통한 재조립에 사용될 부품으로 분류하는 단계;
상기 제1 비율이 상기 제1 기준 비율 보다 낮은 것으로 확인되면, 상기 제2 비율이 미리 설정된 제2 기준 비율 보다 낮은지 여부를 확인하는 단계;
상기 제2 비율이 상기 제2 기준 비율 보다 낮은 것으로 확인되면, 상기 제1 부품을 수리가 필요한 부품으로 분류하는 단계; 및
상기 제2 비율이 상기 제2 기준 비율 보다 높은 것으로 확인되면, 상기 제1 부품을 교체가 필요한 부품으로 분류하는 단계를 더 포함하는,
3D 스캔 데이터를 이용한 차체 구조 역설계 방법.3. The method of claim 2,
checking the degree of wear on the surface of the first part for each pixel, classifying an area with a lower degree of wear than a preset reference value as a normal area, and classifying an area with a higher degree of wear than the reference value as a damaged area;
calculating a first ratio that is a ratio of an area occupied by the normal region on the surface of the first part, and calculating a second ratio that is a ratio of an area occupied by the damaged region on the surface of the first part;
checking whether the first ratio is higher than a preset first reference ratio;
classifying the first part as a part to be used for reassembly through reverse engineering when it is confirmed that the first ratio is higher than the first reference ratio;
when it is confirmed that the first ratio is lower than the first reference ratio, checking whether the second ratio is lower than a preset second reference ratio;
classifying the first part as a part requiring repair when it is confirmed that the second ratio is lower than the second reference ratio; and
When it is confirmed that the second ratio is higher than the second reference ratio, further comprising the step of classifying the first part as a part requiring replacement,
A body structure reverse engineering method using 3D scan data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220084857A KR102454452B1 (en) | 2022-07-11 | 2022-07-11 | Method, device and system for processing reverse engineering of car body structure using 3d scan data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220084857A KR102454452B1 (en) | 2022-07-11 | 2022-07-11 | Method, device and system for processing reverse engineering of car body structure using 3d scan data |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102454452B1 true KR102454452B1 (en) | 2022-10-14 |
Family
ID=83600050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220084857A KR102454452B1 (en) | 2022-07-11 | 2022-07-11 | Method, device and system for processing reverse engineering of car body structure using 3d scan data |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102454452B1 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100933715B1 (en) | 2006-05-09 | 2009-12-24 | 주식회사 아이너스기술 | System and method for modeling precision analysis of reverse engineering execution using 3D scan data |
KR101392823B1 (en) * | 2013-01-28 | 2014-05-12 | 한국기술교육대학교 산학협력단 | Method to detect vehicle parts using image alalysis and apparatus therefor |
KR101661102B1 (en) * | 2015-09-30 | 2016-09-30 | 자동차부품연구원 | Tuning Method of Vehicle Using 3D Scan Data |
KR20200013416A (en) | 2018-07-30 | 2020-02-07 | (주)캠시스 | Method for converting an internal combustion engine vehicle into an electric vehicle |
JP2020187749A (en) * | 2019-05-10 | 2020-11-19 | コントロールエキスパート ゲーエムベーハーControlExpert GmbH | Method for assessing damage to motor vehicle |
KR102237374B1 (en) | 2020-09-09 | 2021-04-07 | 정구봉 | Method and system for manufacturing parts and parts inspection jig using 3d printing |
KR20210157000A (en) * | 2020-06-19 | 2021-12-28 | 현대자동차주식회사 | System and method for underbody inspection of vehicle |
KR102369093B1 (en) | 2020-11-26 | 2022-03-02 | 김수지 | Manufacturing method using reverse modeling |
-
2022
- 2022-07-11 KR KR1020220084857A patent/KR102454452B1/en active IP Right Grant
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100933715B1 (en) | 2006-05-09 | 2009-12-24 | 주식회사 아이너스기술 | System and method for modeling precision analysis of reverse engineering execution using 3D scan data |
KR101392823B1 (en) * | 2013-01-28 | 2014-05-12 | 한국기술교육대학교 산학협력단 | Method to detect vehicle parts using image alalysis and apparatus therefor |
KR101661102B1 (en) * | 2015-09-30 | 2016-09-30 | 자동차부품연구원 | Tuning Method of Vehicle Using 3D Scan Data |
KR20200013416A (en) | 2018-07-30 | 2020-02-07 | (주)캠시스 | Method for converting an internal combustion engine vehicle into an electric vehicle |
JP2020187749A (en) * | 2019-05-10 | 2020-11-19 | コントロールエキスパート ゲーエムベーハーControlExpert GmbH | Method for assessing damage to motor vehicle |
KR20210157000A (en) * | 2020-06-19 | 2021-12-28 | 현대자동차주식회사 | System and method for underbody inspection of vehicle |
KR102237374B1 (en) | 2020-09-09 | 2021-04-07 | 정구봉 | Method and system for manufacturing parts and parts inspection jig using 3d printing |
KR102369093B1 (en) | 2020-11-26 | 2022-03-02 | 김수지 | Manufacturing method using reverse modeling |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3319016B1 (en) | Control systems using deep reinforcement learning | |
JP6889728B2 (en) | Structural learning in convolutional neural networks | |
EP4064130A1 (en) | Neural network model update method, and image processing method and device | |
CN111738231B (en) | Target object detection method and device, computer equipment and storage medium | |
KR102548732B1 (en) | Apparatus and Method for learning a neural network | |
US10769261B2 (en) | User image verification | |
CN111797895B (en) | Training method, data processing method, system and equipment for classifier | |
US11068747B2 (en) | Computer architecture for object detection using point-wise labels | |
US20200125930A1 (en) | Artificial neural network and method of training an artificial neural network with epigenetic neurogenesis | |
CN114912612A (en) | Bird identification method and device, computer equipment and storage medium | |
Gollapudi et al. | Deep learning for computer vision | |
Jaafra et al. | A review of meta-reinforcement learning for deep neural networks architecture search | |
KR102553041B1 (en) | Method, device and system for providing matching platform service between user and interior supplier based on artificial intelligence model | |
Dai et al. | Camera view planning based on generative adversarial imitation learning in indoor active exploration | |
EP3893146A1 (en) | An apparatus for determining a classifier for identifying objects in an image, an apparatus for identifying objects in an image and corresponding methods | |
KR102426803B1 (en) | Method, device and system for automatically uploading overseas sales page of product based on artificial intelligence | |
Rekabdar et al. | A scale and translation invariant approach for early classification of spatio-temporal patterns using spiking neural networks | |
KR102454452B1 (en) | Method, device and system for processing reverse engineering of car body structure using 3d scan data | |
JP7225731B2 (en) | Imaging multivariable data sequences | |
KR102447046B1 (en) | Method, device and system for designing clinical trial protocol based on artificial intelligence | |
Rekabdar et al. | Scale and translation invariant learning of spatio-temporal patterns using longest common subsequences and spiking neural networks | |
KR102428941B1 (en) | Method, device and system for generating textured 3d scan data through image registration based on scanning of broadband lidar | |
Sevugan et al. | Optimized navigation of mobile robots based on Faster R-CNN in wireless sensor network | |
US11244198B2 (en) | Input partitioning for deep learning of large image data | |
Lin et al. | Using Fully Convolutional Networks for Floor Area Detection. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |