KR102647402B1 - Components fabrication scheduling apparatus - Google Patents

Components fabrication scheduling apparatus Download PDF

Info

Publication number
KR102647402B1
KR102647402B1 KR1020210072886A KR20210072886A KR102647402B1 KR 102647402 B1 KR102647402 B1 KR 102647402B1 KR 1020210072886 A KR1020210072886 A KR 1020210072886A KR 20210072886 A KR20210072886 A KR 20210072886A KR 102647402 B1 KR102647402 B1 KR 102647402B1
Authority
KR
South Korea
Prior art keywords
assembly
structural part
unit
dimensional
recognition unit
Prior art date
Application number
KR1020210072886A
Other languages
Korean (ko)
Other versions
KR20220164853A (en
Inventor
백승혁
이규빈
강래영
박성호
신성호
육태경
이성주
이주순
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Priority to KR1020210072886A priority Critical patent/KR102647402B1/en
Priority to PCT/KR2022/000032 priority patent/WO2022255582A1/en
Publication of KR20220164853A publication Critical patent/KR20220164853A/en
Application granted granted Critical
Publication of KR102647402B1 publication Critical patent/KR102647402B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41805Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by assembly
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4188Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by CIM planning or realisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/543Depth or shape recovery from line drawings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/42Document-oriented image-based pattern recognition based on the type of document
    • G06V30/422Technical drawings; Geographical maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/36Review paper; Tutorial; Survey
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2008Assembling, disassembling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/13Type of disclosure document
    • G06V2201/136Tutorial

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Automation & Control Theory (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 부품조립계획장치는, 조립설명서를 인식하는 조립설명서인식모듈; 상기 조립설명서인식모듈에서 인식된 정보를 이용하여 조립계획을 수립하고 검증하는 조립계획검증모듈; 및 상기 조립계획을 시각정보로 제공할 수 있는 조립계획시각화모듈을 포함할 수 있다. The parts assembly planning device of the present invention includes an assembly instruction recognition module that recognizes assembly instructions; an assembly plan verification module that establishes and verifies an assembly plan using information recognized by the assembly instruction recognition module; And it may include an assembly plan visualization module that can provide the assembly plan as visual information.

Description

부품조립계획장치{Components fabrication scheduling apparatus}Components fabrication scheduling apparatus}

본 발명은 부품조립계획장치에 관한 것이다. 상세하게는 부품의 조립을 설명하는 정적인 정보를 인식하여 부품조립의 계획을 수립하는 부품조립계획장치에 관한 것이다. The present invention relates to a parts assembly planning device. In detail, it relates to a parts assembly planning device that recognizes static information describing the assembly of parts and establishes a part assembly plan.

부품의 조립을 위해 다양한 로봇이 생산공정에 적용될 수 있다. 로봇의 작업 품목을 바꾸는 과정은 로봇 하드웨어, 소프트웨어 등에서 큰 비용이 소모되고, 로봇에 의한 자동 부품조립을 위해서는 사람을 위한 지시 설명서 외에 별도의 부품조립계획이 필요하다. A variety of robots can be applied to the production process to assemble parts. The process of changing a robot's work items consumes a lot of cost in robot hardware and software, and automatic parts assembly by a robot requires a separate parts assembly plan in addition to an instruction manual for humans.

현재 기술로는, 부품조립 작업을 위한 로봇들은 대부분 부품조립의 일부분을 맡고 있다. 또한, 설계수정 및 작업 종류 추가 시에 추가비용이 크게 발생한다. With current technology, most robots for parts assembly work are responsible for part of the part assembly. Additionally, significant additional costs are incurred when modifying the design or adding work types.

관련되는 종래기술로서 출원번호: 10-2013-0116516 '행렬 기반의 부품의 조립 순서 추출 방법 및 그 장치'가 제안된 바가 있다. 본 기술은, 조립 모델을 구성하는 부품들의 연결 관계를 노드 간의 계층적 연결 그래프로 구현하고, 그 계층은 베이스 부분을 기준으로 노드를 뻗어나가면서 생성하는 기술이 개시된다. As a related prior art, application number: 10-2013-0116516, 'Matrix-based component assembly order extraction method and device' has been proposed. This technology implements the connection relationship of the parts that make up the assembly model as a hierarchical connection graph between nodes, and the layer is created by extending the nodes based on the base portion.

본 기술은, 조립모델을 구성하는 부품들이 제공될 때 조립순서만을 제공하는 것으로서, 제한적인 기법이라고 할 수 있다.This technology can be said to be a limited technique as it only provides an assembly sequence when the parts that make up the assembly model are provided.

출원번호 10-2013-0116516 행렬기반의 부품의 조립순서추출방법 및 그 장치Application number 10-2013-0116516 Matrix-based component assembly order extraction method and device

본 발명은 상기되는 배경에서, 부품조립의 모든 과정을 로봇이 자동으로 할 수 있는 부품조립계획을 제공하는 부품조립계획장치를 제공한다. Against the background mentioned above, the present invention provides a parts assembly planning device that provides a part assembly plan that allows robots to automatically perform all parts assembly processes.

본 발명은 로봇이 이해 가능한 조립계획을 인간의 도움이 없이 자동으로 생성하는 부품조립계획장치를 제공한다. The present invention provides a parts assembly planning device that automatically generates an assembly plan that a robot can understand without human assistance.

본 발명의 부품조립계획장치는, 조립설명서를 인식하는 조립설명서인식모듈; 상기 조립설명서인식모듈에서 인식된 정보를 이용하여 조립계획을 수립하고 검증하는 조립계획검증모듈; 및 상기 조립계획을 시각정보로 제공할 수 있는 조립계획시각화모듈을 포함할 수 있다. The parts assembly planning device of the present invention includes an assembly instruction recognition module that recognizes assembly instructions; an assembly plan verification module that establishes and verifies an assembly plan using information recognized by the assembly instruction recognition module; And it may include an assembly plan visualization module that can provide the assembly plan as visual information.

상기 조립설명서인식모듈는, 상기 조립설명서로부터 조립되는 구조부품을 인식하는 조립인식부; 인식된 상기 구조부품의 종류를 인식하는 구조부품종류인식부; 상기 조립설명서에 제시되는 문자를 인식하고 상기 문자를 통하여 적어도 체결부품을 인식하는 문자인식부; 상기 체결부품의 행동을 인식하는 체결부품행동인식부; 상기 구조부품, 상기 체결부품, 및 상기 체결부품의 행동을 이용하여 상기 체결부품과 상기 구조부품의 결합위치를 추정하는 결합추정부; 및 상기 체결부품이 결합되는 상기 구조부품의 삼차원 결합위치를 추론하는 결합위치추론부를 포함할 수 있다. The assembly instruction recognition module includes an assembly recognition unit that recognizes structural parts to be assembled from the assembly instructions; A structural part type recognition unit that recognizes the type of the recognized structural part; a character recognition unit that recognizes characters presented in the assembly instructions and recognizes at least fastening parts through the characters; A fastening part behavior recognition unit that recognizes the behavior of the fastening part; a coupling estimation unit that estimates a coupling position of the fastening part and the structural part using the structural part, the fastening part, and the behavior of the fastening part; And it may include a coupling position inference unit that infers a three-dimensional coupling position of the structural part to which the fastening part is coupled.

상기 조립설명서는 이차원 정보로 제공될 수 있다. The assembly instructions may be provided as two-dimensional information.

상기 삼차원결합위치추론부에는 삼차원 정보가 제공될 수 있다. Three-dimensional information may be provided to the three-dimensional combined location inference unit.

상기 조립인식부에는, 상기 구조물품이 포함되는 조립영역을 검출하는 조립영역검출부; 및 상기 조립영역 내에서 상기 구조물품을 인식하기 위하여, 상기 조립영역을 분할하고, 각 구조부품의 영역을 검출하는 구조부품인식부가 포함될 수 있다. The assembly recognition unit includes an assembly area detection unit that detects an assembly area including the structure product; and a structural part recognition unit that divides the assembly area and detects the area of each structural part in order to recognize the structural part within the assembly area.

상기 구조부품인식부는 상기 구조부품을 이미지로 인식할 수 있다.The structural part recognition unit may recognize the structural part as an image.

상기 구조부품종류인식부는 제 3 학습모델이 제공되고, 상기 제 3 학습모델에는, 상기 구조부품의 삼차원 모델의 특징을 추출하기 위해 3D 컨볼루션 네트워크로 구성된 삼차원 특징 추출부; 상기 삼차원 모델의 이차원의 이미지로부터 특징을 추출하기 위해 2D 컨볼루션 네트워크로 구성된 이차원 특징 추출부; 및 학습부가 포함될 수 있다. The structural part type recognition unit is provided with a third learning model, and the third learning model includes: a three-dimensional feature extraction unit configured with a 3D convolutional network to extract features of the three-dimensional model of the structural part; a two-dimensional feature extraction unit composed of a 2D convolutional network to extract features from the two-dimensional image of the three-dimensional model; and a learning department may be included.

상기 학습부는, 어느 하나의 구조부품에 대한 삼차원 특징 추출부에서 추출된 특징이, 같은 구조부품의 이차원 특징 추출부에서 추출된 특징과는 거리가 유사해지도록 학습하는 것; 및 상기 어느 하나의 구조부품에 대한 삼차원 특징 추출부에서 추출된 특징이, 다른 구조부품의 이차원 특징 추출부에서 추출된 특징과 거리가 멀어지도록 학습할 수 있다.The learning unit learns the features extracted from the three-dimensional feature extraction unit for one structural part to be similar in distance to the features extracted from the two-dimensional feature extracting unit for the same structural part; And the features extracted from the three-dimensional feature extraction unit for one structural part may be learned to be distant from the features extracted from the two-dimensional feature extraction unit for another structural part.

상기 문자인식부에는, 문자가 포함되는 문자영역을 인식하는 문자영역인식부; 및 상기 문자영역에서 문자를 추론하는 문자추론부가 포함될 수 있다. The text recognition unit includes a text area recognition unit that recognizes a text area containing a text; and a character inference unit that infers a character from the character area.

상기 문자인식부에 의해서 조립순열을 파악할 수 있다. The assembly permutation can be determined by the character recognition unit.

상기 결합추정부는, 상기 체결부품의 결합축 방향을 검출하는 축방향검출부; 및 상기 결합축 방향을 연장하고 그 연장선이 상기 구조부품과 만나는 지점을 인식하는 결합위치인식부를 포함할 수 있다.The coupling estimation unit includes an axial direction detection unit that detects the coupling axis direction of the fastening part; And it may include a coupling position recognition unit that extends the coupling axis direction and recognizes a point where the extension line meets the structural part.

상기 결합추정부는, 상기 구조부품의 이차원 모델에 대한 상기 결합위치를 제공할 수 있다.The coupling estimation unit may provide the coupling position for a two-dimensional model of the structural part.

상기 결합위치추론부는, 상기 구조부품의 삼차원 모델의 6DoF자세를 조절하여, 상기 구조부품의 이차원 모델과 일치하는 상기 6DoF자세를 구할 수 있다. The coupling position inference unit may adjust the 6DoF posture of the three-dimensional model of the structural component to obtain the 6DoF posture that matches the two-dimensional model of the structural component.

상기 결합위치추론부은, 상기 결합위치를 상기 구조부품의 삼차원 모델 상에서 추론할 수 있다.The coupling position inference unit may infer the coupling position on a three-dimensional model of the structural part.

본 발명에 따르면, 인간이 이해할 수 있는 조립설명서를 로봇이 이해하는 부품조립계획서로 제공할 수 있다. According to the present invention, assembly instructions that humans can understand can be provided as part assembly plans that robots can understand.

본 발명에 따르면, 부품조립의 모든 과정이 로봇이 수행할 수 있는 부품조립계획서를 제공할 수 있다. According to the present invention, it is possible to provide a parts assembly plan that allows all parts assembly processes to be performed by a robot.

그 외 본 발명의 다양한 효과는 본 발명의 상세한 설명을 통하여 이해할 수 있을 것이다. Various other effects of the present invention can be understood through the detailed description of the present invention.

도 1은 실시예에 따른 부품조립계획장치의 개략적 구성도.
도 2는 도 1의 조립설명서인식모듈의 상세구성을 보이는 도면.
도 3은 조립설명서에서 상기 조립영역과 상기 구조부품영역을 보여주는 도면.
도 4는 문자영역의 학습단계를 보이는 도면.
도 5는 문자인식의 학습단계를 보이는 도면.
도 6은 구조부품종류인식부의 작용을 설명하는 도면.
도 7은 체결부품행동인식부의 동작결과를 보이는 도면.
도 8은 체결부품에서 검출된 상기 결합축 방향과, 상기 결합축이 구조부품과 만나는 지점을 각각 예시하는 도면.
도 9는 미분가능한 렌더러에서 출력된 이차원 이미지와 상기 결합추정부에서 출력된 이차원 이미지를 일치시키는 과정을 보이는 도면.
도 10은 삼차원 모델의 6DoF를 예시하는 도면.
1 is a schematic configuration diagram of a parts assembly planning device according to an embodiment.
Figure 2 is a diagram showing the detailed configuration of the assembly instruction recognition module of Figure 1.
Figure 3 is a view showing the assembly area and the structural component area in the assembly instructions.
Figure 4 is a diagram showing the learning steps of the character area.
Figure 5 is a diagram showing the learning stage of character recognition.
Figure 6 is a diagram explaining the operation of the structural part type recognition unit.
Figure 7 is a diagram showing the operation results of the fastening part behavior recognition unit.
Figure 8 is a diagram illustrating the direction of the coupling axis detected in the fastening part and the point where the coupling axis meets the structural part.
Figure 9 is a diagram showing the process of matching the two-dimensional image output from the differentiable renderer and the two-dimensional image output from the combination estimation unit.
Figure 10 is a diagram illustrating 6DoF of a three-dimensional model.

이하에서는 도면을 참조하여 본 발명의 구체적인 실시예를 상세하게 설명한다. 그러나, 본 발명의 사상의 이하의 실시예에 제한되지 아니하고, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에 포함되는 다른 실시예를 구성요소의 부가, 변경, 삭제, 및 추가 등에 의해서 용이하게 제안할 수 있을 것이나, 이 또한 본 발명 사상의 범위 내에 포함될 수 있다. Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings. However, the spirit of the present invention is not limited to the following embodiments, and those skilled in the art who understand the spirit of the present invention can easily make other embodiments included within the scope of the same spirit by adding, changing, deleting, and adding components, etc. However, this may also be included within the scope of the present invention.

도면이 설명에 있어서, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략할 수 있다. In the description of the drawings, identical or similar components are assigned the same reference numbers regardless of reference numerals, and overlapping descriptions thereof may be omitted.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves.

본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted.

첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes, equivalents, and changes included in the spirit and technical scope of the present invention are not limited. It should be understood to include water or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.Singular expressions may include plural expressions, unless the context clearly indicates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

도 1은 실시예에 따른 부품조립계획장치의 개략적 구성도이다. 1 is a schematic configuration diagram of a parts assembly planning device according to an embodiment.

도 1을 참조하면, 실시예의 부품조립계획장치는, 조립설명서를 인식하는 조립설명서인식모듈(1), 상기 조립설명서인식모듈(1)에서 인식된 조립설명서를 이용하여 계획을 수립하고 검증하는 조립계획검증모듈(2), 및 조립계획시각화모듈(3)을 포함할 수 있다. Referring to FIG. 1, the parts assembly planning device of the embodiment includes an assembly instruction recognition module (1) that recognizes assembly instructions, and an assembly plan that is established and verified using the assembly instructions recognized by the assembly instruction recognition module (1). It may include a plan verification module (2) and an assembly plan visualization module (3).

상기 조립설명서는 인간이 인식할 수 있는 자료를 의미할 수 있다. 상기 조립설명서는 조립을 설명하는 이차원 자료를 의미할 수 있다. 상기 조립설명서는 책자 또는 그 책자가 디지털화 된 정보를 의미할 수 있다. The assembly instructions may refer to data that can be recognized by humans. The assembly instructions may refer to two-dimensional data explaining assembly. The assembly instructions may refer to a booklet or information that has been digitized from the booklet.

상기 조립설명서인식모듈(1)은 조립설명서를 인식할 수 있어서, 각 부품의 체결구조를 이해할 수 있다. 상기 조립설명서인식모듈(1)은, 이차원 조립설명서 및 학습모델이 입력될 수 있다. 상기 학습모델에는 상기 조립설명서의 인식에 필요한 다양한 정보가 필요에 따라서 미리 학습된 다양한 학습모델일 수 있다. 상기 학습모델에는 조립설명서의 각 부품이 삼차원으로 모델링된 삼차원 모델이 학습될 수 있다. 상기 삼차원 모델은 학습되기에 앞서서, 다수의 가상 데이터로 가공될 수 있다. 상기 가공 데이터는 삼차원 모델이 삼차원 공간에 배치되고, 카메라, 광원, 랜더링 변수가 조절되는 과정을 거치면서 만들어지는 다양한 정보일 수 있다. 여기서, 다양한 정보에는 유사 이미지, 인스턴스 마스크(instance mask), 서피스 노말(surfcae normal), 및 깊이정보이미지가 포함될 수 있다. The assembly instruction recognition module 1 can recognize assembly instructions and understand the fastening structure of each component. The assembly instruction recognition module 1 can input two-dimensional assembly instructions and learning models. The learning model may be a variety of learning models in which various information required for recognition of the assembly instructions is learned in advance as needed. In the learning model, a three-dimensional model in which each part of the assembly instructions is modeled in three dimensions can be learned. The three-dimensional model may be processed into a number of virtual data before being learned. The processed data may be a variety of information created through a process in which a three-dimensional model is placed in three-dimensional space and cameras, light sources, and rendering variables are adjusted. Here, various information may include similar images, instance masks, surface normals, and depth information images.

상기 조립계획검증모듈(2)은 조립계획을 수립할 수 있다. 상기 조립계획검증모듈(2)은 여러 개의 가조립계획을 수립할 수 있다. 상기 가조립계획은 검증단계를 거칠 수 있다. 상기 가조립계획의 검증은, 부품들 간의 결합위치가, 이차원 데이터와 삼차원 데이터에서 잘 맵핑되는 것으로서 검증할 수 있다. 예를 들어, 조립설명에 제시되는 이차원 부품의 결합위치가, 삼차원 부품의 결합위치와 잘 맵핑되는 가조립계획만을 조립계획으로 출력할 수 있다. 예를 들어, 조립설명에 제시되는 이차원 부품의 결합위치가, 삼차원 부품의 결합위치와 가장 잘 맵핑되는 가조립계획을 검증된 조립계획으로 출력할 수 있다. 여기서 삼차원 부품은 로봇이 인식할 수 있는 삼차원으로 미리 모델링된 부품일 수 있다. The assembly plan verification module 2 can establish an assembly plan. The assembly plan verification module 2 can establish multiple provisional assembly plans. The provisional assembly plan may go through a verification step. The provisional assembly plan can be verified by ensuring that the joining positions between parts are well mapped in two-dimensional and three-dimensional data. For example, only a provisional assembly plan in which the joining positions of two-dimensional parts presented in the assembly instructions are well mapped to the joining positions of three-dimensional parts can be output as an assembly plan. For example, a provisional assembly plan that best maps the joining positions of two-dimensional parts presented in the assembly instructions to the joining positions of three-dimensional parts can be output as a verified assembly plan. Here, the three-dimensional part may be a part that has been pre-modeled in three dimensions that the robot can recognize.

상기 조립계획시각화모듈(3)은 다양한 디지털 툴을 이용하여 조립계획을 시각화할 수 있다. 시각화된 조립계획을 통하여 최종적으로 부품조립계획을 점검할 수 있다. 상기 조립계획이 시각화함으로써 로봇으로 입력이 가능한 전자파일을 생성할 수 있다. 시각화 툴에는 블렌더(blender) 또는 파이썬이 이용될 수 있다. The assembly plan visualization module 3 can visualize the assembly plan using various digital tools. You can finally check the part assembly plan through the visualized assembly plan. By visualizing the assembly plan, an electronic file that can be input by a robot can be created. Visualization tools can be Blender or Python.

도 2는 도 1의 조립설명서인식모듈의 상세구성을 보이는 도면으로서, 도 2를 참조하며, 상기 조립설명서인식모듈의 구성 및 작용을 간단히 설명한다. FIG. 2 is a diagram showing the detailed configuration of the assembly instruction recognition module of FIG. 1. Referring to FIG. 2, the configuration and operation of the assembly instruction recognition module will be briefly explained.

상기 조립설명서인식모듈은, 조립설명서로부터 조립되는 각 구조부품을 인식하는 조립인식부(10), 상기 조립인식부에서 인식된 구조부품의 종류를 인식하는 구조부품종류인식부(30), 조립설명서에 제시되는 숫자, 및 글자 등의 의미를 가지는 문자를 인식하는 문자인식부(20), 체결부품의 행동을 인식하는 체결부품행동인식부(40), 상기 구조부품, 상기 체결부품, 및 상기 체결부품의 행동과 그 외의 정보를 참조하여 구조부품과 체결부품의 결합을 이차원으로 추정하는 결합추정부(50), 및 구조부품과 체결부품의 삼차원 결합위치를 추론하여 인식된 조립설명서를 제공하는 삼차원결합위치추론부(60)를 포함할 수 있다.The assembly manual recognition module includes an assembly recognition unit 10 that recognizes each structural part assembled from the assembly manual, a structural part type recognition unit 30 that recognizes the type of structural part recognized in the assembly recognition unit, and an assembly manual. A character recognition unit 20 that recognizes characters with meanings such as numbers and letters presented in, a fastening part behavior recognition unit 40 that recognizes the behavior of fastening parts, the structural parts, the fastening parts, and the fastening. A coupling estimation unit 50 that estimates the coupling of structural parts and fastening parts in two dimensions by referring to the behavior of the parts and other information, and a three-dimensional coupling estimation unit 50 that infers the three-dimensional coupling positions of the structural parts and fastening parts and provides recognized assembly instructions. It may include a combination position inference unit 60.

의자의 조립설명서를 예로 들면, 상기 구조부품에는 의자에 사용되는 다수의 기둥을 예로 들 수 있고, 상기 체결부품은 상기 기둥을 체결하는 나사 등의 체결부재를 의미할 수 있다. 상기 문자인식부(20)는 상기 체결부품, 갯수 등을 인식할 수 있다. 상기 문자는 숫자 및 글자에 제한되지 않고, 의미를 가질 수 있는 모든 객체를 포함할 수 있다. Taking the assembly instructions for a chair as an example, the structural parts may include a plurality of pillars used in the chair, and the fastening parts may refer to fastening members such as screws that fasten the pillars. The character recognition unit 20 can recognize the fastening parts, their number, etc. The characters are not limited to numbers and letters and may include any object that can have meaning.

상기 조립설명서인식모듈의 동작을 간단히 설명한다. The operation of the assembly manual recognition module will be briefly explained.

상기 조립인식부(10)는 조립되는 각 구조부품을 인식할 수 있다. 여기서 인식은 구조부품의 이차원 형상을 인식하는 것으로 이해할 수 있다. 인식된 각 구조부품은 구조부품종류인식부(30)로 입력되어 구조부품의 종류가 인식될 수 있다. 예를 들어, 인식된 구조부품이 의자의 등받이에 사용되는 두번째 기둥으로 정확하게 그 종류가 인식될 수 있다. The assembly recognition unit 10 can recognize each structural part to be assembled. Here, recognition can be understood as recognizing the two-dimensional shape of the structural part. Each recognized structural part is input into the structural part type recognition unit 30 so that the type of the structural part can be recognized. For example, the recognized structural part can be accurately identified as the second pillar used for the back of a chair.

상기 문자인식부(20)는 조립설명서에 제시되는 문자를 인식하여, 조립과정에 필요한 다양한 정보를 인식할 수 있다. 그 정보로는 상기 체결부품의 갯수와 종류, 및 페이지번호에 대응하여 조립순서정보가 포함될 수 있다. 상기 문자인식부에서 인식된 정보는 결합추정부(50) 및 체결부품행동인식부(40)로 전달될 수 있다. The character recognition unit 20 can recognize characters presented in the assembly instructions and recognize various information required for the assembly process. The information may include assembly order information corresponding to the number and type of the fastening parts and page number. Information recognized by the character recognition unit may be transmitted to the combination estimation unit 50 and the fastening part behavior recognition unit 40.

상기 체결부품행동인식부(40)는 상기 체결부품의 체결동작을 인식할 수 있다. 상기 체결부품의 체결동작을 위하여, 예를 들어, 체결부품의 회전 등의 동작을 인식할 수 있다. The fastening part behavior recognition unit 40 can recognize the fastening operation of the fastening part. For the fastening operation of the fastening part, for example, movements such as rotation of the fastening part can be recognized.

상기 결합추정부(50)는, 상기 구조부품, 상기 체결부품, 및 상기 체결부품의 행동을 이용하여 각 부품의 결합을 추정할 수 있다. 여기서 각 정보는, 문자인식부(20). 구조부품종류인식부(30), 및 체결부품행동인식부(40)로 부터 전달될 수 있다. The combination estimation unit 50 can estimate the combination of each part using the structural parts, the fastening parts, and the behavior of the fastening parts. Here, each piece of information is a character recognition unit (20). It can be transmitted from the structural part type recognition unit 30 and the fastening part behavior recognition unit 40.

상기 결합추정부(50)의 부품간의 결합추정은 이차원의 조립설명서를 근거하로 추론될 수 있다. 상기 이차원 결합추정은, 상기 구조부품의 삼차원결합위치추론부(60)에서 삼차원으로 추론될 수 있다. The coupling estimation between the parts of the coupling estimation unit 50 can be inferred based on the two-dimensional assembly instructions. The two-dimensional coupling estimation can be inferred in three dimensions from the three-dimensional coupling position inference unit 60 of the structural part.

상기 추론된 삼차원 결합추정은, 상기 조립계획검증모듈(2)에서 검증되고, 상기 조립계획시각화모듈(3)에서 시각화되어 출력될 수 있다. The inferred three-dimensional combined estimate can be verified in the assembly plan verification module (2) and visualized and output in the assembly plan visualization module (3).

상기 조립설명서인식모듈(1)의 구성 및 작용을 각 구성별로 더 상세하게 설명한다. The configuration and operation of the assembly instruction recognition module 1 will be described in more detail for each configuration.

상기 조립설명서에는, 물품의 구조를 이루는 구조부품 이외에 말풍선, 지시 기호, 번호, 및 체결부품 등 다양한 구성요소가 존재할 수 있다. 그러므로, 구조부품을 정확히 인식하기 위하여, 구조부품들이 포함된 영역이 먼저 인식되는 것이 바람직하다. 이를 위하여 상기 조립인식부(10)에는 조립되는 구조물품이 포함되는 조립영역을 검출하는 조립영역검출부(11), 및 상기 조립영역에서 각각의 구조물품을 이미지로 인식하기 위하여, 상기 조립영역을 분할하여 구조부품의 영역을 검출하는 구조부품인식부(12)가 포함될 수 있다. In the assembly instructions, various components such as speech bubbles, instruction symbols, numbers, and fastening parts may be present in addition to the structural parts that make up the structure of the product. Therefore, in order to accurately recognize structural parts, it is desirable that the area containing the structural parts be recognized first. For this purpose, the assembly recognition unit 10 includes an assembly area detection unit 11 that detects an assembly area containing the assembled structure product, and divides the assembly area in order to recognize each structure product as an image in the assembly area. Thus, a structural part recognition unit 12 that detects the area of the structural part may be included.

상기 조립인식부(10)의 동작에는 제 1 학습모델이 사용될 수 있다. 상기 제 1 학습모델은 상기 조립영역의 인식을 위해서는 Cascade-RCNN방식으로 학습모델이 구축되고, 각각의 구조부품의 영역을 인식하기 위해서는 Mask-RCNN방식으로 학습모델을 구축할 수 있다. 상기 학습모델등은 U-net에 입력되어 개선이 더 수행되어 상기 제 1 학습모델을 제공할 수 있다. The first learning model may be used in the operation of the assembly recognition unit 10. The first learning model can be constructed using the Cascade-RCNN method to recognize the assembly area, and the learning model can be built using the Mask-RCNN method to recognize the area of each structural part. The learning model, etc. may be input to U-net and further improved to provide the first learning model.

도 3은 조립설명서에서 상기 조립영역과 상기 구조부품영역을 보여주는 도면이다. 도 3을 참조하면, 상기 구조부품이 포함되는 적어도 하나 포함되는 조립영역을 먼저 검출한다. 이후에 상기 조립영역에서 각각의 구조부품영역이 검출되는 것을 확인할 수 있다. Figure 3 is a diagram showing the assembly area and the structural component area in the assembly instructions. Referring to FIG. 3, at least one assembly area containing the structural part is first detected. Afterwards, it can be confirmed that each structural part area is detected in the assembly area.

상기 조립인식부(10)에서 검출된 각 구조부품은 구조부품종류인식부(30)에서 구조부품의 종류가 인식될 수 있다. The type of each structural part detected by the assembly recognition unit 10 can be recognized by the structural part type recognition unit 30.

상기 조립설명서에서 구조부품들은 다양한 종류, 다양한 형상을 가지고, 특히 개별 부품이 조립된 중간조립물은 학습될 수 없어 종류를 인식하는데 어려움이 있다. 이 문제를 개선하기 위하여, 이차원-삼차원 매칭 방법을 이용하여 구조부품의 종류를 인식할 수 있다. 다시 말하면, 상기 조립 설명서를 통하여 인식된 구조부품, 즉 상기 조립인식부(10)에서 인식된 이차원 모델과, 가장 유사한 형태의 삼차원 모델인 구조부품을 인식하여 상기 구조부품의 종류를 인식할 수 있다. In the above assembly instructions, the structural parts have various types and shapes, and in particular, intermediate assemblies made of individual parts cannot be learned, making it difficult to recognize the types. To improve this problem, the type of structural part can be recognized using a two-dimensional and three-dimensional matching method. In other words, the type of the structural part can be recognized by recognizing the structural part recognized through the assembly instructions, that is, the two-dimensional model recognized by the assembly recognition unit 10, and the structural part that is the most similar three-dimensional model. .

상기 구조부품종류인식부(30)의 동작에는 제 3 학습모델이 이용될 수 있다. 상기 제 3 학습모델은, 삼차원 모델의 구조부품 그 자체의 특징을 추출하기 위해 3D 컨볼루션 네트워크로 구성된 삼차원 특징 추출부와, 상기 삼차원 모델의 이차원의 이미지로부터 특징을 추출하기 위해 2D 컨볼루션 네트워크로 구성된 이차원 특징 추출부로 구성할 수 있다. 여기서 이차원 이미지는 상기 조립설명에서 제시되는 구조부품의 이미지와 같은 차원일 수 있다. A third learning model may be used in the operation of the structural part type recognition unit 30. The third learning model includes a three-dimensional feature extraction unit composed of a 3D convolutional network to extract features of the structural part itself of the three-dimensional model, and a 2D convolutional network to extract features from the two-dimensional image of the three-dimensional model. It can be composed of a configured two-dimensional feature extraction unit. Here, the two-dimensional image may have the same dimension as the image of the structural part presented in the assembly description.

상기 제 3 학습모델은, 상기 특징 추출부를 이용하여 다음과 같이 학습하는 학습부를 포함할 수 있다. 어느 하나의 구조부품에 대한 삼차원 특징 추출부에서 추출된 특징(feature)은, 같은 구조부품의 이차원 특징 추출부에서 추출된 특징과는 거리가 유사해지도록 학습할 수 있다. 상기 어느 하나의 구조부품에 대한 삼차원 특징 추출부에서 추출된 특징(feature)이, 다른 구조부품의 이차원 특징 추출부에서 추출된 특징과 거리가 멀어지도록 학습할 수 있다. 이때 학습을 위한 손실 함수로는 삼중항 손실(Triplet Loss)를 사용할 수 있다. 상기되는 학습을 통하여 이차원 모델, 즉 조립설명서 상의 구조부품을 삼차원 모델의 구조부품과 일치할 수 있다. 이를 통하여 조립설명의 구조부품의 종류를 인식할 수 있다. The third learning model may include a learning unit that learns as follows using the feature extraction unit. The features extracted from the three-dimensional feature extraction unit for one structural part can be learned to have a similar distance to the features extracted from the two-dimensional feature extraction unit for the same structural part. The features extracted from the three-dimensional feature extractor for one structural part can be learned to be distant from the features extracted from the two-dimensional feature extractor for another structural part. At this time, triplet loss can be used as the loss function for learning. Through the above-mentioned learning, it is possible to match the structural parts of the two-dimensional model, that is, the structural parts in the assembly instructions, with the structural parts of the three-dimensional model. Through this, the type of structural part in the assembly description can be recognized.

도 6은 상기 구조부품종류인식부의 작용을 설명하는 도면이다. Figure 6 is a diagram explaining the operation of the structural part type recognition unit.

도 6을 참조하면, 조립설명서 상에서 검출된 구조부품의 이미지와, 제 3 학습모델을 통하여 제공되는 부품 후보군과의 유사도를 계산하여, 구조부품의 종류를 인식하는 것을 알 수 있다. Referring to FIG. 6, it can be seen that the type of structural part is recognized by calculating the similarity between the image of the structural part detected in the assembly instructions and the part candidate group provided through the third learning model.

상기 조립설명서에는 상기 체결부품의 개수와 여러 부품의 번호가 숫자 형태로 기재될 수 있다. 그 외에 다양한 부품의 문자가 기재될 수도 있다. 상기 문자인식부(20)는 문자를 인식할 수 있다. In the assembly instructions, the number of fastening parts and the numbers of various parts may be written in numeric form. In addition, characters for various parts may be written. The character recognition unit 20 can recognize characters.

상기 문자인식부(20)에는, 문자가 포함되는 영역을 인식하는 문자영역인식부(21), 인식된 문자영역에서 문자를 추론하는 문자추론부(22)가 포함될 수 있다. 이를 통하여 문자가 포함되는 영역을 먼저 인식한 후에, 인식된 영역에서 문자를 인식하는 두 단계로 문자를 인식할 수 있다. The character recognition unit 20 may include a character area recognition unit 21 that recognizes an area containing a character, and a character inference unit 22 that infers a character from the recognized character area. Through this, characters can be recognized in two steps: first recognizing the area containing the character, and then recognizing the character in the recognized area.

이를 위하여 제 2 학습모델은, 문자영역과 상기 문자영역 내 문자인식의 두 단계로 학습될 수 있다. 도 4는 문자영역의 학습단계를 보이고, 도 5는 문자인식의 학습단계를 보이고 있다. For this purpose, the second learning model can be learned in two steps: a text area and character recognition within the text area. Figure 4 shows the learning stage of the character area, and Figure 5 shows the learning stage of character recognition.

도 4를 참조하면, 상기 문자영역의 검출을 위하여, 수 천 개의 경계박스가 포함되는 조립설명서 데이터를 수집 및 레이블링할 수 있다. 이를 이용하여 물체 영역 검출에 주로 활용되는 Faster R-CNN을 학습시킬 수 있다. 상기 문자영역의 개선을 위해 인식된 문자 내의 컨투어(contour)를 인식한 뒤, 경계박스의 크기의 표준 점수를 기준으로 RANSAC을 통해 특이점(outlier)을 제거할 수 있다. Referring to FIG. 4, in order to detect the text area, assembly instruction data including thousands of bounding boxes can be collected and labeled. Using this, Faster R-CNN, which is mainly used for object area detection, can be trained. To improve the character area, the contour within the recognized character can be recognized, and then outliers can be removed through RANSAC based on the standard score of the size of the bounding box.

도 5를 참조하면, 상기 문자인식을 위하여, TPS-ResNet-BiLSTM-Att 모델을 사용할 수 있다. 모델 적용을 텍스트 렌더러를 활용하여 가상 글자 인식용 이미지를 생성하고, 대용량 데이터 셋에서 학습된 모델을 전이 학습하는 방식을 활용할 수 있다.Referring to Figure 5, for character recognition, the TPS-ResNet-BiLSTM-Att model can be used. Model application can be done by using a text renderer to create an image for virtual letter recognition and transfer learning the model learned from a large data set.

상기 문자인식부(20)의 동작에 의해서, 상기 체결부품의 종류와 갯수를 인식할 수 있다. 상기 문자인식부(20)의 동작에 의해서, 페이지의 순서에 따른 조립의 순열을 파악할 수 있다. 다시 말하면, 앞페이지의 체결은 뒷페이지의 체결보다 선행할 수 있다. 여기서 페이지는 각 페이지의 번호에 의해서 인식될 수 있다.By operating the character recognition unit 20, the type and number of the fastening parts can be recognized. Through the operation of the character recognition unit 20, the permutation of the assembly according to the order of the pages can be identified. In other words, the conclusion of the front page may precede the conclusion of the back page. Here, pages can be recognized by the number of each page.

상기 문자인식부(20)에서 인식된 체결부품의 정보는 제결부품행동인식부(40)에서 체결부품의 행동을 인식할 수 있다. 예를 들어, 체결부품이 나사를 오른쪽을 회전하는 행동을 하는 지 등의 동작정보를 인식할 수 있다. The information on the fastening part recognized by the character recognition unit 20 allows the fastening part behavior recognition unit 40 to recognize the behavior of the fastening part. For example, motion information such as whether a fastening part rotates a screw to the right can be recognized.

상기 체결부품행동인식부(40)의 동작을 위하여 제 4 학습모델이 이용될 수 있다. 상기 제 4 학습모델은 Cascade Mask R-CNN을 이용할 수 있다. 이를 통하여 말풍선에 대하여 강건하게 동작할 수 있다. 학습을 위한 데이터셋은 슬라이드 그림과 같이 말풍선을 레이블링한 이미지 형태일 수 있다. 학습 과정에서 문맥-인지형(context-aware) 데이터 증강을 활용하여 성능을 향상시킨다. 체결도구와 체결방향을 지시하는 화살표도 동일한 딥러닝 모델을 학습시켜 인식을 수행할 수 있다. A fourth learning model can be used for the operation of the fastener behavior recognition unit 40. The fourth learning model can use Cascade Mask R-CNN. Through this, it can operate robustly against speech balloons. The dataset for learning may be in the form of an image with labeled speech bubbles, such as a slide picture. Performance is improved by utilizing context-aware data augmentation during the learning process. The fastening tool and the arrow indicating the fastening direction can also be recognized by learning the same deep learning model.

도 7은 체결부품행동인식부의 동작결과를 보이는 도면이다. Figure 7 is a diagram showing the operation results of the fastening part behavior recognition unit.

도 7을 참조하면, 체결부품의 종류 및 수량이 인식되고, 체결도구와 체결부품의 조립행동이 인식된 것을 확인할 수 있다. Referring to Figure 7, it can be confirmed that the type and quantity of fastening parts are recognized, and the assembly behavior of fastening tools and fastening parts is recognized.

상기 구조부품과 상기 체결부품들의 종류, 위치가 인식된 후, 각 부품들이 어떤 결합관계를 가지는지 추정할 수 있다. 상기 결합추정부(50)는 체결부품과 구조부품의 결합을 추정할 수 있다. 이 동작을 위하여 상기 결합추정부(50)에는, 체결부품의 결합축 방향을 검출하는 체결부품의 축방향검출부(51)와, 검출된 체결부품의 결합축 방향을 연장하여, 연장선이 구조부품과 만나는 지점을 인식하는 결합위치인식부(52)를 포함할 수 있다. 이를 통하여 각 체결부품이 체결되는 구조부품상의 위치를 이차원 이미지 상에서 인식할 수 있다. After the types and positions of the structural parts and the fastening parts are recognized, it is possible to estimate what kind of coupling relationship each part has. The combination estimation unit 50 can estimate the combination of fastening parts and structural parts. For this operation, the coupling estimation unit 50 includes an axial direction detection unit 51 of the fastening part that detects the coupling axis direction of the fastening part, and extends the coupling axis direction of the detected fastening part, so that the extension line is connected to the structural part. It may include a coupling position recognition unit 52 that recognizes the meeting point. Through this, the position on the structural part where each fastening part is fastened can be recognized on a two-dimensional image.

도 8은 체결부품에서 검출된 상기 결합축 방향과, 상기 결합축이 구조부품과 만나는 지점을 각각 예시하는 도면이다. Figure 8 is a diagram illustrating the direction of the coupling axis detected in the fastening part and the point where the coupling axis meets the structural part.

상기 결합추정부(50)의 동작을 위하여 제 5 학습모델을 이용할 수 있다. The fifth learning model can be used for the operation of the combination estimation unit 50.

상기 제 5 학습모델의 학습을 위하여 Mask R-CNN 모델을 사용할 수 있다. 분류 모델로는 ResNet 50을 사용할 수 있다. 데이터로는 삼차원 모델을 렌더링한 체결 부품 이미지를 이용하여 훈련할 수 있다. The Mask R-CNN model can be used to learn the fifth learning model. ResNet 50 can be used as a classification model. Data can be trained using images of fasteners that render a three-dimensional model.

상기 결합추정부(50)의 추정된 결합관계는 이차원 이미지 상에서 수행된 것이다. 이차원 이미지 상에서의 결합관계는 삼차원 공간 상의 좌표로 추론될 필요가 있다. 이를 위하여 상기 삼차원 결합위치추론부(60)는, 삼차원 모델인 구조부품 및 체결부품 상에서 결합관계를 추론할 수 있다. The estimated coupling relationship of the coupling estimation unit 50 is performed on a two-dimensional image. Combination relationships in two-dimensional images need to be inferred from coordinates in three-dimensional space. To this end, the three-dimensional coupling position inference unit 60 can infer the coupling relationship on structural parts and fastening parts that are three-dimensional models.

상기 삼차원 결합위치추론부(60)는, 삼차원 모델의 6DoF(Degrees of Freedom) 자세를 조정하여 주어진 조립설명서 상의 이차원 모델과 유사한 형태를 최적화하여 도출할 수 있다. 여기서 최적화 과정에는 미분가능한 렌더러(differentiable renderer를) 활용할 수 있다. 상기 미분가능한 렌더러는 삼차원 모델과 그 모델의 6DoF 자세가 주어졌을 때, 해당 자세에서 촬영된 이차원 이미지를 출력할 수 있다. 그 출력된 이차원 이미지와 상기 결합추정부(50)에 입력된 이차원 이미지가 일치하는 방향으로 최적화를 수행할 수 있다. The three-dimensional combined position inference unit 60 can optimize and derive a shape similar to the two-dimensional model in the given assembly instructions by adjusting the 6DoF (Degrees of Freedom) posture of the three-dimensional model. Here, a differentiable renderer can be used in the optimization process. Given a three-dimensional model and its 6DoF posture, the differentiable renderer can output a two-dimensional image taken at that posture. Optimization can be performed in a direction where the output two-dimensional image matches the two-dimensional image input to the combination estimation unit 50.

이 과정을 통하여, 상기 결합관계를 삼차원에서 추론할 수 있다. 다시 말하면, 두 이차원 이미지가 메칭된 후에, 체결부재의 결합위치를 삼차원 모델에서 추론할 수 있다. 상기 삼차원 모델의 6DoF정보가 보존되어 있기 때문이다. Through this process, the coupling relationship can be inferred in three dimensions. In other words, after the two two-dimensional images are matched, the joining position of the fastening member can be inferred from the three-dimensional model. This is because the 6DoF information of the three-dimensional model is preserved.

도 9는 상기 미분가능한 렌더러에서 출력된 이차원 이미지와 상기 결합추정부에서 출력된 이차원 이미지를 일치시키는 과정을 보이고 있다. 도 9는 픽셀단위의 L2거리를 이용하여 최적화를 수행하는 것을 나타낸다. 도 10은 삼차원 모델의 6DoF를 예시하는 도면이다. Figure 9 shows the process of matching the two-dimensional image output from the differentiable renderer and the two-dimensional image output from the combination estimation unit. Figure 9 shows optimization performed using the L2 distance in pixel units. Figure 10 is a diagram illustrating 6DoF of a three-dimensional model.

상기 과정을 통하여 이차원 모델로 설명되는 조립설명서는 삼차원 모델에 의해서 인식될 수 있다. 인식된 삼차원 결합추정은, 상기 조립계획검증모듈(2)에서 검증될 수 있다. 최종적으로는, 상기 조립계획시각화모듈(3)에서 시각화과정을 거쳐서 최종적으로 조립계획의 정확도를 확인될 수 있다. 이후에는 STEP등와 같은 범용의 파일을 이용하여 로봇이 인식가능한 전자파일로 출력될 수 있다. Through the above process, the assembly instructions described as a two-dimensional model can be recognized as a three-dimensional model. The recognized three-dimensional joint estimation can be verified in the assembly plan verification module 2. Finally, the accuracy of the assembly plan can be confirmed through a visualization process in the assembly plan visualization module 3. Afterwards, it can be output as an electronic file that the robot can recognize using a general-purpose file such as STEP.

상기 전자파일은 같은 조립품목에 대해서는 어느 로봇이라도 동일하게 조립작업을 수행할 수 있는 자료가 될 수 있다. The electronic file can be used as data that allows any robot to perform the same assembly work on the same assembly item.

본 발명에 따르면, 상기 학습되지 않은 새로운 부품(예를 들어, 중간조립물 등)에 대해서도 형상의 유사도를 바탕으로 하여, 이차원-삼차원 매칭 알고리즘을 이용해 구조품의 종류를 인식할 수 있다. According to the present invention, even for new parts (for example, intermediate assemblies, etc.) that have not been learned, the type of structure can be recognized using a two-dimensional-three-dimensional matching algorithm based on shape similarity.

본 발명에 따르면, 픽셀 간 차이를 이용해 최적화하는 자세 추정 알고리즘을 통하여 6DoF 자세추정이 학습되지 않은 물체에 대해서 동작이 가능하다.According to the present invention, it is possible to operate on objects for which 6DoF pose estimation has not been learned through a pose estimation algorithm that optimizes using differences between pixels.

본 발명에 따르면, 로봇을 위한 부품조립계획을 편리하게 제공할 수 있다. According to the present invention, a parts assembly plan for a robot can be conveniently provided.

1 : 조립설명서인식모듈
2 : 조립계획검증모듈
3 : 조립계획시각화모듈
10 : 조립인식부
20 : 문자인식부
30 : 구조부품종류인식부
40 : 체결부품행동인식부
50 : 구조부품과 체결부품의 결합추정부
60 : 삼차원결합위치추론부
1: Assembly manual recognition module
2: Assembly plan verification module
3: Assembly plan visualization module
10: Assembly recognition unit
20: Character recognition unit
30: Structural part type recognition unit
40: Fastening part behavior recognition unit
50: Combined estimation unit of structural parts and fastening parts
60: Three-dimensional combined position inference unit

Claims (10)

조립설명서를 인식하는 조립설명서인식모듈;
상기 조립설명서인식모듈에서 인식된 정보를 이용하여 조립계획을 수립하고 검증하는 조립계획검증모듈; 및
상기 조립계획을 시각정보로 제공할 수 있는 조립계획시각화모듈을 포함하고,
상기 조립설명서인식모듈에는,
상기 조립설명서로부터 조립되는 구조부품의 이차원 모델을 인식하는 조립인식부;
상기 조립인식부에서 인식된 구조부품의 이차원 모델과 유사한 형태의 구조부품의 삼차원 모델을 인식하여 상기 구조부품의 종류를 인식하는 구조부품종류인식부;
상기 조립설명서에 제시되는 문자를 인식하고 상기 문자를 통하여 적어도 체결부품을 인식하고, 상기 조립설명서의 페이지 순서에 따른 조립 순열을 파악하는 문자인식부;
상기 문자인식부에서 인식된 체결부품의 행동 및 체결도구와 체결방향을 인식하는 체결부품행동인식부;
상기 구조부품종류인식부에서 인식된 상기 구조부품, 상기 문자인식부에서 인식된 상기 체결부품 및 조립 순열, 상기 체결부품행동인식부에서 인식된 상기 체결부품의 행동 및 체결도구와 체결방향을 이용하여 상기 체결부품과 상기 구조부품의 이차원 결합위치를 추정하는 결합추정부; 및
상기 체결부품이 결합되는 상기 구조부품의 삼차원 결합위치를 추론하는 결합위치추론부를 포함하고,
상기 구조부품종류인식부는 제 3 학습모델이 제공되고,
상기 제 3 학습모델에는,
상기 구조부품의 삼차원 모델의 특징을 추출하기 위해 3D 컨볼루션 네트워크로 구성된 삼차원 특징 추출부;
상기 구조부품의 삼차원 모델의 이차원 이미지로부터 특징을 추출하기 위해 2D 컨볼루션 네트워크로 구성된 이차원 특징 추출부; 및
상기 삼차원 특징 추출부와 상기 이차원 특징 추출부를 이용하여 학습하는 학습부가 포함되고,
상기 학습부는, 어느 하나의 구조부품에 대하여 상기 삼차원 특징 추출부에서 추출된 특징은, 같은 구조부품의 이차원 특징 추출부에서 추출된 특징과는 거리가 유사해지도록 학습하고, 상기 어느 하나의 구조부품에 대하여 삼차원 특징 추출부에서 추출된 특징이, 다른 구조부품의 이차원 특징 추출부에서 추출된 특징과 거리가 멀어지도록 학습하고,
상기 학습부는, 학습을 위한 손실함수로 삼중항 손실(Triplet Loss)을 사용하고,
상기 조립인식부에는, 상기 구조부품이 포함되는 조립영역을 검출하는 조립영역검출부; 및 상기 조립영역 내에서 상기 구조부품을 인식하기 위하여, 상기 조립영역을 분할하고, 각 구조부품의 영역을 검출하는 구조부품인식부가 포함되고,
상기 구조부품인식부는 상기 구조부품을 이미지로 인식하는,
부품조립계획장치.
Assembly instruction recognition module that recognizes assembly instructions;
an assembly plan verification module that establishes and verifies an assembly plan using information recognized by the assembly instruction recognition module; and
Includes an assembly plan visualization module capable of providing the assembly plan as visual information,
In the assembly manual recognition module,
an assembly recognition unit that recognizes a two-dimensional model of the structural part to be assembled from the assembly instructions;
a structural part type recognition unit that recognizes the type of the structural part by recognizing a three-dimensional model of the structural part with a similar shape to the two-dimensional model of the structural part recognized by the assembly recognition unit;
a character recognition unit that recognizes characters presented in the assembly instructions, recognizes at least fastening parts through the characters, and determines an assembly sequence according to the page order of the assembly instructions;
a fastening part behavior recognition unit that recognizes the behavior of the fastening part recognized by the character recognition unit, the fastening tool, and the fastening direction;
Using the structural part recognized by the structural part type recognition unit, the fastening part and assembly sequence recognized by the character recognition unit, the behavior of the fastening part recognized by the fastening part behavior recognition unit, the fastening tool, and the fastening direction a coupling estimation unit that estimates a two-dimensional coupling position of the fastening part and the structural part; and
It includes a coupling position inference unit that infers a three-dimensional coupling position of the structural part to which the fastening part is coupled,
The structural part type recognition unit is provided with a third learning model,
In the third learning model,
a three-dimensional feature extraction unit composed of a 3D convolutional network to extract features of the three-dimensional model of the structural part;
a two-dimensional feature extraction unit composed of a 2D convolutional network to extract features from a two-dimensional image of the three-dimensional model of the structural part; and
A learning unit that learns using the three-dimensional feature extraction unit and the two-dimensional feature extraction unit is included,
The learning unit learns the features extracted from the three-dimensional feature extraction unit for one structural part to have a similar distance to the features extracted from the two-dimensional feature extracting unit for the same structural part, and For this, the features extracted from the three-dimensional feature extraction unit are learned to be distant from the features extracted from the two-dimensional feature extraction unit of other structural parts,
The learning unit uses triplet loss as a loss function for learning,
The assembly recognition unit includes an assembly area detection unit that detects an assembly area including the structural part; and a structural part recognition unit that divides the assembly area and detects the area of each structural part in order to recognize the structural part within the assembly area,
The structural part recognition unit recognizes the structural part as an image,
Part assembly planning device.
제 1 항에 있어서,
상기 조립설명서는 이차원 정보로 제공되고, 상기 결합위치추론부에는 삼차원 정보가 제공되는 부품조립계획장치.
According to claim 1,
A parts assembly planning device in which the assembly instructions are provided as two-dimensional information, and the combination position inference unit is provided with three-dimensional information.
삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 문자인식부에는,
문자가 포함되는 문자영역을 인식하는 문자영역인식부; 및
상기 문자영역에서 문자를 추론하는 문자추론부가 포함되는 부품조립계획장치.
According to claim 1,
In the character recognition unit,
A text area recognition unit that recognizes a text area containing characters; and
A parts assembly planning device including a character inference unit that infers characters from the character area.
삭제delete 제 1 항에 있어서,
상기 결합추정부에는,
상기 체결부품의 결합축 방향을 검출하는 축방향검출부; 및
상기 결합축 방향을 연장하고 그 연장선이 상기 구조부품과 만나는 지점을 인식하는 결합위치인식부를 포함하는 부품조립계획장치.
According to claim 1,
In the combined estimation unit,
An axial direction detection unit that detects the direction of the coupling axis of the fastening part; and
A parts assembly planning device comprising a coupling position recognition unit that extends the coupling axis direction and recognizes a point where the extension line meets the structural part.
제 1 항에 있어서,
상기 결합추정부는, 상기 구조부품의 이차원 모델에 대한 상기 결합위치를 제공하는 부품조립계획장치.
According to claim 1,
A parts assembly planning device wherein the coupling estimation unit provides the coupling position with respect to a two-dimensional model of the structural part.
제 9 항에 있어서,
상기 결합위치추론부는, 상기 구조부품의 삼차원 모델의 6DoF자세를 조절하여, 상기 구조부품의 이차원 모델과 일치하는 상기 6DoF자세를 구하고, 상기 결합위치를 상기 구조부품의 삼차원 모델 상에서 추론하는 부품조립계획장치.

According to clause 9,
The coupling position inference unit adjusts the 6DoF posture of the three-dimensional model of the structural part, obtains the 6DoF posture matching the two-dimensional model of the structural part, and infers the coupling position on the three-dimensional model of the structural part. Device.

KR1020210072886A 2021-06-04 2021-06-04 Components fabrication scheduling apparatus KR102647402B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210072886A KR102647402B1 (en) 2021-06-04 2021-06-04 Components fabrication scheduling apparatus
PCT/KR2022/000032 WO2022255582A1 (en) 2021-06-04 2022-01-03 Component assembly planning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210072886A KR102647402B1 (en) 2021-06-04 2021-06-04 Components fabrication scheduling apparatus

Publications (2)

Publication Number Publication Date
KR20220164853A KR20220164853A (en) 2022-12-14
KR102647402B1 true KR102647402B1 (en) 2024-03-15

Family

ID=84323343

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210072886A KR102647402B1 (en) 2021-06-04 2021-06-04 Components fabrication scheduling apparatus

Country Status (2)

Country Link
KR (1) KR102647402B1 (en)
WO (1) WO2022255582A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4765357B2 (en) * 2005-03-22 2011-09-07 大日本印刷株式会社 Parts assembly work support system
KR20120042440A (en) * 2010-10-25 2012-05-03 한국전자통신연구원 Apparatus and method for visualizing assembly process
KR20130116516A (en) 2012-04-16 2013-10-24 주식회사 필룩스 The bottle for ecosystem observing

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Hang Su, et al., "Multi-view Convolutional Neural Networks for 3D Shape Recognition", ICCV 2015, pp. 945-953(2015.09.27. 공개) < URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=7410471>*
Zaiyang Yu, et al., "2D3D-MatchNet: Learning to Match Keypoints Across 2D Image and 3D Point Cloud",(2019.4.22. 공개) <URL: https://arxiv.org/pdf/1904.09742.pdf>*
비특허문헌 1(로봇과 인간 18(1), 2021.1)*

Also Published As

Publication number Publication date
KR20220164853A (en) 2022-12-14
WO2022255582A1 (en) 2022-12-08

Similar Documents

Publication Publication Date Title
US20200302241A1 (en) Techniques for training machine learning
Ogawara et al. Extraction of essential interactions through multiple observations of human demonstrations
Wan et al. Teaching robots to do object assembly using multi-modal 3d vision
US20210383096A1 (en) Techniques for training machine learning
CN105069413A (en) Human body gesture identification method based on depth convolution neural network
Wang et al. DemoGrasp: Few-shot learning for robotic grasping with human demonstration
Castaman et al. RUR53: an unmanned ground vehicle for navigation, recognition, and manipulation
KR20220065234A (en) Apparatus and method for estimating of 6d pose
Amrutha et al. Human Body Pose Estimation and Applications
Amaliya et al. Study on hand keypoint framework for sign language recognition
Cortés et al. Cooperative pose estimation of a fleet of robots based on interactive points alignment
CN116385660A (en) Indoor single view scene semantic reconstruction method and system
KR102419011B1 (en) Object recognition from images using conventional CAD models
KR102647402B1 (en) Components fabrication scheduling apparatus
Sabbaghi et al. Learning of gestures by imitation using a monocular vision system on a humanoid robot
CN115620016B (en) Skeleton detection model construction method and image data identification method
Alizadeh et al. Robot programming by demonstration of multiple tasks within a common environment
Chang et al. Multi-view 3d human pose estimation with self-supervised learning
Metzner et al. Virtual training and commissioning of industrial bin picking systems using synthetic sensor data and simulation
Wang et al. Probabilistic graph based spatial assembly relation inference for programming of assembly task by demonstration
Arbeiter et al. Towards geometric mapping for semi-autonomous mobile robots
Kim et al. Gvcci: Lifelong learning of visual grounding for language-guided robotic manipulation
Gu et al. Automated assembly skill acquisition through human demonstration
Chang et al. A Decision Tree based Real-time Hand Gesture Recognition Method using Kinect
Rahman et al. Intelligent system for Islamic prayer (salat) posture monitoring

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)