KR20230108905A - Method of automatically write block shape and dimension information for robot OLP - Google Patents

Method of automatically write block shape and dimension information for robot OLP Download PDF

Info

Publication number
KR20230108905A
KR20230108905A KR1020220004585A KR20220004585A KR20230108905A KR 20230108905 A KR20230108905 A KR 20230108905A KR 1020220004585 A KR1020220004585 A KR 1020220004585A KR 20220004585 A KR20220004585 A KR 20220004585A KR 20230108905 A KR20230108905 A KR 20230108905A
Authority
KR
South Korea
Prior art keywords
information
shape
olp
robot
work object
Prior art date
Application number
KR1020220004585A
Other languages
Korean (ko)
Inventor
안희성
Original Assignee
한화오션 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화오션 주식회사 filed Critical 한화오션 주식회사
Priority to KR1020220004585A priority Critical patent/KR20230108905A/en
Publication of KR20230108905A publication Critical patent/KR20230108905A/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4093Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by part programming, e.g. entry of geometrical information as taken from a technical drawing, combining this with machining and material information to obtain control information, named part programme, for the NC machine
    • G05B19/40931Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by part programming, e.g. entry of geometrical information as taken from a technical drawing, combining this with machining and material information to obtain control information, named part programme, for the NC machine concerning programming of geometry
    • G05B19/40935Selection of predetermined shapes and defining the dimensions with parameter input
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Manufacturing & Machinery (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Geometry (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Numerical Control (AREA)

Abstract

3차원 영상입력장치를 통해 획득한 작업 대상물인 블록(U-cell)의 사진 정보를 딥러닝으로 학습하여 형상 정보를 생성하고, 형상의 특징점에 대한 좌표 정보를 이용하여 치수 정보를 생성한 후 생성한 형상 정보 및 치수 정보를 로봇 OLP(Off-Line Programming)에 자동으로 기입할 수 있도록 한 로봇 OLP를 위한 블록 형상 및 치수 정보 자동 기입방법에 관한 것으로서, 3차원 영상입력장치를 이용하여 작업 대상물의 영상 정보를 획득하고, 획득한 영상 정보에서 형상 정보 생성을 위한 학습 데이터를 추출하고, 추출한 학습 데이터를 딥러닝으로 학습하여 형상정보를 생성하며, 작업 대상물의 영상 정보에서 위치 정보인 특징점 좌표를 추출하고, 추출한 위치 정보를 기초로 용접선 부위의 치수 정보를 생성하고, 생성한 작업 대상물의 형상 정보 및 치수 정보를 OLP에 자동으로 기입하여, 사용자가 교시 조작기 등을 이용하여 로봇 OLP에 블록 정보를 수동으로 입력하는 것을 최소화하여 휴먼 에러(Human Error)를 줄인다.The shape information is created by learning the photo information of the block (U-cell), which is the work object acquired through the 3D image input device, by deep learning, and the dimension information is created using the coordinate information of the feature points of the shape. It relates to a method for automatically writing block shape and dimension information for a robot OLP that enables automatic writing of shape information and dimension information into robot OLP (Off-Line Programming), Acquiring image information, extracting learning data for shape information generation from the acquired image information, generating shape information by learning the extracted learning data through deep learning, and extracting feature point coordinates, which are location information, from image information of a work object and, based on the extracted location information, generate dimension information of the weld line, automatically write the shape information and dimension information of the created work object into the OLP, and allow the user to manually transfer the block information to the robot OLP using a teaching manipulator or the like. Reduce human error by minimizing input with .

Description

로봇 OLP를 위한 블록 형상 및 치수 정보 자동 기입방법{Method of automatically write block shape and dimension information for robot OLP}Method of automatically write block shape and dimension information for robot OLP {Method of automatically write block shape and dimension information for robot OLP}

본 발명은 로봇 OLP를 위한 블록 형상 및 치수 정보 자동 기입방법에 관한 것으로, 특히 3차원 영상입력장치를 통해 획득한 작업 대상물인 블록(U-cell)의 사진 정보를 딥러닝으로 학습하여 형상 정보를 생성하고, 형상의 특징점에 대한 좌표 정보를 이용하여 치수 정보를 생성한 후 생성한 형상 정보 및 치수 정보를 로봇 OLP(Off-Line Programming)에 자동으로 기입할 수 있도록 한 로봇 OLP를 위한 블록 형상 및 치수 정보 자동 기입방법에 관한 것이다.The present invention relates to a method for automatically writing block shape and dimension information for a robot OLP. In particular, shape information is obtained by learning photo information of a block (U-cell), which is a work object, obtained through a 3D image input device by deep learning. block shape for robot OLP, which can be automatically written into robot OLP (Off-Line Programming) after creating dimension information using coordinate information on feature points It relates to a method of automatically entering dimension information.

조선 분야에서 생산의 대부분을 차지하는 용접 작업은 주로 직선 위주의 용접 구간으로 이루어지나 최근 복잡한 선체 구조의 물량이 늘어나면서 이를 자동으로 용접하기 위한 새로운 기술들이 요구되고 있다. Welding work, which accounts for most of the production in the shipbuilding field, is mainly performed in straight-line welding sections, but as the volume of complex hull structures increases recently, new technologies for automatic welding are required.

특히, 로봇으로 이중 선체나 곡 블록(U-cell)을 자동 용접하는 경우 대략 9개 정도의 타입으로 분류할 수 있으나, 공장 상황에 따라 도면 정보를 로봇(로봇 OLP)에게 제공해야 한다.In particular, in the case of automatically welding a double hull or curved block (U-cell) with a robot, it can be classified into about 9 types, but drawing information must be provided to the robot (robot OLP) according to the factory situation.

로봇 OLP에 블록 정보(형상 정보, 치수 정보)를 제공해주는 방법으로는, CAD 정보로부터 생성한 치수 정보, 또는 사용자가 도면 또는 실물을 측정하여 생성한 블록 정보를 작업자가 교시 조작기를 통하여 입력하는 것이다.As a method of providing block information (shape information, dimension information) to the robot OLP, an operator inputs dimension information generated from CAD information or block information generated by a user measuring a drawing or real object through a teaching manipulator. .

이 경우 CAD 정보의 불일치, 사용자의 실수에 의해 정확한 용접선을 찾지 못하는 경우가 발생할 수 있으며, 이는 결과적으로 용접 작업 불량을 유발할 수 있다.In this case, a case in which an accurate welding line may not be found due to a mismatch of CAD information or a user's mistake may occur, which may result in a welding operation defect.

따라서 작업자가 직접 도면 또는 실물 측정을 통해 블록 정보를 생성할 때 용접선의 부정확한 추적으로 인한 정보의 부정확성 문제를 해결하고, 교시 조작기 등을 이용하여 블록 정보를 수동으로 입력하는 작업을 최소화하여 휴면 에러를 줄일 수 있는 방법이 필요하다.Therefore, when a worker creates block information through drawing or physical measurement, it solves the problem of inaccuracy of information due to inaccurate tracking of welding lines and minimizes the work of manually inputting block information using a teaching manipulator, etc., resulting in dormant errors. We need a way to reduce

대한민국 등록특허 10-2127951(2020.06.23. 등록)(다중 프로세스 기반의 실시간 용접로봇 제어 시스템 및 그 제어방법)Korean Registered Patent No. 10-2127951 (registered on June 23, 2020) (multi-process based real-time welding robot control system and its control method) 대한민국 공개특허 10-2017-0142379(2017.12.28. 공개)(영상처리를 이용한 용접로봇의 용접선 인식장치)Republic of Korea Patent Publication 10-2017-0142379 (published on December 28, 2017) (welding line recognition device for welding robot using image processing)

따라서 본 발명은 상기와 같은 곡 블록 정보를 로봇 OLP에 입력할 때 발생하는 제반 문제점을 해결하기 위해서 제안된 것으로서, 3차원 영상입력장치를 통해 획득한 작업 대상물인 블록(U-cell)의 사진 정보를 딥러닝으로 학습하여 형상 정보를 생성하고, 형상의 특징점에 대한 좌표 정보를 이용하여 치수 정보를 생성한 후 생성한 형상 정보 및 치수 정보를 로봇 OLP(Off-Line Programming)에 자동으로 기입할 수 있도록 한 로봇 OLP를 위한 블록 형상 및 치수 정보 자동 기입방법을 제공하는 데 그 목적이 있다.Therefore, the present invention is proposed to solve various problems that occur when the above song block information is input to the robot OLP, and the photo information of the block (U-cell), which is a work object, obtained through a 3D image input device. After learning by deep learning to create shape information, and using coordinate information for feature points of the shape to create dimension information, the created shape and dimension information can be automatically written into the robot OLP (Off-Line Programming). The purpose of this study is to provide a method for automatically writing block shape and dimension information for a robot OLP.

상기한 바와 같은 목적을 달성하기 위하여, 본 발명에 따른 "로봇 OLP를 위한 블록 형상 및 치수 정보 자동 기입방법"은,In order to achieve the above object, the "method for automatically writing block shape and dimension information for robot OLP" according to the present invention,

(a) 3차원 영상입력장치를 이용하여 작업 대상물의 영상 정보를 획득하는 단계;(a) acquiring image information of a work object using a 3D image input device;

(b) 상기 획득한 영상 정보에서 형상 정보 생성을 위한 학습 데이터를 추출하고, 학습 데이터를 딥러닝으로 학습하여 형상정보를 생성하는 단계;(b) extracting learning data for generating shape information from the acquired image information and generating shape information by learning the learning data through deep learning;

(c) 상기 작업 대상물의 영상 정보에서 위치 정보인 특징점 좌표를 추출하고, 추출한 위치 정보를 기초로 용접선 부위의 치수 정보를 생성하는 단계; 및(c) extracting coordinates of feature points, which are location information, from the image information of the work object, and generating dimensional information of a weld line based on the extracted location information; and

(d) 상기 생성한 작업 대상물의 형상 정보 및 치수 정보를 OLP에 자동으로 기입하는 단계를 포함하는 것을 특징으로 한다.(d) automatically writing the generated shape information and dimension information of the work object into the OLP.

상기에서 (a)단계는 3차원 비전 카메라 또는 3차원 스캐너를 이용하여 작업 대상물의 영상 정보를 획득하는 것을 특징으로 한다.Step (a) above is characterized in that image information of the work object is obtained using a 3D vision camera or a 3D scanner.

상기에서 (b)단계는,In the above step (b),

상기 획득한 작업 대상물의 영상 정보를 영상 분류(Image Classification) 기법을 적용하여 형상 정보를 추출하는 것을 특징으로 한다.It is characterized in that shape information is extracted by applying an image classification technique to the obtained image information of the work object.

상기에서 (b)단계는,In the above step (b),

상기 추출한 형상 정보를 학습데이터로 설정하고, 설정한 학습 데이터를 딥러닝으로 학습하여 형상 정보를 생성하는 것을 특징으로 한다.It is characterized in that the extracted shape information is set as learning data, and shape information is generated by learning the set learning data by deep learning.

상기에서 (c)단계는,In the above step (c),

3차원 카메라를 이용하여 작업 대상물의 형상에 대한 특징점을 추출하고, 추출한 특징점의 좌표를 획득하는 것을 특징으로 한다.Characterized in that feature points of the shape of the work object are extracted using a 3D camera, and coordinates of the extracted feature points are acquired.

상기에서 (c)단계는,In the above step (c),

획득한 특징점의 좌표를 위치정보로 하여 각 용접선 부위의 론지(Longi) 폭, 론지 높이, 플랜지 폭, 플랜지 두께, 스캘럽 높이, 트랜스(Trans) 두께, 스캘럽 크기 중 적어도 어느 하나 이상을 포함하는 형상의 길이를 계산하여 치수 정보를 생성하는 것을 특징으로 한다.Using the coordinates of the acquired feature points as location information, the shape including at least one of Longi width, Longi height, flange width, flange thickness, scallop height, trans thickness, and scallop size of each weld line part It is characterized in that the dimension information is generated by calculating the length.

본 발명에 따르면 작업 대상물인 블록(U-cell)의 영상 정보를 딥러닝으로 학습하여 형상 정보를 생성하고, 형상의 특징점에 대한 좌표 정보를 이용하여 치수 정보를 생성한 후 생성한 형상 정보 및 치수 정보를 로봇 OLP(Off-Line Programming)에 자동으로 기입함으로써, 사용자가 교시 조작기 등을 이용하여 로봇 OLP에 블록 정보를 수동으로 입력하는 것을 최소화하여 휴먼 에러(Human Error)를 줄일 수 있는 효과가 있다.According to the present invention, shape information is generated by learning image information of a block (U-cell), which is a work object, by deep learning, and dimension information is generated using coordinate information of feature points of the shape, and then the generated shape information and dimensions By automatically writing information into the robot OLP (Off-Line Programming), there is an effect of reducing human errors by minimizing the user's manual input of block information into the robot OLP using a teaching manipulator, etc. .

또한, 블록 형상 정보 및 치수 정보를 자동으로 생성함으로써, CAD 정보의 불일치 문제, 사용자의 실수에 의해 정확한 용접선을 찾지 못하는 문제도 해결할 수 있는 효과가 있다.In addition, by automatically generating block shape information and dimension information, there is an effect of solving the problem of inconsistency of CAD information and the problem of not finding an accurate welding line due to user's mistake.

도 1은 본 발명이 적용되는 용접 로봇 제어 시스템의 개략 구성도,
도 2는 본 발명에 따른 로봇 OLP를 위한 블록 형상 및 치수 정보 자동 기입방법을 보인 흐름도,
도 3은 본 발명에서 딥러닝으로 블록 형성정보를 생성하는 예시도,
도 4는 본 발명에서 블록 치수 정보를 생성하는 예시도,
도 5는 본 발명에서 생성한 블록 형상 정보 및 치수 정보를 로봇 OLP에 자동 기입하는 예시 도이다.
1 is a schematic configuration diagram of a welding robot control system to which the present invention is applied;
2 is a flowchart showing a method of automatically writing block shape and dimension information for a robot OLP according to the present invention;
3 is an example of generating block formation information by deep learning in the present invention;
4 is an exemplary view of generating block dimension information in the present invention;
5 is an exemplary view of automatically writing block shape information and dimension information generated in the present invention into a robot OLP.

이하 본 발명의 바람직한 실시 예에 따른 로봇 OLP를 위한 블록 형상 및 치수 정보 자동 기입방법을 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, a method of automatically writing block shape and dimension information for a robot OLP according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

이하에서 설명되는 본 발명에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 안 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.The terms or words used in the present invention described below should not be construed as being limited to a conventional or dictionary meaning, and the inventor may appropriately define the concept of the term in order to explain his/her invention in the best way. It should be interpreted as a meaning and concept consistent with the technical spirit of the present invention based on the principle that it can be.

따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 바람직한 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원 시점에서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in this specification and the configurations shown in the drawings are only preferred embodiments of the present invention, and do not represent all of the technical spirit of the present invention, so various equivalents and equivalents that can replace them at the time of the present application It should be understood that variations may exist.

도 1은 본 발명이 적용되는 용접 로봇 제어시스템의 개략 구성도이다.1 is a schematic configuration diagram of a welding robot control system to which the present invention is applied.

이에 도시된 바와 같이, CPU 및 네트워크 카드 등으로 구성되어 OLP 서버(1) 및 모니터 PC(2)와 네트워크로 연결되어 사용자의 용접로봇 제어명령을 입력받아 용접 로봇을 제어하기 위한 상위 로봇 제어기(3)와, 시스템 I/O 모듈, 서보 드라이버로 구성되어 상기 상위 로봇 제어기(3)와 연결되어 상위 제어기(3)의 제어에 의해 다관절 용접 로봇(8)을 제어하고 용접 로봇 제어상태정보를 상위 제어기(3)로 통신하는 하위 제어기(4)로 구성된 로봇 제어기(5)를 포함한다.As shown in this, it is composed of a CPU and a network card, and is connected to the OLP server 1 and the monitor PC 2 through a network to receive a user's welding robot control command and control the welding robot (3). ), a system I/O module, and a servo driver, and is connected to the upper robot controller 3 to control the multi-joint welding robot 8 under the control of the upper controller 3 and transfer the control status information of the welding robot to the upper level. It includes a robot controller (5) consisting of a lower controller (4) communicating with the controller (3).

여기서 상위 제어기(3)와 하위 제어기(4), 그리고 하위 제어기(4)의 각각의 모듈들은 네트워크로 연결된다.Here, the upper controller 3, the lower controller 4, and each module of the lower controller 4 are connected through a network.

상위 제어기(3)와 교시조작기는 이더넷(Ethernet)으로 연결되어 사용자의 입력을 받게 된다. The upper controller 3 and the teaching manipulator are connected through Ethernet and receive user input.

또한, 용접작업에 필요한 OLP 데이터는 전산망을 통해 별도의 OLP 서버(1)를 통해 공급받게 되고 로봇의 운용상태를 모니터링 PC(2)를 통해서 사무실의 PC에서 확인할 수 있도록 구성되어 진다.In addition, OLP data required for welding work is supplied through a separate OLP server (1) through a computer network, and the operation status of the robot is configured to be checked on an office PC through a monitoring PC (2).

하위 제어기(4)는 용접기(7), 터치 센서(6) 및 다관절 용접 로봇(8)과 연결되며 용접기(7)로 용접지령을 전달하며, 다관절 용접 로봇(7)으로는 동작명령을 전달하게 된다.The lower controller 4 is connected to the welding machine 7, the touch sensor 6, and the articulated welding robot 8, transmits a welding command to the welder 7, and sends an operation command to the articulated welding robot 7. will be conveyed

용접 작업에 필요하며 로봇 제어를 위한 OLP 데이터는 도 2와 같은 방식으로 자동 생성된다.OLP data required for welding and for robot control are automatically generated in the same manner as shown in FIG. 2 .

이렇게 생성되는 OLP 데이터는 도 2와 같은 알고리즘을 이용하면, 상위 제어기, 하위 제어기, OLP 서버, 모니터 PC, 로봇 등 어느 부분에서든 생성할 수 있다.The OLP data generated in this way can be generated in any part, such as an upper controller, a lower controller, an OLP server, a monitor PC, or a robot, by using the algorithm shown in FIG. 2 .

따라서 본 발명의 로봇 OLP를 위한 블록 형상 및 치수 정보 자동 기입방법은 용접로봇 제어시스템을 구현하는 어느 부분에서든지 구현할 수 있으며, 본 발명에서는 특별히 어느 한 부분으로 한정하여 설명하지는 않는다. 용접로봇 제어 시스템을 운영하는 운영자에 의해 최적화된 부분에서 OLP 데이터를 생성할 수 있다.Therefore, the method of automatically writing block shape and dimension information for the robot OLP of the present invention can be implemented in any part that implements the welding robot control system, and is not specifically limited to any part in the present invention. OLP data can be created in the optimized part by the operator who operates the welding robot control system.

도 2는 본 발명에 따른 "로봇 OLP를 위한 블록 형상 및 치수 정보 자동 기입방법"을 보인 흐름도로서, (a) 3차원 영상입력장치를 이용하여 작업 대상물의 영상 정보를 획득하는 단계(S10), (b) 상기 획득한 영상 정보에서 형상 정보 생성을 위한 학습 데이터를 추출하고, 학습 데이터를 딥러닝(Deep Learning)으로 학습하여 형상정보를 생성하는 단계(S20 - S40), (c) 상기 작업 대상물의 영상 정보에서 위치 정보인 특징점 좌표를 추출하고, 추출한 위치 정보를 기초로 용접선 부위의 치수 정보를 생성하는 단계(S50 - S60), 및 (d) 상기 생성한 작업 대상물의 형상 정보 및 치수 정보를 OLP에 자동으로 기입하는 단계(S70)를 포함할 수 있다.Figure 2 is a flowchart showing the "method for automatically writing block shape and dimension information for robot OLP" according to the present invention, (a) obtaining image information of a work object using a 3D image input device (S10); (b) extracting learning data for generating shape information from the acquired image information and generating shape information by learning the learning data through deep learning (S20 - S40); (c) the work object Extracting feature point coordinates, which are location information, from image information of and generating dimension information of the weld line based on the extracted location information (S50-S60), and (d) shape information and dimension information of the created work object. It may include automatically writing in the OLP (S70).

이와 같이 구성된 본 발명에 따른 "로봇 OLP를 위한 블록 형상 및 치수 정보 자동 기입방법"을 구체적으로 설명하면 다음과 같다.The detailed description of the "method for automatically writing block shape and dimension information for robot OLP" according to the present invention configured as described above is as follows.

먼저, 3차원 비전 카메라, 3차원 스캐너 등을 이용하여 작업 대상물(u-cell)의 촬영을 통해 작업 대상물의 영상 정보(사진 정보)를 획득한다(S10).First, image information (photo information) of the work object is obtained by photographing the work object (u-cell) using a 3D vision camera, a 3D scanner, etc. (S10).

여기서 작업 대상물에 대하여 다양한 각도에서 촬영을 하여 영상 정보를 획득하는 것이 바람직하다.Here, it is preferable to obtain image information by photographing the work object from various angles.

이어, 상기 획득한 영상 정보에서 형상 정보 생성을 위한 학습 데이터를 추출한다(S20). 즉, 획득한 작업 대상물의 영상 정보를 영상 분류(Image Classification) 기법을 적용하여 형상 정보를 추출한다(S20).Subsequently, learning data for generating shape information is extracted from the obtained image information (S20). That is, shape information is extracted by applying an image classification technique to the acquired image information of the work object (S20).

여기서 영상 분류는 각각의 픽셀의 특성을 분석하여 몇 개의 종류 중 하나로 묶어줌으로써 영상의 내용을 쉽게 이해할 수 있도록 하는 알려진 영상 분류 기법이다. 특별한 특성에 대한 정보의 범주를 포함하는 하나 또는 그 이상의 공간적인, 시각적인 분광대 주파수대의 관계들을 포함한 수치 영상의 수치 분석으로서, 영상 처리 분야에 이미 잘 알려진 기술이므로 그에 대한 구체적인 설명은 생략하기로 한다.Here, image classification is a known image classification technique that makes it easy to understand the content of an image by analyzing the characteristics of each pixel and grouping them into one of several types. As a numerical analysis of a numerical image including one or more spatial and visual spectral band and frequency band relationships including a category of information on a particular characteristic, it is a well-known technique in the image processing field, so a detailed description thereof will be omitted. do.

다음으로, 상기 추출한 형상 정보를 학습데이터로 설정하고, 딥러닝(Deep Learning) 알고리즘으로 학습하여 형상정보를 생성한다(S30 - S40).Next, the extracted shape information is set as learning data, and shape information is generated by learning with a deep learning algorithm (S30 to S40).

도 3은 추출한 형상 정보를 딥러닝 알고리즘인 CNN 알고리즘으로 학습을 하여 작업 대상물인 U-Cell의 형상 정보 데이터 즉, 우 수방, 스켈럽, 좌 수방, 스켈럽 등의 형상 데이터를 생성한 예시이다.3 is an example of generating shape information data of a U-Cell, that is, a right-hand room, a scallop, a left-hand room, or a scallop, by learning the extracted shape information with a CNN algorithm, which is a deep learning algorithm.

여기서 딥러닝 알고리즘의 하나인 CNN 알고리즘은 입력 이미지를 컨벌루션 레이어에서 분류 처리하여 영상 분류를 하고, 분류된 영상 정보를 Fully connected layer에서 처리하여 작업 대상물(U-Cell)의 형상 정보 데이터를 출력한다.Here, the CNN algorithm, which is one of the deep learning algorithms, classifies the input image in the convolutional layer to classify the image, processes the classified image information in the fully connected layer, and outputs the shape information data of the work object (U-Cell).

이러한 딥러닝 알고리즘을 이용하여 자동으로 작업 대상물의 형상 정보를 생성하게 된다.Using this deep learning algorithm, the shape information of the work object is automatically generated.

아울러, 상기 3차원 카메라 등으로 촬영한 작업 대상물의 영상 정보에서 위치 정보(Position)인 특징점 좌표를 추출하고, 추출한 위치 정보를 기초로 용접선 부위의 치수 정보를 자동으로 생성한다(S50 - S60).In addition, feature point coordinates, which are position information, are extracted from the image information of the work object captured by the 3D camera, etc., and dimensional information of the weld line is automatically generated based on the extracted position information (S50 to S60).

도 4는 3차원 카메라에 의해 촬영한 작업 대상물의 영상 정보에서 위치 정보를 기치로 특징점에 대한 좌표를 획득하고, 획득한 특징점의 좌표 정보를 이용하여 각 용접선 부위의 치수 정보를 계산하여 치수 정보를 생성한다. 여기서 형상에 대한 치수 정보는 론지(Longi) 폭, 론지 높이, 플랜지 폭, 플랜지 두께, 스캘럽 높이, 트랜스(Trans) 두께, 스켈럽 크기 중 적어도 어느 하나 이상을 포함하는 형상의 길이를 계산하여 치수 정보를 생성한다.4 obtains coordinates for feature points based on location information from image information of a work object photographed by a 3D camera, and calculates dimension information for each weld line using the obtained coordinate information of feature points to obtain dimension information. generate Here, the dimension information about the shape is dimensional information by calculating the length of the shape including at least one of Longi width, Longi height, flange width, flange thickness, scallop height, trans thickness, and scallop size. generate

이어, 상기 생성한 작업 대상물의 형상 정보 및 치수 정보를 OLP에 자동으로 기입한다(S70). 도 5는 생성한 형상 정보 및 치수 정보를 OLP에 자동 기입한 예시이다. 즉, 생성한 형상 정보는 형상 정보 기입란에 자동 삽입을 하고, 생성한 각각의 치수 정보는 치수 정보의 입력란에 자동으로 삽입을 한다. 이를 위해 OLP 데이터 시트의 항목 문자 인식 또는 위치 인식 등을 이용하여 기입란을 탐색하고, 탐색한 기입란에 정해진 생성한 치수 정보를 자동으로 기입 할 수 있다.Subsequently, the generated shape information and dimension information of the work object are automatically written in the OLP (S70). 5 is an example of automatically writing generated shape information and dimension information into an OLP. That is, the generated shape information is automatically inserted into the shape information entry field, and each generated dimension information is automatically inserted into the dimension information input field. To this end, it is possible to search for an entry field by using item character recognition or location recognition of an OLP data sheet, and automatically fill in dimension information determined and generated in the searched entry field.

이상 상술한 본 발명에 따르면 작업 대상물인 블록(U-cell)의 영상 정보를 딥러닝으로 학습하여 형상 정보를 생성하고, 형상의 특징점에 대한 좌표 정보를 이용하여 치수 정보를 생성한 후 생성한 형상 정보 및 치수 정보를 로봇 OLP(Off-Line Programming)에 자동으로 기입함으로써, 사용자가 교시 조작기 등을 이용하여 로봇 OLP에 블록 정보를 수동으로 입력하는 것을 최소화하여 휴먼 에러(Human Error)를 줄일 수 있다.According to the present invention described above, shape information is generated by learning image information of a block (U-cell), which is a work object, by deep learning, and dimension information is generated using coordinate information of feature points of the shape. By automatically writing information and dimension information into the robot OLP (Off-Line Programming), it is possible to reduce human errors by minimizing the need for a user to manually input block information into the robot OLP using a teaching manipulator or the like. .

또한, 블록 형상 정보 및 치수 정보를 자동으로 생성함으로써, CAD 정보의 불일치 문제, 사용자의 실수에 의해 정확한 용접선을 찾지 못하는 문제도 해결할 수 있다.In addition, by automatically generating block shape information and dimension information, it is possible to solve the problem of inconsistency of CAD information and the problem of not finding an accurate welding line due to user's mistake.

이상 본 발명자에 의해서 이루어진 발명을 상기 실시 예에 따라 구체적으로 설명하였지만, 본 발명은 상기 실시 예에 한정되는 것은 아니고 그 요지를 이탈하지 않는 범위에서 여러 가지로 변경 가능한 것은 이 기술분야에서 통상의 지식을 가진 자에게 자명하다.Although the invention made by the present inventors has been specifically described according to the above embodiments, the present invention is not limited to the above embodiments, and it is common knowledge in the art that various changes can be made without departing from the gist of the present invention. It is self-evident to those who have

1: OLP 서버
2: 모니터 PC
3: 상위 로봇 제어기
4: 하위 제어기
5: 로봇 제어기
6: 터치 센서
7: 용접기
8: 다관절 용접 로봇
1: OLP server
2: Monitor PC
3: Upper robot controller
4: Sub controller
5: Robot controller
6: touch sensor
7: Welder
8: articulated welding robot

Claims (6)

(a) 3차원 영상입력장치를 이용하여 작업 대상물의 영상 정보를 획득하는 단계;
(b) 상기 획득한 영상 정보에서 형상 정보 생성을 위한 학습 데이터를 추출하고, 추출한 학습 데이터를 딥러닝으로 학습하여 형상정보를 생성하는 단계;
(c) 상기 작업 대상물의 영상 정보에서 위치 정보인 특징점 좌표를 추출하고, 추출한 위치 정보를 기초로 용접선 부위의 치수 정보를 생성하는 단계; 및
(d) 상기 생성한 작업 대상물의 형상 정보 및 치수 정보를 OLP에 자동으로 기입하는 단계를 포함하는 것을 특징으로 하는 로봇 OLP를 위한 블록 형상 및 치수 정보 자동 기입방법.
(a) acquiring image information of a work object using a 3D image input device;
(b) extracting learning data for generating shape information from the obtained image information and generating shape information by learning the extracted learning data through deep learning;
(c) extracting coordinates of feature points, which are location information, from the image information of the work object, and generating dimensional information of a weld line based on the extracted location information; and
(d) Automatically writing block shape and dimension information for a robot OLP, comprising the step of automatically writing the generated shape information and dimension information of the work object into the OLP.
청구항 1에서, 상기 (a)단계는 3차원 비전 카메라 또는 3차원 스캐너를 이용하여 작업 대상물의 영상 정보를 획득하는 것을 특징으로 하는 로봇 OLP를 위한 블록 형상 및 치수 정보 자동 기입방법.
The method of claim 1, wherein the step (a) acquires image information of a work object using a 3D vision camera or a 3D scanner.
청구항 1에서, 상기 (b)단계는,
상기 획득한 작업 대상물의 영상 정보를 영상 분류(Image Classification) 기법을 적용하여 형상 정보를 추출하는 것을 특징으로 하는 로봇 OLP를 위한 블록 형상 및 치수 정보 자동 기입방법.
In claim 1, the step (b),
A method of automatically writing block shape and dimension information for a robot OLP, characterized in that for extracting shape information by applying an image classification technique to the obtained image information of the work object.
청구항 3에서, 상기 (b)단계는,
상기 추출한 형상 정보를 학습데이터로 설정하고, 설정한 학습 데이터를 딥러닝으로 학습하여 형상 정보를 생성하는 것을 특징으로 하는 로봇 OLP를 위한 블록 형상 및 치수 정보 자동 기입방법.
In claim 3, the step (b),
A method for automatically writing block shape and dimension information for a robot OLP, characterized in that the extracted shape information is set as learning data, and shape information is generated by learning the set learning data by deep learning.
청구항 1에서, 상기 (c)단계는,
3차원 카메라를 이용하여 작업 대상물의 형상에 대한 특징점을 추출하고, 추출한 특징점의 좌표를 획득하는 것을 특징으로 하는 로봇 OLP를 위한 블록 형상 및 치수 정보 자동 기입방법.
In claim 1, the step (c),
A method for automatically writing block shape and dimension information for a robot OLP, characterized by extracting feature points for the shape of a work object using a three-dimensional camera and acquiring coordinates of the extracted feature points.
청구항 5에서, 상기 (c)단계는,
획득한 특징점의 좌표를 위치정보로 하여 각 용접선 부위의 론지(Longi) 폭, 론지 높이, 플랜지 폭, 플랜지 두께, 스캘럽 높이, 트랜스(Trans) 두께, 스켈럽 크기 중 적어도 어느 하나 이상을 포함하는 형상의 길이를 계산하여 치수 정보를 생성하는 것을 특징으로 하는 로봇 OLP를 위한 블록 형상 및 치수 정보 자동 기입방법.




In claim 5, the step (c),
A shape including at least one of the Longi width, Longi height, flange width, flange thickness, scallop height, trans thickness, and scallop size of each weld line using the coordinates of the acquired feature points as location information A block shape and dimensional information automatic writing method for a robot OLP, characterized in that for generating dimensional information by calculating the length of.




KR1020220004585A 2022-01-12 2022-01-12 Method of automatically write block shape and dimension information for robot OLP KR20230108905A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220004585A KR20230108905A (en) 2022-01-12 2022-01-12 Method of automatically write block shape and dimension information for robot OLP

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220004585A KR20230108905A (en) 2022-01-12 2022-01-12 Method of automatically write block shape and dimension information for robot OLP

Publications (1)

Publication Number Publication Date
KR20230108905A true KR20230108905A (en) 2023-07-19

Family

ID=87425754

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220004585A KR20230108905A (en) 2022-01-12 2022-01-12 Method of automatically write block shape and dimension information for robot OLP

Country Status (1)

Country Link
KR (1) KR20230108905A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170142379A (en) 2016-06-17 2017-12-28 대우조선해양 주식회사 Apparatus for detect dimensional welding line of welding robot using image processing
KR102127951B1 (en) 2013-12-10 2020-06-29 대우조선해양 주식회사 Multi-Process Based Welding Robot Control System and it's method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102127951B1 (en) 2013-12-10 2020-06-29 대우조선해양 주식회사 Multi-Process Based Welding Robot Control System and it's method
KR20170142379A (en) 2016-06-17 2017-12-28 대우조선해양 주식회사 Apparatus for detect dimensional welding line of welding robot using image processing

Similar Documents

Publication Publication Date Title
US11741367B2 (en) Apparatus and method for image processing to calculate likelihood of image of target object detected from input image
CN108917593B (en) Intelligent measurement system and method based on element configuration of workpiece to be measured
US10430650B2 (en) Image processing system
CN110176078B (en) Method and device for labeling training set data
JP2021030407A (en) Information processing device, information processing method and program
KR102634535B1 (en) Method for recognizing touch teaching point of workpiece using point cloud analysis
US20230125022A1 (en) Picking system and method
JP2019057250A (en) Work-piece information processing system and work-piece recognition method
JP2018128897A (en) Detection method and detection program for detecting attitude and the like of object
US20190017815A1 (en) Deformation processing support system and deformation processing support method
DE102019124810A1 (en) Image processing device and image processing method
KR20210020065A (en) Systems and methods for finding and classifying patterns in images with vision systems
Prezas et al. AI-enhanced vision system for dispensing process monitoring and quality control in manufacturing of large parts
TWI694250B (en) Surface defect detection system and method thereof
KR20180076966A (en) Method for detecting workpiece welding line by welding robot
Sulaiman et al. DEFECT INSPECTION SYSTEM FOR SHAPE-BASED MATCHING USING TWO CAMERAS.
Rupanagudi et al. A novel automatic low cost cutting machine-cum-3D printer using an image processing based control
KR20230108905A (en) Method of automatically write block shape and dimension information for robot OLP
JP7209657B2 (en) Information processing device and method
US20170322537A1 (en) Processing Apparatus with Vision-Based Measurement
US20230405850A1 (en) Device for adjusting parameter, robot system, method, and computer program
US11559888B2 (en) Annotation device
KR20220085242A (en) Method of recognition of types and locations of instrument for machine tools
US20240144512A1 (en) Apparatus and method for measuring dimension
JP7376446B2 (en) Work analysis program and work analysis device