KR102268579B1 - Apparatus and method for controlling painting robot using motion pattern of painting worker - Google Patents

Apparatus and method for controlling painting robot using motion pattern of painting worker Download PDF

Info

Publication number
KR102268579B1
KR102268579B1 KR1020200029497A KR20200029497A KR102268579B1 KR 102268579 B1 KR102268579 B1 KR 102268579B1 KR 1020200029497 A KR1020200029497 A KR 1020200029497A KR 20200029497 A KR20200029497 A KR 20200029497A KR 102268579 B1 KR102268579 B1 KR 102268579B1
Authority
KR
South Korea
Prior art keywords
painting
data
worker
motion pattern
generating
Prior art date
Application number
KR1020200029497A
Other languages
Korean (ko)
Inventor
홍석무
이사랑
노은솔
Original Assignee
공주대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 공주대학교 산학협력단 filed Critical 공주대학교 산학협력단
Priority to KR1020200029497A priority Critical patent/KR102268579B1/en
Application granted granted Critical
Publication of KR102268579B1 publication Critical patent/KR102268579B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0075Manipulators for painting or coating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)

Abstract

Disclosed are an apparatus and a method for controlling a painting robot using a motion pattern of a painting worker. The method for controlling the painting robot comprises: a step of acquiring a two-dimensional depth image photographing the painting worker by using a depth camera; a step of converting the acquired two-dimensional depth image into a three-dimensional voxel image; a step of generating physical data of the painting worker by using the converted three-dimensional voxel image; a step of acquiring glove sensor data from a glove sensor worn by the painting worker; a step of generating hand data of the painting worker by using the acquired glove sensor data; a step of engaging the physical data with the hand data and generating motion data of the painting worker; a step of learning the motion pattern of the painting worker by using the generated motion data, and generating the motion pattern data by learning the motion pattern; and a step of controlling the painting robot by using the generated motion pattern data. The present invention aims to provide an apparatus and a method for controlling a painting robot using a motion pattern of a painting worker, which are able to lower the possibility of errors in a painting process.

Description

도장 작업자의 모션패턴을 이용한 도장로봇 제어 장치 및 방법{Apparatus and method for controlling painting robot using motion pattern of painting worker}Apparatus and method for controlling painting robot using motion pattern of painting worker

본 발명은 도장 작업자의 모션패턴을 이용한 도장로봇 제어 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for controlling a painting robot using a motion pattern of a painting worker.

일반적으로, 자동차의 생산 공정에서의 차체 도장 공정은 고도의 방청과 미관을 요구하기 때문에, 일반 도장과 비교할 때 복잡한 공정을 가지고 있으며, 방청을 주목적으로 한 전처리 및 전착 공정과, 미관을 목적으로 한 중도 및 상도 공정이 기본이다. 즉, 차체 도장 공정은 차체가 완성된 후, 차체의 부식을 방지하고, 방음과 함께 미관을 수려하게 하여 상품성을 높이기 위한 것이다.In general, since the car body painting process in the automobile production process requires a high degree of rust prevention and aesthetics, it has a complex process compared to general painting, Medium and top coat processes are basic. That is, the car body painting process is to prevent corrosion of the car body after the car body is completed, and to enhance the marketability by improving the aesthetics as well as sound insulation.

이러한 차체 도장 공정은 차체의 내판 및 외판에 부착되어 있는 오물이나 유지 분을 완전히 제거함과 동시에, 철판 면의 내식성 및 전착 도료와의 부착성을 좋게 하는 인산염 피막을 형성하는 전처리 공정을 진행한다. 그리고, 전처리 공정의 건조로를 통과한 차체를 전착 도료 중에 전몰시켜 외판은 물론 차체 내부까지 균일하게 전착 도료를 도장함으로서 방청과 표면광택의 인자가 되는 전착(하도) 공정 및 전착 건조 공정을 진행한다. 이어서, 이음부 등에 실러를 도포하는 과정을 거친 후, 도료의 내 치핑성, 평활성, 내후성 등을 갖게 하는 중도 공정 및 건로조 내에서 중도 도료의 건조를 이루는 중도 건조 공정을 진행한다. 다음으로, 미관상의 광택감을 주는 상도 베이스 및 클리어 공정을 통하여 도장막을 형성한 후, 다시 건조로 내에서 상도 도료의 건조를 이루는 상도 건조 공정을 수행하게 된다.This car body painting process completely removes dirt and oils and fats adhering to the inner and outer plates of the car body, and at the same time performs a pre-treatment process of forming a phosphate film that improves the corrosion resistance of the steel plate and adhesion to the electrodeposition paint. Then, the car body that has passed through the drying furnace of the pre-treatment process is fully immersed in the electrodeposition paint, and the electrodeposition paint is applied uniformly to the inside of the car body as well as the outer plate. Next, after the process of applying the sealer to the joints, etc., an intermediate process for imparting chipping resistance, smoothness, weather resistance, etc. of the paint and an intermediate drying process for drying the intermediate paint in a drying tank are performed. Next, after forming a coating film through a topcoat base and a clear process that gives aesthetic glossiness, a topcoat drying process of drying the topcoat in a drying furnace is performed again.

이후, 차체에 도장이 완료되면, 육안검사를 통하여 차체 외관을 검사하는 외관검사를 하는데, 이 외관검사 공정에서는 도장표면의 먼지, 오물, 스크래치 등을 검사한다. 육안검사를 통해 차체 도장의 수정이 필요하면, 상도 베이스 및 클리어 공정을 통하여 재 도장하거나, 폴리싱 작업 등의 수정공정을 통하여 수정한 후, 의장공장으로 투입한다.After that, when the painting on the vehicle body is completed, an exterior inspection is performed to inspect the exterior of the vehicle body through a visual inspection. In this exterior inspection process, dust, dirt, scratches, etc. on the painted surface are inspected. If it is necessary to correct the body painting through visual inspection, repaint it through the topcoat base and clear process, or correct it through a correction process such as polishing work, and then put it into the decoration factory.

이와 같이 도장 공정은 복잡한 공정을 거치므로, 다양한 이유로 불량발생 가능성이 높으며, 이에 따라 불량을 검출하는 고도의 기술이 필요하고, 이를 처리하기 위한 많은 인력이 필요한 문제점이 있다.As described above, since the painting process is a complicated process, there is a high possibility of occurrence of defects for various reasons. Accordingly, there is a problem in that a high level of technology for detecting defects is required, and a lot of manpower is required to handle them.

대한민국등록특허공보 제10-1584080호(2016.01.05)Republic of Korea Patent Publication No. 10-1584080 (2016.01.05)

본 발명은 숙련된 도장 작업자의 모션패턴을 획득하여 학습하고, 학습한 모션패턴을 이용하여 도장로봇을 제어하는 도장 작업자의 모션패턴을 이용한 도장로봇 제어 장치 및 방법을 제공하기 위한 것이다.An object of the present invention is to provide an apparatus and method for controlling a painting robot using the motion pattern of a painting operator, which acquires and learns the motion pattern of a skilled painting operator, and controls the painting robot using the learned motion pattern.

본 발명의 일 측면에 따르면, 도장 작업자의 모션패턴을 이용한 도장로봇 제어 장치가 수행하는 도장로봇 제어 방법이 개시된다.According to one aspect of the present invention, a painting robot control method performed by a painting robot control apparatus using a motion pattern of a painting worker is disclosed.

본 발명의 실시예에 따른 도장로봇 제어 방법은, 깊이 카메라를 이용하여 상기 도장 작업자를 촬영한 2차원 깊이 영상을 획득하는 단계, 상기 획득된 2차원 깊이 영상을 3차원 복셀 영상(voxel image)으로 변환하는 단계, 상기 변환된 3차원 복셀 영상을 이용하여 상기 도장 작업자의 신체 데이터를 생성하는 단계, 상기 도장 작업자가 착용한 장갑 센서로부터 장갑 센서 데이터를 획득하는 단계, 상기 획득된 장갑 센서 데이터를 이용하여 상기 도장 작업자의 손 데이터를 생성하는 단계, 상기 신체 데이터 및 상기 손 데이터를 결합하여 상기 도장 작업자의 모션 데이터를 생성하는 단계, 상기 생성된 모션 데이터를 이용하여 상기 도장 작업자의 모션패턴을 학습하고, 상기 모션패턴 학습을 통해 모션패턴 데이터를 생성하는 단계 및 상기 생성된 모션패턴 데이터를 이용하여 도장로봇을 제어하는 단계를 포함한다.A painting robot control method according to an embodiment of the present invention includes acquiring a two-dimensional depth image obtained by photographing the painting worker using a depth camera, and converting the obtained two-dimensional depth image into a three-dimensional voxel image. converting, generating body data of the painting worker using the converted three-dimensional voxel image, obtaining glove sensor data from a glove sensor worn by the painting worker, using the obtained glove sensor data to generate the painting worker's hand data, combining the body data and the hand data to generate motion data of the painting worker, learning the motion pattern of the painting worker using the generated motion data, , generating motion pattern data through the motion pattern learning and controlling the painting robot using the generated motion pattern data.

상기 신체 데이터를 생성하는 단계는, 상기 3차원 복셀 영상에서 상기 도장 작업자의 신체를 추출하고, 상기 추출된 신체에서 각 관절을 키포인트(key point)로 설정하고, 상기 설정된 각 키포인트의 위치를 추정하여 각 키포인트의 3차원 좌표를 포함하는 상기 신체 데이터를 생성한다.The generating of the body data includes extracting the body of the painting worker from the 3D voxel image, setting each joint as a key point in the extracted body, and estimating the position of each set key point. The body data including three-dimensional coordinates of each key point are generated.

상기 손 데이터를 생성하는 단계는, 상기 장갑 센서 데이터를 이용하여 손의 각 관절의 3차원 좌표를 포함하는 상기 손 데이터를 생성한다.In the generating of the hand data, the hand data including three-dimensional coordinates of each joint of the hand is generated using the glove sensor data.

상기 모션 데이터를 생성하는 단계는, 상기 도장 작업자의 신체와 손의 3차원 좌표를 매칭하여 상기 신체와 상기 손이 결합된 상기 모션 데이터를 생성한다.In the generating of the motion data, the motion data in which the body and the hand are combined is generated by matching the three-dimensional coordinates of the body and the hand of the painting worker.

본 발명의 다른 측면에 따르면, 도장 작업자의 모션패턴을 이용한 도장로봇 제어 장치가 개시된다.According to another aspect of the present invention, an apparatus for controlling a painting robot using a motion pattern of a painting worker is disclosed.

본 발명의 실시예에 따른 도장로봇 제어 장치는, 깊이 카메라, 장갑 센서, 명령어를 저장하는 메모리 및 상기 명령어를 실행하는 프로세서를 포함하되, 상기 명령어는, 상기 깊이 카메라를 이용하여 상기 도장 작업자를 촬영한 2차원 깊이 영상을 획득하는 단계, 상기 획득된 2차원 깊이 영상을 3차원 복셀 영상(voxel image)으로 변환하는 단계, 상기 변환된 3차원 복셀 영상을 이용하여 상기 도장 작업자의 신체 데이터를 생성하는 단계, 상기 도장 작업자가 착용한 상기 장갑 센서로부터 장갑 센서 데이터를 획득하는 단계, 상기 획득된 장갑 센서 데이터를 이용하여 상기 도장 작업자의 손 데이터를 생성하는 단계, 상기 신체 데이터 및 상기 손 데이터를 결합하여 상기 도장 작업자의 모션 데이터를 생성하는 단계, 상기 생성된 모션 데이터를 이용하여 상기 도장 작업자의 모션패턴을 학습하고, 상기 모션패턴 학습을 통해 모션패턴 데이터를 생성하는 단계 및 상기 생성된 모션패턴 데이터를 이용하여 도장로봇을 제어하는 단계를 포함하는 도장로봇 제어 방법을 수행한다.A painting robot control apparatus according to an embodiment of the present invention includes a depth camera, a glove sensor, a memory for storing instructions, and a processor for executing the instructions, wherein the instructions photograph the painting worker using the depth camera. obtaining a two-dimensional depth image, converting the obtained two-dimensional depth image into a three-dimensional voxel image, and generating body data of the painting worker using the converted three-dimensional voxel image Step, obtaining glove sensor data from the glove sensor worn by the painting worker, generating hand data of the painting worker using the obtained glove sensor data, combining the body data and the hand data Generating the motion data of the painting worker, learning the motion pattern of the painting worker using the generated motion data, generating motion pattern data through the motion pattern learning, and using the generated motion pattern data A painting robot control method including the step of controlling the painting robot using

본 발명의 실시예에 따른 도장 작업자의 모션패턴을 이용한 도장로봇 제어 장치 및 방법은, 숙련된 도장 작업자의 모션패턴을 획득하여 학습하고, 학습한 모션패턴을 이용하여 도장로봇을 제어함으로써, 도장 공정의 불량 가능성을 낮추고, 최소한의 인력으로 도장 공정이 수행되도록 할 수 있다.An apparatus and method for controlling a painting robot using a motion pattern of a painting worker according to an embodiment of the present invention is a painting process by acquiring and learning the motion pattern of a skilled painting operator and controlling the painting robot using the learned motion pattern. It is possible to lower the possibility of defects in the painting process and to perform the painting process with a minimum of manpower.

도 1은 본 발명의 실시예에 따른 도장 작업자의 모션패턴을 이용한 도장로봇 제어 장치가 수행하는 도장로봇 제어 방법을 나타낸 흐름도.
도 2 내지 도 7은 본 발명의 실시예에 따른 도장 작업자의 모션패턴을 이용한 도장로봇 제어 방법을 설명하기 위한 도면.
도 8은 본 발명의 실시예에 따른 도장 작업자의 모션패턴을 이용한 도장로봇 제어 장치의 구성을 개략적으로 예시한 도면.
1 is a flowchart illustrating a painting robot control method performed by an apparatus for controlling a painting robot using a motion pattern of a painting worker according to an embodiment of the present invention.
2 to 7 are views for explaining a method of controlling a painting robot using a motion pattern of a painting worker according to an embodiment of the present invention.
8 is a diagram schematically illustrating the configuration of a painting robot control apparatus using a motion pattern of a painting worker according to an embodiment of the present invention.

본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.As used herein, the singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as “consisting of” or “comprising” should not be construed as necessarily including all of the various components or various steps described in the specification, some of which components or some steps are It should be construed that it may not include, or may further include additional components or steps. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software. .

이하, 본 발명의 다양한 실시예들을 첨부된 도면을 참조하여 상술하겠다. Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 도장 작업자의 모션패턴을 이용한 도장로봇 제어 장치가 수행하는 도장로봇 제어 방법을 나타낸 흐름도이고, 도 2 내지 도 7은 본 발명의 실시예에 따른 도장 작업자의 모션패턴을 이용한 도장로봇 제어 방법을 설명하기 위한 도면이다. 이하, 도 1을 중심으로, 본 발명의 실시예에 따른 도장 작업자의 모션패턴을 이용한 도장로봇 제어 방법을 설명하되, 도 2 내지 도 7을 참조하기로 한다.1 is a flowchart illustrating a method for controlling a painting robot performed by a painting robot control apparatus using a motion pattern of a painting worker according to an embodiment of the present invention, and FIGS. 2 to 7 are motions of a painting operator according to an embodiment of the present invention It is a diagram for explaining a method of controlling a painting robot using a pattern. Hereinafter, a method of controlling a painting robot using a motion pattern of a painting worker according to an embodiment of the present invention will be described with reference to FIG. 1 , with reference to FIGS. 2 to 7 .

S110 단계에서, 도장로봇 제어 장치는 깊이 카메라를 이용하여 도장 작업자를 촬영한 2차원 깊이 영상을 획득한다.In step S110, the painting robot control device acquires a two-dimensional depth image of the painting worker using the depth camera.

여기서, 깊이 카메라는 물체까지의 거리를 측정하여 영상으로 출력한다. 예를 들어, 깊이 카메라는 촬영한 장면의 깊이 영상을 TOF(Time-of-Flight) 방식으로 획득할 수 있다. 깊이 영상은 도 2의 (b)와 같이 획득될 수 있다. 도 2의 (a)는 일반 카메라에 의하여 획득되는 실제 영상을 나타내고, 도 2의 (b)는 깊이 카메라에 의하여 획득되는 깊이 영상을 나타낸다.Here, the depth camera measures the distance to the object and outputs it as an image. For example, the depth camera may acquire a depth image of a captured scene using a time-of-flight (TOF) method. The depth image may be acquired as shown in FIG. 2B . FIG. 2A shows an actual image obtained by a general camera, and FIG. 2B shows a depth image obtained by a depth camera.

S120 단계에서, 도장로봇 제어 장치는 획득된 2차원 깊이 영상을 3차원 복셀 영상(voxel image)으로 변환한다.In step S120, the apparatus for controlling the painting robot converts the obtained 2D depth image into a 3D voxel image.

예를 들어, 도 3을 참조하면, 2차원 깊이 영상은, 픽셀 데이터를 이용하여 폴리곤 메쉬(polygonal mesh), 점군(point cloud) 및 복셀(Voxel: volumetric pixel)의 형태를 포함하는 3차원 복셀 영상으로 변환될 수 있다. 즉, 3차원 복셀 영상은 공간정보가 포함되는 3차원 점군의 집합을 연결하여 폴리곤 메쉬 형태로 형성될 수 있다. 또한, 3차원 복셀 영상은, 공간 분할 등을 통해 3차원 영역이 정의되고, 정의된 3차원 영역을 통해, 입력된 3차원 데이터가 정형화된 복셀 공간으로 변환되어 생성될 수 있다.For example, referring to FIG. 3 , a 2D depth image is a 3D voxel image including shapes of a polygonal mesh, a point cloud, and a volumetric pixel (Voxel) using pixel data. can be converted to That is, the 3D voxel image may be formed in the form of a polygon mesh by connecting a set of 3D point groups including spatial information. In addition, the 3D voxel image may be generated by defining a 3D area through spatial division or the like, and converting input 3D data into a standardized voxel space through the defined 3D area.

S130 단계에서, 도장로봇 제어 장치는 변환된 3차원 복셀 영상을 이용하여 도장 작업자의 신체 데이터를 생성한다.In step S130, the painting robot control apparatus generates body data of the painting worker by using the converted 3D voxel image.

즉, 도 4 및 도 5를 참조하면, 도장로봇 제어 장치는 3차원 복셀 영상에서 도장 작업자의 신체를 추출하고, 추출된 신체에서 각 관절을 키포인트(key point)로 설정하고, 설정된 각 키포인트의 위치를 추정하여 각 키포인트의 3차원 좌표를 신체 데이터로 생성할 수 있다. 이를 통해, 도장로봇 제어 장치는, 3차원 복셀 영상으로부터 신체의 위치, 자세, 움직임, 각도 등의 정보를 포함하는 신체 데이터를 생성할 수 있다.That is, referring to FIGS. 4 and 5 , the painting robot control apparatus extracts the body of the painting worker from the three-dimensional voxel image, sets each joint as a key point from the extracted body, and sets the position of each key point. By estimating the three-dimensional coordinates of each key point can be generated as body data. Through this, the apparatus for controlling the painting robot may generate body data including information such as the position, posture, movement, and angle of the body from the 3D voxel image.

S140 단계에서, 도장로봇 제어 장치는 도장 작업자가 착용한 장갑 센서로부터 장갑 센서 데이터를 획득한다. 여기서, 장갑 센서는 미리 설정된 각 부분에 장착된 모션센서를 포함하며, 이를 이용하여 손의 움직임을 측정할 수 있다. 예를 들어, 장갑 센서 데이터는 손의 움직임 측정값일 수 있다.In step S140, the painting robot control device acquires the glove sensor data from the glove sensor worn by the painting worker. Here, the glove sensor includes a motion sensor mounted on each part set in advance, and can measure the movement of the hand using this. For example, the glove sensor data may be a measurement of hand movement.

S150 단계에서, 도장로봇 제어 장치는 획득된 장갑 센서 데이터를 이용하여 도장 작업자의 손 데이터를 생성한다.In step S150, the painting robot control device generates hand data of the painting worker by using the acquired glove sensor data.

즉, 도 6을 참조하면, 도장로봇 제어 장치는 장갑 센서 데이터를 이용하여 손의 각 관절의 3차원 좌표를 손 데이터로 생성할 수 있다. 이를 통해, 도장로봇 제어 장치는, 장갑 센서 데이터로부터 손의 움직임, 각도 등의 정보를 포함하는 손 데이터를 생성할 수 있다.That is, referring to FIG. 6 , the painting robot control apparatus may generate three-dimensional coordinates of each joint of the hand as hand data by using the glove sensor data. Through this, the painting robot control apparatus may generate hand data including information such as movement and angle of the hand from the glove sensor data.

S160 단계에서, 도장로봇 제어 장치는 생성된 신체 데이터 및 손 데이터를 결합하여 도장 작업자의 모션 데이터를 생성한다.In step S160, the painting robot control device generates motion data of the painting worker by combining the generated body data and hand data.

즉, 도 7을 참조하면, 도장로봇 제어 장치는 신체와 손의 3차원 좌표를 매칭하여 신체와 손이 결합된 모션 데이터를 생성할 수 있다.That is, referring to FIG. 7 , the apparatus for controlling the painting robot may generate motion data in which the body and the hand are combined by matching the three-dimensional coordinates of the body and the hand.

S170 단계에서, 도장로봇 제어 장치는 생성된 모션 데이터를 이용하여 도장 작업자의 모션패턴을 학습하고, 모션패턴 학습을 통해 모션패턴 데이터를 생성한다.In step S170, the painting robot control device learns the motion pattern of the painting worker using the generated motion data, and generates the motion pattern data through the motion pattern learning.

S180 단계에서, 도장로봇 제어 장치는 생성된 모션패턴 데이터를 이용하여 도장로봇을 제어한다.In step S180, the painting robot control apparatus controls the painting robot using the generated motion pattern data.

예를 들어, 도장로봇의 각 관절은 도장 작업자의 신체 및 손의 관절들 중에서 미리 설정된 관절과 매칭될 수 있다. 그리고, 모션패턴 데이터는 도장 대상 별로 생성될 수 있다. 그래서, 도장로봇 제어 장치는 학습을 통해 생성한 모션패턴 데이터에 기반하여, 도장 대상에 따라 도장로봇의 관절을 기준으로 도장로봇의 움직임을 제어함으로써, 숙련된 도장 작업자와 동일한 모션패턴으로 도장로봇이 도장 작업을 수행하도록 제어할 수 있다.For example, each joint of the painting robot may be matched with a preset joint among the joints of the body and hand of the painting worker. And, the motion pattern data may be generated for each painting object. Therefore, the painting robot control device controls the movement of the painting robot based on the joints of the painting robot according to the painting target based on the motion pattern data generated through learning, so that the painting robot can use the same motion pattern as a skilled painting worker. It can be controlled to perform the painting operation.

도 8은 본 발명의 실시예에 따른 도장 작업자의 모션패턴을 이용한 도장로봇 제어 장치의 구성을 개략적으로 예시한 도면이다.8 is a diagram schematically illustrating the configuration of a painting robot control apparatus using a motion pattern of a painting worker according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 실시예에 따른 도장 작업자의 모션패턴을 이용한 도장로봇 제어 장치는, 프로세서(10), 메모리(20), 깊이 카메라(30), 장갑 센서(40), 통신부(50) 및 인터페이스부(60)를 포함한다.Referring to FIG. 8 , a painting robot control apparatus using a motion pattern of a painting worker according to an embodiment of the present invention includes a processor 10 , a memory 20 , a depth camera 30 , a glove sensor 40 , and a communication unit ( 50) and an interface unit 60 .

프로세서(10)는 메모리(20)에 저장된 처리 명령어를 실행시키는 CPU 또는 반도체 소자일 수 있다.The processor 10 may be a CPU or a semiconductor device that executes processing instructions stored in the memory 20 .

메모리(20)는 다양한 유형의 휘발성 또는 비휘발성 기억 매체를 포함할 수 있다. 예를 들어, 메모리(20)는 ROM, RAM 등을 포함할 수 있다.Memory 20 may include various types of volatile or non-volatile storage media. For example, the memory 20 may include ROM, RAM, or the like.

예를 들어, 메모리(20)는 본 발명의 실시예에 따른 도장 작업자의 모션패턴을 이용한 도장로봇 제어 방법을 수행하는 명령어들을 저장할 수 있다.For example, the memory 20 may store instructions for performing the painting robot control method using a motion pattern of a painting worker according to an embodiment of the present invention.

깊이 카메라(30)는 물체까지의 거리를 측정하여 영상으로 출력한다. 예를 들어, 깊이 카메라는 촬영한 장면의 깊이 영상을 TOF(Time-of-Flight) 방식으로 획득할 수 있다.The depth camera 30 measures the distance to the object and outputs it as an image. For example, the depth camera may acquire a depth image of a captured scene using a time-of-flight (TOF) method.

장갑 센서(40)는 미리 설정된 각 부분에 장착된 모션센서를 포함하며, 이를 이용하여 손의 움직임을 측정할 수 있다.The glove sensor 40 includes a motion sensor mounted on each part set in advance, and can measure the movement of the hand using this.

통신부(50)는 통신망을 통해 다른 장치들과 데이터를 송수신하기 위한 수단이다.The communication unit 50 is a means for transmitting and receiving data with other devices through a communication network.

인터페이스부(60)는 네트워크에 접속하기 위한 네트워크 인터페이스 및 사용자 인터페이스를 포함할 수 있다.The interface unit 60 may include a network interface and a user interface for accessing a network.

한편, 전술된 실시예의 구성 요소는 프로세스적인 관점에서 용이하게 파악될 수 있다. 즉, 각각의 구성 요소는 각각의 프로세스로 파악될 수 있다. 또한 전술된 실시예의 프로세스는 장치의 구성 요소 관점에서 용이하게 파악될 수 있다.On the other hand, the components of the above-described embodiment can be easily grasped from a process point of view. That is, each component may be identified as a respective process. In addition, the process of the above-described embodiment can be easily understood from the point of view of the components of the apparatus.

또한 앞서 설명한 기술적 내용들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예들을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 하드웨어 장치는 실시예들의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, the technical contents described above may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiments or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. A hardware device may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

상기한 본 발명의 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대한 통상의 지식을 가지는 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다.The above-described embodiments of the present invention have been disclosed for the purpose of illustration, and various modifications, changes, and additions will be possible within the spirit and scope of the present invention by those skilled in the art having ordinary knowledge of the present invention, and such modifications, changes and additions should be regarded as belonging to the following claims.

10: 프로세서
20: 메모리
30: 깊이 카메라
40: 장갑 센서
50: 통신부
60: 인터페이스부
10: Processor
20: memory
30: depth camera
40: glove sensor
50: communication department
60: interface unit

Claims (5)

도장 작업자의 모션패턴을 이용한 도장로봇 제어 장치가 수행하는 도장로봇 제어 방법에 있어서,
깊이 카메라를 이용하여 상기 도장 작업자를 촬영한 2차원 깊이 영상을 획득하는 단계;
상기 획득된 2차원 깊이 영상을 3차원 복셀 영상(voxel image)으로 변환하는 단계;
상기 변환된 3차원 복셀 영상을 이용하여 상기 도장 작업자의 신체 데이터를 생성하는 단계;
상기 도장 작업자가 착용한 장갑 센서로부터 장갑 센서 데이터를 획득하는 단계;
상기 획득된 장갑 센서 데이터를 이용하여 상기 도장 작업자의 손 데이터를 생성하는 단계;
상기 신체 데이터 및 상기 손 데이터를 결합하여 상기 도장 작업자의 모션 데이터를 생성하는 단계;
상기 생성된 모션 데이터를 이용하여 상기 도장 작업자의 모션패턴을 학습하고, 상기 모션패턴 학습을 통해 모션패턴 데이터를 생성하는 단계; 및
상기 생성된 모션패턴 데이터를 이용하여 도장로봇을 제어하는 단계를 포함하는 도장로봇 제어 방법.
In the painting robot control method performed by the painting robot control device using the painting worker's motion pattern,
obtaining a two-dimensional depth image of the painting worker by using a depth camera;
converting the obtained 2D depth image into a 3D voxel image;
generating body data of the painting worker by using the converted 3D voxel image;
acquiring glove sensor data from the glove sensor worn by the painting worker;
generating hand data of the painting worker using the acquired glove sensor data;
generating motion data of the painting worker by combining the body data and the hand data;
learning the motion pattern of the painting worker using the generated motion data, and generating motion pattern data through the motion pattern learning; and
and controlling the painting robot using the generated motion pattern data.
제1항에 있어서,
상기 신체 데이터를 생성하는 단계는,
상기 3차원 복셀 영상에서 상기 도장 작업자의 신체를 추출하고, 상기 추출된 신체에서 각 관절을 키포인트(key point)로 설정하고, 상기 설정된 각 키포인트의 위치를 추정하여 각 키포인트의 3차원 좌표를 포함하는 상기 신체 데이터를 생성하는 것을 특징으로 하는 도장로봇 제어 방법.
According to claim 1,
The step of generating the body data comprises:
Extracting the body of the painting worker from the 3D voxel image, setting each joint as a key point in the extracted body, estimating the position of each set key point, and including 3D coordinates of each key point A painting robot control method, characterized in that generating the body data.
제1항에 있어서,
상기 손 데이터를 생성하는 단계는,
상기 장갑 센서 데이터를 이용하여 손의 각 관절의 3차원 좌표를 포함하는 상기 손 데이터를 생성하는 것을 특징으로 하는 도장로봇 제어 방법.
According to claim 1,
The step of generating the hand data includes:
A painting robot control method, characterized in that by using the glove sensor data to generate the hand data including the three-dimensional coordinates of each joint of the hand.
제1항에 있어서,
상기 모션 데이터를 생성하는 단계는,
상기 도장 작업자의 신체와 손의 3차원 좌표를 매칭하여 상기 신체와 상기 손이 결합된 상기 모션 데이터를 생성하는 것을 특징으로 하는 도장로봇 제어 방법.
According to claim 1,
The step of generating the motion data comprises:
The painting robot control method, characterized in that by matching the three-dimensional coordinates of the body and the hand of the painting worker to generate the motion data in which the body and the hand are combined.
도장 작업자의 모션패턴을 이용한 도장로봇 제어 장치에 있어서,
깊이 카메라;
장갑 센서;
명령어를 저장하는 메모리; 및
상기 명령어를 실행하는 프로세서를 포함하되,
상기 명령어는,
상기 깊이 카메라를 이용하여 상기 도장 작업자를 촬영한 2차원 깊이 영상을 획득하는 단계;
상기 획득된 2차원 깊이 영상을 3차원 복셀 영상(voxel image)으로 변환하는 단계;
상기 변환된 3차원 복셀 영상을 이용하여 상기 도장 작업자의 신체 데이터를 생성하는 단계;
상기 도장 작업자가 착용한 상기 장갑 센서로부터 장갑 센서 데이터를 획득하는 단계;
상기 획득된 장갑 센서 데이터를 이용하여 상기 도장 작업자의 손 데이터를 생성하는 단계;
상기 신체 데이터 및 상기 손 데이터를 결합하여 상기 도장 작업자의 모션 데이터를 생성하는 단계;
상기 생성된 모션 데이터를 이용하여 상기 도장 작업자의 모션패턴을 학습하고, 상기 모션패턴 학습을 통해 모션패턴 데이터를 생성하는 단계; 및
상기 생성된 모션패턴 데이터를 이용하여 도장로봇을 제어하는 단계를 포함하는 도장로봇 제어 방법을 수행하는 것을 특징으로 하는 도장로봇 제어 장치.





In the painting robot control device using the motion pattern of the painting worker,
depth camera;
glove sensor;
memory to store instructions; and
A processor that executes the instructions,
The command is
obtaining a two-dimensional depth image of the painting worker using the depth camera;
converting the obtained 2D depth image into a 3D voxel image;
generating body data of the painting worker by using the converted 3D voxel image;
obtaining glove sensor data from the glove sensor worn by the painting worker;
generating hand data of the painting worker using the acquired glove sensor data;
generating motion data of the painting worker by combining the body data and the hand data;
learning the motion pattern of the painting worker using the generated motion data, and generating motion pattern data through the motion pattern learning; and
A painting robot control apparatus, characterized in that performing a painting robot control method comprising the step of controlling the painting robot using the generated motion pattern data.





KR1020200029497A 2020-03-10 2020-03-10 Apparatus and method for controlling painting robot using motion pattern of painting worker KR102268579B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200029497A KR102268579B1 (en) 2020-03-10 2020-03-10 Apparatus and method for controlling painting robot using motion pattern of painting worker

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200029497A KR102268579B1 (en) 2020-03-10 2020-03-10 Apparatus and method for controlling painting robot using motion pattern of painting worker

Publications (1)

Publication Number Publication Date
KR102268579B1 true KR102268579B1 (en) 2021-06-23

Family

ID=76599298

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200029497A KR102268579B1 (en) 2020-03-10 2020-03-10 Apparatus and method for controlling painting robot using motion pattern of painting worker

Country Status (1)

Country Link
KR (1) KR102268579B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102464844B1 (en) * 2022-06-20 2022-11-09 공주대학교 산학협력단 Method and system for car repair paint using spray characteristic analysis of spray gun
WO2023128544A1 (en) * 2021-12-29 2023-07-06 서울대학교산학협력단 Remote control method for motion tracking robot
KR102594602B1 (en) * 2022-06-30 2023-10-26 진기철 Vehicle painting systems and methods

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101343860B1 (en) * 2013-01-03 2013-12-20 재단법인대구경북과학기술원 Robot avatar system using hybrid interface and command server, learning server, and sensory server therefor
KR101584080B1 (en) 2015-04-10 2016-01-11 (주)코어센스 Acceleration signal processing method of 3-dimention rotation motion sensor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101343860B1 (en) * 2013-01-03 2013-12-20 재단법인대구경북과학기술원 Robot avatar system using hybrid interface and command server, learning server, and sensory server therefor
KR101584080B1 (en) 2015-04-10 2016-01-11 (주)코어센스 Acceleration signal processing method of 3-dimention rotation motion sensor

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023128544A1 (en) * 2021-12-29 2023-07-06 서울대학교산학협력단 Remote control method for motion tracking robot
KR20230101299A (en) * 2021-12-29 2023-07-06 서울대학교산학협력단 Remote control method of motion tracking robot
KR102623672B1 (en) * 2021-12-29 2024-01-11 블루로빈 주식회사 Remote control method of motion tracking robot
KR102464844B1 (en) * 2022-06-20 2022-11-09 공주대학교 산학협력단 Method and system for car repair paint using spray characteristic analysis of spray gun
KR102594602B1 (en) * 2022-06-30 2023-10-26 진기철 Vehicle painting systems and methods

Similar Documents

Publication Publication Date Title
KR102268579B1 (en) Apparatus and method for controlling painting robot using motion pattern of painting worker
JP6192261B2 (en) Information processing apparatus and information processing method
CN106950985B (en) Automatic delivery method and device
US11110611B2 (en) Automatic detection and robot-assisted machining of surface defects
US9849591B2 (en) Localization of a robot in an environment using detected edges of a camera image from a camera of the robot and detected edges derived from a three-dimensional model of the environment
US8761925B2 (en) Robot and method of building map therefor
US20160243704A1 (en) Image-based trajectory robot programming planning approach
Teuliere et al. A dense and direct approach to visual servoing using depth maps
JP2014199584A5 (en)
US20140100696A1 (en) Working method using sensor and working system for performing same
US20150328773A1 (en) Robot Program Generation For Robotic Processes
DE602007003849D1 (en) System and method for 3D object recognition
KR20110087893A (en) Apparatus and method for calibration of composite sensor
Chen et al. Seam tracking of large pipe structures for an agile robotic welding system mounted on scaffold structures
Carlson et al. Six DOF eye-to-hand calibration from 2D measurements using planar constraints
CN112743270A (en) Robot welding assembly method and system based on 2D/3D visual positioning
US20170294020A1 (en) Camera pose estimation
JP2023539728A (en) Robot repair control system and method
JP6075888B2 (en) Image processing method, robot control method
Lai et al. Integration of visual information and robot offline programming system for improving automatic deburring process
CN118419279A (en) Method and device for assembling special-shaped curved surface fittings in helicopter
Lee et al. Implementation of a robotic arm with 3D vision for shoes glue spraying system
US20220040884A1 (en) Device and method for adaptive robotic stone surfacing
CN111369669A (en) Method for automatically leveling sprayed surface
Birr et al. Oriented surface reachability maps for robot placement

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant