KR20200059465A - Method and apparatus for controlling a drawing robot based on image - Google Patents

Method and apparatus for controlling a drawing robot based on image Download PDF

Info

Publication number
KR20200059465A
KR20200059465A KR1020180144227A KR20180144227A KR20200059465A KR 20200059465 A KR20200059465 A KR 20200059465A KR 1020180144227 A KR1020180144227 A KR 1020180144227A KR 20180144227 A KR20180144227 A KR 20180144227A KR 20200059465 A KR20200059465 A KR 20200059465A
Authority
KR
South Korea
Prior art keywords
robot
data
brush
image
motion
Prior art date
Application number
KR1020180144227A
Other languages
Korean (ko)
Inventor
장인수
김진서
정순철
최윤석
최태원
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020180144227A priority Critical patent/KR20200059465A/en
Publication of KR20200059465A publication Critical patent/KR20200059465A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0075Manipulators for painting or coating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Disclosed are a method and an apparatus for controlling a drawing robot based on an image. The method for controlling a drawing robot based on an image comprises: a step of collecting three-dimensional motion data generated by tracking a motion of a bot by drawing of a person; a step of converting the collected three-dimensional motion data into a robot control signal; a step of transmitting the converted robot control signal to a drawing robot to control drawing of the drawing robot; a step of using an external camera to acquire robot drawing image data resulting from monitoring the drawing robot; a step of analyzing the acquired robot drawing image data to generate three-dimensional motion correction data of the bot; and a step of converting the generated three-dimensional motion correction data into a robot control correction signal to transmit the robot control correction signal to the drawing robot.

Description

영상 기반으로 드로잉 로봇을 제어하는 방법 및 장치{METHOD AND APPARATUS FOR CONTROLLING A DRAWING ROBOT BASED ON IMAGE}METHOD AND APPARATUS FOR CONTROLLING A DRAWING ROBOT BASED ON IMAGE}

본 발명은 영상 기반으로 드로잉 로봇을 제어하는 방법 및 장치에 관한 것으로, 더욱 상세하게는 붓을 사용하는 드로잉 로봇을 영상 기반으로 모니터링함으로써, 붓의 정교한 움직임을 보정할 수 있는 기술에 관한 것이다.The present invention relates to a method and apparatus for controlling a drawing robot based on an image, and more particularly, to a technique capable of correcting a precise movement of a brush by monitoring a drawing robot using a brush based on an image.

인공관절과 모터 등을 이용해 여러 동작을 수행하는 로봇 기술이 발전함에 따라 사람의 행동을 동일하게 묘사하고자 하는 연구가 계속되고 있다. 이러한 연구 중 하나로, 사람이 드로잉한 그림에 대한 2차원 좌표 정보를 이용하여 로봇 팔이 동일한 그림을 드로잉하는 기술이 있다.With the development of robot technology that performs various motions using artificial joints and motors, research to describe the human behavior in the same way continues. As one of these studies, there is a technique in which a robot arm draws the same picture by using two-dimensional coordinate information on a person-drawn picture.

로봇팔을 이용한 이미지 드로잉 기법은 대부분 연필이나 볼펜, 사인펜 등과 같이 펜촉이 단단한 도구를 사용하므로 사람이 작업한 결과물과 유사한 수준의 드로잉 결과를 제공한다.Most of the image drawing techniques using the robot arm use a tool with a hard nib, such as a pencil, ballpoint pen, or signature pen, so that the drawing result is similar to the result of human work.

그런데, 사람이 서예 붓을 이용하여 이미지를 드로잉하는 것을 모방하는 로봇 기술의 경우, 안료 또는 붓의 종류, 위치, 자세 등에 따라 다양한 결과를 나타내므로 정밀하게 모방하기 어려운 문제가 있다.However, in the case of a robot technology that mimics a person drawing an image using a calligraphy brush, there is a problem in that it is difficult to accurately mimic because it exhibits various results depending on the type, position, and posture of a pigment or brush.

특히, 붓은 기울기나 회전 등에 따라 여러 패턴으로 드로잉될 수 있기 때문에, 단순히 3차원 공간 정보만을 활용하는 것만으로는 사람의 드로잉 결과를 재현하는데 한계가 있다.In particular, since the brush can be drawn in various patterns according to tilt or rotation, there is a limit to reproducing a person's drawing result by simply using 3D spatial information.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 영상 기반으로 드로잉 로봇을 제어하는 방법을 제공하는 데 있다.An object of the present invention for solving the above problems is to provide a method for controlling a drawing robot based on an image.

상기와 같은 문제점을 해결하기 위한 본 발명의 다른 목적은, 영상 기반으로 드로잉 로봇을 제어하는 장치를 제공하는 데 있다.Another object of the present invention for solving the above problems is to provide an apparatus for controlling a drawing robot based on an image.

상기 목적을 달성하기 위한 본 발명의 일 측면은, 영상 기반으로 드로잉 로봇을 제어하는 방법을 제공한다.One aspect of the present invention for achieving the above object, provides a method for controlling the drawing robot based on the image.

영상 기반으로 드로잉 로봇을 제어하는 방법은, 사람의 드로잉(drawing)에 의한 붓의 움직임을 추적하여 생성된 3차원 모션 데이터를 수집하는 단계, 수집된 3차원 모션 데이터를 로봇 제어 신호로 변환하는 단계, 변환된 로봇 제어 신호를 드로잉 로봇에 전송하여 상기 드로잉 로봇의 드로잉을 제어하는 단계, 외부의 카메라를 이용하여 상기 드로잉 로봇을 모니터링한 로봇드로잉 영상 데이터를 획득하는 단계, 획득된 로봇 드로잉 영상 데이터를 분석하여 붓의 3차원 모션 보정 데이터를 생성하는 단계 및 생성된 3차원 모션 보정 데이터를 로봇 제어 보정 신호로 변환하여 상기 드로잉 로봇에 전송하는 단계를 포함할 수 있다.The method of controlling a drawing robot based on an image includes collecting motion generated 3D motion data by tracking the movement of a brush by drawing, and converting the collected 3D motion data into a robot control signal. , Controlling drawing of the drawing robot by transmitting the converted robot control signal to the drawing robot, obtaining robot drawing image data monitoring the drawing robot using an external camera, and obtaining the obtained robot drawing image data The analysis may include generating 3D motion correction data of the brush and converting the generated 3D motion correction data into a robot control correction signal and transmitting it to the drawing robot.

상기 3차원 모션 데이터는, 붓의 회전, 기울기, 방향 중 적어도 하나를 나타내는 피치(pitch), 요(yaw), 롤(roll) 정보 및 붓의 3차원 공간 좌표 정보를 포함할 수 있다.The 3D motion data may include pitch, yaw, roll information indicating at least one of rotation, inclination, and direction of the brush, and 3D spatial coordinate information of the brush.

상기 3차원 모션 보정 데이터를 생성하는 단계는, 상기 로봇드로잉 영상 데이터와 기준 영상 데이터에 대한 색상 표준화를 수행하는 단계 및 색상 표준화된 로봇드로잉 영상 데이터와 상기 기준 영상 데이터를 서로 비교하여 보정 영역과 상기 보정 영역에 대한 채색 데이터를 생성하는 단계를 포함할 수 있다.The generating of the 3D motion correction data may include performing color normalization on the robot drawing image data and reference image data, and comparing the color standardized robot drawing image data and the reference image data to each other to correct the correction region and the And generating coloring data for the correction area.

상기 기준 영상 데이터는, 상기 외부의 카메라를 이용하여 상기 사람의 드로잉(drawing)을 모니터링하여 획득한 영상 데이터일 수 있다.The reference image data may be image data obtained by monitoring the drawing of the person using the external camera.

상기 색상 표준화를 수행하는 단계는, 미리 수집된 샘플에 대한 표준 색상 정보와 상기 샘플에 대한 카메라 색상 정보를 비교하여 생성된 색상 공간 변환 데이터를 불러오는 단계, 불러온 색상 공간 변환 데이터를 이용하여 상기 로봇드로잉 영상 데이터와 상기 기준 영상 데이터의 색상 공간을 표준화하는 단계를 포함할 수 있다.In the step of performing the color standardization, comparing the standard color information for a sample collected in advance with the camera color information for the sample, and loading the generated color space conversion data, and the robot using the imported color space conversion data And standardizing the color space of the drawing image data and the reference image data.

상기 채색 데이터를 생성하는 단계는, 상기 보정 영역에 대한 표준 색상 데이터를 획득하는 단계, 획득된 표준 색상 데이터를 기초로 물감 조합 시뮬레이션을 수행하여 상기 채색 데이터를 생성하는 단계를 포함할 수 있다.The generating of the coloring data may include obtaining standard color data for the correction area, and performing color combination simulation based on the obtained standard color data to generate the coloring data.

상기 3차원 모션 보정 데이터를 생성하는 단계는, 상기 채색 데이터를 생성하는 단계 이후에, 미리 수집한 붓 패턴 정보를 기초로 상기 보정 영역에 대한 붓 종류를 선정하는 단계 및 선정된 붓 종류 및 상기 붓 패턴 정보를 기초로 상기 보정 영역을 드로잉하기위한 붓의 최적 경로를 생성하는 단계를 더 포함할 수 있다.In the generating of the 3D motion correction data, after the step of generating the coloring data, selecting a brush type for the correction area based on the brush pattern information collected in advance and the selected brush type and the brush The method may further include generating an optimal path of the brush for drawing the correction region based on the pattern information.

상기 3차원 모션 보정 데이터를 생성하는 단계는, 상기 붓의 최적 경로를 생성하는 단계 이후에, 상기 최적 경로에 따른 드로잉 시간을 산출하는 단계 및 산출된 드로잉 시간이 미리 설정된 임계값을 초과하면, 드로잉 준비를 위한 추가 모션 데이터를 생성하는 단계를 더 포함할 수 있다.In the step of generating the 3D motion correction data, after the step of generating the optimal path of the brush, the step of calculating the drawing time according to the optimal path and the calculated drawing time exceeds a preset threshold, drawing The method may further include generating additional motion data for preparation.

상기 다른 목적을 달성하기 위한 본 발명의 다른 측면은, 영상 기반으로 드로잉 로봇을 제어하는 장치를 제공한다.Another aspect of the present invention for achieving the other object, to provide an apparatus for controlling the drawing robot based on the image.

영상 기반으로 드로잉 로봇을 제어하는 장치는, 적어도 하나의 프로세서(processor), 및 상기 적어도 하나의 프로세서가 적어도 하나의 단계를 수행하도록 지시하는 명령어들(instructions)이 저장된 메모리(memory)를 포함할 수 있다.An apparatus for controlling a drawing robot based on an image may include at least one processor, and a memory in which instructions instructing the at least one processor to perform at least one step are stored. have.

상기 적어도 하나의 단계는, 사람의 드로잉(drawing)에 의한 붓의 움직임을 추적하여 생성된 3차원 모션 데이터를 수집하는 단계, 수집된 3차원 모션 데이터를 로봇 제어 신호로 변환하는 단계, 변환된 로봇 제어 신호를 드로잉 로봇에 전송하여 상기 드로잉 로봇의 드로잉을 제어하는 단계, 외부의 카메라를 이용하여 상기 드로잉 로봇을 모니터링한 로봇드로잉 영상 데이터를 획득하는 단계, 획득된 로봇 드로잉 영상 데이터를 분석하여 붓의 3차원 모션 보정 데이터를 생성하는 단계 및 생성된 3차원 모션 보정 데이터를 로봇 제어 보정 신호로 변환하여 상기 드로잉 로봇에 전송하는 단계를 포함할 수 있다.The at least one step includes: collecting the 3D motion data generated by tracking the movement of a brush by drawing of a person, converting the collected 3D motion data into a robot control signal, and converting the robot Controlling the drawing of the drawing robot by transmitting a control signal to the drawing robot, obtaining robot drawing image data monitoring the drawing robot using an external camera, analyzing the acquired robot drawing image data, and drawing The method may include generating 3D motion correction data and converting the generated 3D motion correction data into a robot control correction signal and transmitting the generated 3D motion correction data to the drawing robot.

상기 3차원 모션 데이터는, 붓의 회전, 기울기, 방향 중 적어도 하나를 나타내는 피치(pitch), 요(yaw), 롤(roll) 정보 및 붓의 3차원 공간 좌표 정보를 포함할 수 있다.The 3D motion data may include pitch, yaw, roll information indicating at least one of rotation, inclination, and direction of the brush, and 3D spatial coordinate information of the brush.

상기 3차원 모션 보정 데이터를 생성하는 단계는, 상기 로봇드로잉 영상 데이터와 기준 영상 데이터에 대한 색상 표준화를 수행하는 단계 및 색상 표준화된 로봇드로잉 영상 데이터와 상기 기준 영상 데이터를 서로 비교하여 보정 영역과 상기 보정 영역에 대한 채색 데이터를 생성하는 단계를 포함할 수 있다.The generating of the 3D motion correction data may include performing color normalization on the robot drawing image data and reference image data, and comparing the color standardized robot drawing image data and the reference image data to each other to correct the correction region and the And generating coloring data for the correction area.

상기 기준 영상 데이터는, 상기 외부의 카메라를 이용하여 상기 사람의 드로잉(drawing)을 모니터링하여 획득한 영상 데이터일 수 있다.The reference image data may be image data obtained by monitoring the drawing of the person using the external camera.

상기 색상 표준화를 수행하는 단계는, 미리 수집된 샘플에 대한 표준 색상 정보와 상기 샘플에 대한 카메라 색상 정보를 비교하여 생성된 색상 공간 변환 데이터를 불러오는 단계, 불러온 색상 공간 변환 데이터를 이용하여 상기 로봇드로잉 영상 데이터와 상기 기준 영상 데이터의 색상 공간을 표준화하는 단계를 포함할 수 있다.In the step of performing the color standardization, comparing the standard color information for a sample collected in advance with the camera color information for the sample, and loading the generated color space conversion data, and the robot using the imported color space conversion data And standardizing the color space of the drawing image data and the reference image data.

상기 채색 데이터를 생성하는 단계는, 상기 보정 영역에 대한 표준 색상 데이터를 획득하는 단계, 획득된 표준 색상 데이터를 기초로 물감 조합 시뮬레이션을 수행하여 상기 채색 데이터를 생성하는 단계를 포함할 수 있다.The generating of the coloring data may include obtaining standard color data for the correction area, and performing color combination simulation based on the obtained standard color data to generate the coloring data.

상기 3차원 모션 보정 데이터를 생성하는 단계는, 상기 채색 데이터를 생성하는 단계 이후에, 미리 수집한 붓 패턴 정보를 기초로 상기 보정 영역에 대한 붓 종류를 선정하는 단계 및 선정된 붓 종류 및 상기 붓 패턴 정보를 기초로 상기 보정 영역을 드로잉하기위한 붓의 최적 경로를 생성하는 단계를 더 포함할 수 있다.In the generating of the 3D motion correction data, after the step of generating the coloring data, selecting a brush type for the correction area based on the brush pattern information collected in advance and the selected brush type and the brush The method may further include generating an optimal path of the brush for drawing the correction region based on the pattern information.

상기 3차원 모션 보정 데이터를 생성하는 단계는, 상기 붓의 최적 경로를 생성하는 단계 이후에, 상기 최적 경로에 따른 드로잉 시간을 산출하는 단계 및 산출된 드로잉 시간이 미리 설정된 임계값을 초과하면, 드로잉 준비를 위한 추가 모션 데이터를 생성하는 단계를 더 포함할 수 있다.In the step of generating the 3D motion correction data, after the step of generating the optimal path of the brush, the step of calculating the drawing time according to the optimal path and the calculated drawing time exceeds a preset threshold, drawing The method may further include generating additional motion data for preparation.

상기와 같은 본 발명에 따른 영상 기반으로 드로잉 로봇을 제어하는 방법 및 장치를 이용할 경우에는 붓의 3차원 좌표뿐만 아니라 자세를 고려하여 정교한 드로잉 제어를 수행할 수 있다.When using the method and apparatus for controlling the drawing robot based on the image according to the present invention as described above, it is possible to perform sophisticated drawing control in consideration of posture as well as three-dimensional coordinates of the brush.

또한, 드로잉 로봇이 붓을 이용해 드로잉을 수행함에 따라 발생하는 다양한 변수를 고려하여 오차를 수정할 수 있는 보정이 수행되는 장점이 있다.In addition, there is an advantage in that correction is performed to correct errors in consideration of various variables that occur as the drawing robot performs drawing using a brush.

또한, 영상 기반으로 제어함에 따라 발생할 수 있는 카메라 특성을 고려하여 표준화된 제어를 수행할 수 있다.In addition, standardized control may be performed in consideration of camera characteristics that may occur as a result of image-based control.

도 1은 본 발명의 일 실시예에 따른 영상 기반으로 드로잉 로봇을 제어하는 방법 및 장치에 대한 개념도이다.
도 2는 본 발명의 일 실시예에 따른 영상 기반으로 드로잉 로봇을 제어하는 방법에 대한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 3차원 모션 보정 데이터를 생성하는 단계를 구체화한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 색상 표준화 방법을 설명하기 위한 개념도이다.
도 5는 본 발명의 일 실시예에 따른 보정 영역의 채색을 위한 물감 조합 시뮬레이션 방법을 설명하기 위한 개념도이다.
도 6은 본 발명의 일 실시예에 따른 영상 기반으로 드로잉 로봇을 제어하는 장치에 대한 하드웨어 구성도이다.
1 is a conceptual diagram of a method and apparatus for controlling a drawing robot based on an image according to an embodiment of the present invention.
2 is a flowchart illustrating a method for controlling a drawing robot based on an image according to an embodiment of the present invention.
3 is a flow chart embodying the steps of generating 3D motion correction data according to an embodiment of the present invention.
4 is a conceptual diagram illustrating a color standardization method according to an embodiment of the present invention.
5 is a conceptual diagram for explaining a method of simulating a color combination for coloring a correction area according to an embodiment of the present invention.
6 is a hardware configuration diagram of an apparatus for controlling a drawing robot based on an image according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. The present invention can be applied to various changes and can have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In describing each drawing, similar reference numerals are used for similar components.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from other components. For example, the first component may be referred to as a second component without departing from the scope of the present invention, and similarly, the second component may be referred to as a first component. The term and / or includes a combination of a plurality of related described items or any one of a plurality of related described items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When an element is said to be "connected" or "connected" to another component, it is understood that other components may be directly connected to or connected to the other component, but there may be other components in between. It should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that no other component exists in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, terms such as “include” or “have” are intended to indicate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, one or more other features. It should be understood that the existence or addition possibilities of fields or numbers, steps, operations, components, parts or combinations thereof are not excluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person skilled in the art to which the present invention pertains. Terms such as those defined in a commonly used dictionary should be interpreted as having meanings consistent with meanings in the context of related technologies, and should not be interpreted as ideal or excessively formal meanings unless explicitly defined in the present application. Does not.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 영상 기반으로 드로잉 로봇을 제어하는 방법 및 장치에 대한 개념도이다.1 is a conceptual diagram of a method and apparatus for controlling a drawing robot based on an image according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 영상 기반으로 드로잉 로봇을 제어하는 방법은, 먼저 사람(40)이 그림을 그리고 있는 장면 및/또는 그 결과물을 카메라(20)로 촬영하여 기준 영상(또는 reference image, 레퍼런스 영상)을 생성하고, 그와 동시에 사람(40)이 사용하는 붓의 움직임을 추적하여 3차원 모션 데이터를 생성할 수 있다.Referring to FIG. 1, in a method of controlling a drawing robot based on an image according to an embodiment of the present invention, first, a scene in which a person 40 is drawing and / or a result thereof is photographed with the camera 20 as a reference An image (or reference image) may be generated, and at the same time, 3D motion data may be generated by tracking the movement of a brush used by the person 40.

이때, 3차원 모션 데이터는 일반적인 펜이나 연필 등이 사용하는 2차원 또는 3차원 공간 좌표(x, y, z 좌표)를 추적하는 것에 그치는 것이 아니라, 붓의 회전, 기울기, 방향 중 적어도 하나(또는 붓의 자세)를 나타내는 피치(pitch), 요(yaw), 롤(roll) 정보를 포함할 수 있다.At this time, the 3D motion data is not limited to tracking 2D or 3D spatial coordinates (x, y, z coordinates) used by a general pen or pencil, but at least one of rotation, tilt, and direction of the brush (or It may include pitch, yaw, and roll information indicating a brush posture).

여기서, 생성된 붓의 3차원 모션 데이터는 본 발명의 일 실시예에 따른 영상 기반으로 드로잉 로봇을 제어하는 장치(10)로 전송될 수 있고, 레퍼런스 영상도 카메라로부터 영상 기반으로 드로잉 로봇을 제어하는 장치(10)로 전송될 수 있다.Here, the 3D motion data of the generated brush may be transmitted to the apparatus 10 for controlling the drawing robot based on the image according to an embodiment of the present invention, and the reference image also controls the drawing robot based on the image from the camera. It can be sent to the device 10.

영상 기반으로 드로잉 로봇을 제어하는 장치(10)는 앞서 수집한 붓의 3차원 모션 데이터를 이용하여 드로잉 로봇의 기어, 모터 등을 직접 제어할 수 있는 로봇 제어 신호를 생성하고, 생성된 로봇 제어 신호를 드로잉 로봇(30)으로 전송할 수 있다.The apparatus 10 for controlling the drawing robot based on the image generates a robot control signal capable of directly controlling the drawing robot's gear, motor, and the like using the 3D motion data of the previously collected brush, and the generated robot control signal Can be transferred to the drawing robot 30.

드로잉 로봇(30)은 영상 기반으로 드로잉 로봇을 제어하는 장치(10)로부터 전송받은 로봇 제어 신호에 따라 사람(40)의 드로잉 장면을 모방하여 그림을 그리는 동작을 수행할 수 있다. 이때, 드로잉 로봇(30)이 그림을 그리는 장면 및/또는 그 중간 결과물은 카메라(20)에 의해 촬영되어 로봇 드로잉 영상이 생성될 수 있다. 여기서 생성된 로봇 드로잉 영상은 다시 드로잉 로봇을 제어하는 장치(10)로 전달되고, 드로잉 로봇을 제어하는 장치(10)는 드로잉 로봇(30)의 동작 오차를 수정하는 로봇 제어 신호를 생성할 수 있다. 여기서 생성된 로봇 제어 신호는 다시 드로잉 로봇(30)으로 전송되어 드로잉 로봇의 동작을 보정할 수 있다.The drawing robot 30 may perform an operation of drawing a picture by imitating the drawing scene of the person 40 according to the robot control signal transmitted from the apparatus 10 for controlling the drawing robot based on the image. At this time, the scene where the drawing robot 30 draws a picture and / or the intermediate result may be photographed by the camera 20 to generate a robot drawing image. The robot drawing image generated here is transmitted back to the device 10 for controlling the drawing robot, and the device 10 for controlling the drawing robot can generate a robot control signal that corrects an operation error of the drawing robot 30. . The generated robot control signal is transmitted to the drawing robot 30 again to correct the operation of the drawing robot.

도 1에서는 영상 기반으로 드로잉 로봇을 제어하는 장치(10)와 카메라(20), 드로잉 로봇(30)을 각각 개별적으로 도시하였으나, 그 중 일부가 서로 결합되어 구현될 수도 있으며, 그러한 경우에도 본 발명의 범위에 포함되는 것으로 해석되어야 한다.In FIG. 1, although the apparatus 10, the camera 20, and the drawing robot 30 for controlling the drawing robot based on the image are respectively shown individually, some of them may be implemented in combination with each other, and in such a case, the present invention It should be interpreted as being included in the scope of.

이하에서는, 개별적인 각 동작을 보다 상세히 설명한다.Hereinafter, each individual operation will be described in more detail.

도 2는 본 발명의 일 실시예에 따른 영상 기반으로 드로잉 로봇을 제어하는 방법에 대한 흐름도이다.2 is a flowchart illustrating a method for controlling a drawing robot based on an image according to an embodiment of the present invention.

도 2를 참조하면, 영상 기반으로 드로잉 로봇을 제어하는 방법은, 사람의 드로잉(drawing)에 의한 붓의 움직임을 추적하여 생성된 3차원 모션 데이터를 수집하는 단계(S100), 수집된 3차원 모션 데이터를 로봇 제어 신호로 변환하는 단계(S110), 변환된 로봇 제어 신호를 드로잉 로봇에 전송하여 상기 드로잉 로봇의 드로잉을 제어하는 단계(S120), 외부의 카메라를 이용하여 상기 드로잉 로봇을 모니터링한 로봇드로잉 영상 데이터를 획득하는 단계(S130), 획득된 로봇 드로잉 영상 데이터를 분석하여 붓의 3차원 모션 보정 데이터를 생성하는 단계(S140) 및 생성된 3차원 모션 보정 데이터를 로봇 제어 보정 신호로 변환하여 상기 드로잉 로봇에 전송하는 단계(S150)를 포함할 수 있다.Referring to FIG. 2, a method of controlling a drawing robot based on an image includes collecting 3D motion data generated by tracking the movement of a brush by drawing of a person (S100), and collecting 3D motion Converting data into a robot control signal (S110), transmitting the converted robot control signal to a drawing robot to control the drawing of the drawing robot (S120), a robot monitoring the drawing robot using an external camera Obtaining the drawing image data (S130), analyzing the obtained robot drawing image data to generate 3D motion correction data of the brush (S140) and converting the generated 3D motion correction data into a robot control correction signal It may include the step of transmitting to the drawing robot (S150).

3차원 모션 데이터를 수집하는 단계(S100)는 모션 추적 장비를 사용하여 붓의 움직임을 추적함으로써 시간에 따른 붓의 위치, 방향, 자세, 위치 등의 변화를 나타내는 3차원 모션 데이터를 수집할 수 있다.The step of collecting 3D motion data (S100) may collect 3D motion data indicating changes in the position, direction, posture, and position of the brush over time by tracking the movement of the brush using motion tracking equipment. .

한편, 이러한 3차원 모션 데이터를 이용하여 드로잉 로봇이 붓을 들고 사람과 동일한 움직임을 재현할 수 있으려면, 로봇 관절의 모터, 기어 등을 제어하기 위한 제어 신호로 변환하여야 한다. 따라서, 상기 로봇 제어 신호로 변환하는 단계(S110)가 수행될 수 있고, 이러한 신호 변환은 드로잉 로봇의 종류, 명령어 지원 방식 등에 따라 다르게 적용될 수 있다. 또한, 신호 변환과정에서 캔버스의 3차원 위치 정보를 반영할 수 있다. 즉, 캔버스의 3차원 위치 정보에 따른 평면으로 3차원 모션 데이터의 동작 평면을 이동시키는 과정이 추가될 수 있다.On the other hand, in order for the drawing robot to reproduce the same movement as a person with a brush by using the three-dimensional motion data, it must be converted into a control signal for controlling the motor, gear, and the like of the robot joint. Therefore, the step (S110) of converting to a robot control signal may be performed, and the signal conversion may be applied differently according to the type of drawing robot, command support method, or the like. Also, 3D position information of the canvas may be reflected in the signal conversion process. That is, a process of moving the motion plane of the 3D motion data to the plane according to the 3D location information of the canvas may be added.

드로잉 로봇의 드로잉을 제어하는 단계(S120)에서는 단순히 3차원 모션 데이터에 따라 드로잉 로봇의 움직임을 제어하는 것에 그치는 것에서 더 나아가, 붓에 물감의 잔량을 감지하거나 드로잉된 평면의 물감 잔량을 감지하는 등의 방식으로 붓에 물감 부족을 인지하고, 붓에 추가로 물감을 묻히는 동작 제어가 수행될 수 있고, 붓이 굽어 있는지 감지하여 붓을 바르게 펴는 동작 제어가 수행될 수 있다.In the step of controlling the drawing of the drawing robot (S120), it goes beyond simply controlling the movement of the drawing robot according to the 3D motion data, detecting the remaining amount of paint on the brush or detecting the remaining amount of paint on the drawn plane, etc. In the manner of recognizing the lack of paint on the brush, the motion control of adding the paint to the brush may be performed, and the motion control of straightening the brush by detecting whether the brush is bent may be performed.

이하에서는 3차원 모션 보정 데이터를 생성하는 단계(S140)를 상세하게 설명한다.Hereinafter, the step (S140) of generating 3D motion correction data will be described in detail.

도 3은 본 발명의 일 실시예에 따른 3차원 모션 보정 데이터를 생성하는 단계를 구체화한 흐름도이다. 도 4는 본 발명의 일 실시예에 따른 색상 표준화 방법을 설명하기 위한 개념도이다. 도 5는 본 발명의 일 실시예에 따른 보정 영역의 채색을 위한 물감 조합 시뮬레이션 방법을 설명하기 위한 개념도이다.3 is a flow chart embodying the steps of generating 3D motion correction data according to an embodiment of the present invention. 4 is a conceptual diagram illustrating a color standardization method according to an embodiment of the present invention. 5 is a conceptual diagram for explaining a method of simulating a color combination for coloring a correction area according to an embodiment of the present invention.

도 3을 참조하면, 도 2의 3차원 모션 보정 데이터를 생성하는 단계(S140)는, 로봇드로잉 영상 데이터와 기준 영상 데이터에 대한 색상 표준화를 수행하는 단계(S141), 색상 표준화된 로봇드로잉 영상 데이터와 기준 영상 데이터를 서로 비교하여 보정 영역과 상기 보정 영역에 대한 채색 데이터를 생성하는 단계(S142), 미리 수집한 붓 패턴 정보를 기초로 상기 보정 영역에 대한 붓 종류를 선정하는 단계(S143) 및 선정된 붓 종류 및 상기 붓 패턴 정보를 기초로 상기 보정 영역을 드로잉하기위한 붓의 최적 경로를 생성하는 단계(S144)를 포함할 수 있다.Referring to FIG. 3, the step (S140) of generating the 3D motion correction data of FIG. 2 is a step of performing color standardization on the robot drawing image data and reference image data (S141), and the color standardized robot drawing image data And comparing reference image data with each other to generate a correction area and coloring data for the correction area (S142), and selecting a brush type for the correction area based on previously collected brush pattern information (S143) and And generating an optimal path of the brush for drawing the correction area based on the selected brush type and the brush pattern information (S144).

여기서 기준 영상 데이터는 앞선 도 1에서 설명한 것과 같이, 외부의 카메라를 이용하여 사람의 드로잉(drawing)을 모니터링하여 획득한 영상 데이터일 수 있다. 따라서, 본 발명에서는 사람의 드로잉을 모니터링하여 획득한 영상 데이터(드로잉하는 장면 및 드로잉된 중간 결과물을 포함)를 기준 영상 데이터로 하여 드로잉 로봇의 드로잉 장면 및/또는 중간 결과물을 모니터링하여 획득한 로봇드로잉 영상 데이터를 서로 비교함으로써, 보정이 필요한 영역을 결정하고, 결정된 보정 영역에 대해 채색해야 할 채색 데이터를 생성할 수 있다.Here, the reference image data may be image data obtained by monitoring a person's drawing using an external camera, as described in FIG. 1 above. Therefore, in the present invention, the robot drawing obtained by monitoring the drawing scene and / or the intermediate result of the drawing robot by using the image data obtained by monitoring the human drawing (including the drawing scene and the drawn intermediate result) as reference image data By comparing the image data with each other, an area requiring correction can be determined, and coloring data to be colored with respect to the determined correction area can be generated.

또한, 채색 데이터를 생성하는 단계(S142)에서, 로봇드로잉 영상 데이터와 기준 영상 데이터를 비교시에 렌즈, 조명, 캔버스 등 주변 환경의 차이에 의해 발생하는 왜곡을 보정하기 위하여 각각의 영상 데이터에 대한 기하 보정이 수행될 수 있다. In addition, in the step of generating coloring data (S142), when comparing the robot drawing image data with the reference image data, for each image data in order to correct distortion caused by a difference in surrounding environment such as a lens, lighting, canvas, etc. Geometric correction can be performed.

또한, 채색 데이터를 생성하는 단계(S142)에서, 로봇드로잉 영상 데이터와 기준 영상 데이터를 비교시에는 중간 결과물의 채색 영역과 선 부분을 분리하고, 분리된 각 부분(또는 영역)의 크기, 모양에 대한 기하 분석, 색상에 대한 비교가 수행될 수 있다.In addition, in the step of generating the coloring data (S142), when comparing the robot drawing image data and the reference image data, the colored region and the line portion of the intermediate result are separated, and the size and shape of each separated portion (or region) are determined. Geometrical analysis, and comparison of colors can be performed.

한편, 일반적으로 카메라로 획득되는 영상의 RGB(Red, Green, Blue) 색상 정보는 동일한 물감이라고 하더라도 조명과 카메라의 설정에 따라 다르게 표현될 수 있다. 이 때문에, 영상에서 나타나는 색상을 사물의 대표 색상으로 사용할 경우 인식율이 크게 감소하는 문제가 발생할 수 있다. 따라서, 본 발명의 일 실시예에 따르면, 카메라로 획득되는 영상의 색상을 표준화함으로써, 카메라의 특성이나 조명 등 주변 환경의 영향을 최소화하고 균등한 재현 품질을 보장할 수 있다.On the other hand, in general, RGB (Red, Green, Blue) color information of an image acquired by the camera may be expressed differently depending on the lighting and the settings of the camera, even if the colors are the same. For this reason, when a color appearing in an image is used as a representative color of an object, a problem that a recognition rate is greatly reduced may occur. Therefore, according to an embodiment of the present invention, by standardizing the color of an image acquired by the camera, it is possible to minimize the influence of the surrounding environment such as characteristics of the camera or lighting and ensure uniform reproduction quality.

구체적으로 도 4를 참조하면, 본 발명의 일 실시예에 따른 영상 기반으로 드로잉 로봇을 제어하는 장치는 색상 표준화 모듈(소프트웨어 또는 하드웨어 모듈, 40)을 포함할 수 있다. 여기서, 색상 표준화 모듈(40)은 색상 공간 변환 데이터(42)를 이용하여 카메라의 색상 데이터(또는 RGB 데이터, 41)를 표준 색상 공간에 따른 색상 데이터(43)로 변환할 수 있다. 여기서 표준 색상 공간의 예시로는 CIELAB가 있을 수 있다.Specifically, referring to FIG. 4, an apparatus for controlling a drawing robot based on an image according to an embodiment of the present invention may include a color standardization module (software or hardware module, 40). Here, the color standardization module 40 may convert color data (or RGB data, 41) of the camera into color data 43 according to the standard color space using the color space conversion data 42. Here, an example of the standard color space may be CIELAB.

본 발명의 일 실시예에 따르면, 물감과 캔버스(종이, 한지 등)를 비롯한 각종 샘플들에 대하여 표준 컬러 공간에서의 색상 정보(42a)를 미리 수집하여 데이터베이스에 저장할 수 있다. 또한, 표준 컬러 공간에서의 색상 정보(42a)를 수집한 것과 동일한 샘플 및 동일한 조명 환경에 대하여 카메라 촬영을 통해 RGB 색상 정보(42b)를 수집하여 데이터베이스에 저장할 수 있다. According to an embodiment of the present invention, color information 42a in a standard color space may be collected in advance for various samples including paint and canvas (paper, Korean paper, etc.) and stored in a database. In addition, RGB color information 42b may be collected and stored in a database through camera shooting for the same sample and the same lighting environment as the color information 42a collected in the standard color space.

본 발명의 일 실시예에 따른 색상 공간 변환 데이터(42)은, 앞서 수집된 여러 샘플들에 대한 표준 색상 정보(42a)와 카메라 색상 정보(42b) 사이의 관계 및/또는 변환규칙을 나타내는 데이터를 의미할 수 있다.The color space conversion data 42 according to an embodiment of the present invention represents data representing a relationship and / or a conversion rule between standard color information 42a and camera color information 42b for various samples collected above. Can mean

따라서 도 3에 따른 색상 표준화를 수행하는 단계(S141)는, 미리 수집된 샘플에 대한 표준 색상 정보와 상기 샘플에 대한 카메라 색상 정보를 비교하여 생성된 색상 공간 변환 데이터를 불러오는 단계 및 불러온 색상 공간 변환 데이터를 이용하여 상기 로봇드로잉 영상 데이터와 상기 기준 영상 데이터의 색상 공간을 표준화하는 단계를 포함할 수 있다.Therefore, in the step of performing color standardization according to FIG. 3 (S141), comparing the standard color information for the sample collected in advance with the camera color information for the sample, and loading the generated color space conversion data and the imported color space And standardizing a color space of the robot drawing image data and the reference image data using transformed data.

한편, 채색 데이터를 생성하는 단계(S142)에서, 보정 영역에 대하여 채색할 채색 데이터를 생성하기 위해서는 기준 영상 데이터의 보정 영역과 로봇드로잉 영상 데이터의 보정 영역 사이의 색상 차이를 최소화할 수 있는 물감 조합을 선정해야 할 수 있다.On the other hand, in the step of generating coloring data (S142), in order to generate coloring data to be colored for the correction region, a combination of paints capable of minimizing the color difference between the correction region of the reference image data and the correction region of the robot drawing image data May need to be selected.

이러한 문제를 해결하기 위해 본 발명의 일 실시예에 따른 영상 기반으로 드로잉 로봇을 제어하는 장치는 물감 조합 시뮬레이션 모듈(50)을 포함할 수 있다.To solve this problem, an apparatus for controlling a drawing robot based on an image according to an embodiment of the present invention may include a color combination simulation module 50.

구체적으로 도 5를 참조하면, 물감 조합 시뮬레이션 모듈(50)은 개별 물감과 캔버스에 대한 표준 색상 정보(52) 및/또는 여러 물감과 캔버스의 조합에 대한 표준 색상 정보(53)를 미리 학습하고, 학습된 정보를 이용하여 가상의 물감과 캔버스 조합에 따른 대한 색상 정보를 시뮬레이션할 수 있다.Specifically, referring to FIG. 5, the color combination simulation module 50 previously learns standard color information 52 for individual paints and canvases and / or standard color information 53 for combinations of several paints and canvases, Using the learned information, it is possible to simulate color information according to a combination of virtual paint and canvas.

즉, 물감 조합 시뮬레이션 모듈(50)은 로봇드로잉 영상 데이터의 보정 영역에 대한 표준 색상 데이터(51)에 가상의 물감/캔버스 조합에 따른 채색하는 과정을 시뮬레이션하고, 시뮬레이션된 채색 결과가 기준 영상 데이터의 보정 영역과 일치하거나 가장 유사한 최적의 채색 데이터(54)를 도출할 수 있다.That is, the color combination simulation module 50 simulates the process of coloring according to the virtual color / canvas combination on the standard color data 51 for the correction area of the robot drawing image data, and the simulated color result is the reference image data. It is possible to derive the optimal coloring data 54 that matches or is most similar to the correction region.

도 5에 따른 내용을 종합하면, 도 3에 따른 상기 채색 데이터를 생성하는 단계(S142)는, 보정 영역에 대한 표준 색상 데이터를 획득하는 단계, 획득된 표준 색상 데이터를 기초로 물감 조합 시뮬레이션을 수행하여 상기 채색 데이터를 생성하는 단계를 포함할 수 있다.When the contents according to FIG. 5 are summed up, the step of generating the coloring data according to FIG. 3 (S142) includes: obtaining standard color data for a correction area, and performing color combination simulation based on the obtained standard color data. It may include the step of generating the coloring data.

상기 붓 종류를 선정하는 단계(S143)에서, 붓 패턴 정보는 붓에 물감을 묻히고 다양한 자세, 방향, 각도 등으로 그림을 그릴 경우에 결과물로 표시될 수 있는 다양한 패턴(선의 굵기, 시작과 끝의 모양 등)을 의미할 수 있다. 이러한 붓 패턴 정보는 미리 사람의 드로잉 동작과 그 결과물을 매칭하여 수집함으로써 획득할 수 있다.In the step of selecting the brush type (S143), the brush pattern information is a variety of patterns (thickness, start and end of the line) that can be displayed as a result when painting with various poses, directions, angles, etc. Shape, etc.). Such brush pattern information can be obtained by matching and collecting a person's drawing motion in advance.

붓의 최적 경로를 생성하는 단계(S144)에서, 붓의 최적 경로는 물감, 캔버스, 붓의 상태에 따라서 그려지는 굵기가 달라질 수 있으므로, 단계 S142에서 생성한 채색 데이터와 드로잉 로봇의 붓, 캔버스를 고려하여 생성해야 할 수 있다.In step S144 of generating the optimal path of the brush, the optimal path of the brush may vary depending on the color of the paint, canvas, and brush, so the coloring data generated in step S142 and the brush and canvas of the drawing robot can be used. May need to be considered.

또한, 붓으로 드로잉하는 과정이 길어지면 붓에 물감을 다시 묻히거나 구부러진 붓을 다시 바르게 펴는 과정이 필요할 수 있다. 따라서, 상기 붓의 최적 경로를 생성하는 단계(S144) 이후에, 상기 최적 경로에 따른 드로잉 시간을 산출하는 단계 및 산출된 드로잉 시간이 미리 설정된 임계값을 초과하면, 드로잉 준비를 위한 추가 모션 데이터를 생성하는 단계를 더 포함할 수 있다.In addition, if the process of drawing with a brush is lengthened, it may be necessary to re-paint the brush or to straighten the bent brush again. Therefore, after the step of generating the optimal path of the brush (S144), if the step of calculating the drawing time according to the optimal path and the calculated drawing time exceeds a preset threshold, additional motion data for drawing preparation is added. It may further include the step of generating.

여기서 드로잉 준비를 위한 추가 모션 데이터는 붓에 물감을 묻히는 동작이나 구부러진 붓을 바르게 펴는 동작을 나타내는 데이터일 수 있다.Here, the additional motion data for preparing the drawing may be data representing an operation of applying paint to a brush or an operation of straightening a bent brush.

도 6은 본 발명의 일 실시예에 따른 영상 기반으로 드로잉 로봇을 제어하는 장치에 대한 하드웨어 구성도이다.6 is a hardware configuration diagram of an apparatus for controlling a drawing robot based on an image according to an embodiment of the present invention.

도 6을 참조하면, 영상 기반으로 드로잉 로봇을 제어하는 장치(100)는 적어도 하나의 프로세서(110) 및 상기 적어도 하나의 프로세서가 적어도 하나의 단계를 수행하도록 지시하는 명령어들(instructions)을 포함할 수 있다.Referring to FIG. 6, an apparatus 100 for controlling a drawing robot based on an image may include at least one processor 110 and instructions to instruct the at least one processor to perform at least one step. Can be.

상기 적어도 하나의 단계는, 사람의 드로잉(drawing)에 의한 붓의 움직임을 추적하여 생성된 3차원 모션 데이터를 수집하는 단계, 수집된 3차원 모션 데이터를 로봇 제어 신호로 변환하는 단계, 변환된 로봇 제어 신호를 드로잉 로봇에 전송하여 상기 드로잉 로봇의 드로잉을 제어하는 단계, 외부의 카메라를 이용하여 상기 드로잉 로봇을 모니터링한 로봇드로잉 영상 데이터를 획득하는 단계, 획득된 로봇 드로잉 영상 데이터를 분석하여 붓의 3차원 모션 보정 데이터를 생성하는 단계 및 생성된 3차원 모션 보정 데이터를 로봇 제어 보정 신호로 변환하여 상기 드로잉 로봇에 전송하는 단계를 포함할 수 있다.The at least one step includes: collecting the 3D motion data generated by tracking the movement of a brush by drawing of a person, converting the collected 3D motion data into a robot control signal, and converting the robot Controlling the drawing of the drawing robot by transmitting a control signal to the drawing robot, obtaining robot drawing image data monitoring the drawing robot using an external camera, analyzing acquired robot drawing image data, and drawing The method may include generating 3D motion correction data and converting the generated 3D motion correction data into a robot control correction signal and transmitting the generated 3D motion correction data to the drawing robot.

상기 3차원 모션 데이터는, 붓의 회전, 기울기, 방향 중 적어도 하나를 나타내는 피치(pitch), 요(yaw), 롤(roll) 정보 및 붓의 3차원 공간 좌표 정보를 포함할 수 있다.The 3D motion data may include pitch, yaw, roll information indicating at least one of rotation, inclination, and direction of the brush, and 3D spatial coordinate information of the brush.

상기 3차원 모션 보정 데이터를 생성하는 단계는, 상기 로봇드로잉 영상 데이터와 기준 영상 데이터에 대한 색상 표준화를 수행하는 단계 및 색상 표준화된 로봇드로잉 영상 데이터와 상기 기준 영상 데이터를 서로 비교하여 보정 영역과 상기 보정 영역에 대한 채색 데이터를 생성하는 단계를 포함할 수 있다.The generating of the 3D motion correction data may include performing color normalization on the robot drawing image data and reference image data, and comparing the color standardized robot drawing image data and the reference image data to each other to correct the correction region and the And generating coloring data for the correction area.

상기 기준 영상 데이터는, 상기 외부의 카메라를 이용하여 상기 사람의 드로잉(drawing)을 모니터링하여 획득한 영상 데이터일 수 있다.The reference image data may be image data obtained by monitoring the drawing of the person using the external camera.

상기 색상 표준화를 수행하는 단계는, 미리 수집된 샘플에 대한 표준 색상 정보와 상기 샘플에 대한 카메라 색상 정보를 비교하여 생성된 색상 공간 변환 데이터를 불러오는 단계, 불러온 색상 공간 변환 데이터를 이용하여 상기 로봇드로잉 영상 데이터와 상기 기준 영상 데이터의 색상 공간을 표준화하는 단계를 포함할 수 있다.In the step of performing the color standardization, comparing the standard color information for a sample collected in advance with the camera color information for the sample, and loading the generated color space conversion data, and the robot using the imported color space conversion data And standardizing the color space of the drawing image data and the reference image data.

상기 채색 데이터를 생성하는 단계는, 상기 보정 영역에 대한 표준 색상 데이터를 획득하는 단계, 획득된 표준 색상 데이터를 기초로 물감 조합 시뮬레이션을 수행하여 상기 채색 데이터를 생성하는 단계를 포함할 수 있다.The generating of the coloring data may include obtaining standard color data for the correction area, and performing color combination simulation based on the obtained standard color data to generate the coloring data.

상기 3차원 모션 보정 데이터를 생성하는 단계는, 상기 채색 데이터를 생성하는 단계 이후에, 미리 수집한 붓 패턴 정보를 기초로 상기 보정 영역에 대한 붓 종류를 선정하는 단계 및 선정된 붓 종류 및 상기 붓 패턴 정보를 기초로 상기 보정 영역을 드로잉하기위한 붓의 최적 경로를 생성하는 단계를 더 포함할 수 있다.In the generating of the 3D motion correction data, after the step of generating the coloring data, selecting a brush type for the correction area based on the brush pattern information collected in advance and the selected brush type and the brush The method may further include generating an optimal path of the brush for drawing the correction region based on the pattern information.

상기 3차원 모션 보정 데이터를 생성하는 단계는, 상기 붓의 최적 경로를 생성하는 단계 이후에, 상기 최적 경로에 따른 드로잉 시간을 산출하는 단계 및 산출된 드로잉 시간이 미리 설정된 임계값을 초과하면, 드로잉 준비를 위한 추가 모션 데이터를 생성하는 단계를 더 포함할 수 있다.In the step of generating the 3D motion correction data, after the step of generating the optimal path of the brush, the step of calculating the drawing time according to the optimal path and the calculated drawing time exceeds a preset threshold, drawing The method may further include generating additional motion data for preparation.

영상 기반으로 드로잉 로봇을 제어하는 장치(100)의 예를 들면, 통신 가능한 데스크탑 컴퓨터(desktop computer), 랩탑 컴퓨터(laptop computer), 노트북(notebook), 스마트폰(smart phone), 태블릿 PC(tablet PC), 모바일폰(mobile phone), 스마트 워치(smart watch), 스마트 글래스(smart glass), e-book 리더기, PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 디지털 카메라(digital camera), DMB(digital multimedia broadcasting) 재생기, 디지털 음성 녹음기(digital audio recorder), 디지털 음성 재생기(digital audio player), 디지털 동영상 녹화기(digital video recorder), 디지털 동영상 재생기(digital video player), PDA(Personal Digital Assistant) 등일 수 있다.For example, an apparatus 100 for controlling a drawing robot based on an image, for example, a communicable desktop computer, a laptop computer, a notebook, a smart phone, and a tablet PC ), Mobile phone, smart watch, smart glass, e-book reader, portable multimedia player (PMP), portable game machine, navigation device, digital camera , Digital multimedia broadcasting (DMB) player, digital audio recorder, digital audio player, digital video recorder, digital video player, PDA (Personal Digital Assistant) ).

본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. Computer-readable media may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the computer-readable medium may be specially designed and configured for the present invention or may be known and usable by those skilled in computer software.

컴퓨터 판독 가능 매체의 예에는 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer-readable media may include hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include machine language codes such as those produced by a compiler, as well as high-level language codes that can be executed by a computer using an interpreter or the like. The above-described hardware device may be configured to operate with at least one software module to perform the operation of the present invention, and vice versa.

또한, 상술한 방법 또는 장치는 그 구성이나 기능의 전부 또는 일부가 결합되어 구현되거나, 분리되어 구현될 수 있다. In addition, the above-described method or apparatus may be implemented by combining all or part of its configuration or function, or may be implemented separately.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although described above with reference to preferred embodiments of the present invention, those skilled in the art variously modify and change the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. You can understand that you can.

Claims (1)

사람의 드로잉(drawing)에 의한 붓의 움직임을 추적하여 생성된 3차원 모션 데이터를 수집하는 단계;
수집된 3차원 모션 데이터를 로봇 제어 신호로 변환하는 단계;
변환된 로봇 제어 신호를 드로잉 로봇에 전송하여 상기 드로잉 로봇의 드로잉을 제어하는 단계;
외부의 카메라를 이용하여 상기 드로잉 로봇을 모니터링한 로봇드로잉 영상 데이터를 획득하는 단계;
획득된 로봇 드로잉 영상 데이터를 분석하여 붓의 3차원 모션 보정 데이터를 생성하는 단계; 및
생성된 3차원 모션 보정 데이터를 로봇 제어 보정 신호로 변환하여 상기 드로잉 로봇에 전송하는 단계를 포함하는, 영상 기반으로 드로잉 로봇을 제어하는 방법.
Collecting 3D motion data generated by tracking the movement of a brush by drawing of a person;
Converting the collected 3D motion data into a robot control signal;
Controlling the drawing of the drawing robot by transmitting the converted robot control signal to the drawing robot;
Obtaining robot drawing image data monitoring the drawing robot using an external camera;
Analyzing the acquired robot drawing image data and generating 3D motion correction data of the brush; And
A method of controlling a drawing robot based on an image, comprising converting the generated 3D motion correction data into a robot control correction signal and transmitting it to the drawing robot.
KR1020180144227A 2018-11-21 2018-11-21 Method and apparatus for controlling a drawing robot based on image KR20200059465A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180144227A KR20200059465A (en) 2018-11-21 2018-11-21 Method and apparatus for controlling a drawing robot based on image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180144227A KR20200059465A (en) 2018-11-21 2018-11-21 Method and apparatus for controlling a drawing robot based on image

Publications (1)

Publication Number Publication Date
KR20200059465A true KR20200059465A (en) 2020-05-29

Family

ID=70911662

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180144227A KR20200059465A (en) 2018-11-21 2018-11-21 Method and apparatus for controlling a drawing robot based on image

Country Status (1)

Country Link
KR (1) KR20200059465A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102607490B1 (en) * 2023-04-04 2023-11-29 주식회사 아임토리 Apparatus and Method for analysising Motion of ergonomic-based humanoid robots

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102607490B1 (en) * 2023-04-04 2023-11-29 주식회사 아임토리 Apparatus and Method for analysising Motion of ergonomic-based humanoid robots

Similar Documents

Publication Publication Date Title
Munaro et al. OpenPTrack: Open source multi-camera calibration and people tracking for RGB-D camera networks
US8861800B2 (en) Rapid 3D face reconstruction from a 2D image and methods using such rapid 3D face reconstruction
KR101135186B1 (en) System and method for interactive and real-time augmented reality, and the recording media storing the program performing the said method
US20170024893A1 (en) Scene analysis for improved eye tracking
Berio et al. Learning dynamic graffiti strokes with a compliant robot
JP2016103230A (en) Image processor, image processing method and program
CN109544629A (en) Camera pose determines method and apparatus and electronic equipment
US11568601B2 (en) Real-time hand modeling and tracking using convolution models
CN111208783A (en) Action simulation method, device, terminal and computer storage medium
US11775817B2 (en) Reinforcement learning-based techniques for training a natural media agent
Beyeler OpenCV with Python blueprints
CN114012731A (en) Hand-eye calibration method and device, computer equipment and storage medium
Baggio et al. Mastering OpenCV 3
CN113284192A (en) Motion capture method and device, electronic equipment and mechanical arm control system
CN111152234A (en) Calligraphy copying method and device for robot and robot
CN109215128B (en) Object motion attitude image synthesis method and system
KR20200059465A (en) Method and apparatus for controlling a drawing robot based on image
Milosevic et al. A SmartPen for 3D interaction and sketch-based surface modeling
US11170550B2 (en) Facial animation retargeting using an anatomical local model
JP2005332177A (en) Three-dimensional information processor, three-dimensional information processing method, and three-dimensional information processing program
Shilkrot et al. Mastering OpenCV 4: A comprehensive guide to building computer vision and image processing applications with C++
CN116012913A (en) Model training method, face key point detection method, medium and device
US10181223B2 (en) Selecting and transferring material properties in a virtual drawing space
Li et al. Robot brush-writing system of Chinese calligraphy characters
US11893681B2 (en) Method for processing two-dimensional image and device for executing method