KR20230134328A - Apparatus and method for teaching robot - Google Patents

Apparatus and method for teaching robot Download PDF

Info

Publication number
KR20230134328A
KR20230134328A KR1020220031517A KR20220031517A KR20230134328A KR 20230134328 A KR20230134328 A KR 20230134328A KR 1020220031517 A KR1020220031517 A KR 1020220031517A KR 20220031517 A KR20220031517 A KR 20220031517A KR 20230134328 A KR20230134328 A KR 20230134328A
Authority
KR
South Korea
Prior art keywords
teaching
robot
point data
user
portable computer
Prior art date
Application number
KR1020220031517A
Other languages
Korean (ko)
Inventor
동지연
강동엽
권우경
남승우
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020220031517A priority Critical patent/KR20230134328A/en
Publication of KR20230134328A publication Critical patent/KR20230134328A/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

로봇 교시 방법이 개시된다. 로봇 교시 방법은, 휴대용 컴퓨터가, 로봇 교시를 안내하도록 구성된 제1 GUI 화면을 표시하는 단계; 핸드헬드 디바이스(handheld device)가, 상기 제1 GUI를 통해 제공되는 교시 안내에 따라 동작하는 사용자의 교시 모션을 인식하여 제1 교시점 데이터를 생성하는 단계; 로봇 제어 장치가, 상기 핸드헬드 디바이스로부터 상기 제1 교시점 데이터를 수신하고, 상기 사용자의 교시 의도에 부합하도록 상기 제1 교시점 데이터를 보정하여 제2 교시점 데이터를 생성하는 단계; 상기 휴대용 컴퓨터가, 상기 로봇 제어 장치로부터 상기 제2 교시점 데이터를 수신하고, 사용자가 상기 제2 교시점 데이터를 선택할 수 있도록 구성된 제2 GUI 화면을 표시하는 단계; 및 상기 휴대용 컴퓨터가, 사용자가 상기 제2 GUI 화면을 통해 선택한 상기 제2 교시점 데이터에 대응하는 교시 명령을 상기 로봇 제어 장치로 송신하는 단계를 포함한다.A robot teaching method is disclosed. The robot teaching method includes: displaying, by a portable computer, a first GUI screen configured to guide robot teaching; generating, by a handheld device, first teaching point data by recognizing a teaching motion of a user operating according to teaching guidance provided through the first GUI; A robot control device receiving the first teaching point data from the handheld device, correcting the first teaching point data to meet the user's teaching intention, and generating second teaching point data; receiving, by the portable computer, the second starting point data from the robot control device, and displaying a second GUI screen configured to allow a user to select the second starting point data; and transmitting, by the portable computer, a teaching command corresponding to the second teaching point data selected by the user through the second GUI screen to the robot control device.

Description

로봇 교시를 위한 장치 및 방법{APPARATUS AND METHOD FOR TEACHING ROBOT}Apparatus and method for teaching robots {APPARATUS AND METHOD FOR TEACHING ROBOT}

본 발명은 로봇 교시 기술에 관한 것이다.The present invention relates to robot teaching technology.

로봇 교시(robot teaching)은 사용자(operator)가 로봇에게 명령을 전달하여 새로운 작업을 가르치는 기술을 말한다. 이러한 로봇 교시로서, 사용자가 자신의 교시 의도에 대응하는 프로그램을 직접 작성하여 로봇에 기록하는 방법, 티칭 팬던트(teaching pendant)를 이용하여 목표 경로점과 같은 교시점(teaching point)을 로봇에 기록하는 방법 등이 있다.Robot teaching refers to a technique where an operator (operator) teaches a new task by transmitting commands to a robot. As for such robot teaching, the user directly writes a program corresponding to the user's teaching intention and records it on the robot, and uses a teaching pendant to record teaching points such as the target path point on the robot. There are methods, etc.

티칭 팬던트를 이용하는 방법은 프로그램을 직접 작성하는 방법에 비해 비교적 쉽지만 실제 공정 자동화를 구현하기 위해서는 두 가지 방법 모두 전문성을 갖춘 사용자만이 가능한 점에서 비전문가의 접근성이 떨어진다.Using a teaching pendant is relatively easier than writing a program yourself, but in order to implement actual process automation, both methods are only possible for users with expertise, making them less accessible to non-experts.

또한, 로봇이 펙인홀(peg-in-hole) 작업 등과 같은 고난이도의 작업을 수행하기 위해서는, 로봇의 속도, 가속도 및 접촉력에 대한 정밀한 교시 방법이 필요하다. 여기서, 펙인홀 작업이란 특정 물체(peg)를 모양이 맞는 구멍에 끼워 맞추는 작업으로, 나사를 조립하거나, 톱니 바퀴를 축에 고정시키는 작업을 예로 들 수 있다. Additionally, in order for a robot to perform highly difficult tasks such as peg-in-hole work, a precise teaching method for the robot's speed, acceleration, and contact force is needed. Here, the peg-in-hole work is a work of fitting a specific object (peg) into a hole of the correct shape, and examples include assembling screws or fixing a toothed wheel to an axle.

이러한 고난이도 작업 수행을 위한 로봇 교시는 매우 어렵고 복잡하기 때문에, 아직까지 범용적으로 사용할 수 있는 교시 방법에 대한 연구 개발은 미비한 실정이다.Because robot teaching for performing these highly difficult tasks is very difficult and complex, research and development on teaching methods that can be used universally is still insufficient.

상술한 문제점을 해결하기 위한 본 발명의 목적은 로봇의 고난이도 작업 수행을 위한 로봇 교시를 위한 장치 및 방법을 제공하는 데 있다.The purpose of the present invention to solve the above-described problems is to provide an apparatus and method for teaching robots to perform highly difficult tasks.

상술한 목적을 달성하기 위한 본 발명의 일면에 따른 로봇 교시를 위한 방법은, 휴대용 컴퓨터가, 로봇 교시를 안내하도록 구성된 제1 GUI 화면을 표시하는 단계; 핸드헬드 디바이스(handheld device)가, 상기 제1 GUI를 통해 제공되는 교시 안내에 따라 동작하는 사용자의 교시 모션을 인식하여 제1 교시점 데이터를 생성하는 단계; 로봇 제어 장치가, 상기 핸드헬드 디바이스로부터 상기 제1 교시점 데이터를 수신하고, 상기 사용자의 교시 의도에 부합하도록 상기 제1 교시점 데이터를 보정하여 제2 교시점 데이터를 생성하는 단계; 상기 휴대용 컴퓨터가, 상기 로봇 제어 장치로부터 상기 제2 교시점 데이터를 수신하고, 사용자가 상기 제2 교시점 데이터를 선택할 수 있도록 구성된 제2 GUI 화면을 표시하는 단계; 및 상기 휴대용 컴퓨터가, 사용자가 상기 제2 GUI 화면을 통해 선택한 상기 제2 교시점 데이터에 대응하는 교시 명령을 상기 로봇 제어 장치로 송신하는 단계를 포함한다.A method for robot teaching according to one aspect of the present invention for achieving the above-described object includes the steps of displaying, by a portable computer, a first GUI screen configured to guide robot teaching; generating, by a handheld device, first teaching point data by recognizing a teaching motion of a user operating according to teaching guidance provided through the first GUI; A robot control device receiving the first teaching point data from the handheld device, correcting the first teaching point data to meet the user's teaching intention, and generating second teaching point data; receiving, by the portable computer, the second starting point data from the robot control device, and displaying a second GUI screen configured to allow a user to select the second starting point data; and transmitting, by the portable computer, a teaching command corresponding to the second teaching point data selected by the user through the second GUI screen to the robot control device.

본 발명의 다른 일면에 따른 로봇 교시를 위한 장치는, 로봇 교시를 안내하도록 구성된 제1 GUI 화면 및 교시 명령을 생성하도록 구성된 제2 GUI 화면을 표시하는 휴대용 컴퓨터; 및 상기 제1 GUI 화면을 통해 제공되는 교시 안내에 따라 동작하는 사용자의 교시 모션을 인식하여 제1 교시점 데이터를 생성하고, 상기 제1 교시점 데이터를 로봇 제어 장치로 송신하는 핸드헬드 디바이스를 포함하고, 상기 휴대용 컴퓨터는, 상기 로봇 제어 장치로부터 상기 사용자의 교시 의도에 부합하도록 상기 제1 교시점 데이터를 재구성하여 획득한 제2 교시점 데이터를 수신하고, 상기 사용자가 상기 제2 GUI 화면을 통해 선택한 상기 제2 교시점 데이터에 대응하는 교시 명령을 상기 로봇 제어 장치로 송신한다.An apparatus for robot teaching according to another aspect of the present invention includes a portable computer that displays a first GUI screen configured to guide robot teaching and a second GUI screen configured to generate teaching commands; And a handheld device that recognizes the user's teaching motion that operates according to the teaching guidance provided through the first GUI screen, generates first teaching point data, and transmits the first teaching point data to the robot control device. And, the portable computer receives second teaching point data obtained by reconstructing the first teaching point data to meet the user's teaching intention from the robot control device, and the user uses the second GUI screen. A teaching command corresponding to the selected second teaching point data is transmitted to the robot control device.

본 발명에 따르면, 사용자가, 휴대용 컴퓨터에 설치된 애플리케이션(GUI)을 통해 단계별로 제공되는 교시 안내와 해당 교시 안내를 시각적으로 나타내는 시뮬레이션 이미지에 따라, 로봇의 고난이도 작업에 대한 로봇 교시 작업을 핸드헬드 디바이스(handheld device)를 이용하여 수행함으로써, 로봇 교시 작업에 대한 전문성을 갖추지 못한 비전문가도 로봇의 고난이도 작업에 대한 교시 작업을 쉽게 수행할 수 있다.According to the present invention, a user performs a robot teaching task for a high-difficulty task using a handheld device, according to teaching guidance provided step by step through an application (GUI) installed on a portable computer and a simulation image that visually represents the teaching guidance. By using a handheld device, even non-experts without expertise in robot teaching tasks can easily perform teaching tasks on robot teaching tasks of high difficulty.

또한, 애플리케이션은 교시 안내 정보들 중에서 직접 교시(direct teaching)와 관련된 안내 정보에 따라 수행된 교시 작업의 결과 정보(교시 궤적 정보)를 로봇 제어기로부터 수신하고, 그 수신된 결과 정보(교시 궤적 정보)가 사용자의 교시 의도(teaching intent)에 부합하도록 그 수신된 결과 정보(교시 궤적 정보)에 대한 보정 프로세스를 제공함으로써, 로봇 교시 작업의 정확도를 높일 수 있다.In addition, the application receives result information (teaching trajectory information) of a teaching task performed according to guidance information related to direct teaching from the robot controller, and the received result information (teaching trajectory information) The accuracy of the robot teaching task can be increased by providing a correction process for the received result information (teaching trajectory information) to match the user's teaching intent.

도 1은 본 발명의 실시 예에 따른 로봇 교시를 위한 장치의 구성도이다.
도 2는 본 발명의 실시 예에 따른 교시 안내 애플리케이션에서 제공되는 메인 화면 구성을 설명하기 위한 도면이다.
도 3 및 4는 도 2에 도시된 설정 항목이 선택된 경우에 제공되는 화면 구성들을 설명하기 위한 도면들이다.
도 5는 도 2에 도시된 튜토리얼 항목이 선택된 경우에 제공되는 화면 구성들을 설명하기 위한 도면들이다.
도 6은 도 5에 도시된 복수의 메인 메뉴들 중에서 디바이스 사용법을 선택한 경우에 제공되는 화면 구성을 설명하기 위한 도면이다.
도 7은 도 5에 도시된 복수의 메인 메뉴들 중에서 3차원 자유 궤적을 선택한 경우에 제공되는 화면 구성을 설명하기 위한 도면이다.
도 8은 도 2에 도시된 위저드 항목을 선택한 경우에 제공되는 메인 화면 구성을 설명하기 위한 도면들이다.
도 9 내지 13은 도 8에 도시된 잡기 항목을 선택한 경우에 제공되는 화면 구성들을 설명하기 위한 도면들이다.
도 14는 도 8 및 14에 도시된 잡기 작업과 관련된 교시 안내에 따라 사용자에 의해 생성된 교시 궤적의 보정 프로세스를 제공하기 위한 화면 구성을 설명하기 위한 도면이다.
도 15는 본 발명의 실시 예에 따른 로봇 교시를 위한 방법을 설명하기 위한 흐름도이다.
도 16은 본 발명의 실시 예에 따른 휴대용 컴퓨터를 나타내는 블록도이다.
도 17은 본 발명의 실시 예에 따른 핸드헬드 디바이스를 나타내는 블록도이다.
1 is a configuration diagram of a device for robot teaching according to an embodiment of the present invention.
Figure 2 is a diagram for explaining the main screen configuration provided in the teaching guide application according to an embodiment of the present invention.
Figures 3 and 4 are diagrams for explaining screen configurations provided when the setting item shown in Figure 2 is selected.
FIG. 5 is a diagram for explaining screen configurations provided when the tutorial item shown in FIG. 2 is selected.
FIG. 6 is a diagram for explaining the screen configuration provided when a device usage method is selected from the plurality of main menus shown in FIG. 5.
FIG. 7 is a diagram illustrating a screen configuration provided when a 3D free trajectory is selected from the plurality of main menus shown in FIG. 5.
FIG. 8 is a diagram for explaining the main screen configuration provided when the wizard item shown in FIG. 2 is selected.
Figures 9 to 13 are diagrams for explaining screen configurations provided when the grab item shown in Figure 8 is selected.
FIG. 14 is a diagram illustrating a screen configuration for providing a correction process of a teaching trajectory generated by a user according to teaching guidance related to the grasping task shown in FIGS. 8 and 14.
Figure 15 is a flowchart illustrating a method for robot teaching according to an embodiment of the present invention.
Figure 16 is a block diagram showing a portable computer according to an embodiment of the present invention.
Figure 17 is a block diagram showing a handheld device according to an embodiment of the present invention.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used herein are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the attached drawings. In order to facilitate overall understanding when describing the present invention, the same reference numerals are used for the same components in the drawings, and duplicate descriptions for the same components are omitted.

도 1은 본 발명의 실시 예에 따른 로봇 교시를 위한 장치를 나타내는 블록도이다.Figure 1 is a block diagram showing a device for robot teaching according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시 예에 따른 로봇 교시를 위한 장치(100)는 휴대용 컴퓨터(110) 및 핸드헬드 디바이스(120: handheld device)를 포함한다.Referring to FIG. 1, an apparatus 100 for robot teaching according to an embodiment of the present invention includes a portable computer 110 and a handheld device 120.

휴대용 컴퓨터(110)는 전문성을 갖추지 못한 사용자에게 여러 단계를 포함하는 복잡한 로봇 교시 작업을 안내하는 장치로서, 예를 들면, 태블릿 PC 형태로 구현될 수 있다. 로봇 교시 작업을 안내하기 위해, 휴대용 컴퓨터(110)에는 교시 안내 애플리케이션(112)이 설치된다. The portable computer 110 is a device that guides a user without expertise in a complex robot teaching task including several steps, and may be implemented in the form of a tablet PC, for example. To guide the robot teaching task, a teaching guidance application 112 is installed on the portable computer 110.

휴대용 컴퓨터(110)는 교시 안내 애플케이션(112)을 실행하여 사용자에게 로봇 교시 작업을 안내하기 위한 다양한 그래픽 사용자 인터페이스(Graphical User Interface: GUI)를 제공한다.The portable computer 110 runs the teaching guidance application 112 and provides various graphical user interfaces (GUIs) to guide the user in robot teaching tasks.

핸드헬드 디바이스(120)는, 교시 안내 애플리케이션에서 제공하는 교시 안내 정보에 따라, 로봇(220)에 대한 교시 작업을 원격으로 수행하기 위한 장치로서, 여기서, 교시 작업은, 넓게는 볼팅 작업, 삽입 작업, 펙인홀 작업과 같은 고난이도 작업을 포함하며, 좁게는 이러한 고난도 작업을 수행하기 위한 로봇(220)의 팔과 그리퍼(gripper) 동작을 교시(teaching)하기 위한 작업들을 포함할 수 있다.The handheld device 120 is a device for remotely performing a teaching operation on the robot 220 according to teaching guidance information provided by a teaching guidance application. Here, the teaching operation broadly includes a bolting operation and an insertion operation. , It includes highly difficult tasks such as pick-in-hole work, and narrowly may include tasks for teaching the arm and gripper movements of the robot 220 to perform such difficult tasks.

핸드헬드 디바이스(120)는 사용자의 팔과 손 동작에 따른 사용자의 조작 동작(manipulative movement)을 측정 및 인식하여, 사용자의 팔과 손 동작에 따른 핸드헬드 디바이스(120)의 위치 좌표들을 포함하는 교시점 데이터(teaching point data 또는 waypoint data)를 생성한다. 이러한 교시점 데이터는 로봇(220)의 팔과 그리퍼(gripper) 동작을 교시(teaching)하기 위해 데이터로 활용된다The handheld device 120 measures and recognizes the user's manipulative movements according to the user's arm and hand movements, and generates a link containing the position coordinates of the handheld device 120 according to the user's arm and hand movements. Generate viewpoint data (teaching point data or waypoint data). This teaching point data is used as data to teach the arm and gripper movements of the robot 220.

사용자의 교시 의도를 인식하기 위해, 핸드헬드 디바이스(120)는, 예를 들면, 6축 마우스, X박스 조이스틱, 사용자의 팔과 손동작을 인식하는 동작 인식 컨트롤러 등으로 구현될 수 있다. 여기서, 동작 인식 컨트롤러는, 예를 들면, 증강 현실(augmented reality, AR) 또는 가상 현실(VR: Virtual Reality) 장비에서 사용되는 바이브(vive) 컨트롤러와 같은 형태로 구현될 수 있다. In order to recognize the user's teaching intent, the handheld device 120 may be implemented with, for example, a 6-axis mouse, an Xbox joystick, or a motion recognition controller that recognizes the user's arm and hand movements. Here, the motion recognition controller may be implemented, for example, in a form such as a vive controller used in augmented reality ( AR ) or virtual reality ( VR ) equipment.

핸드헬드 디바이스(120)에 의해 생성된 교시점 데이터는 무선 통신을 이용하여 후술하는 로봇 제어 장치(210)로 전송된다. 무선 통신은, 특별히 한정하는 것은 아니지만, 와이파이, 블루투스와 같은 근거리 무선 통신일 수 있다. 이러한 근거리 무선 통신을 지원하기 위해, 핸드헬드 디바이스(120)와 로봇 제어 장치(210)는 무선 통신 모듈을 각각 포함하도록 구성될 수 있다.The teaching point data generated by the handheld device 120 is transmitted to the robot control device 210 described later using wireless communication. Wireless communication is not particularly limited, but may be short-distance wireless communication such as Wi-Fi or Bluetooth. To support such short-range wireless communication, the handheld device 120 and the robot control device 210 may each be configured to include a wireless communication module.

로봇 제어 장치(210)는 로봇(220)의 동작을 제어하는 장치로서, 기본적으로 프로세서, 메모리 및 무선 통신 모듈을 포함하도록 구성된 컴퓨팅 장치일 수 있다. The robot control device 210 is a device that controls the operation of the robot 220, and may basically be a computing device configured to include a processor, memory, and wireless communication module.

로봇 제어 장치(210)는 무선 통신을 이용하여 핸드헬드 디바이스(120)로부터 핸드헬드 디바이스(120)의 현재 위치를 나타내는 교시점 데이터(제1 교시점 데이터)를 수신한다. 또한, 로봇 제어 장치(210)는 사용자의 교시 의도를 종합적으로 분석하여, 상기 교시 의도에 부합하도록 교시 궤적 보정 알고리즘을 이용하여 상기 교시점 데이터에 대한 보정 프로세스를 수행할 수 있다.The robot control device 210 receives teaching point data (first teaching point data) indicating the current location of the handheld device 120 from the handheld device 120 using wireless communication. Additionally, the robot control device 210 may comprehensively analyze the user's teaching intention and perform a correction process on the teaching point data using a teaching trajectory correction algorithm to match the teaching intention.

일 예로, 보정 프로세스는, 상기 사용자의 교시 의도에 부합하는 기준 교시점 데이터와 상기 교시점 데이터를 비교하여, 상기 교시점 데이터가 상기 기준 교시점 데이터에 일치하도록 상기 교시점 데이터를 보정(재구성)하는 것일 수 있다.As an example, the correction process compares the teaching point data with reference teaching point data that matches the user's teaching intention, and corrects (reconstructs) the teaching point data so that the teaching point data matches the reference teaching point data. It may be.

다른 예로, 보정 프로세스는, 상기 기준 교시점 데이터와 상기 교시점 데이터 사이의 차이를 기반으로 상기 교시점 데이터를 보정하는 것일 수 있다.As another example, the correction process may be to correct the teach point data based on the difference between the reference teach point data and the teach point data.

사용자의 교시 의도는 휴대용 컴퓨터(110)로부터 수신된 교시 작업 정보를 기반으로 분석될 수 있으며, 여기서, 교시 작업 정보는 사용자가 교시 안내 애플리케이션(112)을 통해 선택한 교시 작업 및 세부 교시 작업의 종류를 나타내는 정보일 수 있다. The user's teaching intention may be analyzed based on teaching task information received from the portable computer 110, where the teaching task information indicates the type of teaching task and detailed teaching task selected by the user through the teaching guidance application 112. It may be information that represents.

이러한 교시 작업 정보를 수신하기 위해, 로봇 제어 장치(210)는 휴대용 컴퓨터(110)와 무선 통신을 수행할 수 있다. 여기서, 무선 통신은, 특별히 한정하는 것은 아니지만, 와이파이, 블루투스와 같은 근거리 무선 통신일 수 있다. 이러한 근거리 무선 통신을 지원하기 위해, 휴대용 컴퓨터(110)와 로봇 제어 장치(210)는 무선 통신 모듈을 각각 포함하도록 구성될 수 있다.To receive this teaching task information, the robot control device 210 may perform wireless communication with the portable computer 110. Here, wireless communication is not particularly limited, but may be short-distance wireless communication such as Wi-Fi or Bluetooth. To support such short-range wireless communication, the portable computer 110 and the robot control device 210 may each be configured to include a wireless communication module.

또한, 로봇 제어 장치(210)는 교시점 데이터와 보정된 교시점 데이터를 무선 통신을 이용하여 휴대용 컴퓨터(110)에 설치된 교시 안내 애플리케이션(112)으로 송신할 수 있다.Additionally, the robot control device 210 may transmit teaching point data and corrected teaching point data to the teaching guidance application 112 installed on the portable computer 110 using wireless communication.

교시 안내 애플리케이션(112)은 교시점 데이터와 보정된 교시점 데이터를 시뮬레이션 하여, 교시점 데이터를 시각화한 교시 궤적 이미지와 보정된 교시점 데이터를 시각화한 보정된 교시 궤적 이미지를 휴대용 컴퓨터(110)의 화면을 통해 사용자에게 제공할 수 있다.The teaching guidance application 112 simulates the teaching point data and the corrected teaching point data, and provides a teaching trajectory image visualizing the teaching point data and a corrected teaching trajectory image visualizing the corrected teaching point data on the portable computer 110. It can be provided to the user through the screen.

사용자는 교시 안내 애플리케이션(112)에서 제공하는 선택 기능을 이용하여 보정된 교시 궤적 이미지를 선택할지 아니면, 재교시를 수행할지를 결정할 수 있다. . 예를 들어, 사용자가 선택 기능을 이용하여 상기 보정된 교시 궤적 이미지를 선택하면, 교시 안내 애플리케이션(112)은 사용자가 선택한 상기 보정된 교시 궤적 이미지에 대응하는 교시 명령을 생성한 후, 이를 무선 통신을 이용하여 로봇 제어 장치(210)로 송신한다. 만일 사용자가 선택 기능 사용하여 상기 보정된 교시 궤적 이미지를 선택하지 않는 경우, 재교시 명령을 생성한 후, 이를 로봇 제어 장치(210)로 송신한다.The user can use the selection function provided by the teaching guidance application 112 to decide whether to select the corrected teaching trajectory image or perform re-teaching. . For example, when the user selects the corrected teaching trajectory image using the selection function, the teaching guidance application 112 generates a teaching command corresponding to the corrected teaching trajectory image selected by the user, and then wirelessly communicates it. It is transmitted to the robot control device 210 using . If the user does not select the corrected teaching trajectory image using the selection function, a re-teaching command is generated and transmitted to the robot control device 210.

로봇 제어 장치(210)는, 교시 안내 애플리케이션(112)로부터 상기 교시 명령을 수신한 경우, 상기 보정된 교시 궤적 이미지에 대응하는 교시점 데이터를 내부 메모리에 저장함으로써, 사용자가 수행하고자 하는 일련의 교시 작업이 완료될 수 있다.When receiving the teaching command from the teaching guidance application 112, the robot control device 210 stores teaching point data corresponding to the corrected teaching trajectory image in the internal memory, thereby performing a series of teachings that the user wants to perform. The task can be completed.

로봇(220)은 로봇 제어 장치(210)의 제어에 따라 동작하는 산업용 로봇(industrial robots) 또는 협동 로봇 (Cobot: Collaboraion Robot)일 수 있다. 본 발명은 로봇(220)의 기능 또는 하드웨어 구성에 특징이 있는 것이 아니므로 이에 대한 설명은 생략하기로 한다. 다만, 도 1에서는 로봇 제어 장치(210)가 로봇(220)으로부터 분리된 구성으로 도시되어 있으나, 로봇(220) 내에 포함될 수 있다.The robot 220 may be an industrial robot or a collaborative robot (Cobot: Collaboraion Robot) that operates under the control of the robot control device 210. Since the present invention is not characterized by the function or hardware configuration of the robot 220, description thereof will be omitted. However, in FIG. 1, the robot control device 210 is shown as a separate configuration from the robot 220, but may be included within the robot 220.

이하, 휴대용 컴퓨터(110)에 설치된 교시 안내 애플리케이션(112)의 실행에 따라 제공된 다양한 GUI 화면 구성에 대해 상세히 설명하기로 한다. Hereinafter, various GUI screen configurations provided upon execution of the teaching guide application 112 installed on the portable computer 110 will be described in detail.

도 2는 본 발명의 실시 예에 따른 교시 안내 애플리케이션의 실행시 제공되는 메인 화면 구성을 설명하기 위한 도면이다.Figure 2 is a diagram for explaining the main screen configuration provided when executing a teaching guide application according to an embodiment of the present invention.

도 2를 참조하면, 교시 안내 애플리케이션의 실행에 따라 휴대용 컴퓨터의 화면을 통해 메인 화면 구성이 표시된다. 메인 화면 구성을 통해 전체 메뉴가 표시된다. 전체 메뉴는 튜토리얼 항목(22), 위저드 항목(24) 및 설정 항목(25)을 포함하도록 구성될 수 있다. Referring to Figure 2, as the teaching guide application is executed, the main screen configuration is displayed on the screen of the portable computer. The entire menu is displayed through the main screen configuration. The entire menu may be configured to include a tutorial item (22), a wizard item (24), and a settings item (25).

사용자가 튜토리얼 항목(22)을 터치하여 선택하면, 교시 안내 애플리케이션(112)은 로봇 교시를 위한 장치(100)의 사용법을 설명하기 위한 복수의 화면 구성을 제공한다. When the user touches and selects the tutorial item 22, the teaching guide application 112 provides a plurality of screen configurations for explaining how to use the device 100 for robot teaching.

사용자가 위저드 항목(24)을 터치하여 선택하면, 교시 안내 애플리케이션(112)은 로봇 교시 작업을 안내하는 복수의 화면 구성들을 제공한다. When the user touches and selects the wizard item 24, the teaching guidance application 112 provides a plurality of screen configurations to guide the robot teaching task.

사용자가 설정 항목(26)을 터치하여 선택하면, 교시 안내 애플리케이션(112)은 휴대용 컴퓨터(110)와 로봇 제어 장치(210) 사이의 무선 통신 설정을 안내하기 위한 연속되는 복수의 화면 구성들을 제공한다.When the user touches and selects a setting item 26, the teaching guide application 112 provides a plurality of consecutive screen configurations to guide wireless communication settings between the portable computer 110 and the robot control device 210. .

도 3 및 4는 도 2에 도시된 설정 항목이 선택된 경우에 제공되는 화면 구성들을 설명하기 위한 도면들이다.Figures 3 and 4 are diagrams for explaining screen configurations provided when the setting item shown in Figure 2 is selected.

도 3을 참조하면, 사용자가 도 2에 도시된 설정 항목(26)을 선택하면, 메인 화면의 우측 상단에 통신 연결 방식을 선택하기 위한 메뉴(30)가 생성된다. 본 실시 예에서는 통신 연결 방식은 와이-파이 연결 방식(32) 및 USB 케이블 연결 방식(34)을 포함할 수 있다.Referring to FIG. 3, when the user selects the setting item 26 shown in FIG. 2, a menu 30 for selecting a communication connection method is created in the upper right corner of the main screen. In this embodiment, the communication connection method may include a Wi-Fi connection method (32) and a USB cable connection method (34).

도 4를 참조하면, 사용자가 와이-파이 연결 방식(32)을 터치하여 선택하면, 주소 입력 창(40)이 생성되고, 생성된 주소 입력창(40)에 로봇 제어 장치(210)의 IP 주소를 입력한 후, 연결 버튼(40)을 누름으로써, 휴대용 컴퓨터(110)와 로봇 제어 장치(210) 사이의 통신 연결이 설정된다.Referring to FIG. 4, when the user touches and selects the Wi-Fi connection method 32, an address input window 40 is created, and the IP address of the robot control device 210 is entered in the generated address input window 40. After entering , a communication connection between the portable computer 110 and the robot control device 210 is established by pressing the connection button 40.

도 5는 도 2에 도시된 튜토리얼 항목이 선택된 경우에 제공되는 화면 구성들을 설명하기 위한 도면들이다.FIG. 5 is a diagram for explaining screen configurations provided when the tutorial item shown in FIG. 2 is selected.

도 5를 참조하면, 사용자가 도 2에 도시된 튜토리얼 항목(22)을 터치하여 선택하면, 복수의 메인 메뉴들이 표시된다. 복수의 메인 메뉴들은 디바이스 사용법 항목(51), 원/직선 모션 항목(52), 3차원 자유 궤적 항목(53), 2차원 도형 궤적 항목(54), 3차원 도형 항목(55) 및 6축 마우스 사용법 항목(56)으로 구성될 수 있다.Referring to FIG. 5, when a user touches and selects the tutorial item 22 shown in FIG. 2, a plurality of main menus are displayed. A plurality of main menus include device usage items (51), circular/linear motion items (52), 3D free trajectory items (53), 2D shape trajectory items (54), 3D shape items (55), and 6-axis mouse It may consist of usage items (56).

도 6은 도 5에 도시된 복수의 메인 메뉴들 중에서 디바이스 사용법을 선택한 경우에 표시되는 화면 구성을 설명하기 위한 도면이다.FIG. 6 is a diagram for explaining a screen configuration displayed when a device usage method is selected from the plurality of main menus shown in FIG. 5.

도 6을 참조하면, 사용자가 도 5에 도시된 디바이스 사용법 항목(51)을 터치하여 선택하면, 화면의 좌측에는 로봇팔 이미지(62)가 표시되고, 화면의 우측에는 핸드헬드 디바이스의 사용법을 설명하는 동영상(64)이 표시된다.Referring to Figure 6, when the user touches and selects the device usage item 51 shown in Figure 5, a robot arm image 62 is displayed on the left side of the screen, and the usage method of the handheld device is explained on the right side of the screen. A video (64) is displayed.

동영상(64)의 아래에는 다시 하기 버튼(66)이 표시되며, 다시 하기 버튼(66)을 누름에 따라 동영상(64)이 다시 재생된다.A replay button 66 is displayed below the video 64, and when the replay button 66 is pressed, the video 64 is played again.

도 7은 도 5에 도시된 복수의 메인 메뉴들 중에서 3차원 자유 궤적을 선택한 경우에 표시되는 화면 구성을 설명하기 위한 도면이다.FIG. 7 is a diagram for explaining a screen configuration displayed when a 3D free trajectory is selected from the plurality of main menus shown in FIG. 5.

도 7을 참조하면, 사용자가 도 5에 도시된 3차원 자유 궤적 항목(53)을 터치하여 선택하면, 사용자가 3차원 자유 궤적과 관련된 교시 작업에 대한 사전 학습을 수행할 수 있도록 화면의 좌측에는 로봇팔 이미지(72)가 표시되고, 화면의 우측에는 3차원 자유 궤적과 관련된 교시 작업을 수행하기 방법을 설명하는 동영상(64)이 표시된다. 3차원 자유 궤적과 관련된 교시 작업을 수행할 때, 동영상(74)은 사용자가 핸드헬드 디바이스를 잡은 상태에서 사용자의 팔 움직임을 보여주며, 교시점을 입력하는 방법을 보여준다.Referring to FIG. 7, when the user touches and selects the 3D free trajectory item 53 shown in FIG. 5, a screen appears on the left side of the screen so that the user can perform preliminary learning on teaching tasks related to the 3D free trajectory. A robotic arm image 72 is displayed, and a video 64 is displayed on the right side of the screen explaining how to perform a teaching task related to a three-dimensional free trajectory. When performing a teaching task involving three-dimensional free trajectories, video 74 shows the user's arm movements while holding a handheld device and shows how to enter teach points.

도 8은 도 2에 도시된 위저드 항목을 선택한 경우에 제공되는 메인 화면 구성을 설명하기 위한 도면들이다.FIG. 8 is a diagram for explaining the main screen configuration provided when the wizard item shown in FIG. 2 is selected.

도 8을 참조하면, 사용자가 도 2에 도시된 전체 메뉴 중에서 위저드 항목을 터치하여 선택하면, 사용자가 수행하고자 하는 교시 작업과 세부 교시 작업의 종료를 선택하기 위한 메뉴가 표시된다. Referring to FIG. 8, when the user touches and selects a wizard item from the entire menu shown in FIG. 2, a menu for selecting the teaching task the user wishes to perform and the end of the detailed teaching task is displayed.

실시 예로, 교시 작업 종류와 관련된 메뉴는 문작업 항목(80)과 팩인홀 작업 항목(81)으로 나눌 수 있고, 각 항목은 다시 세부 교시 작업의 종료를 나타내는 항목들로 구성될 수 있다. 실시 예로, 문작업 항목(80)의 세부 교시 작업 항목은 잡기 항목(80_1), 문열기 항목(80_2), 문닫기 항목(80_3) 및 놓기 항목(80_4)으로 구분될 수 있고, 팩인홀 작업 항목(81)이 세부 교시 작업 항목은 닿기 항목(81_1)과 기타 작업 항목(81_2)으로 구분될 수 있다.As an example, the menu related to the type of teaching task may be divided into a door task item 80 and a pack-in-hole task item 81, and each item may be composed of items indicating the end of a detailed teaching task. As an embodiment, the detailed teaching work items of the door work item 80 may be divided into a grabbing item (80_1), a door opening item (80_2), a door closing item (80_3), and a placing item (80_4), and a pack-in hole work item. (81) This detailed teaching work item can be divided into a reach item (81_1) and other work item (81_2).

도 9 내지 13은 도 8에 도시된 잡기 항목을 선택한 경우에 제공되는 화면 구성들을 설명하기 위한 도면들이다.Figures 9 to 13 are diagrams for explaining screen configurations provided when the grab item shown in Figure 8 is selected.

먼저, 도 9를 참조하면, 사용자가 도 8에 도시된 문작업 항목(80)과 문작업 항목(80)의 세부 교시 작업으로 잡기 항목(80_1)을 터치하여 선택하면, 타겟 종류를 선택하기 위한 화면 구성이 표시된다. 타겟은 로봇 팔이 조작하고자 하는 대상체를 의미하며, 타겟 종류가 문 손잡이인 경우, 타겟 종류를 선택하기 위한 화면 구성은 로봇 팔과 문 손잡이를 시각화한 이미지(90)와 문 손잡이를 선택하기 위한 항목(91)으로 구성될 수 있다.First, referring to FIG. 9, when the user touches and selects the door work item 80 and the grabbing item 80_1 as the detailed teaching task of the door work item 80 shown in FIG. 8, a method for selecting a target type is performed. The screen configuration is displayed. The target refers to the object that the robot arm wants to manipulate. If the target type is a doorknob, the screen configuration for selecting the target type includes an image (90) visualizing the robot arm and the doorknob and items for selecting the doorknob. It can be composed of (91).

도 10을 참조하면, 사용자가 문손잡이 항목(91)을 터치하여 선택하면, 문손잡이의 종류를 선택하기 위한 화면 구성이 표시된다. 문손잡이의 종류가 바 형태 손잡이인 경우, 바 형태 손잡이를 선택하기 위한 항목(92)이 표시된다.Referring to FIG. 10, when the user touches and selects the door handle item 91, a screen configuration for selecting the type of door handle is displayed. If the type of door handle is a bar-shaped handle, an item 92 for selecting the bar-shaped handle is displayed.

도 11을 참조하면, 사용자가 바 형태 손잡이 항목(92)을 터치하여 선택하면, 로봇 그리퍼의 종류를 선택하기 위한 화면 구성이 표시된다. 로봇 그리퍼의 종류가 집게 그리퍼인 경우, 집게 그리퍼를 선택하기 위한 항목(93)이 표시된다.Referring to FIG. 11, when the user touches and selects the bar-shaped handle item 92, a screen configuration for selecting the type of robot gripper is displayed. If the type of robot gripper is a pincer gripper, an item 93 for selecting the pincer gripper is displayed.

도 12를 참조하면, 사용자가 집게 그리퍼 항목(93)을 터치하여 선택하면, 문이 열리는 방향을 선택하기 위한 화면 구성이 표시된다. 문이 오른쪽에서 왼쪽으로 열리는 경우, 문이 오른쪽에서 왼쪽으로 열리는 방향을 선택하기 위한 항목(94)이 표시된다. Referring to FIG. 12, when the user touches and selects the claw gripper item 93, a screen configuration for selecting the direction in which the door is opened is displayed. If the door opens from right to left, an item 94 for selecting the direction in which the door opens from right to left is displayed.

도 9 내지 12에 도시된 교시 작업과 세부 교시 작업과 관련된 항목 선택이 완료되면, 현재의 화면 구성은 교시 작업을 안내하기 위한 화면 구성으로 전환된다.When selection of items related to the teaching task and detailed teaching task shown in FIGS. 9 to 12 is completed, the current screen configuration is converted to a screen configuration for guiding the teaching task.

도 13은 도 9 내지 12에 도시된 교시 작업과 세부 교시 작업과 관련된 항목 선택이 완료된 이후에 제공되는 잡기 작업을 안내하기 위한 화면 구성들을 설명하기 위한 도면이다.FIG. 13 is a diagram illustrating screen configurations for guiding a grasping task provided after selection of items related to the teaching task and detailed teaching task shown in FIGS. 9 to 12 is completed.

도 13을 참조하면, 잡기 작업을 안내하기 위한 화면 구성은 단계별 교시 작업을 안내하는 동영상(95)을 포함하도록 구성될 수 있다. 사용자는, 단계별 잡기 작업(80_1)을 시연하는 동영상(95)과 단계별 잡기 작업을 시각화한 시뮬레이션 이미지(90)를 통해 제공되는 교시 안내에 따라, 핸드헬드 디바이스(120)를 실제 조작하여 잡기 작업과 관련된 교시 작업을 수행한다.Referring to FIG. 13, the screen configuration for guiding the grasping task may be configured to include a video 95 guiding the step-by-step teaching task. The user actually operates the handheld device 120 to perform the grasping task and Perform related teaching tasks.

동영상(95)을 통해 제공되는 단계별 장면은 핸드헬드 디바이스(120)를 문 손잡이 쪽으로 이동시키는 장면 및 문 손잡이 쪽으로 이동된 핸드헬드 디바이스(120)를 현재 위치(교시점)을 저장하는 장면으로 이루어질 수 있다.The step-by-step scene provided through the video 95 may consist of a scene of moving the handheld device 120 toward the door handle and a scene of storing the current location (teaching point) of the handheld device 120 moved toward the door handle. there is.

한편, 도 13의 화면 구성에서 이미지(90)의 아래에는 스케일 조정바(scale adjustment bar)(96)가 표시되며, 스케일 조정바(96)는 핸드헬드 디바이스(120)의 움직임과 로봇 팔의 움직임 사이의 동기를 맞추기 위한 스케일 기능을 제공한다. Meanwhile, in the screen configuration of FIG. 13, a scale adjustment bar 96 is displayed below the image 90, and the scale adjustment bar 96 controls the movement of the handheld device 120 and the movement of the robot arm. It provides a scale function to synchronize between

사용자가 스케일 조정바(96)를 이용하여 스케일값을 조정하면, 조정된 스케일값은 휴대용 컴퓨터(110)로부터 로봇 제어 장치(210)로 송신되고, 로봇 제어 장치(210)는 핸드헬드 디바이스(120)의 움직임 강도(속도)에 동기되도록 휴대용 컴퓨터(110)로부터 수신된 조정된 스케일값에 따라 로봇 팔의 움직임 강도(속도)를 조정할 수 있다.When the user adjusts the scale value using the scale adjustment bar 96, the adjusted scale value is transmitted from the portable computer 110 to the robot control device 210, and the robot control device 210 controls the handheld device 120. The movement intensity (speed) of the robot arm can be adjusted according to the adjusted scale value received from the portable computer 110 to be synchronized with the movement intensity (speed) of ).

도 14는 도 8 및 14에 도시된 잡기 작업과 관련된 교시 안내에 따라 사용자에 의해 생성된 교시 궤적의 보정 프로세스를 제공하기 위한 화면 구성을 설명하기 위한 도면이다.FIG. 14 is a diagram illustrating a screen configuration for providing a correction process of a teaching trajectory generated by a user according to teaching guidance related to the grasping task shown in FIGS. 8 and 14.

사용자는 동영상을 통해 제공되는 교시 안내에 따라 핸드헬드 디바이스(120)를 이동시키면서 핸드헬드 디바이스(120)에 설치된 저장 버튼을 이용하여, 이동된 핸드헬드 디바이스(120)의 현재 위치를 나타내는 교시점 데이터를 생성한다.The user moves the handheld device 120 according to the teaching guide provided through the video and uses the save button installed on the handheld device 120 to save teaching point data indicating the current location of the moved handheld device 120. creates .

이후, 전술한 바와 같이, 핸드헬드 디바이스(120)는 무선 통신을 이용하여 상기 생성된 교시점 데이터(제1 교시점 데이터)를 로봇 제어 장치(210)로 송신한다.Thereafter, as described above, the handheld device 120 transmits the generated teaching point data (first teaching point data) to the robot control device 210 using wireless communication.

로봇 제어 장치(210)는 사용자가 교시 안내 애플리케이션(112)을 통해 선택한 교시 작업 정보(교시 작업 및 세부 교시 작업의 종류)를 기반으로 사용자의 교시 의도를 분석하고, 그 분석된 교시 의도에 따라 교시점 데이터를 재구성하여 보정된 교시점 데이터(제2 교시점 데이터)를 생성한다. 이후, 로봇 제어 장치(210)는 무선 통신을 이용하여 교시점 데이터(제1 교시점 데이터)와 보정된 교시점 데이터(제2 교시점 데이터)를 휴대용 컴퓨터(110)로 송신한다. The robot control device 210 analyzes the user's teaching intention based on the teaching task information (type of teaching task and detailed teaching task) selected by the user through the teaching guidance application 112, and teaches according to the analyzed teaching intention. The viewpoint data is reconstructed to generate corrected teaching point data (second teaching point data). Thereafter, the robot control device 210 transmits the teaching point data (first teaching point data) and the corrected teaching point data (second teaching point data) to the portable computer 110 using wireless communication.

이후, 교시 안내 애플리케이션(112)은 교시점 데이터(제1 교시점 데이터)와 보정된 교시점 데이터(제2 교시점 데이터)를 시뮬레이션 하여, 교시점 데이터(제1 교시점 데이터)를 시각화한 교시 궤적 이미지(제1 교시 궤적)과 보정된 교시점 데이터(제2 교시점 데이터)를 시각화한 보정된 교시 궤적(제2 교시 궤적)을 생성한다. Afterwards, the teaching guidance application 112 simulates the teaching point data (first teaching point data) and the corrected teaching point data (second teaching point data), and provides a teaching visualizing the teaching point data (first teaching point data). A corrected teaching trajectory (second teaching trajectory) is generated that visualizes the trajectory image (first teaching trajectory) and the corrected teaching point data (second teaching point data).

이후, 교시 안내 애플리케이션(112)은 사용자가 보정된 교시 궤적 이미지를 선택할 수 있도록 도 14에 도시된 바와 같은 화면 구성을 제공한다. Thereafter, the teaching guidance application 112 provides a screen configuration as shown in FIG. 14 so that the user can select the corrected teaching trajectory image.

도 14를 참조하면, 보정된 교시 궤적 이미지(제2 교시 궤적)를 선택할 수 있도록 제공되는 화면 구성에서는, 보정된 교시 궤적 이미지(T2) 및 재교시 명령을 생성하기 위한 복수의 선택 버튼들(98 및 99)이 표시된다. Referring to FIG. 14, in the screen configuration provided to select a corrected teaching trace image (second teaching trace), a plurality of selection buttons 98 for generating a corrected teaching trace image (T2) and a re-teach command and 99) are displayed.

사용자는 3차원 좌표계(14)를 통해 시각화된 보정된 교시 궤적 이미지(T2: 제2 교시 궤적)를 시각적으로 확인한 후, 사용자에 의해 보정된 교시 궤적 이미지(T2)이 선택된 경우, 선택 버튼(98)을 이용하여 교시 명령을 생성하고, 보정된 교시 궤적 이미지(T2)를 선택하지 않는 경우, 선택 버튼(99)을 이용하여 재교시 명령을 생성한다. The user visually checks the corrected teaching trajectory image (T2: second teaching trajectory) visualized through the three-dimensional coordinate system 14, and then, when the corrected teaching trajectory image (T2) is selected by the user, clicks the selection button 98 ) is used to generate a teaching command, and if the corrected teaching trajectory image (T2) is not selected, a re-teaching command is generated using the selection button 99.

사용자가 보정된 교시 궤적 버튼(98)을 터치하여 선택하는 경우, 교시 안내 애플리케이션(112)은 보정된 교시 궤적 이미지(T2: 제2 교시 궤적), 즉, 로봇 제어 장치(210)의 교시 궤적 보정 알고리즘에 따라 보정된 교시 궤적(제2 교시 궤적)에 따른 교시 명령을 생성하여, 이를 로봇 제어 장치(210)로 송신한다. When the user touches and selects the corrected teaching trajectory button 98, the teaching guidance application 112 displays the corrected teaching trajectory image (T2: second teaching trajectory), that is, correcting the teaching trajectory of the robot control device 210. A teaching command according to the teaching trajectory (second teaching trajectory) corrected according to the algorithm is generated and transmitted to the robot control device 210.

로봇 제어 장치(210)는 상기 교시 명령에 응답하여 교시 궤적 보정 알고리즘에 따라 보정된 교시점 데이터(제2 교시점 데이터)를 내부 메모리에 저장한다. 참고로 도 14는 사용자가 보정된 교시 궤적을 선택한 경우를 도시한 것이다.The robot control device 210 stores teaching point data (second teaching point data) corrected according to the teaching trajectory correction algorithm in the internal memory in response to the teaching command. For reference, Figure 14 shows a case where the user selects the corrected teaching trajectory.

사용자가 재교시 버튼(99)을 터치하여 선택하는 경우, 교시 안내 애플리케이션(112)은 재교시 명령을 생성하여 이를 로봇 제어 장치(210)로 송신한다. 로봇 제어 장치(210)는 핸드헬드 디바이스(120)로부터 수신된 교시점 데이터를 삭제하고, 핸드헬드 디바이스(120)로부터 새로운 교시점 데이터가 수신될 때까지 대기한다.When the user touches and selects the re-teach button 99, the teaching guide application 112 generates a re-teach command and transmits it to the robot control device 210. The robot control device 210 deletes the teach point data received from the handheld device 120 and waits until new teach point data is received from the handheld device 120.

이상 도 2 내지 14를 참조하여 설명한 잡기 작업과 관련된 교시 안내 및 교시 궤적에 대한 보정 프로세스를 제공하기 위한 GUI 화면은 문열기 작업(80_2), 문 닫기 작업(80_3) 및 놓기 작업(80_4)에서도 동일하게 적용될 수 있다. The GUI screen for providing teaching guidance and a correction process for the teaching trajectory related to the grasping task described with reference to FIGS. 2 to 14 is the same for the door opening task (80_2), the door closing task (80_3), and the placing task (80_4). It can be applied easily.

따라서, 문열기 작업(80_2), 문 닫기 작업(80_3) 및 놓기 작업(80_4) 각각에 대한 교시 안내 및 교시 궤적 보정 프로세스를 제공하기 위한 GUI 화면에 대한 설명은 도 2 내지 14에 도시된 화면 구성에 대한 설명으로 대신한다.Therefore, the description of the GUI screen for providing teaching guidance and teaching trajectory correction process for each of the door opening operation (80_2), door closing operation (80_3), and placing operation (80_4) is the screen configuration shown in FIGS. 2 to 14. Replace with an explanation.

도 15는 본 발명의 실시 예에 따른 로봇 교시를 위한 방법을 설명하기 위한 흐름도이다.Figure 15 is a flowchart illustrating a method for robot teaching according to an embodiment of the present invention.

도 15를 참조하면, 먼저, S110에서, 휴대용 컴퓨터(110)와 로봇 제어 장치(210) 사이의 제1 통신 연결과 핸드헬드 디바이스(120)와 로봇 제어 장치(210) 사이의 제2 통신 연결을 포함하는 통신 연결을 설정하는 과정이 수행된다. 통신 연결은 유선 또는 무선 통신 연결을 일 수 있으며, 무선 통신 연결은 도 4에 도시된 바와 같이, Wi-Fi와 같은 근거리 무선 통신 연결일 수 있다. Referring to FIG. 15, first, in S110, a first communication connection between the portable computer 110 and the robot control device 210 and a second communication connection between the handheld device 120 and the robot control device 210 are established. A process of establishing a communication connection is performed, including: The communication connection may be a wired or wireless communication connection, and the wireless communication connection may be a short-range wireless communication connection such as Wi-Fi, as shown in FIG. 4.

이어, S120에서, 장치들(110, 120 및 210) 사이의 통신 연결 설정이 완료되면, 태블릿 PC와 같은 휴대용 컴퓨터(110)가, 로봇 교시를 안내하도록 구성된 제1 GUI 화면을 표시하는 프로세스를 수행한다. 여기서, 제1 GUI 화면은 도 2 내지 도 13에 도시된 화면 구성들일 수 있다.Then, at S120, when communication connection establishment between the devices 110, 120, and 210 is completed, the portable computer 110, such as a tablet PC, performs a process of displaying a first GUI screen configured to guide robot teaching. do. Here, the first GUI screen may be the screen configurations shown in FIGS. 2 to 13.

이어, S130에서, 핸드헬드 디바이스(120, handheld device)가, 상기 제1 GUI를 통해 제공되는 교시 안내에 따라 동작하는 사용자의 교시 모션을 인식하여 제1 교시점 데이터를 생성하는 프로세스를 수행할 수 있다.Next, in S130, the handheld device (120) may perform a process of generating first teaching point data by recognizing the teaching motion of the user operating according to teaching guidance provided through the first GUI. there is.

이어, S140에서, 로봇 제어 장치(210)가, 상기 핸드헬드 디바이스(120)로부터 상기 제1 교시점 데이터를 수신하고, 상기 사용자의 교시 의도에 부합하도록 상기 제1 교시점 데이터를 보정하여 제2 교시점 데이터를 생성하는 프로세스를 수행할 수 있다. 여기서, 상기 제1 교시점 데이터를 보정하기 위해, 교시 궤적 보정 알고리즘이 이용될 수 있다. Then, in S140, the robot control device 210 receives the first teaching point data from the handheld device 120, corrects the first teaching point data to match the user's teaching intention, and generates a second teaching point data. A process for generating teaching point data can be performed. Here, a teaching trajectory correction algorithm may be used to correct the first teaching point data.

이어, S150에서, 상기 휴대용 컴퓨터(110)가, 상기 로봇 제어 장치(210)로부터 상기 제2 교시점 데이터를 수신하고, 사용자가 상기 제2 교시점 데이터를 선택할 수 있도록 구성된 제2 GUI 화면을 표시하는 프로세스를 수행한다. 여기서, 제2 GUI 화면은 도 14에 도시된 화면 구성일 수 있다.Then, in S150, the portable computer 110 receives the second starting point data from the robot control device 210 and displays a second GUI screen configured to allow the user to select the second starting point data. carry out the process. Here, the second GUI screen may have the screen configuration shown in FIG. 14.

이어, S160에서, 상기 휴대용 컴퓨터(110)가, 사용자가 상기 제2 GUI 화면을 통해 선택한 상기 제2 교시점 데이터에 대응하는 교시 명령을 상기 로봇 제어 장치(210)로 송신하는 프로세스를 수행한다.Next, in S160, the portable computer 110 performs a process of transmitting a teaching command corresponding to the second teaching point data selected by the user through the second GUI screen to the robot control device 210.

실시 예에서, 상기 제1 GUI 화면을 표시하는 프로세스(S120)는 상기 사용자가 교시 작업과 세부 교시 작업의 종류를 선택할 수 있도록 화면 구성을 표시하는 프로세스일 수 있다.In an embodiment, the process of displaying the first GUI screen (S120) may be a process of displaying a screen configuration so that the user can select the type of teaching task and detailed teaching task.

실시 예에서, 상기 제1 GUI 화면을 표시하는 프로세스(S120)는, 상기 사용자가 로봇이 조작하고자 하는 대상체 종류, 상기 로봇의 그리퍼 종류 및 상기 대상체의 조작 방향을 선택할 수 있도록 화면 구성을 표시하는 프로세스일 수 있다. 여기서, 상기 대상체의 조작 방향은, 예를 들면, 도 12에 도시된 바와 같이, 대상체가 움직이는 방향일 수 있다.In an embodiment, the process of displaying the first GUI screen (S120) is a process of displaying a screen configuration so that the user can select the type of object the robot wants to manipulate, the type of gripper of the robot, and the manipulation direction of the object. It can be. Here, the manipulation direction of the object may be a direction in which the object moves, for example, as shown in FIG. 12 .

실시 예에서, 상기 제2 교시점 데이터를 생성하는 프로세스(S140)는 상기 휴대용 컴퓨터로부터 수신된 교시 작업 정보를 기반으로 상기 사용자의 교시 의도를 분석하는 프로세스일 수 있다. 여기서, 교시 작업 정보는 상기 사용자가 상기 제1 GUI 화면을 통해 선택한 정보일 수 있다. 상기 제1 GUI 화면을 통해 선택한 정보는, 교시 작업과 세부 교시 작업의 종류를 나타내는 정보, 로봇이 조작하고자 하는 대상체의 종류를 나타내는 정보, 상기 로봇의 그리퍼 종류를 나타내는 정보 및 상기 대상체의 조작 방향을 나태는 정보 중에서 적어도 하나를 포함하는 정보일 수 있다. In an embodiment, the process of generating the second teaching point data (S140) may be a process of analyzing the user's teaching intention based on teaching task information received from the portable computer. Here, the teaching task information may be information selected by the user through the first GUI screen. The information selected through the first GUI screen includes information indicating the types of teaching tasks and detailed teaching tasks, information indicating the type of object the robot wants to manipulate, information indicating the type of gripper of the robot, and the manipulation direction of the object. Sloth may be information that includes at least one piece of information.

실시 예에서, 상기 제2 GUI 화면을 표시하는 프로세스(S150)는 상기 사용자가 상기 보정된 교시 궤적을 선택하기 위한 선택 버튼을 표시하는 프로세스일 수 있다. 여기서, 상기 사용자가 상기 보정된 교시 궤적을 선택하지 않는 경우, 재교시 명령을 생성하기 위한 선택 버튼이 추가로 제공될 수 있다.In an embodiment, the process of displaying the second GUI screen (S150) may be a process of displaying a selection button for the user to select the corrected teaching trajectory. Here, if the user does not select the corrected teaching trajectory, a selection button for generating a re-teaching command may be additionally provided.

도 16은 본 발명의 실시 예에 따른 휴대용 컴퓨터를 나타내는 블록도이다.Figure 16 is a block diagram showing a portable computer according to an embodiment of the present invention.

도 16을 참조하면, 휴대용 컴퓨터(1300)는, 버스(1370)를 통해 통신하는 프로세서(1310), 메모리(1330), 입력 인터페이스 장치(1350), 출력 인터페이스 장치(1360), 및 저장 장치(1340) 중 적어도 하나를 포함할 수 있다. 또한 휴대용 컴퓨터(1300)는 네트워크에 결합된 통신 장치(1320)를 포함할 수 있다. Referring to FIG. 16, the portable computer 1300 includes a processor 1310, a memory 1330, an input interface device 1350, an output interface device 1360, and a storage device 1340 that communicate through a bus 1370. ) may include at least one of Portable computer 1300 may also include a communication device 1320 coupled to a network.

프로세서(1310)는 적어도 하나의 CPU 및 적어도 하나의 GPU를 포함하며, 메모리(1330) 또는 저장 장치(1340)에 저장된 명령을 실행하는 반도체 장치일 수 있다. The processor 1310 includes at least one CPU and at least one GPU, and may be a semiconductor device that executes instructions stored in the memory 1330 or the storage device 1340.

또한, 프로세서(1310)는 도 2 내지 13에 도시된 제1 GUI 화면과 도 14에 도시된 제2 GUI 화면을 구성하며, 이러한 제1 및 제2 GUI 화면을 표시부의 역할을 하는 출력 인터페이스 장치(1360)를 제어할 수 있다.In addition, the processor 1310 configures the first GUI screen shown in FIGS. 2 to 13 and the second GUI screen shown in FIG. 14, and an output interface device ( 1360) can be controlled.

메모리(1330) 및 저장 장치(1340)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(read only memory) 및 RAM(random access memory)를 포함할 수 있다.Memory 1330 and storage device 1340 may include various types of volatile or non-volatile storage media. For example, memory may include read only memory (ROM) and random access memory (RAM).

통신 장치(1320)는 유선 또는/및 무선 통신을 지원하는 통신 모듈일 수 있다. 통신 장치(1320)는 프로세서(1310)의 제어에 따라, 상기 제1 및 제2 교시점 데이터를 상기 로봇 제어 장치(210)로부터 수신하고, 상기 교시 명령을 상기 로봇 제어 장치로 송신하는 무선 통신 모듈로 구현될 수 있다.The communication device 1320 may be a communication module that supports wired and/or wireless communication. The communication device 1320 is a wireless communication module that receives the first and second teaching point data from the robot control device 210 and transmits the teaching command to the robot control device under the control of the processor 1310. It can be implemented as:

입력 인터페이스 장치(1350)는 터치 기능을 갖는 표시부로 구현될 수 있다.The input interface device 1350 may be implemented as a display unit with a touch function.

도 17은 본 발명의 실시 예에 따른 핸드헬드 디바이스를 나타내는 블록도이다.Figure 17 is a block diagram showing a handheld device according to an embodiment of the present invention.

도 17을 참조하면, 핸드헬드 디바이스(1400)는 프로세서(1410), 동작 인식 센서(1420) 및 무선 통신 모듈(1430)을 포함한다.Referring to FIG. 17 , the handheld device 1400 includes a processor 1410, a motion recognition sensor 1420, and a wireless communication module 1430.

프로세서(1410)는 적어도 하나의 CPU 또는 적어도 하나의 CPU를 포함하도록 구성된 마이크로 컨트롤로 유닛(MCU)으로 구현될 수 있다.The processor 1410 may be implemented as at least one CPU or a microcontroller unit (MCU) configured to include at least one CPU.

동작 인식 센서(1420)는 상기 프로세서(1420)의 제어에 따라, 사용자의 교시 모션을 인식하여, 핸드헬드 디바이스의 현재 위치 좌표들을 포함하는 제1 교시점 데이터를 생성하며, 사용자의 교시 모션을 인식하기 위한 다양한 모션 센서들을 포함하도록 구성될 수 있다. The motion recognition sensor 1420 recognizes the user's teaching motion under the control of the processor 1420, generates first teaching point data including the current location coordinates of the handheld device, and recognizes the user's teaching motion. It can be configured to include various motion sensors to do this.

무선 통신 모듈(1430)은 상기 프로세서의 제어에 따라, 무선 통신을 이용하여 상기 제1 교시점 데이터를 상기 로봇 제어 장치()로 송신한다.The wireless communication module 1430 transmits the first teaching point data to the robot control device using wireless communication under the control of the processor.

이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리 범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리 범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements can be made by those skilled in the art using the basic concept of the present invention defined in the following claims. It falls within the scope of rights.

Claims (15)

휴대용 컴퓨터가, 로봇 교시를 안내하도록 구성된 제1 GUI 화면을 표시하는 단계;
핸드헬드 디바이스(handheld device)가, 상기 제1 GUI를 통해 제공되는 교시 안내에 따라 동작하는 사용자의 교시 모션을 인식하여 제1 교시점 데이터를 생성하는 단계;
로봇 제어 장치가, 상기 핸드헬드 디바이스로부터 상기 제1 교시점 데이터를 수신하고, 상기 사용자의 교시 의도에 부합하도록 상기 제1 교시점 데이터를 보정하여 제2 교시점 데이터를 생성하는 단계;
상기 휴대용 컴퓨터가, 상기 로봇 제어 장치로부터 상기 제1 및 제2 교시점 데이터를 수신하고, 사용자가 상기 제2 교시점 데이터를 선택할 수 있도록 구성된 제2 GUI 화면을 표시하는 단계; 및
상기 휴대용 컴퓨터가, 사용자가 상기 제2 GUI 화면을 통해 선택한 상기 제2 교시점 데이터에 대응하는 교시 명령을 상기 로봇 제어 장치로 송신하는 단계
를 포함하는 로봇 교시를 위한 방법.
displaying, by the portable computer, a first GUI screen configured to guide robot teaching;
generating, by a handheld device, first teaching point data by recognizing a teaching motion of a user operating according to teaching guidance provided through the first GUI;
A robot control device receiving the first teaching point data from the handheld device, correcting the first teaching point data to meet the user's teaching intention, and generating second teaching point data;
receiving, by the portable computer, the first and second starting point data from the robot control device, and displaying a second GUI screen configured to allow a user to select the second starting point data; and
Transmitting, by the portable computer, a teaching command corresponding to the second teaching point data selected by the user through the second GUI screen to the robot control device.
A method for teaching robots including.
제1항에서,
상기 제1 GUI 화면을 표시하는 단계는,
상기 사용자가 교시 작업과 세부 교시 작업의 종류를 선택할 수 있도록 화면 구성을 표시하는 단계인 것인 로봇 교시를 위한 방법.
In paragraph 1:
The step of displaying the first GUI screen is,
A method for teaching a robot, comprising the step of displaying a screen configuration so that the user can select a type of teaching task and detailed teaching task.
제1항에서,
상기 제1 GUI 화면을 표시하는 단계는,
상기 사용자가 로봇이 조작하고자 하는 대상체 종류, 상기 로봇의 그리퍼 종류 및 상기 대상체의 조작 방향을 선택할 수 있도록 화면 구성을 표시하는 단계인 것인 로봇 교시를 위한 방법.
In paragraph 1:
The step of displaying the first GUI screen is,
A method for teaching a robot, which is a step of displaying a screen configuration so that the user can select the type of object the robot wants to manipulate, the type of gripper of the robot, and the manipulation direction of the object.
제1항에서,
상기 제2 교시점 데이터를 생성하는 단계는,
상기 휴대용 컴퓨터로부터 수신된 교시 작업 정보를 기반으로 상기 사용자의 교시 의도를 분석하는 단계를 포함하는 것인 로봇 교시를 위한 방법.
In paragraph 1:
The step of generating the second teaching point data is,
A method for teaching a robot, comprising analyzing the user's teaching intention based on teaching task information received from the portable computer.
제4항에서,
상기 교시 작업 정보는,
상기 사용자가 상기 제1 GUI 화면을 통해 선택한 정보이고,
상기 제1 GUI 화면을 통해 선택한 정보는,
교시 작업과 세부 교시 작업의 종류를 나타내는 정보, 로봇이 조작하고자 하는 대상체의 종류를 나타내는 정보, 상기 로봇의 그리퍼 종류를 나타내는 정보 및 상기 대상체의 조작 방향을 나태는 정보 중에서 적어도 하나를 포함하는 것인 로봇 교시를 위한 방법.
In paragraph 4,
The teaching work information is,
Information selected by the user through the first GUI screen,
The information selected through the first GUI screen is:
It includes at least one of information indicating the types of teaching tasks and detailed teaching tasks, information indicating the type of object the robot wants to manipulate, information indicating the type of gripper of the robot, and information indicating the manipulation direction of the object. Methods for teaching robots.
제1항에서,
상기 제2 GUI 화면을 표시하는 단계는,
상기 제2 교시점 데이터를 시각화한 제2 교시 궤적을 3차원 좌표계에서 표시하는 제1 화면 구성과 상기 사용자가 상기 제2 교시 궤적을 선택하기 위한 선택 버튼을 포함하도록 구성된 제2 화면 구성을 표시하는 단계
인 것인 로봇 교시를 위한 방법.
In paragraph 1:
The step of displaying the second GUI screen is,
A first screen configuration that displays a second teaching trajectory visualizing the second teaching point data in a three-dimensional coordinate system and a second screen configuration configured to include a selection button for the user to select the second teaching trajectory. step
A method for teaching robots.
제6항에서,
상기 제2 화면 구성은,
상기 사용자가 상기 제2 교시 궤적을 선택하지 않는 경우, 재교시 명령을 생성하여 상기 로봇 제어 장치로 송신하기 위한 선택 버튼을 더 포함하도록 구성된 것인 로봇 교시를 위한 방법.
In paragraph 6:
The second screen configuration is,
If the user does not select the second teaching trajectory, the method for teaching a robot further includes a selection button for generating a re-teaching command and transmitting it to the robot control device.
로봇 교시를 안내하도록 구성된 제1 GUI 화면 및 교시 명령을 생성하도록 구성된 제2 GUI 화면을 표시하는 휴대용 컴퓨터; 및
상기 제1 GUI 화면을 통해 제공되는 교시 안내에 따라 동작하는 사용자의 교시 모션을 인식하여 제1 교시점 데이터를 생성하고, 상기 제1 교시점 데이터를 로봇 제어 장치로 송신하는 핸드헬드 디바이스를 포함하고,
상기 휴대용 컴퓨터는,
상기 로봇 제어 장치로부터 상기 제1 교시점 데이터와 상기 사용자의 교시 의도에 부합하도록 상기 제1 교시점 데이터를 재구성하여 획득한 제2 교시점 데이터를 수신하고, 사용자가 상기 제2 GUI 화면을 통해 선택한 상기 제2 교시점 데이터에 대응하는 교시 명령을 상기 로봇 제어 장치로 송신하는 것인 로봇 교시를 위한 장치.
a portable computer displaying a first GUI screen configured to guide robot teaching and a second GUI screen configured to generate teaching instructions; and
It includes a handheld device that recognizes the user's teaching motion operating according to the teaching guidance provided through the first GUI screen, generates first teaching point data, and transmits the first teaching point data to the robot control device; ,
The portable computer,
Receive from the robot control device the first teaching point data and the second teaching point data obtained by reconstructing the first teaching point data to match the teaching intention of the user, and select the first teaching point data through the second GUI screen by the user. An apparatus for teaching a robot, wherein a teaching command corresponding to the second teaching point data is transmitted to the robot control device.
제8항에서,
상기 핸드헬드 디바이스는,
프로세서;
상기 프로세서의 제어에 따라, 사용자의 교시 모션을 인식하는 동작 인식 센서; 및
상기 프로세서의 제어에 따라, 무선 통신을 이용하여 상기 제1 교시점 데이터를 상기 로봇 제어 장치로 송신하는 무선 통신 모듈
을 포함하는 로봇 교시를 위한 장치.
In paragraph 8:
The handheld device,
processor;
a motion recognition sensor that recognizes the user's teaching motion under the control of the processor; and
A wireless communication module that transmits the first teaching point data to the robot control device using wireless communication under the control of the processor.
A device for robot teaching including.
제9항에서,
상기 무선 통신은 근거리 무선 통신인 것인 로봇 교시를 위한 장치.
In paragraph 9:
A device for teaching a robot wherein the wireless communication is short-distance wireless communication.
제8항에서,
상기 휴대용 컴퓨터는,
적어도 하나의 CPU 및 적어도 하나의 GPU를 포함하는 프로세서;
상기 프로세서의 제어에 따라, 상기 제1 및 제2 GUI 화면을 표시하는 표시부; 및
상기 프로세서의 제어에 따라, 상기 제1 및 제2 교시점 데이터를 상기 로봇 제어 장치로부터 수신하고, 상기 교시 명령을 상기 로봇 제어 장치로 송신하는 무선 통신 모듈
을 포함하는 로봇 교시를 위한 장치.
In paragraph 8:
The portable computer,
A processor including at least one CPU and at least one GPU;
a display unit that displays the first and second GUI screens under control of the processor; and
A wireless communication module that receives the first and second teaching point data from the robot control device and transmits the teaching command to the robot control device under control of the processor.
A device for robot teaching including.
제8항에서,
상기 휴대용 컴퓨터는,
상기 제1 GUI 화면을 통해, 상기 사용자가 교시 작업과 세부 교시 작업의 종류를 선택하기 위한 화면 구성을 표시하는 것인 로봇 교시를 위한 장치.
In paragraph 8:
The portable computer,
A device for teaching a robot that displays a screen configuration for the user to select a type of teaching task and detailed teaching task through the first GUI screen.
제8항에서,
상기 휴대용 컴퓨터는,
상기 제1 GUI 화면을 통해, 상기 사용자가 로봇이 조작하고자 하는 대상체 종류, 상기 로봇의 그리퍼 종류 및 상기 대상체의 조작 방향을 선택하기 위한 화면 구성을 표시하는 것인 로봇 교시를 위한 장치.
In paragraph 8:
The portable computer,
An apparatus for teaching a robot, wherein the user displays a screen configuration for selecting the type of object the robot wants to manipulate, the type of gripper of the robot, and the manipulation direction of the object through the first GUI screen.
제8항에서,
상기 휴대용 컴퓨터는,
상기 제2 GUI 화면을 통해, 상기 제2 교시점 데이터를 시각화한 제2 교시 궤적을 3차원 좌표계에서 표시하는 제1 화면 구성과, 상기 제2 교시 궤적에 따른 상기 교시 명령을 생성하기 위한선택 버튼과 상기 사용자가 상기 제2 교시 궤적을 선택하지 않은 경우, 재교시 명령을 생성하기 위한 선택 버튼을 포함하도록 구성된 제2 화면 구성을 표시하는 것인 로봇 교시를 위한 장치.
In paragraph 8:
The portable computer,
A first screen configuration that displays a second teaching trajectory visualizing the second teaching point data in a three-dimensional coordinate system through the second GUI screen, and a selection button for generating the teaching command according to the second teaching trajectory and when the user does not select the second teaching trajectory, displaying a second screen configuration configured to include a selection button for generating a re-teaching command.
제8항에서,
상기 휴대용 컴퓨터는,
상기 제1 GUI를 통해, 상기 교시 안내에 따라 사용자가 선택한 교시 작업을 시연하는 동영상을 재생하는 것인 로봇 교시를 위한 장치.
In paragraph 8:
The portable computer,
A device for teaching a robot that plays a video demonstrating a teaching task selected by a user according to the teaching guide through the first GUI.
KR1020220031517A 2022-03-14 2022-03-14 Apparatus and method for teaching robot KR20230134328A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220031517A KR20230134328A (en) 2022-03-14 2022-03-14 Apparatus and method for teaching robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220031517A KR20230134328A (en) 2022-03-14 2022-03-14 Apparatus and method for teaching robot

Publications (1)

Publication Number Publication Date
KR20230134328A true KR20230134328A (en) 2023-09-21

Family

ID=88189274

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220031517A KR20230134328A (en) 2022-03-14 2022-03-14 Apparatus and method for teaching robot

Country Status (1)

Country Link
KR (1) KR20230134328A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117464683A (en) * 2023-11-23 2024-01-30 中机生产力促进中心有限公司 Method for controlling mechanical arm to simulate video motion

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117464683A (en) * 2023-11-23 2024-01-30 中机生产力促进中心有限公司 Method for controlling mechanical arm to simulate video motion
CN117464683B (en) * 2023-11-23 2024-05-14 中机生产力促进中心有限公司 Method for controlling mechanical arm to simulate video motion

Similar Documents

Publication Publication Date Title
Gadre et al. End-user robot programming using mixed reality
Ong et al. Augmented reality-assisted robot programming system for industrial applications
Pérez et al. Industrial robot control and operator training using virtual reality interfaces
US11103997B2 (en) Software interface for authoring robotic manufacturing process
Ostanin et al. Interactive robot programing using mixed reality
EP1310844B1 (en) Simulation device
Fang et al. Interactive robot trajectory planning and simulation using augmented reality
Mateo et al. Hammer: An Android based application for end-user industrial robot programming
US20200117168A1 (en) Runtime Controller for Robotic Manufacturing System
JP6361213B2 (en) Robot control apparatus, robot, robot system, teaching method, and program
JP2019188530A (en) Simulation device of robot
KR20160002329A (en) Robot simulator and file generation method for robot simulator
KR101876845B1 (en) Robot control apparatus
US20170197308A1 (en) Teaching data generating device and teaching data-generating method for work robot
TW202024824A (en) Machine tool system
Bolano et al. Virtual reality for offline programming of robotic applications with online teaching methods
WO2021246416A1 (en) Programming device
KR100956839B1 (en) Jointed arm-robot simulation control program development tool
KR20230134328A (en) Apparatus and method for teaching robot
JP2018144228A (en) Robot control apparatus, robot, robot system, teaching method, and program
CN111843997A (en) Handheld general teaching system for mechanical arm and operation method thereof
JP7087632B2 (en) Robot control device
Zieliński et al. A study of cobot practitioners needs for augmented reality interfaces in the context of current technologies
Bonaiuto et al. Tele-operation of robot teams: a comparison of gamepad-, mobile device and hand tracking-based user interfaces
KR102403021B1 (en) Robot teaching apparatus and method for teaching robot using the same