KR102567361B1 - Robot teaching apparatus and method for teaching robot using the same - Google Patents

Robot teaching apparatus and method for teaching robot using the same Download PDF

Info

Publication number
KR102567361B1
KR102567361B1 KR1020220063536A KR20220063536A KR102567361B1 KR 102567361 B1 KR102567361 B1 KR 102567361B1 KR 1020220063536 A KR1020220063536 A KR 1020220063536A KR 20220063536 A KR20220063536 A KR 20220063536A KR 102567361 B1 KR102567361 B1 KR 102567361B1
Authority
KR
South Korea
Prior art keywords
robot
teaching
message
joint
teaching device
Prior art date
Application number
KR1020220063536A
Other languages
Korean (ko)
Other versions
KR20220168552A (en
Inventor
박종훈
정구희
이웅용
Original Assignee
주식회사 뉴로메카
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 뉴로메카 filed Critical 주식회사 뉴로메카
Priority to KR1020220063536A priority Critical patent/KR102567361B1/en
Publication of KR20220168552A publication Critical patent/KR20220168552A/en
Application granted granted Critical
Publication of KR102567361B1 publication Critical patent/KR102567361B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36162Pendant control box
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39443Portable, adapted to handpalm, with joystick, function keys, display
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40099Graphical user interface for robotics, visual robot user interface

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 프로그래밍 가능한(Programmable) 로봇을 제어하기 위한 로봇 교시 장치에 관한 것으로, 보다 상세하게는, 로봇 프로그래밍, 시뮬레이션 및 제어를 위한 로봇 교시 장치에 관한 것이다.The present invention relates to a robot teaching device for controlling a programmable robot, and more particularly, to a robot teaching device for programming, simulating, and controlling a robot.

Description

로봇 교시 장치 및 이를 이용한 로봇 교시 방법{ROBOT TEACHING APPARATUS AND METHOD FOR TEACHING ROBOT USING THE SAME}Robot teaching device and robot teaching method using the same {ROBOT TEACHING APPARATUS AND METHOD FOR TEACHING ROBOT USING THE SAME}

본 발명은 프로그래밍 가능한(Programmable) 로봇을 교시하기 위한 로봇 교시 장치에 관한 것으로, 보다 상세하게는, 로봇 프로그래밍, 시뮬레이션 및 제어를 위한 로봇 교시 장치(티칭 팬던트(Teaching pendant))에 관한 것이다.The present invention relates to a robot teaching device for teaching a programmable robot, and more particularly, to a robot teaching device (teaching pendant) for programming, simulating, and controlling a robot.

산업용 프로그래밍 가능한 로봇은 일반적으로 알려져 있다. 이러한 로봇을 프로그래밍하는 일반적인 방법은 예컨대, 공간에 최초 포인트로부터 로봇 암 상의 엔드 이펙터(end effector) 및 툴(tool)과 같이 로봇의 특정 부분을 안내하고, 엔드 이펙터의 최종 목적지인 픽업-위치(pick-up location)로 원하는 경로를 통해 보내는 방식이 사용될 수 있다.Industrial programmable robots are generally known. A common method of programming such a robot is to guide a specific part of the robot, e.g., an end effector and a tool on a robot arm, from an initial point in space, and pick-up the final destination of the end effector. -up location) can be used to send through the desired path.

로봇 또는 외부 제어 장치들은 최초 위치로부터 최종 위치로의 움직임과 관련된 정보를 저장하고 있다. 이러한 학습 세션 이후에, 로봇은 위 절차들(procedures)을 반복하고, 수행해야 할 태스크를 수행할 수 있다Robots or external control devices store information related to movement from an initial position to a final position. After this learning session, the robot can repeat the above procedures and perform the tasks to be performed.

다만, 이러한 로봇 교시에 있어서, 로봇을 교시하기 위한 티칭 펜던트는 사용 방법이 복잡하고 어려워 초보자들이 사용하기 어렵다. 이로 인하여, 티칭 펜던트의 활용성이 떨어지는 문제가 있다. However, in this robot teaching, the teaching pendant for teaching the robot is complicated and difficult to use for beginners. Due to this, there is a problem in that the usability of the teaching pendant is poor.

본 발명은 교시 작업의 각 상황에 따라 사용자가 직관적으로 로봇 교시 장치와 상호작용할 수 있도록 하는 로봇 교시 방법, 프로그램 및 장치를 제공하는 것을 그 목적으로 한다.An object of the present invention is to provide a robot teaching method, program, and apparatus that enable a user to intuitively interact with a robot teaching device according to each situation of a teaching task.

또한, 본 발명은 사용자와 로봇 교시 장치가 메시지를 주고 받으면서 로봇을 교시하는 유저 인터페이스를 제공하는 것을 그 목적으로 한다.Another object of the present invention is to provide a user interface for teaching a robot while exchanging messages between a user and a robot teaching device.

또한, 본 발명은 로봇 교시 작업을 완수하기 위해 필요한 각각의 단계마다 순차적으로 사용자와 상호작용할 수 있는 유저 인터페이스를 제공하는 것을 그 목적으로 한다.In addition, an object of the present invention is to provide a user interface capable of interacting with a user sequentially for each step required to complete a robot teaching task.

또한, 본 발명은 사용자가 로봇 교시 작업 중 빈번하게 하는 실수를 사전에 예측하고 예방할 수 있도록 하는 유저 인터페이스를 제공하는 것을 그 목적으로 한다.In addition, an object of the present invention is to provide a user interface that enables users to predict and prevent frequent mistakes during robot teaching work in advance.

또한, 본 발명은 사용자가 로봇의 구동 및 제어 시 발생되는 에러 상황에 대한 인지와 복구를 함께 할 수 있도록 하는 유저 인터페이스를 제공하는 것을 그 목적으로 한다.In addition, an object of the present invention is to provide a user interface that enables a user to recognize and recover from an error situation that occurs when driving and controlling a robot.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

상술한 과제를 해결하기 위한 본 발명은 로봇을 교시하는 로봇 교시 방법을 제공한다. 구체적으로, 본 발명은 상기 로봇의 동작을 교시하도록, 로봇 교시 장치에서 교시 인터페이스를 출력하는 단계, 상기 로봇과 로봇 교시 장치의 통신 정보, 상기 로봇의 상태 정보 및 상기 로봇 교시 장치의 상태 정보 중 적어도 하나를 모니터링하는 단계, 및 상기 모니터링 결과가 기설정된 조건을 만족하는 경우, 상기 교시 인터페이스에 상기 모니터링 결과와 관련된 메시지를 출력하는 단계를 포함하고, 상기 메시지는, 상기 모니터링 결과를 근거로 상기 로봇 교시 장치에 대한 정보 입력을 유도하는 텍스트 및 이미지 중 적어도 하나를 포함하는 것을 특징으로 하는 로봇 교시 방법을 제공한다.The present invention for solving the above problems provides a robot teaching method for teaching a robot. Specifically, the present invention provides at least one of outputting a teaching interface from the robot teaching device to teach the operation of the robot, communication information between the robot and the robot teaching device, state information of the robot, and state information of the robot teaching device. monitoring one, and if the monitoring result satisfies a predetermined condition, outputting a message related to the monitoring result to the teaching interface, wherein the message is configured to teach the robot based on the monitoring result. It provides a robot teaching method comprising at least one of text and images for inducing information input into a device.

일 실시 예에 있어서, 상기 메시지를 출력하는 단계에서, 상기 메시지의 내용은 상기 정보 입력에 따라 변화할 수 있다. 상기 메시지는 상기 교시 인터페이스의 실행화면에 오버랩하여 출력되며, 상기 메시지의 내용이 변화하는 동안에 상기 교시 인터페이스의 실행화면은 유지될 수 있다.In one embodiment, in the step of outputting the message, the content of the message may change according to the information input. The message is displayed overlapping with the execution screen of the teaching interface, and the execution screen of the teaching interface may be maintained while the contents of the message change.

일 실시 예에 있어서, 상기 기 설정된 조건은 상기 로봇의 동작 및 제어 중 적어도 하나에 오류가 발생하였거나, 오류가 발생될 것으로 예상되는 것일 수 있다.In one embodiment, the predetermined condition may be that an error has occurred in at least one of operation and control of the robot, or an error is expected to occur.

일 실시 예에 있어서, 상기 기 설정된 조건은 상기 로봇의 동작 및 제어 중 적어도 하나에 활용될 정보 입력이 필요한 상태일 수 있다.In one embodiment, the preset condition may be a state in which information input to be used for at least one of operation and control of the robot is required.

일 실시 예에 있어서, 본 발명은 상기 로봇 교시 장치의 교시 인터페이스에 상기 로봇의 동작 정보를 포함하는 시뮬레이션 영역 및 상기 로봇의 제어와 관련된 입력을 수신하는 제어 영역을 표시하는 단계를 더 포함하고, 상기 메시지는 상기 시뮬레이션 영역 및 상기 제어 영역 중 상기 기 설정된 조건과 관련된 영역과 연관되도록 표시될 수 있다.In one embodiment, the present invention further comprises displaying a simulation area including motion information of the robot and a control area for receiving an input related to control of the robot on a teaching interface of the robot teaching device, wherein the The message may be displayed in association with a region related to the preset condition among the simulation region and the control region.

일 실시 예에 있어서, 상기 메시지는 상기 기 설정된 조건과 관련된 상기 로봇의 동작, 제어 및 설정 중 적어도 하나에 활용될 정보를 수신하는 입력 영역을 포함할 수 있다.In one embodiment, the message may include an input area for receiving information to be used for at least one of operation, control, and setting of the robot related to the preset condition.

일 실시 예에 있어서, 본 발명은 상기 로봇 교시 장치가 상기 입력 영역을 통해 사용자로부터 정보를 입력 받는 단계, 상기 로봇 교시 장치가 상기 입력 영역을 통해 입력 받은 정보를 활용하여 상기 로봇의 상태 및 상기 로봇 교시 장치의 상태 중 적어도 하나를 모니터링하는 단계 및 상기 메시지가 출력된 후 수행된 모니터링 결과에 기반하여, 연관 메시지를 출력하는 단계를 더 포함할 수 있다.In one embodiment, the present invention includes the step of receiving information from a user through the input area by the robot teaching device, and the state of the robot and the robot by utilizing the information input through the input area by the robot teaching device. The method may further include monitoring at least one of the states of the teaching device and outputting a related message based on a monitoring result performed after the message is output.

일 실시 예에 있어서, 상기 기설정된 조건은 부가 장치가 상기 로봇에 장착된 것이 감지되는 것이고, 상기 메시지는 사용자가 상기 로봇을 특정한 움직임으로 움직이도록 안내하는 텍스트 및 이미지 중 적어도 하나를 포함할 수 있다.In one embodiment, the predetermined condition is that it is detected that an additional device is mounted on the robot, and the message may include at least one of text and image for guiding the user to move the robot in a specific motion. .

일 실시 예에 있어서, 본 발명은 상기 메시지가 출력된 후, 상기 로봇 교시 장치가 상기 로봇의 움직임을 모니터링하는 단계 및 상기 로봇 교시 장치가 상기 움직임 모니터링 결과에 기반하여, 상기 부가 장치와 관련된 설정을 수행하는 단계를 더 포함할 수 있다.In one embodiment, the present invention includes the step of monitoring the movement of the robot by the robot teaching device after the message is output, and the robot teaching device setting settings related to the additional device based on the motion monitoring result. It may further include steps to perform.

또한, 본 발명은 교시 인터페이스를 출력하는 디스플레이부와, 로봇과 데이터를 송수신하도록 이루어지는 통신부, 및 상기 로봇과 로봇 교시 장치의 통신 정보, 상기 로봇의 상태 정보 및 상기 로봇 교시 장치의 상태 정보 중 적어도 하나를 모니터링하고, 상기 모니터링 결과가 기설정된 조건을 만족하는 경우, 상기 교시 인터페이스에 상기 모니터링 결과와 관련된 메시지가 출력되도록 디스플레이부를 제어하는 제어부를 포함하는 로봇 교시 장치를 제공한다. 상기 메시지는, 상기 모니터링 결과를 근거로 상기 로봇 교시 장치에 대한 정보 입력을 유도하는 텍스트 및 이미지 중 적어도 하나를 포함할 수 있다.In addition, the present invention provides at least one of a display unit outputting a teaching interface, a communication unit configured to transmit and receive data to and from a robot, communication information between the robot and the robot teaching device, state information of the robot, and state information of the robot teaching device. and a controller for controlling a display unit to output a message related to the monitoring result to the teaching interface when the monitoring result satisfies a predetermined condition. The message may include at least one of text and image for inducing input of information on the robot teaching device based on the monitoring result.

또한, 본 발명은 상기 로봇 교시 방법을 수행하는 로봇 및 로봇 교시 장치를 구비하는 로봇 교시 시스템을 제공한다.In addition, the present invention provides a robot teaching system including a robot performing the robot teaching method and a robot teaching device.

상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, it has various effects as follows.

본 발명에 따르면, 사용자는 본 발명에 따른 유저 인터페이스를 통해 상황의 전개를 인지하면서 교시 작업을 수행하기 때문에, 로봇 교시 작업을 완수하는데 필요한 정보 및 행동을 누락하지 않게 된다.According to the present invention, since the user performs the teaching task while recognizing the development of the situation through the user interface according to the present invention, information and actions required to complete the robot teaching task are not omitted.

또한, 본 발명에 따르면, 사용자가 최우선적으로 수행해야할 작업을 메시지가 표시된 영역 내에서 모두 수행할 수 있기 때문에, 사용자의 작업 집중도 및 작업 속도가 상승할 수 있다.In addition, according to the present invention, since the user can perform all of the tasks to be performed with the highest priority within the area where the message is displayed, the user's work concentration and work speed can be increased.

또한, 본 발명에 따르면, 사용자와 로봇 교시 장치 간의 상호작용을 통하여 로봇 교시 작업의 각 단계에서 로봇에 대한 모니터링과 문제의 해소가 순차적으로 구현되기 때문에, 이를 통하여 초보자도 용이하게 로봇의 교시를 할 수 있게 된다.In addition, according to the present invention, since monitoring of the robot and solving problems are sequentially implemented at each stage of the robot teaching task through interaction between the user and the robot teaching device, even beginners can easily teach the robot through this. be able to

또한, 본 발명에 따르면, 로봇 교시 장치는 사용자와의 상호작용을 통해 부가 장치 장착에 필요한 정보를 사용자에게 제공하고, 사용자로부터 부가 장치 설정에 필요한 정보를 수집하기 때문에, 사용자는 로봇에 장착하는 부가 장치에 대한 구체적인 지식이 없이도 쉽게 부가 장치를 로봇에 장착할 수 있게 된다.In addition, according to the present invention, the robot teaching device provides the user with information necessary for mounting the additional device through interaction with the user and collects information necessary for setting the additional device from the user, so that the user can attach the additional device to the robot. Additional devices can be easily mounted on the robot without specific knowledge of the device.

또한, 본 발명에 따르면, 사용자의 실수가 빈번하게 발생하는 작업 단계에 도달하였을 때 이를 사용자가 인지하도록 하고, 사용자가 최소한의 작업을 통해 실수를 예방할 수 있도록 하기 때문에, 로봇 에러 횟수가 최소화 되며 사용자의 작업 시간이 단축될 수 있다.In addition, according to the present invention, the number of robot errors is minimized because the user is made aware of this when the user's error frequently occurs and the user can prevent mistakes through minimal work. working time can be shortened.

또한, 본 발명에 따르면, 로봇 동작 및 제어 중 발생되는 에러 상황 및 에러 복구를 위한 인터페이스가 하나의 메시지에서 제공되기 때문에, 사용자는 에러를 인지하는 즉시 에러 복구를 위한 행동을 수행할 수 있게 된다. In addition, according to the present invention, since an error situation occurring during robot operation and control and an interface for error recovery are provided in one message, the user can immediately take action for error recovery upon recognizing an error.

또한, 본 발명에 따르면, 로봇 교시 장치와의 반복된 상호작용 과정을 통하여 별도의 선행(매뉴얼, 교육 커리큘럼 등) 학습없이 사용자의 로봇 사용 숙련도를 스스로 향상시킬 수 있다. In addition, according to the present invention, the user's proficiency in using the robot can be improved by itself without separate prior learning (manual, educational curriculum, etc.) through a process of repeated interaction with the robot teaching device.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 일 실시예에 따른 로봇 교시 시스템을 개략적으로 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 로봇 교시 장치(티칭 펜던트)에 포함된 구성요소들을 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 로봇 교시 장치(티칭 펜던트)의 메인 화면을 나타낸 개념도이다.
도 4는 본 발명의 일 실시예에 따른 로봇 교시 장치에 의해 제어되는 프로그래밍 가능한 로봇의 동작을 설명하기 위한 개념도이다.
도 5는 본 발명에 따른 메시지를 출력하는 일 실시 예를 나타내는 순서도이다.
도 6 및 7은 본 발명에 따른 메시지를 출력하는 일 실시 예를 나타내는 개념도이다.
도 8A 내지 10C은 본 발명의 일 실시 예에 따라 부가 장치 장착에 메시지를 활용하는 일 실시 예를 나타내는 개념도들이다.
도 11은 본 발명의 일 실시 예에 따라 사용자가 처음 실행하는 기능에 메시지를 활용하는 일 실시 예를 나타내는 개념도이다.
도 12은 본 발명의 일 실시 예에 따라 사용자가 자주하는 실수를 예방하기 위해 메시지를 활용하는 일 실시 예를 나타내는 개념도이다.
도 13 내지 17은 본 발명의 일 실시 예에 따라 로봇 에러 복구에 메시지를 활용하는 일 실시 예를 나타내는 개념도들이다.
1 is a diagram schematically showing a robot teaching system according to an embodiment of the present invention.
2 is a block diagram showing components included in a robot teaching device (teaching pendant) according to an embodiment of the present invention.
3 is a conceptual diagram showing a main screen of a robot teaching device (teaching pendant) according to an embodiment of the present invention.
4 is a conceptual diagram illustrating the operation of a programmable robot controlled by a robot teaching device according to an embodiment of the present invention.
5 is a flowchart illustrating an embodiment of outputting a message according to the present invention.
6 and 7 are conceptual diagrams illustrating an embodiment of outputting a message according to the present invention.
8A to 10C are conceptual diagrams illustrating an embodiment of using a message for mounting an additional device according to an embodiment of the present invention.
11 is a conceptual diagram illustrating an embodiment in which a message is used for a function that a user first executes according to an embodiment of the present invention.
12 is a conceptual diagram illustrating an embodiment of using a message to prevent mistakes that users often make according to an embodiment of the present invention.
13 to 17 are conceptual diagrams illustrating an embodiment of using a message for robot error recovery according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, only these embodiments are intended to complete the disclosure of the present invention, and are common in the art to which the present invention belongs. It is provided to fully inform the person skilled in the art of the scope of the invention, and the invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" does not exclude the presence or addition of one or more other elements other than the recited elements. Like reference numerals throughout the specification refer to like elements, and “and/or” includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various components, these components are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first element mentioned below may also be the second element within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention will be described in more detail. In order to facilitate overall understanding in the description of the present invention, the same reference numerals are used for the same components in the drawings, and redundant descriptions of the same components are omitted.

로봇 교시를 위해서는 3가지 방식이 사용될 수 있는데, 상기 3가지 방식은 오프라인 프로그래밍(offline programming), 온라인 프로그래밍(online programming), 직접 교시(direct teaching) 방식을 포함할 수 있다. 오프라인 프로그래밍은 시뮬레이터를 기반으로 동작하는 프로그래밍 방식으로, 경로 생성 및 검증을 수행시 주로 사용되며, 이더캣 마스터 제어기를 통해 실행되는 프로그래밍 방식이다. Three methods may be used for robot teaching, and the three methods may include offline programming, online programming, and direct teaching. Offline programming is a programming method that operates based on a simulator, and is mainly used when creating and verifying paths, and is a programming method that is executed through the EtherCAT master controller.

온라인 프로그래밍은 로봇 교시 장치를 이용하는 방식으로, 로봇 운동 명령, 경로 생성/반복 작업에 주로 사용되고 이를 로봇 교시 장치와 로봇의 유/무선 연결에 의해 이루어지는 방식이다. Online programming is a method using a robot teaching device, which is mainly used for robot motion commands and path generation/repetitive tasks, and is performed by wired/wireless connection between the robot teaching device and the robot.

직접 교시는 사용자(또는 조작자)가 로봇을 직접 조작하여 경로를 학습시키는 방법으로 제어 알고리즘의 지원이 필요할 수 있다. 이는 로봇의 목표 궤적을 사용자가 직관적을 결정할 수 있도록 하는 시스템으로, 사용자가 로봇의 말단 부분을 잡고 직접 로봇에 힘과 모멘트를 인가하여 로봇을 자신의 의도대로 운전하는 방식이다. 이로 인해, 사용자는 간단히 로봇의 목표 궤적 정보를 생성할 수 있고, 로봇은 이 경로를 기억한 후, 자동운전시 이를 추종하도록 하여 제어되는 방식이다. Direct teaching is a method in which a user (or an operator) directly manipulates a robot to learn a path, and support of a control algorithm may be required. This is a system that allows the user to intuitively determine the target trajectory of the robot. The user holds the distal end of the robot and directly applies force and moment to the robot to drive the robot as intended. Due to this, the user can simply generate target trajectory information of the robot, and the robot is controlled by memorizing this route and following it during automatic driving.

본 발명의 일 실시예에 따른 로봇 교시 장치는 로봇을 제어하기 위한 사용자 인터페이스 장치로써, 티칭 펜턴드(TP: Teaching Pendant)를 포함할 수 있다. 티칭 펜던트는 산업용 장비 또는 로봇에 사용되는 장비로, 주로 모니터 및 마우스를 사용할 수 없는 산업 현장 및 특별한 조작이 필요없는 자동화 장비에서 사용자의 편의를 위해 터치 패드(또는 키버튼)과 디스플레이 스크린(예컨대, LCD, LED 스크린이 포함될 수 있음)을 사용하여 태블릿 PC 형태로 구현 가능하며, 로봇에 유선 또는 무선으로 연결되어 사용될 수 있다.A robot teaching device according to an embodiment of the present invention is a user interface device for controlling a robot, and may include a teaching pendant (TP). Teaching pendant is equipment used in industrial equipment or robots, and is mainly used in industrial sites where monitors and mice cannot be used and in automation equipment that does not require special manipulation. It can be implemented in the form of a tablet PC using LCD and LED screens) and can be connected to the robot by wire or wirelessly.

로봇 교시 시스템robot teaching system

도 1은 본 발명의 일 실시예에 따른 로봇 교시 시스템을 개략적으로 나타낸 도면이다. 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 로봇 교시 시스템은 (a) 오프라인 프로그래밍 기반 및 (b) 온라인 프로그래밍 기반으로 프로그래밍할 수 있다. 본 발명의 일 실시 예에 따른 로봇 교시 시스템은 로봇 교시 장치(100: 예컨대 티칭 펜던트일 수 있음), 마스터 제어기 및 로봇(300) 중 적어도 하나를 포함할 수 있다. 본 발명은 온라인 프로그래밍 기반의 로봇 교시 시스템 및 오프라인 프로그래밍 기반의 로봇 교시 시스템에 모두 사용될 수 있다. 또한, 상기 로봇 교시 시스템은 교시를 기준으로 시스템을 정의한 용어로서, 로봇을 기준으로 한 로봇 시스템으로 지칭될 수 있다.1 is a diagram schematically showing a robot teaching system according to an embodiment of the present invention. As shown in FIG. 1 , the robot teaching system according to an embodiment of the present invention can be programmed based on (a) offline programming and (b) online programming. A robot teaching system according to an embodiment of the present invention may include at least one of a robot teaching device 100 (eg, a teaching pendant), a master controller, and the robot 300 . The present invention can be used for both an online programming-based robot teaching system and an offline programming-based robot teaching system. Also, the robot teaching system is a term defining a system based on teaching, and may be referred to as a robot system based on a robot.

도 1의 (a)를 참조하면, 본 발명의 일 실시예에 따른 오프라인 프로그램밍 제어에 있어서, 로봇 교시 장치(100)와 마스터 제어기(200)는 제어 신호를 또는 프로그래밍 데이터를 로봇(300)의 제어 시스템(미도시)에 전달하여 로봇(300)을 구동시킬 수 있다. 로봇(300)의 제어 시스템은 이를 각 로봇의 부분을 구동시키는 구동 수단에 전류를 인가하여 프로그래밍에 상응하는 동작이 수행되도록 제어할 수 있다. Referring to (a) of FIG. 1 , in offline programming control according to an embodiment of the present invention, the robot teaching device 100 and the master controller 200 transmit control signals or programming data to control the robot 300. It can be transmitted to a system (not shown) to drive the robot 300 . The control system of the robot 300 may apply current to the driving means for driving each part of the robot to control the operation corresponding to the programming to be performed.

본 발명의 일 실시예에 따른 로봇 교시 장치(100)는 터치 기반의 티칭 펜던트일 수 있다. 즉, 온라인 프로그래밍에 사용되는 티칭 펜던트의 기능에 시뮬레이터를 탑재하여 오프라인 프로그래밍 기능을 제공할 수 있다. 로봇 교시 장치(100)는 오픈소스 동역학 엔진(ODE) 기반의 로봇/센서/환경 모델링 이동 로봇 및 휴머노이드 ROS(소프 트웨어)를 탑재하여 이를 구현할 수 있다. 소프트웨어는 윈도우 또는 리눅스 등 다양한 운영체계에서 실행될 수 있다. 로봇 교시 장치(100)는 시뮬레이터를 통해 충돌 회피 알고리즘, 최적 경로 계산 알고리즘을 검증할 수 있다. The robot teaching device 100 according to an embodiment of the present invention may be a touch-based teaching pendant. That is, an offline programming function can be provided by mounting a simulator on the function of the teaching pendant used for online programming. The robot teaching device 100 can implement this by loading a robot/sensor/environment modeling mobile robot and humanoid ROS (software) based on an open source dynamics engine (ODE). The software can run on various operating systems such as Windows or Linux. The robot teaching apparatus 100 may verify a collision avoidance algorithm and an optimal path calculation algorithm through a simulator.

로봇 교시 장치(100)는 로봇(300)의 엔드 이펙터를 포함하여 로봇(300)의 부분들의 기능들 및 움직임들을 제어 하는데 사용될 수 있다. 이를 위해, 로봇 교시 장치(100)는 로봇(300)이 동작하는 주변 환경 및 로봇(300)에 의해 핸들링되는 물체들에 대한 관련 정보뿐만 아니라 미리 저장된 로봇 관련 움직임 및 기능들을 저장하는 저장부를 포함할 수 있다. 로봇 교시 장치(100)는 로봇(300)의 프로그래밍 동안 로봇(300)과 통신할 수 있고, 로봇(300)을 제어할 수 있다. 또한, 로봇(300)의 움직임들의 패턴 및 미리 프로그래밍된 시나리오를 검색할 수도 있다. 따라서, 이러한 시나리오 또는 로봇 관련 정보들은 새로운 테스트를 위한 로봇을 재-프로그래밍하는데 필요한 설정 내에서 서로 다른 태스크를 수행하는데 사용될 수 있다. The robot teaching device 100 may be used to control functions and movements of parts of the robot 300, including an end effector of the robot 300. To this end, the robot teaching apparatus 100 may include a storage unit for storing pre-stored robot-related movements and functions as well as related information on the surrounding environment in which the robot 300 operates and objects handled by the robot 300. can The robot teaching device 100 may communicate with the robot 300 during programming of the robot 300 and may control the robot 300 . In addition, patterns of movements of the robot 300 and pre-programmed scenarios may be retrieved. Thus, these scenarios or robot-related information can be used to perform different tasks within the setup needed to re-program the robot for new tests.

마스터 제어기(200)는 사물인터넷(IoT) 서비스가 즉시 가능한 게이트웨이(IGoT: Internet Gateway of Things)를 이용하여 분산된 다수의 센서 및 구동기들을 이더넷 통신을 통해 실시간으로 제어하기 위한 필드버스일 수 있다. 여기서, IGoT는 사물인터넷 서비스가 즉시 가능한 게이트웨이로 산업용 사물인터넷을 위해 필드버스인 RS485 및 CAN 기반의 센서들을 활용하고 실시간 분산 제어를 위해 이더캣(EtherCAT)을 활용하는 것이 가능하다. 즉, 마스터 제어기(200)는 이더캣을 지원하는 리눅스 기반의 실시간 제어기일 수 있다. 마스터 제어기(200)를 통해 산업용 제어기가 갖는 안정성과 고성능을 확보할 수 있을 뿐만 아니라 실시간 운영체제 및 이더캣 마스터 소프트웨어까지 활용하여 제품의 소유 및 유지비용을 낮출 수 있다. 마스터 제어기(200)는 로봇 교시 장치(100)와 USB를 통해 연결되고, 로봇 교시 장치(100)로부터 프로그래밍 데이터 또는 제어 신호 를 받아 로봇을 구동시킬 수 있다. 마스터 제어기(200)는 STEP(Science and Technology Embedded Platform)을 포함할 수 있다. The master controller 200 may be a fieldbus for controlling a plurality of distributed sensors and actuators in real time through Ethernet communication using an Internet Gateway of Things (IGoT) that enables Internet of Things (IoT) services immediately. Here, IGoT is a gateway that enables Internet of Things service immediately, and it is possible to use fieldbus RS485 and CAN-based sensors for industrial Internet of Things and to use EtherCAT for real-time distributed control. That is, the master controller 200 may be a Linux-based real-time controller supporting EtherCAT. Stability and high performance of an industrial controller can be secured through the master controller 200, and cost of ownership and maintenance of a product can be reduced by utilizing a real-time operating system and EtherCAT master software. The master controller 200 may be connected to the robot teaching device 100 through a USB, receive programming data or control signals from the robot teaching device 100, and drive the robot. The master controller 200 may include a Science and Technology Embedded Platform (STEP).

온라인 프로그래밍 제어에 있어서, 로봇 교시 장치(100)는 이더캣을 이용하여 온라인으로 로봇(300)을 제어할 수 있다. 즉, 본 발명의 일 실시예에 따르면, 실시간 로봇제어기와 통합된 형태의 로봇 교시 장치(100)를 구현하여 온라인 프로그래밍과 오프라인 프로그래밍을 통합 수행할 수 있다. In online programming control, the robot teaching apparatus 100 may control the robot 300 online using EtherCAT. That is, according to an embodiment of the present invention, online programming and offline programming can be integrated by implementing the robot teaching apparatus 100 in a form integrated with a real-time robot controller.

로봇 교시 장치(티칭 펜던트) Robot teaching device (teaching pendant)

도 2는 본 발명의 일 실시예에 따른 로봇 교시 장치(티칭 펜던트)에 포함된 구성요소들을 나타내는 블록도이고, 도 3은 본 발명의 일 실시예에 따른 로봇 교시 장치(티칭 펜던트)의 메인 화면을 나타낸 개념도이다. 2 is a block diagram showing components included in a robot teaching device (teaching pendant) according to an embodiment of the present invention, and FIG. 3 is a main screen of the robot teaching device (teaching pendant) according to an embodiment of the present invention. It is a conceptual diagram showing

도 2를 참조하면, 본 발명의 일 실시예에 따른 로봇 교시 장치(100)는 디스플레이부(110), 사용자 입력부(120), 제어부(130), 저장부(140), 통신부(150) 및 시뮬레이션부(160)를 포함할 수 있다.Referring to FIG. 2 , the robot teaching apparatus 100 according to an embodiment of the present invention includes a display unit 110, a user input unit 120, a controller 130, a storage unit 140, a communication unit 150, and a simulation unit. may include section 160 .

디스플레이부(110)는 로봇의 프로그래밍 동안 사용자에 의해 수행되어질 프로그래밍 단계들과 관련된 메뉴들 및/또는 로봇의 프로그래밍 동안, 실제 동작 또는 테스트 실행 동안 상기 로봇의 형상을 나타내는 컴퓨터-생성 표현(예컨대, 3D CAD 이미지)을 디스플레이할 수 있다. 디스플레이부(110)는 시간 축과 로봇의 부분들 중 적어도 하나의 움직임의 정도 값을 나타내는 움직임 정보 축으로 구성된 그래프를 표시할 수 있다. 한편, 디스플레이부(110)에는 사용자의 작업을 보조하기 위한 다양한 메시지가 표시될 수 있다. 이에 대하여는 후술한다. The display unit 110 displays menus related to programming steps to be performed by the user during programming of the robot and/or a computer-generated representation (e.g., 3D representation) of the shape of the robot during programming, actual operation or test execution. CAD image) can be displayed. The display unit 110 may display a graph composed of a time axis and a motion information axis representing a motion degree value of at least one of robot parts. Meanwhile, various messages for assisting a user's work may be displayed on the display unit 110 . This will be described later.

사용자 입력부(120)는 로봇에 대한 제어 시스템에 프로그래밍된 지시어를 입력할 수 있다. 사용자 입력부(120)는 사용자로부터 지시어를 입력받을 수 있고, 이는 터치 스크린을 포함할 수 있다. 터치 스크린은 터치 펜 또는 사용자 손 등을 통해 사용자 입력을 입력받을 수 있다. 터치 스크린은 로봇의 3D 표현이 로봇의 특정 부분을 임의의 위치에 위치시키고 배향시키기(positioning and orienting) 위한 다양한 아이콘들과 함께 표시되도록 하고, 아이콘들에 대한 클릭을 입력받을 수 있다. The user input unit 120 may input instructions programmed into the control system for the robot. The user input unit 120 may receive an instruction from a user, and may include a touch screen. The touch screen may receive a user input through a touch pen or a user's hand. The touch screen allows a 3D representation of the robot to be displayed along with various icons for positioning and orienting specific parts of the robot to an arbitrary location, and can receive clicks on the icons.

제어부(130)는 로봇에 대한 프로그래밍 및 제어를 위한 프로세서이다. 이는 하드웨어 프로세서로 구성될 수 있다. 제어부(130)는 사용자 입력부(120)에서 입력된 지시어에 따라 로봇에 입력되는 프로그래밍 코드를 생성할 수 있다. 또는 로봇을 제어할 수 있는 제어 신호를 생성할 수 있다. 제어부(130)는 로봇의 각 부분의 움직임 또는 좌표 값을 기반으로 시간에 따른 흐름을 분석하여 시간축과 움직임 정도 값으로 구성된 그래프를 생성할 수 있다. 또한, 그래프를 이용하여 시간, 대상 로봇 부분 및 웨이포인트를 특정하여 해당 부분의 움직임 정도 값의 변화를 통해 웨이포인트의 위치를 변화시킬 수도 있고, 새로운 웨이포인트를 추가할 수도 있다. 제어부(130)는 로봇의 주변 환경, 예컨대, 장애물 및 금지 구역 등을 파악하여, 로봇의 최적 경로를 계산할 수 있다. 또한, 웨이포인트들의 시퀀스들을 통해 또는 공간 상의 경로를 통해 로봇의 하나 이상의 조인트들 또는 툴을 이동시킴으로써 로봇의 위치 또는 공간적 영역의 상세 좌표를 획득할 수 있다. The controller 130 is a processor for programming and controlling the robot. It may consist of a hardware processor. The control unit 130 may generate a programming code input to the robot according to the instruction input through the user input unit 120 . Alternatively, a control signal capable of controlling the robot may be generated. The controller 130 may analyze the flow over time based on the movement or coordinate values of each part of the robot to generate a graph consisting of a time axis and movement degree values. In addition, by specifying time, a target robot part, and a waypoint using a graph, the position of a waypoint may be changed through a change in the motion degree value of the corresponding part, or a new waypoint may be added. The control unit 130 may calculate an optimal path of the robot by recognizing the surrounding environment of the robot, such as obstacles and prohibited areas. Further, by moving one or more joints or a tool of the robot through sequences of waypoints or through a path in space, detailed coordinates of a location or spatial area of the robot may be obtained.

이를 위해 제어부(130)에는 기본적으로 각 팔에 대한 역동역학 제어 알고리즘, 임피던스 제어 알고리즘, 컴플라이언스 제어 알고리즘, 암 조작에 따른 충돌 검출 및 회피 알고리즘, Object 임피던스 제어 알고리즘 및 Internal force 임피던스 제어알고리즘을 탑재할 수 있고, 이러한 알고리즘의 검증을 시뮬레이션부(160)의 시뮬레이션을 통해 수행할 수 있다. To this end, the control unit 130 can basically include a dynamic dynamics control algorithm, an impedance control algorithm, a compliance control algorithm, a collision detection and avoidance algorithm according to arm manipulation, an object impedance control algorithm, and an internal force impedance control algorithm for each arm. There is, and verification of this algorithm can be performed through simulation of the simulation unit 160.

또한, 제어부(130)는 각 메뉴 및 아이콘의 클릭에 따라 이전 및 다음 메뉴 및 아이콘이 표시되도록 디스플레이부(110)을 제어할 수 있다. 제어부(130)는 적어도 로봇의 프로그래밍 동안, 특정 동작들과 관련하여, 로봇과 관련된 선호 움직임, 액션들 및 다른 특징들을 설명하는 미리 프로그래밍된 템플릿(templates)의 액세스를 가질 수 있다. 이때, 테플릿은 로봇의 차후 프로그래밍을 최적화하고, 촉진시키기 위해 로봇의 서로 다른 동작들을 정의할 수 있다. 상기 템플릿은 저장부(140)에 저장될 수 있다. Also, the controller 130 may control the display unit 110 to display previous and next menus and icons according to clicks of each menu and icon. Controller 130 may have access to pre-programmed templates that describe preferred movements, actions and other features associated with the robot, in relation to specific actions, at least during programming of the robot. At this time, the template can define different movements of the robot in order to optimize and facilitate the further programming of the robot. The template may be stored in the storage unit 140 .

저장부(140)는 로봇의 프로그래밍 및 동작들과 관련된 정보를 저장할 수 있고, 로봇의 이동 동안 피해야 할 장애물 정보 및/또는 공간 상의 금지된 영역과 같은 로봇 주변에 관한 정보도 저장할 수 있다. 이는 RAM, ROM 등의 플래시 메모리 및/또는 하드 메모리 등의 비휘발성 메모리를 포함할 수 있다. 저장부(140)는 툴의 최초 위치를 나타내는 정보, 최초 위치에서의 툴의 활성화/트리거링 파라미터들, 툴의 최종 위치, 최종 위치에서의 활 성화/트리거링 파라미터들 및 최초 위치와 최종 위치 사이의 공간 상의 경로와 관련된 정보를 저장할 수 있다. The storage unit 140 may store information related to programming and operations of the robot, and may also store information about obstacles to be avoided while moving the robot and/or information about the robot's surroundings, such as forbidden areas in space. This may include flash memory such as RAM, ROM, and/or non-volatile memory such as hard memory. The storage unit 140 includes information indicating the initial position of the tool, activation/triggering parameters of the tool at the initial position, final position of the tool, activation/triggering parameters at the final position, and a space between the initial position and the final position. It can store information related to the path of the phase.

통신부(150)는 실제 로봇에 부착된 센서 등으로부터 로봇의 움직임 정보 또는 위치 정보 등의 로봇 관련 정보를 수신할 수 있다. 이는 통신 프로세서로 구현가능하다. 또한, 통신부(150)는 로봇 간에 데이터 송수신을 수행하도록 이루어질 수 있다.The communication unit 150 may receive robot-related information such as movement information or location information of the robot from a sensor attached to the actual robot. This can be implemented with a communication processor. In addition, the communication unit 150 may be configured to transmit and receive data between robots.

시뮬레이션부(160)는 실제 로봇으로부터 수신되는 정보 또는 로봇 교시 장치의 외부 센서로부터의 정보를 기반으로 실제 로봇의 움직임을 컴퓨터-생성 표현으로 생성하여 시뮬레이션이 이루어지도록 할 수 있다. 또한, 실제 로봇과 별개로, 제어부(130)에서 생성된 프로그래밍에 따라 로봇의 컴퓨터-생성 표현을 생성하여 가상으로 로봇의 움직임을 시뮬레이팅할 수 있다. 이러한 시뮬레이션 컴퓨터-생성 표현은 디스플레이부(110)으로 전송되어 디스플레이될 수 있다.The simulation unit 160 may create a motion of a real robot as a computer-generated expression based on information received from the real robot or information from an external sensor of the robot teaching device, so that the simulation is performed. In addition, apart from the actual robot, it is possible to create a computer-generated representation of the robot according to the programming generated in the controller 130 to simulate the robot's movement virtually. This simulated computer-generated representation can be transmitted to and displayed on the display unit 110 .

즉, 본 명세서에서 설명되는 시뮬레이션 정보는, 로봇의 실제 움직임을 묘사하는 정보 및 로봇의 가상 움직임을 묘사하는 정보 중 적어도 하나를 포함할 수 있다.That is, the simulation information described in this specification may include at least one of information describing the actual motion of the robot and information describing the virtual motion of the robot.

로봇의 실제 움직임을 묘사하는 정보는, 정적 이미지 또는 동적 이미지 중 적어도 하나를 통해 표현될 수 있다, 나아가, 로봇의 실제 움직임을 묘사하는 정보는 로봇의 외관과 대응되며, 로봇의 각 관절(또는 관절의 포지션)을 묘사하는 이미지일 수 있다.Information describing the actual movement of the robot may be expressed through at least one of a static image or a dynamic image. Furthermore, the information describing the actual movement of the robot corresponds to the appearance of the robot, and each joint (or joint) of the robot position of) may be an image depicting.

마찬가지로, 로봇의 가상 움직임을 묘사하는 정보는, 정적 이미지 또는 동적 이미지 중 적어도 하나를 통해 표현될 수 있다, 나아가, 로봇의 가상 움직임을 묘사하는 정보는 로봇이 실제 움직였을 경우 예상되는 로봇의 외관 및 관절의 표지션에 대한 이미지일 수 있다.Similarly, information describing the virtual movement of the robot may be expressed through at least one of a static image or a dynamic image. Furthermore, the information describing the virtual movement of the robot may include the expected appearance and joints of the robot when the robot actually moves. It may be an image for the position of

본 발명에서는 설명의 편의를 위하여, 로봇 교시 장치에서 수행되는 기능 또는 과정을 “로봇 교시 장치가 정보를 출력한다”와 같이, “로봇 교시 장치”를 주체로 하여 표현하도록 한다. 여기에서, “제어 하에”있다는 것은, 로봇 교시 장치와 마스터 제어기 및 로봇과의 통신을 통해, 데이터를 송수신하여, 이에 기반하여 일련의 과정이 수행되는 것을 의미할 수 있다.In the present invention, for convenience of description, functions or processes performed by the robot teaching device are expressed with the “robot teaching device” as the subject, such as “the robot teaching device outputs information”. Here, “under control” may mean that data is transmitted and received through communication between the robot teaching device, the master controller, and the robot, and a series of processes are performed based thereon.

또한, “제어 하에”있다는 것은, 실질적으로는 로봇 교시 장치의 제어부가, 본 발명에 따른 로봇 교시 장치에서 제공되는 명령어, 프로그램 또는 기능에 기반하여, 이하에서 설명되는 기능을 수행할 수 있음을 의미할 수 있다. In addition, “under control” means that the control unit of the robot teaching device according to the present invention can perform functions described below based on commands, programs, or functions provided by the robot teaching device according to the present invention. can do.

본 발명에 따른 로봇 교시 장치는 디스플레이부(110) 상에 다양한 화면 정보를 표시할 수 있다.The robot teaching device according to the present invention may display various screen information on the display unit 110 .

구체적으로, 도 3을 참조하면, 디스플레이부에는 로봇 교시 장치(100)에서 실행 가능한 기능과 연관된 복수의 아이콘들(111)이 표시될 수 있다. 사용자는 상기 아이콘들 중 어느 하나를 터치함으로써, 특정 기능을 실행할 수 있다. Specifically, referring to FIG. 3 , a plurality of icons 111 associated with functions executable in the robot teaching apparatus 100 may be displayed on the display unit. A user can execute a specific function by touching any one of the icons.

한편, 디스플레이부(110)는 로봇에 대한 컴퓨터-생성 표현(112)이 출력될 수 있다. 여기서, 컴퓨터-생성 표현(112)이란 로봇의 구동 및 제어와 관련된 시뮬레이션 정보이다. 상기 컴퓨터-생성 표현(112)은 사용자로부터 인가된 정보를 기반으로 시뮬레이션부(160) 또는 마스터 제어기(200)에서 수행된 시뮬레이션 결과물을 이미지화 한 것이다. 본 명세서에서는 상기 컴퓨터-생성 표현(112)이 표시되는 영역을 시뮬레이션 영역이라 한다.Meanwhile, the display unit 110 may output a computer-generated representation 112 of the robot. Here, the computer-generated representation 112 is simulation information related to driving and controlling the robot. The computer-generated expression 112 is an image of a simulation result performed by the simulation unit 160 or the master controller 200 based on information received from the user. The area in which the computer-generated representation 112 is displayed is referred to herein as a simulation area.

상기 컴퓨터-생성 표현은 실제 로봇과 동일한 형상으로 표시되며, 제어하고자 하는 로봇의 종류가 달라질 경우, 컴퓨터-생성 표현(112) 또한 달라질 수 있다. 로봇 교시 장치(100)는 상기 컴퓨터-생성 표현(112)을 이용하여 사용자에게 로봇의 형상 및 특정 제어명령에 따른 로봇의 예상 움직임을 제공할 수 있다. 즉, 컴퓨터-생성 표현(112)은 정지 영상만을 포함하는 것이 아니라 동영상도 포함한다. The computer-generated representation is displayed in the same shape as the actual robot, and if the type of robot to be controlled is different, the computer-generated representation 112 may also be different. The robot teaching device 100 may use the computer-generated representation 112 to provide the user with the shape of the robot and expected movements of the robot according to specific control commands. That is, the computer-generated representation 112 includes not only still images, but also moving images.

또한, 로봇 교시 장치(100)는 상기 컴퓨터-생성 표현(112)의 일부분(112’)을 강조 표시함으로써, 사용자가 로봇의 특정 부위에 문제가 있음을 인지할 수 있도록 할 수 있다. 컴퓨터-생성 표현(112)을 활용하는 실시 예에 대하여는 후술한다.In addition, the robot teaching device 100 may highlight a portion 112' of the computer-generated representation 112 so that the user can recognize that there is a problem with a specific part of the robot. An embodiment utilizing computer-generated representation 112 is described below.

한편, 디스플레이부(110)에는 프로젝트의 정보를 입력할 수 있는 영역(113)이 표시될 수 있다. Meanwhile, an area 113 for inputting project information may be displayed on the display unit 110 .

한편, 디스플레이부(110)에는 로봇에 인가하는 제어명령의 종류를 선택할 수 있는 복수의 탭(114)이 표시될 수 있다. 사용자는 복수의 탭들 중 어느 하나를 터치하여 로봇에 인가할 제어 명령의 종류를 선택할 수 있다. 사용자가 선택한 탭의 종류에 따라 제어명령 입력창(115)에 입력해야하는 정보가 달라질 수 있다.Meanwhile, a plurality of tabs 114 for selecting the type of control command to be applied to the robot may be displayed on the display unit 110 . The user may select a type of control command to be applied to the robot by touching one of the plurality of tabs. Information to be input into the control command input window 115 may vary depending on the type of tab selected by the user.

본 명세서에서는 복수의 아이콘들(111), 프로젝트의 정보를 입력할 수 있는 영역(113), 상술한 복수의 탭(114) 및 입력창(115)을 제어 영역이라 칭한다. 이에 따라, 본 발명에 따른 로봇 교시 장치의 디스플레이부에 출력되는 화면 정보는 시뮬레이션 영역과 제어 영역을 포함한다.In this specification, a plurality of icons 111, an area 113 where project information can be input, a plurality of tabs 114 and an input window 115 described above are referred to as a control area. Accordingly, the screen information output to the display unit of the robot teaching apparatus according to the present invention includes a simulation area and a control area.

상술한 디스플레이부에 표시되는 화면 정보는 본 발명에 따른 일 실시 예를 나타낸 것일 뿐 디스플레이부에 표시되는 정보가 상기 나열한 내용들에 한정되지는 않는다. The above-described screen information displayed on the display unit is merely an example of an embodiment according to the present invention, and the information displayed on the display unit is not limited to the contents listed above.

로봇의 동작action of the robot

도 4는 본 발명의 일 실시예에 따른 로봇 교시 장치에 의해 제어되는 프로그래밍 가능한 로봇의 동작을 설명하기 위한 개념도이다. 4 is a conceptual diagram illustrating the operation of a programmable robot controlled by a robot teaching device according to an embodiment of the present invention.

로봇은 복수 개의 개별 암 섹션들을 포함할 수 있고, 근접한 암 섹션들은 각 조인트에 의해 인터커넥션되어 있다. 상기 조인트들의 적어도 일부에는 구동가능한 구동수단이 들어있을 수 있다. 또한 로봇은 이러한 구동회로를 제어하는 제어 시스템을 포함할 수 있다. 상기 조인트는 안전 브레이크를 포함할 수 있고, 모터 회전축과 관련하여 회전할 수 있는 환상 멤버(annular member)를 포함할 수 있다.The robot may include a plurality of individual arm sections, and adjacent arm sections are interconnected by respective joints. At least some of the joints may include driving means capable of being driven. In addition, the robot may include a control system for controlling these driving circuits. The joint may include a safety brake and may include an annular member that is rotatable with respect to the axis of rotation of the motor.

로봇은 로봇 교시 장치로부터 수신되는 지시어를 디코딩하기 위한 디코더를 포함할 수 있고, 로봇의 각 부분의 위치 및 움직임과 관련된 정보를 센싱하기 위한 센서(예컨대, 힘/토크 센서(F/T sensor), 위치 센서, 비전 센서 (vision sensor))를 포함할 수 있다. 이러한 센서는 로봇 주변을 센싱할 수도 있다. 또한, 상기 움직임 관련 정보를 인코딩하기 위한 인코더를 포함할 수 있다.The robot may include a decoder for decoding instructions received from the robot teaching device, and sensors for sensing information related to the position and movement of each part of the robot (eg, a force/torque sensor (F/T sensor), A position sensor, a vision sensor) may be included. These sensors may sense the robot's surroundings. Also, an encoder for encoding the motion-related information may be included.

로봇은 적어도 다음의 동작들을 수행할 수 있다: 픽-앤-플레이스 동작(pick-and-place operation), 파일링 동작 (filing operation), 팩-인-홀 동작(peg-in-hole operation), 조립 동작(assembly operation), 팔레타이징 동 작(palletizing operation), 직적 교시, 디버링 동작(deburring operation), 스프레잉, 웰딩 동작(spraying, welding operation) 및 휴먼 인터랙션(human interaction)을 수행할 수 있다. 이는 기본적인 기능에 의해 수행될 수 있다: 위치의 특정(specification of position), 트랙킹, 움직임 패턴, 트리거(triggers) 및 이벤트/액션들에 의해 구현될 수 있다. The robot can perform at least the following operations: pick-and-place operation, filing operation, peg-in-hole operation, and assembly. It can perform assembly operation, palletizing operation, direct teaching, deburring operation, spraying, welding operation and human interaction. This can be done by basic functionality: specification of position, tracking, movement patterns, triggers and events/actions.

도 4를 참조하면, 로봇(300)은 다자유도의 움직임을 실현하기 위해 복수의 관절(320, 330, 340, 350, 360, 370)을 포함한다. 도 4에는 다자유도 협동 로봇의 일예로서, 6개의 관절(320, 330, 340, 350, 360, 370)을 이용해 6 자유도를 갖도록 구성된 로봇(300)을 도시하였다. Referring to FIG. 4 , the robot 300 includes a plurality of joints 320 , 330 , 340 , 350 , 360 , and 370 to realize multi-degree-of-freedom movement. 4 shows a robot 300 configured to have six degrees of freedom using six joints 320, 330, 340, 350, 360, and 370 as an example of a multi-degree-of-freedom collaborative robot.

제1 관절(320)은 베이스(310)의 상부에 회전 가능하게 결합되며, 제1 관절(320)은 Z축(도 4를 기준으로 수직 방향)을 중심으로 회전하게 된다. 제1 관절(320)의 일단면(베이스(310)와 마주하는 면)과 타단면(제2 관절(330)과 마 주하는 면)은 서로 수직한 평면 상에 위치한다. 제2 관절(330)은 제1 관절(320)의 타단부에 회전 가능하게 결합된다. 제1 관절(320)의 일단면과 타단면이 서로 수 직한 평면 상에 위치하므로, 제2 관절(330)은 제1 관절(320)의 회전축에 대해 수직 방향의 축을 중심으로 회전하게 된다. 제2 관절(330)의 일단면(제1 관절(320)과 마주하는 면)과 타단면(제3 관절(340)과 마주하는 면)은 서로 평행하거나 일치하는 평면 상에 위치한다. The first joint 320 is rotatably coupled to the upper portion of the base 310, and the first joint 320 rotates around the Z-axis (vertical direction with respect to FIG. 4). One end surface (surface facing the base 310) and the other end surface (surface facing the second joint 330) of the first joint 320 are located on a plane perpendicular to each other. The second joint 330 is rotatably coupled to the other end of the first joint 320 . Since one end surface and the other end surface of the first joint 320 are positioned on a plane perpendicular to each other, the second joint 330 rotates around an axis perpendicular to the rotation axis of the first joint 320. One end surface (surface facing the first joint 320) and the other end surface (surface facing the third joint 340) of the second joint 330 are located on a plane that is parallel or coincides with each other.

제3 관절(340)은 제2 관절(330)의 타단부에 회전 가능하게 결합된다. 제2 관절(330)의 일단면과 타단면이 서로 평행하거나 일치하는 평면 상에 위치하므로, 제3 관절(340)은 제2 관절(330)의 회전축과 평행한 축을 중심으로 회전하게 된다. 제3 관절(340)의 일단면(제2 관절(330)과 마주하는 면)과 타단면(제4 관절(350)과 마주하는 면)은 서로 수직한 평면 상에 위치한다.The third joint 340 is rotatably coupled to the other end of the second joint 330 . Since one end surface and the other end surface of the second joint 330 are positioned on a plane that is parallel or coincides with each other, the third joint 340 rotates around an axis parallel to the axis of rotation of the second joint 330 . One end surface (surface facing the second joint 330) and the other end surface (surface facing the fourth joint 350) of the third joint 340 are located on a plane perpendicular to each other.

제4 관절(350)은 제3 관절(340)의 타단부에 회전 가능하게 결합된다. 제3 관절(340)의 일단면과 타단면이 서로 수직한 평면 상에 위치하므로, 제4 관절(350)은 제3 관절(340)의 회전축에 대해 수직 방향의 축을 중심으로 회전하 게 된다. 제4 관절(350)의 일단면(제3 관절(340)과 마주하는 면)과 타단면(제5 관절(360)과 마주하는 면)은 서로 수직한 평면 상에 위치한다. The fourth joint 350 is rotatably coupled to the other end of the third joint 340 . Since one end surface and the other end surface of the third joint 340 are positioned on a plane perpendicular to each other, the fourth joint 350 rotates around an axis perpendicular to the rotation axis of the third joint 340. One end surface (surface facing the third joint 340) and the other end surface (surface facing the fifth joint 360) of the fourth joint 350 are located on a plane perpendicular to each other.

제5 관절(360)은 제4 관절(350)의 타단부에 회전 가능하게 결합된다. 제4 관절(350)의 일단면과 타단면이 서로 수직한 평면 상에 위치하므로, 제5 관절(360)은 제4 관절(350)의 회전축에 대해 수직 방향의 축을 중심으로 회전하 게 된다. 제5 관절(360)의 일단면(제4 관절(350)과 마주하는 면)과 타단면(제6 관절(370)과 마주하는 면)은 서로 수직한 평면 상에 위치한다. The fifth joint 360 is rotatably coupled to the other end of the fourth joint 350 . Since one end surface and the other end surface of the fourth joint 350 are positioned on a plane perpendicular to each other, the fifth joint 360 rotates around an axis perpendicular to the rotation axis of the fourth joint 350. One end surface (surface facing the fourth joint 350) and the other end surface (surface facing the sixth joint 370) of the fifth joint 360 are located on a plane perpendicular to each other.

제6 관절(370)은 제5 관절(360)의 타단부에 회전 가능하게 결합된다. 제5 관절(360)의 일단면과 타단면이 서로 수직한 평면 상에 위치하므로, 제6 관절(370)은 제5 관절(360)의 회전축에 대해 수직 방향의 축을 중심으로 회전하 게 된다. 제5 관절(360)의 일단면(제4 관절(350)과 마주하는 면)과 타단면은 서로 수직한 평면 상에 위치한다. The sixth joint 370 is rotatably coupled to the other end of the fifth joint 360 . Since one end surface and the other end surface of the fifth joint 360 are positioned on a plane perpendicular to each other, the sixth joint 370 rotates around an axis perpendicular to the rotation axis of the fifth joint 360. One end surface (surface facing the fourth joint 350) and the other end surface of the fifth joint 360 are located on a plane perpendicular to each other.

제6 관절(370)의 타단부에는 부가 장치(미도시)가 장착된다. 부가 장치는 로봇(300)이 수행하는 작업 등에 따라 다양한 종류가 존재하며, 제6 관절(370)의 타단부는 다양한 부가 장치가 교체 장착되도록 구성된다.An additional device (not shown) is mounted on the other end of the sixth joint 370 . There are various types of additional devices depending on the tasks performed by the robot 300, and the other end of the sixth joint 370 is configured to be replaced with various additional devices.

상기 부가 장치는, 로봇의 작업을 위한 툴(tool)이나 상기 로봇에 장착되는 센서 등이 될 수 있다.The additional device may be a tool for robot operation or a sensor mounted on the robot.

본 발명은 상술한 로봇 교시 장치를 통해 로봇을 제어할 수 있도록 한다. 상술한 로봇은 본 발명의 일 실시 예를 나타낸 것일 뿐 본 발명에 따라 제어할 수 있는 로봇의 구조가 상술한 로봇에 한정되지는 않는다.The present invention makes it possible to control a robot through the robot teaching device described above. The above-described robot is only an example of the present invention, and the structure of the robot that can be controlled according to the present invention is not limited to the above-described robot.

이하, 교시 작업의 각 상황에 따라 사용자가 직관적으로 로봇 교시 장치와 상호작용할 수 있도록 하는 로봇 교시 방법에 대하여 구체적으로 설명한다.Hereinafter, a robot teaching method that enables a user to intuitively interact with a robot teaching device according to each situation of a teaching task will be described in detail.

도 5는 본 발명에 따른 메시지를 출력하는 일 실시 예를 나타내는 순서도이고, 도 6 및 7은 본 발명에 따른 메시지를 출력하는 일 실시 예를 나타내는 개념도이다. 5 is a flowchart illustrating an embodiment of outputting a message according to the present invention, and FIGS. 6 and 7 are conceptual diagrams illustrating an embodiment of outputting a message according to the present invention.

본 발명에 따른 로봇 교시 장치는 상황별로 사용자와 상호작용을 통해 사용자의 원활한 작업을 도와준다. 이를 위해, 도 5를 참조하면, 본 발명에 따른 로봇 교시 장치는 상기 로봇과 로봇 교시 장치의 통신 정보, 로봇의 상태 및 상기 로봇 교시 장치의 상태 중 적어도 하나를 모니터링(S110)한다.The apparatus for teaching robots according to the present invention helps the user to work smoothly through interaction with the user according to situations. To this end, referring to FIG. 5 , the robot teaching device according to the present invention monitors at least one of communication information between the robot and the robot teaching device, a state of the robot, and a state of the robot teaching device (S110).

이 경우에, 상기 모니터링(S110)에 앞서, 상기 로봇의 동작을 교시하도록, 로봇 교시 장치에서 교시 인터페이스를 출력하는 단계가 수행될 수 있다. 다만, 본 발명은 반드시 이에 한정되는 것은 아니며, 상기 교시 인터페이스를 출력하는 단계보다 상기 모니터링(S110)이 먼저 수행되는 것도 가능하다.In this case, prior to the monitoring ( S110 ), a step of outputting a teaching interface from the robot teaching device to teach the operation of the robot may be performed. However, the present invention is not necessarily limited thereto, and it is possible that the monitoring (S110) is performed before the step of outputting the teaching interface.

상기 교시 인터페이스는 로봇 교시 장치에서 사용자와의 인터랙션을 위하여 출력되는 인터페이스로서, 그래픽 유저 인터페이스, 음향 인터페이스 등을 포함한다. 보다 구체적으로, 상기 교시 인터페이스는 도 3을 참조하여 전술한, 시뮬레이션 영역과 제어 영역을 모두 포함한 의미로 해석될 수 있다. 상기 로봇과 로봇 교시 장치의 통신 정보는 유선 또는 무선 신호를 이용한 상기 로봇과 로봇 교시 장치의 통신 연결과 관련된 정보가 될 수 있다. 이하, 본 명세서에서는 설명의 편의를 위하여 주로 무선 통신를 예시로서 설명한다.The teaching interface is an interface output for interaction with a user from the robot teaching device, and includes a graphic user interface, an audio interface, and the like. More specifically, the teaching interface may be interpreted as meaning including both the simulation area and the control area described above with reference to FIG. 3 . The communication information between the robot and the robot teaching device may be information related to a communication connection between the robot and the robot teaching device using a wired or wireless signal. Hereinafter, in this specification, wireless communication is mainly described as an example for convenience of description.

여기서, 로봇의 상태 정보는 로봇의 현재 설정, 로봇의 구동 상태, 부가 장치의 장착 여부, 통신 상태, 로봇의 현재 자세 중 적어도 하나를 포함하며 마스터 제어기(200) 및 로봇(300)으로부터 수신된 정보를 활용하여 모니터링한다. Here, the state information of the robot includes at least one of the current setting of the robot, the driving state of the robot, whether an additional device is mounted, the communication state, and the current posture of the robot, and information received from the master controller 200 and the robot 300. monitoring using

로봇 교시 장치(100)의 상태 정보는 로봇 교시 장치에 대한 사용자 입력 값, 현재 실행 중인 기능, 기능 실행 히스토리, 현재 표시중인 화면 정보 및 로봇 교시 장치에 대한 사용자의 사용 패턴 중 적어도 하나를 포함하며, 제어부(130)에 의해 주기적으로 수집될 수 있다.The state information of the robot teaching device 100 includes at least one of a user's input value for the robot teaching device, a currently executing function, a function execution history, currently displayed screen information, and a user's usage pattern for the robot teaching device, It may be periodically collected by the controller 130.

즉, 로봇 교시 장치(100)는 마스터 제어기 및 로봇과 송수신되는 데이터, 사용자로부터 입력 받는 데이터, 로봇 교시 장치 내에서 생성되는 데이터를 모니터링한다. That is, the robot teaching device 100 monitors data transmitted and received between the master controller and the robot, data received from the user, and data generated within the robot teaching device.

모니터링 결과 기 설정된 조건을 만족하는 경우, 디스플레이부(110) 상에 기 설정된 출력 방식의 메시지를 출력(S120)한다. 이러한 예로서, 상기 모니터링 결과가 기설정된 조건을 만족하는 경우, 상기 교시 인터페이스에 상기 모니터링 결과와 관련된 메시지가 출력된다.When the monitoring result satisfies the preset condition, a message of a preset output method is output on the display unit 110 (S120). As such an example, when the monitoring result satisfies a predetermined condition, a message related to the monitoring result is output to the teaching interface.

상기 기설정된 조건은 복수 개 설정될 수 있으며, 복수의 조건들은 크게 세 종류로 구분될 수 있다. 구체적으로, 상기 기설정된 조건은 작업 제안을 위한 조건, 작업 경고를 위한 조건, 로봇 에러 복구를 위한 조건으로 이루어질 수 있다. 각각의 조건들 및 이에 따른 실시 예에 대하여는 후술한다.A plurality of the predetermined conditions may be set, and the plurality of conditions may be largely classified into three types. Specifically, the preset condition may include a condition for suggesting a job, a condition for warning a job, and a condition for recovering a robot error. Each condition and an embodiment according to it will be described later.

상기 기 설정된 조건이 충족되는지 여부를 판단하기 위해, 로봇 교시 장치는 주기적으로 로봇의 상태 정보 및 로봇 교시 장치의 상태 정보를 모니터링한다.In order to determine whether the preset condition is satisfied, the robot teaching device periodically monitors state information of the robot and state information of the robot teaching device.

상기 메시지는 상기 모니터링 결과를 근거로 상기 로봇 교시 장치에 대한 정보 입력을 유도하는 텍스트 및 이미지 중 적어도 하나를 포함할 수 있다.The message may include at least one of text and image for inducing input of information on the robot teaching device based on the monitoring result.

예를 들어, 상기 메시지는 상기 메시지 출력의 원인이 되는 기 설정된 조건의 종류에 따라 서로 다른 화면 정보를 포함할 수 있다. 구체적으로, 상기 메시지는 로봇의 상태 및 로봇 교시 장치의 상태에 관한 정보만 포함할 수 있다. 로봇 교시 장치는 상기 메시지에 대한 사용자 입력에 기반하여, 상기 메시지에 표시되는 정보를 변경할 수 있다. 예를 들어, 상기 메시지가 이미지를 포함하는 경우, 로봇 교시 장치는 상기 메시지가 표시된 영역에 대한 사용자 입력에 근거하여 상기 이미지가 변형된 이미지를 표시할 수 있다. 상술한 바와 같이, 본 발명은 상기 메시지를 통해 사용자가 교시 작업의 진행 상황을 실시간으로 모니터링 할 수 있도록 한다.For example, the message may include different screen information according to the type of a preset condition that causes the message to be output. Specifically, the message may include only information about the state of the robot and the state of the robot teaching device. The robot teaching device may change information displayed in the message based on a user input for the message. For example, if the message includes an image, the robot teaching device may display an image in which the image is transformed based on a user input for an area where the message is displayed. As described above, the present invention allows the user to monitor the progress of the teaching task in real time through the message.

이와 달리, 상기 메시지는 로봇의 구동 및 제어에 필요한 정보를 입력하기 위한 입력 영역을 포함할 수 있다. 상기 입력 영역에 입력 가능한 정보의 종류는 상기 기 설정된 조건에 따라 달라질 수 있다. 예를 들어, 상기 메시지가 부가 장치의 장착으로 인해 발생한 경우, 상기 메시지는 부가 장치와 관련된 설정값을 입력하는 입력 영역을 포함할 수 있다. 상기 입력 영역은 사용자의 입력 편의를 위하여 버튼 형태로 이루어질 수 있다. 예를 들어, 상기 메시지는 적어도 하나의 버튼을 포함하고, 상기 버튼 각각에는 로봇의 구동 및 제어에 필요한 정보가 매칭될 수 있다. 상기 버튼 각각은 매칭된 정보를 안내하는 텍스트 및 이미지를 포함할 수 있다. 로봇 교시 장치는 상기 버튼이 표시된 영역에 인가되는 사용자 입력에 기반하여 상기 로봇의 구동 및 제어와 관련된 작업을 수행할 수 있다. Alternatively, the message may include an input area for inputting information necessary for driving and controlling the robot. The type of information that can be input into the input area may vary according to the preset conditions. For example, when the message is generated due to mounting of an additional device, the message may include an input area for inputting a set value related to the additional device. The input area may be formed in the form of a button for user input convenience. For example, the message may include at least one button, and information necessary for driving and controlling the robot may be matched to each of the buttons. Each of the buttons may include text and images for guiding matched information. The robot teaching device may perform tasks related to driving and controlling the robot based on a user input applied to the area where the button is displayed.

상술한 메시지에 포함된 화면 정보를 통해, 로봇 교시 장치는 메시지를 통해 사용자가 특정 행동을 하도록 유도한다. 구체적으로, 로봇 교시 장치는 메시지를 통해 사용자가 메시지의 일부분을 터치하거나, 디스플레이부에 표시된 화면 정보의 일부를 터치하거나, 로봇에 직접적인 조작을 가하도록 유도한다. Through the screen information included in the above message, the robot teaching device induces the user to perform a specific action through the message. Specifically, the robot teaching device induces the user to touch a portion of the message, touch a portion of screen information displayed on the display unit, or directly manipulate the robot through a message.

일 실시 예에 있어서, 로봇 교시 장치는 사용자가 메시지의 일부분을 터치하거나, 설정 값을 입력하도록 메시지 내에 입력 영역을 표시한다. 다른 일 실시 예에 있어서, 로봇 교시 장치는 사용자가 특정 화면 정보를 터치하도록 메시지 내에 안내 메시지를 표시한다. 다른 일 실시 예에 있어서, 로봇 교시 장치는 사용자가 특정 행동을 수행하도록 메시지 내에 동영상 또는 정지 영상을 표시한다.According to an embodiment, the robot teaching device displays an input area within the message so that the user can touch a part of the message or input a setting value. In another embodiment, the robot teaching device displays a guide message within the message so that the user touches specific screen information. In another embodiment, the robot teaching device displays a moving image or a still image in a message so that the user performs a specific action.

상술한 바와 같이, 상술한 메시지는 교시 작업 상황을 안내함과 동시에 교시 작업의 적어도 일부를 수행할 수 있는 입력 영역을 포함한다. 이를 통해, 본 발명에 따른 로봇 교시 장치는 사용자와 상호작용을 한다.As described above, the above-described message includes an input area capable of performing at least a part of the teaching task while guiding the teaching task situation. Through this, the robot teaching device according to the present invention interacts with the user.

한편, 상기 메시지(400)가 표시되는 위치는 메시지와 관련된 문제의 종류에 따라 달라질 수 있다. Meanwhile, the location where the message 400 is displayed may vary depending on the type of problem related to the message.

구체적으로, 메시지의 위치는 문제가 발생된 기능과 관련된 메뉴, 아이콘, 화면정보와 연관되도록 표시될 수 있다. 여기서, “메시지가 특정 화면 정보와 연관되도록 표시된다” 함은 사용자가 특정 화면 정보와 메시지가 연관성이 있는 것으로 인지할 수 있도록 표시함을 의미한다. 예를 들어, “메시지가 특정 화면과 연관되도록 표시한다”함은 특정 화면 정보와 소정 거리 이내로 표시되거나, 특정 화면 정보를 강조 표시하거나, 메시지와 특정 화면 정보가 연결부를 통해 연결되는 것을 포함할 수 있다. 다만, 이에 한정되지 않고 사용자가 특정 화면 정보와 메시지가 연관성이 있는 것으로 인지할 수 있는 경우 “메시지가 특정 화면 정보와 연관되도록 표시된다” 할 수 있다.Specifically, the location of the message may be displayed in association with a menu, icon, or screen information related to a function in which a problem occurs. Here, “displaying a message to be associated with specific screen information” means that the message is displayed so that the user can recognize that the message is related to specific screen information. For example, "displaying a message associated with a specific screen" may include displaying specific screen information within a predetermined distance, highlighting specific screen information, or connecting a message and specific screen information through a connection unit. there is. However, it is not limited thereto, and if the user can recognize that a message is related to specific screen information, “the message is displayed to be associated with specific screen information”.

한편, 메시지가 출력되는 시점은 메시지와 관련된 문제의 종류에 따라 달라질 수 있다. Meanwhile, the time point at which the message is output may vary depending on the type of problem related to the message.

일 실시 예에 있어서, 로봇 에러 복구를 위한 메시지의 경우, 에러가 발생되는 즉시 출력될 수 있으며, 작업 경고를 위한 조건 또한 해당 조건이 충족하는 즉시 메시지가 출력될 수 있다. In one embodiment, in the case of a message for robot error recovery, it may be output immediately when an error occurs, and a message may be output as soon as the condition for a task warning is satisfied.

이와 달리, 작업 제안을 위한 메시지의 경우, 로봇 교시 장치는 해당 조건을 충족하더라도 메시지를 곧바로 출력하지 않고, 메시지를 출력할 수 있는 별도의 아이콘을 표시할 수 있다. 사용자가 상기 아이콘을 터치하는 경우 메시지가 출력된다.Unlike this, in the case of a message for suggesting a task, the robot teaching device may display a separate icon capable of outputting the message without directly outputting the message even if the corresponding condition is satisfied. When the user touches the icon, a message is output.

또한, 상기 메시지를 출력하는 단계(S120)에서, 상기 메시지의 내용은 상기 정보 입력에 따라 변화될 수 있다. 이와 같이, 상기 메시지는 사용자와 로봇 교시 장치 사이에서 주고받는 정보 형태의 내용을 포함할 수 있으며, 따라서 상기 메시지는 핑퐁 메시지로 정의될 수 있다.Also, in the step of outputting the message (S120), the contents of the message may be changed according to the input of the information. As such, the message may include content in the form of information exchanged between the user and the robot teaching device, and thus the message may be defined as a ping-pong message.

이 때에, 상기 메시지는 상기 교시 인터페이스의 실행화면에 오버랩하여 출력되며, 상기 메시지의 내용이 변화하는 동안에 상기 교시 인터페이스의 실행화면은 유지될 수 있다. 보다 구체적으로, 하나의 실행화면을 유지하면서 상기 핑퐁 메시지를 순차적으로 출력함에 따라, 상기 로봇 교시 장치는 해당 실행화면과 관련된 교시 단계에서, 모니터링 결과를 기반으로 사용자와 인터랙션을 수행할 수 있다.At this time, the message is displayed overlapping with the execution screen of the teaching interface, and the execution screen of the teaching interface may be maintained while the contents of the message change. More specifically, as the ping-pong messages are sequentially output while maintaining one execution screen, the robot teaching device may interact with the user based on a monitoring result in a teaching step related to the corresponding execution screen.

이러한 메시지의 내용 변화를 위하여, 필요에 따라 상기 메시지가 출력된 후, 로봇 교시 장치는 로봇의 상태 및 로봇 교시 장치의 상태 중 적어도 하나를 모니터링(S130)한다. In order to change the content of the message, after the message is output as necessary, the robot teaching device monitors at least one of the state of the robot and the state of the robot teaching device (S130).

로봇 교시 장치는 상기 메시지에 포함된 입력 영역을 통해 사용자로부터 로봇의 구동 및 제어에 필요한 정보를 입력받은 후, 로봇의 상태 및 로봇 교시 장치의 상태를 모니터링하고, 메시지 출력의 원인이 된 문제가 해소되었는지 판단한다. The robot teaching device receives information necessary for driving and controlling the robot from the user through the input area included in the message, monitors the state of the robot and the robot teaching device, and solves the problem that caused the message to be output. judge whether it has been

상기 모니터링 결과에 기반하여, 상기 로봇 교시 장치는 연관 메시지를 출력(S140)한다. Based on the monitoring result, the robot teaching device outputs a related message (S140).

본 명세서에서는 설명의 편의를 위하여 상기 메시지가 표시된 후 로봇 및 로봇 교시 장치에 대한 모니터링 결과에 따라 표시되는 메시지는 연관 메시지라 한다. 로봇 교시 장치는 상기 메시지가 출력된 후 상기 메시지와 관련된 문제가 해결되었는지 여부에 따라 연관 메시지의 출력 여부를 결정한다. In this specification, for convenience of description, a message displayed according to a monitoring result of the robot and robot teaching device after the message is displayed is referred to as a related message. After the message is output, the robot teaching apparatus determines whether to output a related message according to whether or not a problem related to the message is solved.

한편, 연관 메시지는 순차적으로 복수개 출력될 수 있으며, 로봇 교시 장치는 특정 연관 메시지가 출력된 후 상기 특정 연관 메시지와 관련된 문제가 해결되었는지 여부에 따라 추가적인 연관 메시지를 출력할지 여부를 결정한다. 즉, 로봇 교시 장치는 초기에 표시된 메시지와 관련된 문제가 모두 해결될 때까지 연관 메시지를 출력한다. Meanwhile, a plurality of related messages may be output sequentially, and the robot teaching apparatus determines whether to output additional related messages depending on whether a problem related to the specific related message is solved after a specific related message is output. That is, the robot teaching device outputs related messages until all problems related to the initially displayed message are resolved.

상기 연관 메시지는 사용자에게 문제 해결 여부를 안내하거나, 추가적인 안내를 하기 위한 메시지이다. 사용자가 메시지에 기반하여 특정 행동을 수행한 후 문제가 해결 된 경우, 로봇 교시 장치는 문제가 해결되었음을 안내하는 연관 메시지를 표시한다. 한편, 사용자가 메시지에 기반하여 특정 행동을 수행한 경우, 로봇 교시 장치는 사용자의 다음 행동을 유도하는 연관 메시지를 출력할 수 있다. 이 경우, 연관 메시지는 사용자의 행동이 종료될 때마다 계속해서 표시될 수 있다. 즉, 연관 메시지는 문제가 해결될 때까지 계속 해서 표시될 수 있다. The related message is a message for informing the user whether or not to solve the problem or providing additional guidance. If the problem is solved after the user performs a specific action based on the message, the robot teaching device displays a related message guiding that the problem is solved. Meanwhile, when the user performs a specific action based on the message, the robot teaching device may output a related message for inducing the user's next action. In this case, the related message may be continuously displayed whenever the user's action ends. That is, the associated message may be continuously displayed until the problem is solved.

한편, 상기 연관 메시지는 상기 기 설정된 형식의 메시지와 마찬가지로 로봇의 구동 및 제어에 필요한 정보를 입력 받기 위한 입력 영역을 포함할 수 있다. 상기 입력 영역은 상기 기 설정된 형식의 메시지에 포함된 입력 영역과 동일한 바 구체적인 설명은 생략한다.Meanwhile, the related message may include an input area for receiving information necessary for driving and controlling the robot, similar to the message in the preset format. Since the input area is the same as the input area included in the message in the preset format, a detailed description thereof will be omitted.

상술한 바와 같이, 본 발명에 따르면, 사용자는 본 발명에 따른 유저 인터페이스를 통해 상황의 전개를 인지하면서 교시 작업을 수행하기 때문에, 로봇 교시 작업을 완수하는데 필요한 정보 및 행동을 누락하지 않게 된다. 이하, 첨부된 도면을 참조하여 본 발명의 일 실시 예에 대하여 구체적으로 설명한다.As described above, according to the present invention, since the user performs the teaching task while recognizing the development of the situation through the user interface according to the present invention, information and actions necessary to complete the robot teaching task are not omitted. Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

예를 들어, 도 6과 같이, 로봇 교시 장치(100)는 로봇의 통신 상태를 모니터링하고, 로봇과 로봇 교시 장치간의 통신이 불가능한 경우, 기 설정된 형식의 메시지(400)를 출력한다. 로봇 교시 장치는 로봇의 통신 상태와 관련된 메시지를 연결 상태 아이콘(111) 주변에 표시한다. 한편, 로봇 교시 장치는 메시지가 표시되는 경우 특정 아이콘을 강조 표시(401)하여 메시지와 특정 아이콘이 연관성이 있는 것으로 인지하도록 할 수 있다.For example, as shown in FIG. 6 , the robot teaching device 100 monitors the communication state of the robot and outputs a message 400 in a preset format when communication between the robot and the robot teaching device is impossible. The robot teaching device displays a message related to the communication state of the robot around the connection state icon 111 . Meanwhile, when a message is displayed, the robot teaching device may highlight a specific icon ( 401 ) to recognize that the message and the specific icon are related.

다른 일 실시 예에 있어서, 도 7을 참조하면, 로봇 교시 장치는 메시지(400)와 특정 아이콘(111)을 연결하는 연결부(402)를 표시할 수 있다. In another embodiment, referring to FIG. 7 , the robot teaching device may display a connection unit 402 connecting a message 400 and a specific icon 111 .

다른 일 실시 예에 있어서, 도시되지 않았지만, 로봇 교시 장치는 로봇에 장착된 부가 장치와 관련된 메시지를 시뮬레이션 영역에 표시한다. 다른 일 실시 예에 있어서, 로봇 교시 장치는 로봇에서 에러가 발생된 경우, 시뮬레이션 생성 표현 상에 에러가 발생된 위치를 강조하고, 강조된 위치 주변에 메시지를 표시한다. In another embodiment, although not shown, the robot teaching device displays a message related to an additional device mounted on the robot in the simulation area. In another embodiment, when an error occurs in the robot, the robot teaching device emphasizes a location where an error occurred on a simulation-generated expression and displays a message around the highlighted location.

이하에서는, 메시지가 출력되는 조건 및 이와 관련된 다양한 실시 예들에 대하여 첨부된 도면과 함께 설명한다. 본 명세서에서는 본 발명과 관련된 실시 예들을 작업 제안, 작업 경고, 로봇 에러로 분류하여 설명하나, 본 발명은 상기 분류에 한정되어 해석되지는 않는다.Hereinafter, a condition for outputting a message and various embodiments related thereto will be described with accompanying drawings. In the present specification, embodiments related to the present invention are described by classifying them into task suggestions, task warnings, and robot errors, but the present invention is not limited to the above classifications.

작업 제안job offer

본 발명은 로봇 교시 작업을 완수하기 위해 필요한 각각의 단계마다 순차적으로 사용자와 상호작용할 수 있는 유저 인터페이스를 제공한다.The present invention provides a user interface capable of interacting with a user sequentially for each step required to complete a robot teaching task.

도 8A 내지 10C은 본 발명의 일 실시 예에 따라 부가 장치 장착에 메시지를 활용하는 일 실시 예를 나타내는 개념도들이고, 도 11은 본 발명의 일 실시 예에 따라 사용자가 처음 실행하는 기능에 메시지를 활용하는 일 실시 예를 나타내는 개념도이다.8A to 10C are conceptual diagrams illustrating an embodiment of using a message for mounting an additional device according to an embodiment of the present invention, and FIG. 11 uses a message for a function initially executed by a user according to an embodiment of the present invention. It is a conceptual diagram showing an embodiment of doing.

본 발명에 따른 로봇 교시 장치는 사용자에게 작업을 제안하기 위한 메시지를 출력한다. 구체적으로, 로봇 교시 장치는 현재 상황에서 사용자가 최우선으로 진행해야 할 작업을 제시하는 메시지를 출력한다. The robot teaching apparatus according to the present invention outputs a message for suggesting a task to the user. In detail, the robot teaching device outputs a message presenting a task to be performed by the user as the top priority in the current situation.

여기서, 메시지가 출력되는 조건은 새로운 부가 장치가 로봇에 장착되는 것이 감지되는 것, 사용자가 특정 기능을 처음 실행하는 것, 사용자가 기설정된 횟수 이내로 실행된 기능을 실행하는 것, 특정 기능 수행 중 사용자 요청이 있는 것 중 적어도 하나를 포함할 수 있다. 이하, 상술한 조건과 관련된 실시 예들에 대하여 구체적으로 설명한다.Here, the conditions for outputting the message are that a new additional device is detected being mounted on the robot, that the user executes a specific function for the first time, that the user executes a function that has been executed within a predetermined number of times, and that the user is performing a specific function. It may contain at least one of the requested ones. Hereinafter, embodiments related to the above conditions will be described in detail.

로봇에 부가 장치가 장착되는 경우, 로봇은 이와 관련된 데이터를 로봇 교시 장치로 전송한다. 로봇 교시 장치에서 로봇에 부가 장치가 장착된 것이 감지되는 경우, 로봇 교시 장치는 메시지를 출력한다.When an additional device is mounted on the robot, the robot transmits related data to the robot teaching device. When the robot teaching device detects that an additional device is mounted on the robot, the robot teaching device outputs a message.

이 때에, 상기 로봇의 부가 장치가 장착되는 시점에, 상기 로봇 교시 장치의 교시 인터페이스 상에 상기 메시지가 출력될 수 있다. 이를 위하여, 상기 로봇 교시 장치는 상기 부가 장치의 장착을 모니터링하며, 상기 부가 장치의 장착에 응답하여 상기 메시지를 출력하게 된다. 이 경우에, 상기 메시지는 상기 부가 장치의 캘리브레이션을 위한 설정 정보를 포함할 수 있다. 따라서, 사용자는 상기 메시지의 유도에 따라 상기 부가 장치의 캘리브레이션을 수행할 수 있다.At this time, the message may be output on the teaching interface of the robot teaching device at the time when the additional device of the robot is mounted. To this end, the robot teaching device monitors the mounting of the additional device and outputs the message in response to the mounting of the additional device. In this case, the message may include setting information for calibration of the additional device. Accordingly, the user may perform calibration of the additional device according to the induction of the message.

여기서, 메시지의 내용은 장착된 부가장치의 종류에 따라 다를 수 있다. Here, the content of the message may be different depending on the type of the attached additional device.

일 실시 예에 있어서, 도 8A 내지 8C를 참조하면, 로봇에 힘/토크 센서(F/T 센서)가 장착된 것이 감지된 경우, 로봇 교시 장치는 새로운 장치가 감지되었음을 안내하는 메시지(400)를 출력한다. 상기 메시지(400)가 출력된 후 기설정된 시간이 지나거나, 상기 메시지(400)에 대한 터치 입력이 감지되는 경우, 로봇 교시 장치는 사용자가 로봇을 특정한 움직임으로 움직일 수 있도록 안내하는 메시지(404)를 출력한다. 여기서, 상기 메시지(404)는 동영상을 포함할 수 있다.In one embodiment, referring to FIGS. 8A to 8C , when it is detected that a force/torque sensor (F/T sensor) is mounted on the robot, the robot teaching device sends a message 400 informing that a new device has been detected. print out When a preset time elapses after the message 400 is output or when a touch input for the message 400 is detected, the robot teaching device provides a message 404 for guiding the user to move the robot in a specific movement. outputs Here, the message 404 may include a video.

상기 메시지(404)가 출력된 상태에서 로봇 교시 장치는 로봇에 포함된 센서에서 센싱된 값을 모니터링하고, 모니터링된 값을 이용하여 로봇의 좌표계를 설정한다. In the state in which the message 404 is output, the robot teaching device monitors the value sensed by the sensor included in the robot and sets the coordinate system of the robot using the monitored value.

이때, 상기 메시지(404)는 사용자가 로봇을 특정한 움직임으로 움직일 때까지 표시되며, 시뮬레이션 생성 표현 주변에 표시될 수 있다.At this time, the message 404 is displayed until the user moves the robot in a specific motion, and may be displayed around the simulation generated expression.

또한, 시뮬레이션 생성 표현의 전체 영역 중 센서가 설치된 위치에 대응하는 영역이 강조(403)표시 될 수 있다.Also, a region corresponding to a location where a sensor is installed among the entire region of the simulation-generated expression may be highlighted (403).

한편, 로봇 교시 장치는 상기 모니터링된 값을 이용하여 로봇의 좌표계를 설정할 수 없는 경우, 부가 장치를 재장착할 것을 안내하는 연관 메시지를 출력한다. 이와 동시에 부가 장치의 장착을 보조하는 동영상이 함께 출력될 수 있다.Meanwhile, when the coordinate system of the robot cannot be set using the monitored value, the robot teaching device outputs a related message guiding remounting of the additional device. At the same time, a video that assists in mounting the additional device may be output together.

한편, 로봇 교시 장치는 로봇의 좌표계 설정이 완료된 경우, 이를 안내하는 연관 메시지(405)를 표시한다.On the other hand, the robot teaching device displays a related message 405 for guiding when setting the coordinate system of the robot is completed.

다른 일 실시 예에 있어서, 도 9A 내지 9C를 참조하면, 로봇에 비전 센서가 장착된 것이 감지된 경우, 로봇 교시 장치는 비전 센서로 특정 위치를 센싱하도록 하는 메시지(406)를 출력한다. 상기 메시지(406)가 출력된 상태에서 로봇 교시 장치는 로봇에 포함된 비전 센서에서 센싱된 값을 모니터링하고, 모니터링된 값을 이용하여 캘리브레이션을 수행한다.In another embodiment, referring to FIGS. 9A to 9C , when it is detected that the vision sensor is mounted on the robot, the robot teaching device outputs a message 406 for sensing a specific position with the vision sensor. In the state in which the message 406 is output, the robot teaching device monitors the value sensed by the vision sensor included in the robot and performs calibration using the monitored value.

이때, 메시지는 비전 센서로 특정 위치를 센싱할 때까지 표시되며, 시뮬레이션 생성 표현 주변에 표시될 수 있다.At this time, the message is displayed until a specific position is sensed by the vision sensor, and may be displayed around the simulation-generated expression.

한편, 로봇 교시 장치는 상기 모니터링된 값을 이용하여 캘리브레이션을 수행할 수 없는 경우, 비전 센서가 다른 위치를 센싱하도록 하는 연관 메시지를 출력한다. 이와 동시에 부가 장치의 장착을 보조하는 동영상이 함께 출력될 수 있다.Meanwhile, when the robot teaching device cannot perform calibration using the monitored value, it outputs a related message that causes the vision sensor to sense another position. At the same time, a video that assists in mounting the additional device may be output together.

다른 일 실시 예에 있어서, 도 10A 내지 10C을 참조하면, 부가 장치가 장착되었음이 감지되었으나, 장착된 부가 장치의 종류를 감지할 수 없는 경우, 로봇 교시 장치는 사용자가 장착한 부가 장치의 종류를 선택할 수 있도록 하는 메시지(407)를 출력한다.In another embodiment, referring to FIGS. 10A to 10C , when it is detected that an additional device is mounted, but the type of the attached device cannot be detected, the robot teaching device determines the type of the additional device mounted by the user. Outputs a message 407 allowing selection.

구체적으로, 로봇 교시 장치는 사용자가 장착한 것으로 예상되는 부가 장치의 형상을 2차원 또는 3차원 이미지로 표시한다. 부가 장치와 관련된 영상이 3차원 이미지로 표시되는 경우, 로봇 교시 장치는 상기 3차원 이미지에 대한 터치 입력이 있는 경우, 다른 각도에서 바라본 이미지를 표시한다. 이를 통해, 본 발명은 사용자가 부가 장치의 명칭을 정확히 알지 못하더라도 부가 장치를 장착하여 사용할 수 있도록 한다.Specifically, the robot teaching device displays the shape of an additional device expected to be mounted by a user as a 2D or 3D image. When an image related to an additional device is displayed as a 3D image, the robot teaching device displays an image viewed from a different angle when there is a touch input for the 3D image. Through this, the present invention enables a user to mount and use an additional device even if he or she does not accurately know the name of the additional device.

한편, 도시되지 않았지만, 상기 메시지(407)는 부가 장치의 리스트를 포함할 수 있다. 사용자는 사용자가 설치한 부가 장치를 상기 리스트에서 선택할 수 있다.Meanwhile, although not shown, the message 407 may include a list of additional devices. The user may select an additional device installed by the user from the list.

한편, 로봇 교시 장치는 사용자가 소정 횟수 이내로 실행된 기능을 실행하는 경우, 메시지를 출력한다. 이때, 메시지는 사용자가 특정 기능이 실행된 상태에서 실행해야할 작업을 안내하는 메시지를 포함한다. 로봇 교시 장치는 사용자가 메시지를 통해 안내된 작업을 수행하는지 여부를 모니터링하고, 사용자가 해당 작업을 수행한 경우, 다음 작업을 유도하는 연관 메시지를 출력한다. Meanwhile, the robot teaching device outputs a message when the user executes a function executed within a predetermined number of times. At this time, the message includes a message informing the user of a task to be executed in a state in which a specific function is executed. The robot teaching device monitors whether the user performs the task guided through the message, and when the user performs the corresponding task, outputs a related message leading to the next task.

예를 들어, 도 11을 참조하면, 사용자가 특정 기능을 처음 실행한 경우, 로봇 교시 장치는 해당 기능이 처음 실행되었음을 안내하고, 로봇 교시 장치를 특정 모드(예를 들어, 튜토리얼 모드)로 전환할 것을 선택받는 메시지(408)를 출력한다. 사용자가 특정 모드를 실행할 것을 선택한 경우, 로봇 교시 장치는 사용자가 최우선적으로 수행할 작업을 안내하는 연관 메시지를 출력한다. For example, referring to FIG. 11 , when a user executes a specific function for the first time, the robot teaching device informs that the corresponding function has been executed for the first time and switches the robot teaching device to a specific mode (eg, tutorial mode). A message 408 for receiving a selection is output. When the user selects to execute a specific mode, the robot teaching device outputs a related message guiding the user to perform the task with the highest priority.

상술한 바와 같이, 본 발명에 따르면 사용자와 로봇 교시 장치 간의 상호작용을 통하여 로봇 교시 작업의 각 단계에서 로봇에 대한 모니터링과 문제의 해소가 순차적으로 구현되기 때문에, 이를 통하여 초보자도 용이하게 로봇의 교시를 할 수 있게 된다.As described above, according to the present invention, since the monitoring of the robot and the resolution of the problem are sequentially implemented at each stage of the robot teaching task through the interaction between the user and the robot teaching device, even beginners can easily teach the robot through this. will be able to do

또한, 본 발명에 따르면, 로봇 교시 장치는 사용자와의 상호작용을 통해 부가 장치 장착에 필요한 정보를 사용자에게 제공하고, 사용자로부터 부가 장치 설정에 필요한 정보를 수집하기 때문에, 사용자는 로봇에 장착하는 부가 장치에 대한 구체적인 지식이 없이도 쉽게 부가 장치를 로봇에 장착할 수 있게 된다.In addition, according to the present invention, the robot teaching device provides the user with information necessary for mounting the additional device through interaction with the user and collects information necessary for setting the additional device from the user, so that the user can attach the additional device to the robot. Additional devices can be easily mounted on the robot without specific knowledge of the device.

작업 경고work warning

한편, 본 발명은 사용자가 로봇 교시 작업 중 빈번하게 하는 실수를 사전에 예측하고 예방할 수 있도록 하는 유저 인터페이스를 제공한다.Meanwhile, the present invention provides a user interface that enables users to predict and prevent frequent mistakes during robot teaching work in advance.

도 12는 본 발명의 일 실시 예에 따라 사용자가 자주하는 실수를 예방하기 위해 메시지를 활용하는 일 실시 예를 나타내는 개념도이다.12 is a conceptual diagram illustrating an embodiment of using a message to prevent mistakes that users often make according to an embodiment of the present invention.

본 발명에 따른 로봇 교시 장치는 사용자에게 작업 경고를 하기 위해 메시지를 출력한다. 구체적으로, 로봇 교시 장치는 빈번하게 실수가 발생하는 시점에 메시지를 출력한다. The apparatus for teaching a robot according to the present invention outputs a message to warn a user of an operation. Specifically, the robot teaching device outputs a message when a mistake frequently occurs.

여기서, 메시지가 출력되는 조건은 로봇 교시 장치는 특정 조건을 만족하는 상태에서 사용자로부터 특정 기능에 대한 실행 요청을 수신하는 경우, 메시지를 출력한다. 여기서, 특정 조건이란 부가 장치가 장착된 후 부가 장치에 대한 설정을 하지 않았을 것, 특정 기능 실행 시 기설정된 횟 수 이상 오류가 발생되었을 것 중 적어도 하나를 포함할 수 있다. 이하, 상술한 조건과 관련된 실시 예들에 대하여, 상기 부가 장치가 로봇의 엔드 이펙터로 로봇의 암에 장착되는 툴(tool)인 경우를 예를 들어, 구체적으로 설명한다.Here, the condition for outputting the message is that the robot teaching apparatus outputs the message when receiving a request for execution of a specific function from the user in a state in which the specific condition is satisfied. Here, the specific condition may include at least one of not setting the additional device after the additional device is mounted and that an error occurs more than a preset number of times when a specific function is executed. Hereinafter, a case in which the additional device is a tool mounted on a robot arm as an end effector of the robot will be described in detail with respect to embodiments related to the above conditions.

로봇에 부가 장치가 장착되는 경우, 로봇은 이와 관련된 데이터를 로봇 교시 장치로 전송한다. 로봇 교시 장치는 로봇에 부가 장치가 장착된 것을 감지할 수 있다.When an additional device is mounted on the robot, the robot transmits related data to the robot teaching device. The robot teaching device may detect that an additional device is mounted on the robot.

상기 부가 장치는 고유의 무게를 가지기 때문에, 상기 무게를 고려하여 제어 명령이 인가되어야 한다. 이를 위해, 부가 장치를 로봇에 장착한 후 사용자는 부가 장치와 관련된 설정값을 로봇 교시 장치에 입력하여 부가 장치와 관련된 설정을 해야한다. Since the additional device has its own weight, a control command must be applied in consideration of the weight. To this end, after mounting the additional device on the robot, the user needs to input a setting value related to the additional device to the robot teaching device to make settings related to the additional device.

본 예시에서, 로봇 교시 시스템은 로봇에 툴이 연결되었음을 감지하고, 무게의 입력을 모니터링한다. 이 때에, 무게가 입력되지 않은 경우에 메시지가 출력될 수 있으며, 상기 메시지는 툴의 무게에 대한 입력을 수신하도록 형성될 수 있다.In this example, the robot teaching system detects that a tool is connected to the robot and monitors the weight input. At this time, a message may be output when the weight is not input, and the message may be configured to receive an input on the weight of the tool.

보다 구체적으로, 상기 로봇 교시 장치는 새로운 툴이 감지된 상태에서 별도의 설정 없이 상기 로봇에 대한 구동 요청이 인가되는 경우, 또는 사용자로부터 입력 받은 값이 상기 툴과 관련된 추정 값과 기 설정된 수준 이상으로 차이가 있는 경우, 상기 메시지를 출력할 수 있다. 상기 메시지는 별도의 버튼을 포함할 수 있다. 로봇 교시 장치는 상기 버튼에 사용자 입력이 인가되는 경우, 상기 부가 장치와 관련된 설정값을 입력하는 입력창을 표시할 수 있다. More specifically, the robot teaching device may be used when a drive request for the robot is applied without a separate setting in a state where a new tool is detected, or when a value input from a user is equal to or higher than a preset level from an estimated value related to the tool. If there is a difference, the above message can be output. The message may include a separate button. When a user input is applied to the button, the robot teaching device may display an input window for inputting a set value related to the additional device.

예를 들어, 도 12를 참조하면, 로봇에 부가 장치가 장착된 후 별도의 설정없이 로봇 관절 이동 요청이 인가되는 경우, 로봇 교시 장치는 부가 장치와 관련된 설정값을 입력할 것을 안내하는 메시지(400)를 출력한다. 상기 메시지(400)에 대한 터치 입력이 인가되거나, 상기 메시지(400)가 출력된 시점부터 별도의 사용자 입력 없이 기설정된 시간이 경과하는 경우, 로봇 교시 장치는 상기 부가 장치와 관련된 설정값을 입력하는 입력창(409)을 출력한다.For example, referring to FIG. 12 , when a robot joint movement request is applied without a separate setting after an additional device is mounted on the robot, the robot teaching device provides a message 400 guiding input of setting values related to the additional device. ) is output. When a touch input for the message 400 is applied or a preset time elapses without a separate user input from the time the message 400 is output, the robot teaching device inputs a set value related to the additional device. The input window 409 is output.

또한, 상기 입력창(409)을 통하여 설정값으로서 무게의 입력이 완료되면 상기 메시지는 사리지며, 로봇이 동작을 수행하게 된다.In addition, when the input of the weight as the set value is completed through the input window 409, the message disappears and the robot performs an operation.

상기에서 설명한 툴 연결 이슈를 모니터링하는 예시는 여러가지 형태로 확장되어 활용될 수 있다. 예를 들어, 툴을 연결한 후에, 상기 로봇 교시 시스템이 상기 로봇의 동작을 모니터링하고, 로봇의 비정상 동작을 감지할 수 있다. 이러한, 비정상 동작은, 예를 들어 비정상 가속도가 될 수 있다.The example of monitoring tool connection issues described above can be extended and utilized in various forms. For example, after connecting a tool, the robot teaching system may monitor the robot's motion and detect abnormal motion of the robot. Such an abnormal operation may be, for example, an abnormal acceleration.

이와 같이, 비정상 동작이 감지되면, 상기 로봇의 구동을 정지하고 상기 메시지가 상기 로봇 교시 장치의 교시 인터페이스에 출력될 수 있다. 상기 메시지는 사용자가 로봇의 동작을 의도한 것인지 문의하며, 사용자의 응답을 수신하는 인터페이스가 될 수 있다. As such, when an abnormal operation is detected, driving of the robot may be stopped and the message may be output to a teaching interface of the robot teaching device. The message may be an interface that inquires whether the user intends to operate the robot and receives the user's response.

상기 메시지를 통하여, 사용자의 의도한 동작이라는 응답이 입력되면 상기 로봇의 구동이 계속될 수 있다. 반면에, 상기 메시지를 통하여 사용자의 의도한 동작이 아니라는 응답이 입력되면 상기 메시지 상에는 상기 툴의 무게를 입력하는 입력창이 출력될 수 있다.Through the message, when a response indicating that the user's intended operation is input, driving of the robot may be continued. On the other hand, if a response indicating that the operation is not the user's intention is input through the message, an input window for inputting the weight of the tool may be displayed on the message.

나아가, 본 예시에서 상기 툴의 무게 입력은 자동으로 수행되는 것도 가능하다. 예를 들어, 상기 로봇 교시 시스템은 툴의 연결이 감지되면, 툴의 스펙이나 종류를 입력받고, 상기 툴의 스펙이나 종류를 이용하여 상기 툴의 무게를 산출한다. 상기 로봇 교시 장치는 산출된 무게를 제안값으로 상기 메시지에 출력하여, 자동으로 무게를 입력하는 제안을 수행할 수 있다.Furthermore, in this example, it is also possible to automatically input the weight of the tool. For example, when the connection of a tool is sensed, the robot teaching system receives a specification or type of the tool, and calculates the weight of the tool using the specification or type of the tool. The robot teaching device may output the calculated weight as a suggested value to the message and automatically input the weight.

한편, 도시되지 않았지만, 특정 기능 실행시 기설정된 횟수 이상 오류가 발생되는 경우, 로봇 교시 장치는 상기 특정 기능 실행 요청이 인가될 때마다 빈번하게 오류가 발생된 기능임을 안내하는 메시지를 출력한다. 이때, 상기 메시지는 사용자가 오류 해결에 사용하였던 방법을 안내하는 텍스트 또는 이미지를 포함할 수 있다. On the other hand, although not shown, if an error occurs more than a predetermined number of times while executing a specific function, the robot teaching device frequently outputs a message informing that the error has occurred whenever a request to execute the specific function is applied. In this case, the message may include text or images to guide the user on the method used to solve the error.

상술한 바와 같이, 본 발명에 따르면, 사용자의 실수가 빈번하게 발생하는 작업 단계에 도달하였을 때 이를 사용자가 인지하도록 하고, 사용자가 최소한의 작업을 통해 실수를 예방할 수 있도록 하기 때문에, 로봇 에러 횟수가 최소화 되며 사용자의 작업 시간이 단축될 수 있다.As described above, according to the present invention, the number of robot errors is reduced because the user is allowed to recognize when a user's error frequently occurs and the user can prevent mistakes through minimal work. It is minimized and the user's work time can be shortened.

로봇 에러robot error

한편, 본 발명은 사용자가 로봇의 구동 및 제어 시 발생되는 에러 상황에 대한 인지와 복구를 함께 할 수 있도록 하는 유저 인터페이스를 제공한다.On the other hand, the present invention provides a user interface that allows a user to recognize and recover from an error situation that occurs when driving and controlling a robot.

도 13 내지 17은 본 발명의 일 실시 예에 따라 로봇 에러 복구에 메시지를 활용하는 일 실시 예를 나타내는 개념도들이다.13 to 17 are conceptual diagrams illustrating an embodiment of using a message for robot error recovery according to an embodiment of the present invention.

본 발명에 따른 로봇 교시 장치는 로봇 에러를 복구를 하기 위해 메시지를 출력한다. 구체적으로, 로봇 교시 장치는 로봇 에러가 발생하는 시점에 메시지를 출력한다. The robot teaching apparatus according to the present invention outputs a message to recover a robot error. Specifically, the robot teaching device outputs a message when a robot error occurs.

여기서, 메시지가 출력되는 조건은 로봇 교시 장치는 로봇이 인가된 제어명령대로 구동할 수 없을 것, 로봇의 현재 자세와 컴퓨터-생성 표현의 형상이 상이할 것, 사용자 입력을 인식할 수 없을 것 중 적어도 하나를 포함할 수 있다. 이하, 상술한 조건과 관련된 실시 예들에 대하여 구체적으로 설명한다.Here, the condition for outputting the message is that the robot teaching device cannot drive the robot according to the applied control command, that the current posture of the robot and the shape of the computer-generated expression are different, and that the user input cannot be recognized. may contain at least one. Hereinafter, embodiments related to the above conditions will be described in detail.

로봇 교시 장치는 사용자로부터 입력 받은 값에 기반하여 제어 명령을 형성하고 로봇으로 전송한다. 로봇은 수신된 제어 명령에 따라 구동한다. 로봇 교시 장치는 로봇으로 제어명령을 전송하고 로봇의 구동상태를 모니터링한다. 로봇이 제어 명령대로 구동하지 않는 것을 감지하는 경우, 로봇 교시 장치는 메시지를 출력한다.The robot teaching device forms a control command based on the value input from the user and transmits it to the robot. The robot drives according to the received control command. The robot teaching device transmits control commands to the robot and monitors the driving state of the robot. When detecting that the robot does not drive according to a control command, the robot teaching device outputs a message.

이때, 메시지는 다양한 방식으로 출력될 수 있다. 구체적으로, 메시지는 사용자가 에러를 복구할 수 있는 방법을 안내하거나, 에러 복구와 관련된 아이콘을 포함할 수 있다. At this time, the message may be output in various ways. Specifically, the message may guide a user on how to recover from an error or may include an icon related to error recovery.

나아가, 상기 에러가 기존에도 발생하였던 에러인 경우, 로봇 교시 장치는 사용자가 상기 에러 복구에 사용하였던 방법을 그대로 안내할 수 있다. 이때, 메시지는 사용자가 에러 복구에 사용한 방법을 안내하는 텍스트 및 이미지 중 적어도 하나를 포함할 수 있다.Furthermore, if the error is an error that has occurred in the past, the robot teaching device may guide the user to the method used to recover the error as it is. In this case, the message may include at least one of text and image that guides the method used by the user for error recovery.

일 실시 예에 있어서, 도 13을 참조하면, 로봇 교시 장치는 입력창(410)을 통해 사용자로부터 로봇 구동을 위한 값을 입력 받은 후 제어명령을 생성하여 로봇으로 전송한다. 로봇이 상기 제어명령대로 구동하지 않는 것을 감지하는 경우, 로봇 교시 장치는 메시지(400)을 출력한다. 이와 함께, 로봇 교시 장치는 디스플레이부의 일부 영역(411)을 강조표시하여 사용자가 로봇 에러가 발생하였음을 쉽게 알 수 있도록 한다.In one embodiment, referring to FIG. 13 , the robot teaching device receives a value for driving the robot from the user through the input window 410 and then generates a control command and transmits it to the robot. When detecting that the robot does not drive according to the control command, the robot teaching device outputs a message 400. In addition, the robot teaching device highlights the partial area 411 of the display unit so that the user can easily know that a robot error has occurred.

다른 일 실시 예에 있어서, 도 14를 참조하면, 로봇 교시 장치는 로봇 에러가 발생하는 경우 복구 버튼(413)을 포함하는 메시지(400)를 출력할 수 있다. 로봇 교시 장치는 상기 복구 버튼(413)에 사용자 입력이 인가될 경우, 로봇 에러를 복구한다. 이를 통해, 본 발명은 로봇 에러가 발생하였을 때 사용자가 별도의 조치를 취하지 않고도 로봇 에러를 복구할 수 있도록 한다.In another embodiment, referring to FIG. 14 , the robot teaching device may output a message 400 including a recovery button 413 when a robot error occurs. The robot teaching device recovers a robot error when a user input is applied to the recovery button 413 . Through this, the present invention allows the user to recover the robot error without taking a separate action when a robot error occurs.

이와 달리, 본 발명은 로봇 에러가 발생한 경우, 에러가 발생된 위치를 명확하게 안내하고 사용자가 에러 복구 방식을 선택할 수 있도록 한다. 구체적으로, 로봇 교시 장치는 로봇 에러가 발생한 경우 컴퓨터-생성 표현의 전체 영역 중 에러가 발생된 위치에 대응하는 영역을 강조 표시한다. 에러가 발생된 위치가 복수인 경우 컴퓨터-생성 표현의 복수의 영역이 강조표시될 수 있다. 이후, 로봇 교시 장치는 강조 표시된 영역에 사용자 입력이 인가될 경우, 강조 표시된 영역에 대응하는 위치의 에러를 복구한다. Unlike this, the present invention clearly guides the location where the error occurred when a robot error occurs and allows the user to select an error recovery method. Specifically, when a robot error occurs, the robot teaching device highlights a region corresponding to a location where an error occurred among the entire region of the computer-generated expression. Multiple areas of the computer-generated representation may be highlighted if there are multiple locations where the error occurred. Thereafter, when a user input is applied to the highlighted area, the robot teaching device recovers an error of a position corresponding to the highlighted area.

일 실시 예에 있어서, 도 15를 참조하면, 로봇 교시 장치는 로봇의 복수의 위치에서 에러가 발생된 경우, 컴퓨터-생성 표현(112’)의 복수의 영역을 강조 표시(414)한다. 이와 함께, 로봇 교시 장치는 에러가 발생되었음을 안내하고, 복구할 위치를 선택할 것을 안내하는 메시지(400)을 출력한다. In one embodiment, referring to FIG. 15 , the robot teaching device highlights 414 the plurality of regions of the computer-generated representation 112 ′ when an error occurs at a plurality of positions of the robot. At the same time, the robot teaching device outputs a message 400 informing that an error has occurred and guiding selection of a location to be restored.

구체적으로, 로봇이 더 이상 움직일 수 없는 싱귤러리티 에러가 발생된 경우, 로봇 교시 장치는 구동이 불가능한 관절에 대응하는 컴퓨터-생성 표현(112’)의 일 영역을 강조 표시한다. 이후, 강조 표시된 일 영역에 사용자 입력이 인가되면, 로봇 교시 장치는 상기 일 영역에 대응하는 관절을 풀어 싱귤러리티 에러를 복구한다. 사용자가 선택한 영역에 대응하는 관절을 푸는 것 만으로 에러가 복구되지 않는 경우, 로봇 교시 장치는 연관 메시지(415)를 출력하여 사용자가 추가적인 관절을 선택할 수 있도록 유도한다. 이때, 로봇 교시 장치는 복구된 관절에 대응하는 컴퓨터-생성 표현(112’)의 일 영역의 색을 변경하여 일부분의 복구가 완료되었음을 안내한다.Specifically, when a singularity error in which the robot cannot move any more occurs, the robot teaching device highlights a region of the computer-generated representation 112 ′ corresponding to the joint that cannot be driven. Thereafter, when a user input is applied to the highlighted area, the robot teaching apparatus recovers the singularity error by releasing a joint corresponding to the area. If the error is not recovered only by solving the joint corresponding to the region selected by the user, the robot teaching apparatus outputs a related message 415 to induce the user to select an additional joint. At this time, the robot teaching device changes the color of one area of the computer-generated expression 112 ′ corresponding to the restored joint to inform that partial restoration has been completed.

한편, 본 발명은 로봇 구동 시 로봇의 일부분이 로봇의 다른 부위에 충돌하거나, 주변 물체에 충돌하는 것을 방지한다. 구체적으로, 로봇 교시 장치는 사용자로부터 로봇 구동 및 제어에 필요한 정보를 입력 받은 후 로봇의 동작을 시뮬레이션 한다. 시뮬레이션 결과, 로봇의 충돌이 예상되는 경우, 로봇 교시 장치는 로봇 교시 장치의 실행화면에 충돌과 관련된 메시지를 출력한다. 충돌과 관련된 메시지는 충돌과 관련된 다양한 정보를 포함할 수 있다. 예를 들어, 충돌과 관련된 메시지는 충돌이 예상되는 로봇의 관절 정보, 충돌이 예상되는 3차원 좌표 정보, 충돌이 예상되는 방향, 충돌이 예상되는 시간 정보 중 적어도 하나를 포함할 수 있다.On the other hand, the present invention prevents a part of the robot from colliding with another part of the robot or colliding with a surrounding object when the robot is driven. Specifically, the robot teaching device simulates the operation of the robot after receiving information necessary for driving and controlling the robot from the user. As a result of the simulation, when a collision between the robots is expected, the robot teaching device outputs a message related to the collision on the execution screen of the robot teaching device. A message related to collision may include various types of information related to collision. For example, the message related to the collision may include at least one of joint information of a robot in which a collision is expected, 3D coordinate information in which a collision is expected, a direction in which a collision is expected, and time information in which a collision is expected.

이 경우, 상기 메시지는 전술한 예시와 마찬가지로 핑퐁 메시지 형태로 출력될 수 있다.In this case, the message may be output in the form of a ping-pong message, similar to the above-described example.

한편, 로봇의 충돌이 예상되는 경우, 컴퓨터 생성 표현에 포함된 로봇에 포함된 관절에 대응되는 이미지에 충돌을 안내하는 아이콘이 표시될 수 있다. 복수의 부위에 충격이 예상되는 경우, 복수의 위치에 아이콘이 표시될 수 있다. Meanwhile, when a robot collision is expected, an icon guiding a collision may be displayed on an image corresponding to a joint included in a robot included in a computer-generated expression. When an impact is expected in a plurality of parts, icons may be displayed at the plurality of parts.

본 발명에 따른 로봇 교시 장치는 출력되는 메시지에 대한 사용자 입력을 통해 상술한 충돌 에러를 해소할 수 있도록 할 수 있다. 구체적으로, 상기 메시지에는 충돌이 발생된 부위 별로 복구 아이콘이 표시될 수 있다. 상기 복구 아이콘은 컴퓨터 생성 표현 중 충돌이 발생된 부위에 오버랩되어 표시될 수 있다. 충돌이 발생된 부위가 복수 개인 경우, 복수의 부위에 복구 아이콘이 표시될 수 있다.The apparatus for teaching robots according to the present invention can resolve the above-described collision error through a user input for an output message. Specifically, a repair icon may be displayed for each part where a collision occurs in the message. The repair icon may overlap and display a part where a collision occurs among computer-generated expressions. When there are a plurality of sites where a collision has occurred, a repair icon may be displayed on the plurality of sites.

상기 복구 아이콘 중 어느 하나에 사용자 입력이 인가되는 경우, 로봇 교시 장치는 해당 부위의 충돌을 회피할 수 있는 설정값을 산출하고, 상기 산출된 값으로 로봇의 구동을 시뮬레이션 한다. 로봇 교시 장치는 상기 시뮬레이션 결과 상기 부위의 충돌이 해소될 때까지 해당 부위의 충돌을 회피할 수 있는 설정값을 재산출한다. 이를 통해, 본 발명은 사용자가 별도의 설정값을 입력할 필요 없이 충돌 에러를 해소할 수 있도록 한다.When a user input is applied to any one of the recovery icons, the robot teaching device calculates a setting value capable of avoiding a collision of the corresponding part, and simulates driving of the robot with the calculated value. As a result of the simulation, the robot teaching apparatus recalculates a set value capable of avoiding a collision of a corresponding part until the collision of the part is resolved. Through this, the present invention allows the user to solve the collision error without the need to input a separate setting value.

이와 달리, 로봇 교시 장치는 충돌이 발생된 부위에 대응하는 설정값을 재입력 받아 충돌 에러가 해소될 수 있도록 한다. 구체적으로, 메시지에는 충돌 에러가 발생된 부위에 대응하는 입력 영역이 표시된다. 로봇 교시 장치는 상기 입력 영역을 통해 사용자로부터 설정값을 입력 받고, 입력 받은 설정값으로 로봇의 구동을 시뮬레이션 한다. 로봇 교시 장치는 상기 시뮬레이션 결과 상기 부위의 충돌이 해소될 때까지 해당 부위의 충돌을 회피할 수 있는 설정값을 재입력 받는다.Unlike this, the robot teaching apparatus re-inputs the setting value corresponding to the part where the collision occurred, so that the collision error can be resolved. Specifically, the message displays an input area corresponding to a region where a collision error has occurred. The robot teaching device receives a set value from the user through the input area and simulates driving of the robot with the input set value. As a result of the simulation, the robot teaching device receives a re-input of a setting value capable of avoiding a collision of the corresponding part until the collision of the part is resolved.

한편, 본 발명은 로봇의 특정 부위에 대한 충돌 민감도 재설정을 통해 충돌 에러가 해소될 수 있도록 한다. 구체적으로, 메시지에는 로봇의 각 부위에 대한 충돌 민감도가 표시될 수 있다. 상기 메시지에 대한 사용자 입력에 응답하여, 로봇 교시 장치는 특정 부위에 대한 충돌 민감도 값을 수정할 수 있다. 구체적으로, 사용자는 특정 부위에 대한 충돌 민감도 값을 낮춰 충돌 에러가 해소될 수 있도록 한다. 이때 충돌 에러는, 실제 로봇이 구동됨에 따라 발생된 에러일 수 있다.Meanwhile, the present invention allows collision errors to be resolved through resetting the collision sensitivity of a specific part of the robot. Specifically, the message may indicate collision sensitivity for each part of the robot. In response to the user's input for the message, the robot teaching device may modify a collision sensitivity value for a specific part. Specifically, the user lowers the collision sensitivity value for a specific part so that the collision error can be resolved. In this case, the collision error may be an error generated as the actual robot is driven.

충돌 민감도 값이 낮게 설정됨에 따라, 특정 부위에 대한 충돌 에러가 해소되는 경우, 로봇 교시 장치는 충돌 에러가 해소되었음을 안내하는 메시지와 함께, 충돌 민감도 변경 히스토리를 포함하는 연관 메시지 표시할 수 있다. 상기 연관 메시지는 변경 전 충돌 민감도로 복구할 수 있는 아이콘을 포함할 수 있다. 상술한 바와 같이, 본 발명은 핑퐁 메시지를 통해 로봇의 특정 부위에 대한 충돌 민감도를 재설정할 수 있도록 함으로써, 불필요한 충돌 감지를 줄일 수 있게 된다.As the collision sensitivity value is set low, when the collision error with respect to a specific part is resolved, the robot teaching apparatus may display a message informing that the collision error has been resolved and a related message including a collision sensitivity change history. The associated message may include an icon that can be restored to the collision sensitivity before the change. As described above, the present invention makes it possible to reset the collision sensitivity of a specific part of the robot through the ping-pong message, thereby reducing unnecessary collision detection.

일 실시 예에 있어서, 도 16을 참조하면, 로봇 교시 장치는 사용자로부터 입력받은 정보를 이용하여 로봇의 구동 및 시뮬레이션하고, 시뮬레이션 결과 특정 부위에 충돌이 감지되는 경우, 메시지(400)를 출력한다. 이때, 메시지(400)에 출력되는 정보는, 실제 로봇의 구동에 따른 충돌 정보를 포함할 수 있다.In one embodiment, referring to FIG. 16 , the robot teaching apparatus drives and simulates a robot using information input from a user, and outputs a message 400 when a collision is detected in a specific part as a result of the simulation. In this case, the information output to the message 400 may include collision information according to driving of the actual robot.

상기 메시지(400)는 로봇에 대한 시뮬레이션 영상(112)을 포함한다. 이렇나 시뮬레이션 영상(112)은 실제 로봇의 구동에 따른 정보일 수 있다. 상기 시뮬레이션 영상(112) 중 로봇의 관절 각각에 해당하는 영역에는 각 관절의 충돌 민감도 값(416)이 출력될 수 있다. 한편, 충돌이 예상 또는 충돌이 발생된 영역에는 충돌 민감도 값(416)과 함께 별도의 아이콘(416’)이 오버랩되어 표시될 수 있다. The message 400 includes a simulation image 112 of the robot. In this way, the simulation image 112 may be information according to driving of an actual robot. A collision sensitivity value 416 of each joint may be output to a region corresponding to each joint of the robot in the simulation image 112 . Meanwhile, a collision sensitivity value 416 and a separate icon 416' may be overlapped and displayed in an area where a collision is expected or a collision has occurred.

또한, 상기 메시지(400)에는 충돌이 발생된 관절에 대응하는 입력 영역(417)이 표시되며, 충돌 해소를 위한 추천 설정값이 함께 표시될 수 있다. 제1관절에 대응하는 입력 영역(417)에 터치 입력이 인가되면, 로봇 교시 장치는 제1관절에 대응하는 설정값을 변경하고, 로봇의 동작을 시뮬레이션 한다. 시뮬레이션 결과 제1관절에서의 충돌이 감지되지 않는 경우, 제1관절에 대응하는 충돌 아이콘(416’)이 사라진다(418).In addition, the message 400 displays an input area 417 corresponding to a joint in which a collision occurs, and recommended setting values for collision resolution may be displayed together. When a touch input is applied to the input area 417 corresponding to the first joint, the robot teaching device changes the setting value corresponding to the first joint and simulates the operation of the robot. As a result of the simulation, if the collision at the first joint is not detected, the collision icon 416' corresponding to the first joint disappears (418).

한편, 도 17을 참조하면, 제6관절에서 충돌이 발생하였음을 안내하는 아이콘(416’)에 터치가 인가되면, 로봇 교시 장치는 별도의 숫자 입력창을 표시할 수 있다. 상기 숫자 입력창을 통해 로봇 교시 장치는 사용자로부터 제6관절에 대한 충돌 민감도 값을 입력 받을 수 있다. 사용자로부터 입력 받은 충돌 민감도를 이용하여, 로봇의 동작을 시뮬레이션한 결과 충돌이 감지되지 않는 경우, 제6관절에 대응하는 충돌 아이콘(416’)이 사라진다(419). 또한, 시뮬레이션 영상 중 제6관절에 대응하는 영역에 변경된 충돌 민감도 값이 표시된다.Meanwhile, referring to FIG. 17 , when a touch is applied to the icon 416 ′ indicating that a collision has occurred at the sixth joint, the robot teaching device may display a separate number input window. Through the number input window, the robot teaching device may receive a collision sensitivity value for the sixth joint from the user. When a collision is not detected as a result of simulating the motion of the robot using the collision sensitivity input from the user, the collision icon 416' corresponding to the sixth joint disappears (419). In addition, the changed collision sensitivity value is displayed in a region corresponding to the sixth joint in the simulation image.

상기에서는, 핑퐁 메시지를 이용하여 충돌 방지를 위한 제어 이득 튜닝을 간소화하는 방법에 대하여 설명하였으며, 이를 통하여 사용자가 세팅을 어려워하는 요소에 대한 가이드 수행이 보다 직관적으로 구현될 수 있다.In the above, a method of simplifying control gain tuning for collision avoidance using a ping-pong message has been described, and through this, guide execution for elements that are difficult for a user to set can be implemented more intuitively.

한편, 본 발명의 핑퐁 메시지는 또 다른 형태의 로봇 교시나 제어에 활용될 수 있다. 또한, 핑퐁 메시지를 통하여 교시와 관련되어 사용자가 인지하기 어려운 모니터링 이슈가 해결될 수 있다. 예를 들어, 로봇 교시 장치는 로봇의 초기 자세 세팅이 변경되는 경우, 사용자가 이를 복구할 수 있도록 한다.Meanwhile, the ping-pong message of the present invention can be used for another type of robot teaching or control. In addition, a monitoring issue that is difficult for a user to perceive in relation to teaching may be resolved through the ping-pong message. For example, the robot teaching apparatus allows the user to restore the initial posture setting of the robot when it is changed.

구체적으로, 로봇의 초기 자세는 기준값으로서 로봇 공장 출고 시 설정되는 값이다. 로봇 사용 중에는 로봇의 초기 자세에 오류가 발생하여, 상기 기준값에서의 로봇 자세가 초기 자세와 차이가 발생할 수 있다.Specifically, the initial posture of the robot is a value set when the robot is shipped from the factory as a reference value. An error may occur in the initial posture of the robot while the robot is in use, and the robot posture at the reference value may be different from the initial posture.

본 발명의 로봇 교시 장치는 상기 초기 자세 세팅 값이 로봇 사용 중 변경 되는 경우, 메시지를 출력할 수 있다. 이러한 메시지의 출력을 위하여 로봇의 초기 자세에 대한 오류가 모니터링될 수 있다.The robot teaching apparatus of the present invention may output a message when the initial posture setting value is changed while the robot is in use. Errors in the initial posture of the robot may be monitored to output such a message.

이 경우에, 상기 메시지는 초기 자세 세팅 값을 입력할 수 있는 입력 영역을 포함할 수 있다. 사용자는 상기 입력 영역에 초기 자세 세팅값을 입력하여 로봇 초기 자세를 재설정할 수 있다. 나아가, 상기 메시지에는 로봇 공장 출고 시 설정된 값이 표시될 수 있다. 사용자는 상기 초기 설정값을 참조하여 로봇 초기 자세를 재설정할 수 있다.In this case, the message may include an input area for inputting an initial posture setting value. The user may reset the initial posture of the robot by inputting an initial posture setting value in the input area. Furthermore, a value set when the robot is shipped from the factory may be displayed in the message. The user may reset the robot's initial posture by referring to the initial setting values.

상술한 바와 같이, 본 발명에 따르면, 로봇 동작 및 제어 중 발생되는 에러 상황 및 에러 복구를 위한 인터페이스가 하나의 메시지에서 제공되기 때문에, 사용자는 에러를 인지하는 즉시 에러 복구를 위한 행동을 수행할 수 있게 된다.As described above, according to the present invention, since an error situation occurring during robot operation and control and an interface for error recovery are provided in one message, the user can immediately take action for error recovery upon recognizing an error. there will be

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. Although the embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features of the present invention. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

Claims (7)

로봇을 교시하는 로봇 교시 방법에 있어서,
상기 로봇의 동작을 교시하도록, 로봇 교시 장치에서 상기 로봇의 형상에 해당하는 이미지가 포함된 교시 인터페이스를 출력하는 단계;
상기 로봇과 로봇 교시 장치의 통신 정보, 상기 로봇의 상태 정보 및 상기 로봇 교시 장치의 상태 정보 중 적어도 하나를 모니터링하는 단계;
상기 모니터링 결과, 상기 로봇의 동작 및 상기 로봇에 대한 제어 중 적어도 하나에 에러(error)가 발생하는 경우, 상기 교시 인터페이스의 이미지 중 상기 에러가 발생된 상기 로봇의 특정 부위에 대응하는 영역을 강조 표시하고, 상기 교시 인터페이스에 상기 모니터링 결과와 관련된 메시지를 출력하는 단계; 및
상기 이미지에서 상기 강조 표시된 영역에 사용자 입력이 인가되는 경우, 상기 강조 표시된 영역에 대응되는 상기 로봇의 상기 특정 부위에 해당하는 에러를 복구하는 단계를 포함하고,
상기 로봇에서 복수의 부위에서 에러가 발생된 경우, 상기 이미지에서 상기 복수의 부위에 대응되는 복수의 영역이 강조 표시되며, 상기 메시지는, 상기 복수의 부위 중 에러를 복구할 특정 부위를 선택할 것을 안내하는 정보를 포함하는 것을 특징으로 하는 로봇 교시 방법.
In the robot teaching method for teaching a robot,
outputting a teaching interface including an image corresponding to the shape of the robot from a robot teaching device to teach the operation of the robot;
monitoring at least one of communication information between the robot and the robot teaching device, state information of the robot, and state information of the robot teaching device;
As a result of the monitoring, when an error occurs in at least one of the operation of the robot and the control of the robot, a region corresponding to a specific part of the robot in which the error occurs is highlighted in the image of the teaching interface. and outputting a message related to the monitoring result to the teaching interface; and
When a user input is applied to the highlighted area in the image, recovering an error corresponding to the specific part of the robot corresponding to the highlighted area;
When an error occurs in a plurality of parts of the robot, a plurality of regions corresponding to the plurality of parts in the image are highlighted, and the message guides selecting a specific part to recover an error from among the plurality of parts. Robot teaching method comprising the information to.
제1항에 있어서,
상기 로봇은, 복수의 관절을 포함하는 다자유도 협동 로봇이고,
상기 에러가 발생된 로봇의 부위는, 상기 복수의 관절 중 구동이 불가능한 관절에 해당하는 것을 특징으로 하는 로봇 교시 방법.
According to claim 1,
The robot is a multi-degree-of-freedom collaborative robot including a plurality of joints,
The robot teaching method according to claim 1 , wherein the part of the robot where the error occurs corresponds to a joint incapable of being driven among the plurality of joints.
제2항에 있어서,
상기 복수의 관절 중 제1 관절 및 상기 제1 관절과는 다른 제2 관절의 구동이 불가능한 경우,
상기 이미지에서 상기 제1 관절 및 상기 제2 관절 각각에 대응되는 복수의 영역이 강조 표시되고,
상기 강조 표시된 복수의 영역 중 상기 제1 관절에 대응되는 영역에 상기 사용자 입력이 인가되면, 상기 제1 관절의 구동이 가능하도록 상기 제1 관절을 복구하는 것을 특징으로 하는 로봇 교시 방법.
According to claim 2,
When a first joint among the plurality of joints and a second joint different from the first joint cannot be driven,
In the image, a plurality of regions corresponding to each of the first joint and the second joint are highlighted;
When the user input is applied to a region corresponding to the first joint among the plurality of highlighted regions, the first joint is restored to enable driving of the first joint.
제3항에 있어서,
상기 제1 관절에 대한 복구가 완료되면, 상기 이미지에서 상기 제1 관절에 대응하는 영역의 색을 변경하여 상기 제1 관절의 복구 완료를 안내하는 것을 특징으로 하는 로봇 교시 방법.
According to claim 3,
When the restoration of the first joint is completed, the robot teaching method characterized in that to guide the completion of the restoration of the first joint by changing the color of the region corresponding to the first joint in the image.
제4항에 있어서,
상기 제1 관절의 구동이 가능하더라도, 상기 로봇의 동작 및 상기 로봇의 제어에 대한 에러가 복구되지 않은 경우, 상기 교시 인터페이스에 상기 제2 관절을 선택할 것을 안내하는 연관 메시지를 출력하는 단계를 더 포함하는 것을 특징으로 하는 로봇 교시 방법.
According to claim 4,
Outputting a related message guiding selection of the second joint to the teaching interface when errors in operation and control of the robot are not recovered even though the first joint can be driven. A robot teaching method characterized in that for doing.
로봇을 교시하는 로봇 교시 장치에 있어서,
상기 로봇의 형상에 해당하는 이미지가 포함된 교시 인터페이스를 출력하는 디스플레이부;
로봇과 데이터를 송수신하도록 이루어지는 통신부; 및
상기 로봇과 로봇 교시 장치의 통신 정보, 상기 로봇의 상태 정보 및 상기 로봇 교시 장치의 상태 정보 중 적어도 하나를 모니터링하고,
상기 모니터링 결과, 상기 로봇의 동작 및 제어 중 적어도 하나에 에러(error)가 발생하는 경우, 상기 교시 인터페이스의 이미지 중 상기 에러가 발생된 상기 로봇의 특정 부위에 대응하는 영역을 강조 표시하고, 상기 교시 인터페이스에 상기 모니터링 결과와 관련된 메시지가 출력되도록 디스플레이부를 제어하고,
상기 이미지에서 상기 강조 표시된 영역에 사용자 입력이 인가되는 경우, 상기 강조 표시된 영역에 대응되는 상기 로봇의 상기 특정 부위에 해당하는 에러를 복구하는 제어부를 포함하고,
상기 로봇에서 복수의 부위에서 에러가 발생된 경우, 상기 이미지에서 상기 복수의 부위에 대응되는 복수의 영역이 강조 표시되며, 상기 메시지는, 상기 복수의 부위 중 에러를 복구할 특정 부위를 선택할 것을 안내하는 정보를 포함하는 것을 특징으로 하는 로봇 교시 장치.
In the robot teaching device for teaching a robot,
a display unit outputting a teaching interface including an image corresponding to the shape of the robot;
A communication unit made to transmit and receive data with the robot; and
monitoring at least one of communication information between the robot and the robot teaching device, state information of the robot, and state information of the robot teaching device;
As a result of the monitoring, when an error occurs in at least one of the operation and control of the robot, a region corresponding to a specific part of the robot in which the error occurs is highlighted in the image of the teaching interface, and the teaching Control a display unit to output a message related to the monitoring result to an interface;
When a user input is applied to the highlighted area in the image, a control unit for recovering an error corresponding to the specific part of the robot corresponding to the highlighted area;
When an error occurs in a plurality of parts of the robot, a plurality of regions corresponding to the plurality of parts in the image are highlighted, and the message guides selecting a specific part to recover an error from among the plurality of parts. A robot teaching device characterized in that it includes information to.
로봇; 및
상기 로봇의 동작을 교시하는 로봇 교시 장치를 포함하고,
상기 로봇 및 로봇 교시 장치는 상기 로봇을 교시하는 로봇 교시 방법을 수행하며,
상기 로봇 교시 방법은,
상기 로봇의 동작을 교시하도록, 로봇 교시 장치에서 상기 로봇의 형상에 해당하는 이미지가 포함된 교시 인터페이스를 출력하는 단계;
상기 로봇과 로봇 교시 장치의 통신 정보, 상기 로봇의 상태 정보 및 상기 로봇 교시 장치의 상태 정보 중 적어도 하나를 모니터링하는 단계;
상기 모니터링 결과, 상기 로봇의 동작 및 상기 로봇에 대한 제어 중 적어도 하나에 에러(error)가 발생하는 경우, 상기 교시 인터페이스의 이미지 중 상기 에러가 발생된 상기 로봇의 특정 부위에 대응하는 영역을 강조 표시하고, 상기 교시 인터페이스에 상기 모니터링 결과와 관련된 메시지를 출력하는 단계; 및
상기 이미지에서 상기 강조 표시된 영역에 사용자 입력이 인가되는 경우, 상기 강조 표시된 영역에 대응되는 상기 로봇의 상기 특정 부위에 해당하는 에러를 복구하는 단계를 포함하고,
상기 로봇에서 복수의 부위에서 에러가 발생된 경우, 상기 이미지에서 상기 복수의 부위에 대응되는 복수의 영역이 강조 표시되며, 상기 메시지는, 상기 복수의 부위 중 에러를 복구할 특정 부위를 선택할 것을 안내하는 정보를 포함하는 것을 특징으로 하는 로봇 교시 시스템.
robot; and
A robot teaching device for teaching the operation of the robot;
The robot and the robot teaching device perform a robot teaching method for teaching the robot;
The robot teaching method,
outputting a teaching interface including an image corresponding to the shape of the robot from a robot teaching device to teach the operation of the robot;
monitoring at least one of communication information between the robot and the robot teaching device, state information of the robot, and state information of the robot teaching device;
As a result of the monitoring, when an error occurs in at least one of the operation of the robot and the control of the robot, a region corresponding to a specific part of the robot in which the error occurs is highlighted in the image of the teaching interface. and outputting a message related to the monitoring result to the teaching interface; and
When a user input is applied to the highlighted area in the image, recovering an error corresponding to the specific part of the robot corresponding to the highlighted area;
When an error occurs in a plurality of parts of the robot, a plurality of regions corresponding to the plurality of parts in the image are highlighted, and the message guides selecting a specific part to recover an error from among the plurality of parts. A robot teaching system comprising information to
KR1020220063536A 2021-06-16 2022-05-24 Robot teaching apparatus and method for teaching robot using the same KR102567361B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220063536A KR102567361B1 (en) 2021-06-16 2022-05-24 Robot teaching apparatus and method for teaching robot using the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210078341A KR102403568B1 (en) 2021-06-16 2021-06-16 Robot teaching apparatus and method for teaching robot using the same
KR1020220063536A KR102567361B1 (en) 2021-06-16 2022-05-24 Robot teaching apparatus and method for teaching robot using the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210078341A Division KR102403568B1 (en) 2021-06-16 2021-06-16 Robot teaching apparatus and method for teaching robot using the same

Publications (2)

Publication Number Publication Date
KR20220168552A KR20220168552A (en) 2022-12-23
KR102567361B1 true KR102567361B1 (en) 2023-08-16

Family

ID=81986319

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210078341A KR102403568B1 (en) 2021-06-16 2021-06-16 Robot teaching apparatus and method for teaching robot using the same
KR1020220063536A KR102567361B1 (en) 2021-06-16 2022-05-24 Robot teaching apparatus and method for teaching robot using the same

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020210078341A KR102403568B1 (en) 2021-06-16 2021-06-16 Robot teaching apparatus and method for teaching robot using the same

Country Status (2)

Country Link
KR (2) KR102403568B1 (en)
CN (1) CN115476365A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019126895A (en) * 2018-01-26 2019-08-01 セイコーエプソン株式会社 Robot control device and robot system
JP2019152971A (en) * 2018-03-01 2019-09-12 オムロン株式会社 Simulation device, simulation method and simulation program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6134684A (en) * 1984-07-27 1986-02-18 Matsushita Electric Ind Co Ltd Binary information counting device
JPH06134684A (en) * 1992-09-22 1994-05-17 Nippon Telegr & Teleph Corp <Ntt> Teaching method of robot track

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019126895A (en) * 2018-01-26 2019-08-01 セイコーエプソン株式会社 Robot control device and robot system
JP2019152971A (en) * 2018-03-01 2019-09-12 オムロン株式会社 Simulation device, simulation method and simulation program

Also Published As

Publication number Publication date
KR102403568B1 (en) 2022-06-10
KR20220168552A (en) 2022-12-23
CN115476365A (en) 2022-12-16

Similar Documents

Publication Publication Date Title
JP4680516B2 (en) Method for fading in robot information to real-world images, and apparatus for visualizing robot information into real-world images
US11220002B2 (en) Robot simulation device
US10737396B2 (en) Method and apparatus for robot path teaching
JP3708083B2 (en) Robot teaching device
US9387589B2 (en) Visual debugging of robotic tasks
US9958862B2 (en) Intuitive motion coordinate system for controlling an industrial robot
US10166673B2 (en) Portable apparatus for controlling robot and method thereof
US20200101599A1 (en) Robot controller and display device using augmented reality and mixed reality
EP2055446A1 (en) A portable robot control apparatus and a method for controlling a movement of a robot
KR101876845B1 (en) Robot control apparatus
JP5872894B2 (en) Robot motion teaching support apparatus and method
CN104470687A (en) Robot simulator, robot teaching device and robot teaching method
Materna et al. Interactive spatial augmented reality in collaborative robot programming: User experience evaluation
KR20180063515A (en) Teaching Device of a Robot and Teaching Method thereof
Andersen et al. Intuitive task programming of stud welding robots for ship construction
Andersen et al. Task space HRI for cooperative mobile robots in fit-out operations inside ship superstructures
Chacko et al. An augmented reality framework for robotic tool-path teaching
WO2019046559A1 (en) Using augmented reality for controlling intelligent devices
KR102403021B1 (en) Robot teaching apparatus and method for teaching robot using the same
KR102567361B1 (en) Robot teaching apparatus and method for teaching robot using the same
WO2023162248A1 (en) Teaching operation panel and robot control system
Yang et al. An augmented-reality based human-robot interface for robotics programming in the complex environment
Thoo et al. Online and offline robot programming via augmented reality workspaces
CN116802021A (en) Object-based robot control
Beeson et al. Cartesian motion planning & task programming with CRAFTSMAN

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant