KR102403568B1 - Robot teaching apparatus and method for teaching robot using the same - Google Patents

Robot teaching apparatus and method for teaching robot using the same Download PDF

Info

Publication number
KR102403568B1
KR102403568B1 KR1020210078341A KR20210078341A KR102403568B1 KR 102403568 B1 KR102403568 B1 KR 102403568B1 KR 1020210078341 A KR1020210078341 A KR 1020210078341A KR 20210078341 A KR20210078341 A KR 20210078341A KR 102403568 B1 KR102403568 B1 KR 102403568B1
Authority
KR
South Korea
Prior art keywords
robot
message
teaching
user
error
Prior art date
Application number
KR1020210078341A
Other languages
Korean (ko)
Inventor
박종훈
정구희
이웅용
Original Assignee
주식회사 뉴로메카
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 뉴로메카 filed Critical 주식회사 뉴로메카
Priority to KR1020210078341A priority Critical patent/KR102403568B1/en
Priority to KR1020220063536A priority patent/KR102567361B1/en
Application granted granted Critical
Publication of KR102403568B1 publication Critical patent/KR102403568B1/en
Priority to CN202210682428.3A priority patent/CN115476365A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36162Pendant control box
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39443Portable, adapted to handpalm, with joystick, function keys, display
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40099Graphical user interface for robotics, visual robot user interface

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 프로그래밍 가능한(Programmable) 로봇을 제어하기 위한 로봇 교시 장치에 관한 것으로, 보다 상세하게는, 로봇 프로그래밍, 시뮬레이션 및 제어를 위한 로봇 교시 장치에 관한 것이다.The present invention relates to a robot teaching apparatus for controlling a programmable robot, and more particularly, to a robot teaching apparatus for robot programming, simulation and control.

Description

로봇 교시 장치 및 이를 이용한 로봇 교시 방법{ROBOT TEACHING APPARATUS AND METHOD FOR TEACHING ROBOT USING THE SAME}Robot teaching device and robot teaching method using the same

본 발명은 프로그래밍 가능한(Programmable) 로봇을 교시하기 위한 로봇 교시 장치에 관한 것으로, 보다 상세하게는, 로봇 프로그래밍, 시뮬레이션 및 제어를 위한 로봇 교시 장치(티칭 팬던트(Teaching pendant))에 관한 것이다.The present invention relates to a robot teaching apparatus for teaching a programmable robot, and more particularly, to a robot teaching apparatus (teaching pendant) for robot programming, simulation and control.

산업용 프로그래밍 가능한 로봇은 일반적으로 알려져 있다. 이러한 로봇을 프로그래밍하는 일반적인 방법은 예컨대, 공간에 최초 포인트로부터 로봇 암 상의 엔드 이펙터(end effector) 및 툴(tool)과 같이 로봇의 특정 부분을 안내하고, 엔드 이펙터의 최종 목적지인 픽업-위치(pick-up location)로 원하는 경로를 통해 보내는 방식이 사용될 수 있다.Industrial programmable robots are generally known. A common method of programming such robots is to guide certain parts of the robot, such as end effectors and tools on the robot arm, from an initial point in space, for example, and pick-up the end effector's final destination. -up location), the method of sending through the desired path can be used.

로봇 또는 외부 제어 장치들은 최초 위치로부터 최종 위치로의 움직임과 관련된 정보를 저장하고 있다. 이러한 학습 세션 이후에, 로봇은 위 절차들(procedures)을 반복하고, 수행해야 할 태스크를 수행할 수 있다Robots or external control devices store information related to movement from an initial position to a final position. After this learning session, the robot can repeat the above procedures and perform the task to be performed.

다만, 이러한 로봇 교시에 있어서, 로봇을 교시하기 위한 티칭 펜던트는 사용 방법이 복잡하고 어려워 초보자들이 사용하기 어렵다. 이로 인하여, 티칭 펜던트의 활용성이 떨어지는 문제가 있다. However, in this robot teaching, the teaching pendant for teaching the robot is complicated and difficult to use, making it difficult for beginners to use. For this reason, there is a problem in that the utility of the teaching pendant is poor.

본 발명은 교시 작업의 각 상황에 따라 사용자가 직관적으로 로봇 교시 장치와 상호작용할 수 있도록 하는 로봇 교시 방법, 프로그램 및 장치를 제공하는 것을 그 목적으로 한다.An object of the present invention is to provide a robot teaching method, program, and apparatus that allow a user to intuitively interact with a robot teaching apparatus according to each situation of the teaching task.

또한, 본 발명은 사용자와 로봇 교시 장치가 메시지를 주고 받으면서 로봇을 교시하는 유저 인터페이스를 제공하는 것을 그 목적으로 한다.Another object of the present invention is to provide a user interface for teaching a robot while exchanging messages between a user and a robot teaching device.

또한, 본 발명은 로봇 교시 작업을 완수하기 위해 필요한 각각의 단계마다 순차적으로 사용자와 상호작용할 수 있는 유저 인터페이스를 제공하는 것을 그 목적으로 한다.In addition, an object of the present invention is to provide a user interface that can sequentially interact with the user for each step necessary to complete the robot teaching task.

또한, 본 발명은 사용자가 로봇 교시 작업 중 빈번하게 하는 실수를 사전에 예측하고 예방할 수 있도록 하는 유저 인터페이스를 제공하는 것을 그 목적으로 한다.Another object of the present invention is to provide a user interface that enables a user to predict and prevent a mistake frequently made during a robot teaching task in advance.

또한, 본 발명은 사용자가 로봇의 구동 및 제어 시 발생되는 에러 상황에 대한 인지와 복구를 함께 할 수 있도록 하는 유저 인터페이스를 제공하는 것을 그 목적으로 한다.In addition, an object of the present invention is to provide a user interface that allows a user to recognize and recover an error situation that occurs when driving and controlling a robot.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명은 로봇을 교시하는 로봇 교시 방법을 제공한다. 구체적으로, 본 발명은 상기 로봇의 동작을 교시하도록, 로봇 교시 장치에서 교시 인터페이스를 출력하는 단계, 상기 로봇과 로봇 교시 장치의 통신 정보, 상기 로봇의 상태 정보 및 상기 로봇 교시 장치의 상태 정보 중 적어도 하나를 모니터링하는 단계, 및 상기 모니터링 결과가 기설정된 조건을 만족하는 경우, 상기 교시 인터페이스에 상기 모니터링 결과와 관련된 메시지를 출력하는 단계를 포함하고, 상기 메시지는, 상기 모니터링 결과를 근거로 상기 로봇 교시 장치에 대한 정보 입력을 유도하는 텍스트 및 이미지 중 적어도 하나를 포함하는 것을 특징으로 하는 로봇 교시 방법을 제공한다.The present invention for solving the above problems provides a robot teaching method for teaching a robot. Specifically, the present invention provides at least one of outputting a teaching interface from a robot teaching device to teach the operation of the robot, communication information between the robot and the robot teaching device, status information of the robot, and status information of the robot teaching device monitoring one, and outputting a message related to the monitoring result to the teaching interface when the monitoring result satisfies a preset condition, wherein the message is the robot teaching based on the monitoring result It provides a robot teaching method comprising at least one of a text and an image for inducing input of information to the device.

일 실시 예에 있어서, 상기 메시지를 출력하는 단계에서, 상기 메시지의 내용은 상기 정보 입력에 따라 변화할 수 있다. 상기 메시지는 상기 교시 인터페이스의 실행화면에 오버랩하여 출력되며, 상기 메시지의 내용이 변화하는 동안에 상기 교시 인터페이스의 실행화면은 유지될 수 있다.In an embodiment, in the step of outputting the message, the content of the message may change according to the input of the information. The message is output to overlap the execution screen of the teaching interface, and the execution screen of the teaching interface may be maintained while the content of the message is changed.

일 실시 예에 있어서, 상기 기 설정된 조건은 상기 로봇의 동작 및 제어 중 적어도 하나에 오류가 발생하였거나, 오류가 발생될 것으로 예상되는 것일 수 있다.In an embodiment, the preset condition may be that an error has occurred or an error is expected to occur in at least one of the operation and control of the robot.

일 실시 예에 있어서, 상기 기 설정된 조건은 상기 로봇의 동작 및 제어 중 적어도 하나에 활용될 정보 입력이 필요한 상태일 수 있다.In an embodiment, the preset condition may be a state in which information input to be utilized for at least one of operation and control of the robot is required.

일 실시 예에 있어서, 본 발명은 상기 로봇 교시 장치의 교시 인터페이스에 상기 로봇의 동작 정보를 포함하는 시뮬레이션 영역 및 상기 로봇의 제어와 관련된 입력을 수신하는 제어 영역을 표시하는 단계를 더 포함하고, 상기 메시지는 상기 시뮬레이션 영역 및 상기 제어 영역 중 상기 기 설정된 조건과 관련된 영역과 연관되도록 표시될 수 있다.In one embodiment, the present invention further comprises displaying a simulation area including motion information of the robot and a control area for receiving an input related to control of the robot on a teaching interface of the robot teaching apparatus, the The message may be displayed to be associated with a region related to the preset condition among the simulation region and the control region.

일 실시 예에 있어서, 상기 메시지는 상기 기 설정된 조건과 관련된 상기 로봇의 동작, 제어 및 설정 중 적어도 하나에 활용될 정보를 수신하는 입력 영역을 포함할 수 있다.In an embodiment, the message may include an input area for receiving information to be utilized for at least one of operation, control, and setting of the robot related to the preset condition.

일 실시 예에 있어서, 본 발명은 상기 로봇 교시 장치가 상기 입력 영역을 통해 사용자로부터 정보를 입력 받는 단계, 상기 로봇 교시 장치가 상기 입력 영역을 통해 입력 받은 정보를 활용하여 상기 로봇의 상태 및 상기 로봇 교시 장치의 상태 중 적어도 하나를 모니터링하는 단계 및 상기 메시지가 출력된 후 수행된 모니터링 결과에 기반하여, 연관 메시지를 출력하는 단계를 더 포함할 수 있다.In one embodiment, the present invention comprises the steps of: the robot teaching device receiving information from a user through the input area; The method may further include monitoring at least one of the states of the teaching device and outputting a related message based on a result of monitoring performed after the message is output.

일 실시 예에 있어서, 상기 기설정된 조건은 부가 장치가 상기 로봇에 장착된 것이 감지되는 것이고, 상기 메시지는 사용자가 상기 로봇을 특정한 움직임으로 움직이도록 안내하는 텍스트 및 이미지 중 적어도 하나를 포함할 수 있다.In an embodiment, the preset condition is that it is detected that the attachment device is mounted on the robot, and the message may include at least one of a text and an image for guiding the user to move the robot in a specific motion. .

일 실시 예에 있어서, 본 발명은 상기 메시지가 출력된 후, 상기 로봇 교시 장치가 상기 로봇의 움직임을 모니터링하는 단계 및 상기 로봇 교시 장치가 상기 움직임 모니터링 결과에 기반하여, 상기 부가 장치와 관련된 설정을 수행하는 단계를 더 포함할 수 있다.In one embodiment, the present invention, after the message is output, the step of the robot teaching device monitoring the movement of the robot, and the robot teaching device based on the motion monitoring result, the setting related to the additional device It may further include the step of performing.

또한, 본 발명은 교시 인터페이스를 출력하는 디스플레이부와, 로봇과 데이터를 송수신하도록 이루어지는 통신부, 및 상기 로봇과 로봇 교시 장치의 통신 정보, 상기 로봇의 상태 정보 및 상기 로봇 교시 장치의 상태 정보 중 적어도 하나를 모니터링하고, 상기 모니터링 결과가 기설정된 조건을 만족하는 경우, 상기 교시 인터페이스에 상기 모니터링 결과와 관련된 메시지가 출력되도록 디스플레이부를 제어하는 제어부를 포함하는 로봇 교시 장치를 제공한다. 상기 메시지는, 상기 모니터링 결과를 근거로 상기 로봇 교시 장치에 대한 정보 입력을 유도하는 텍스트 및 이미지 중 적어도 하나를 포함할 수 있다.In addition, the present invention provides a display unit for outputting a teaching interface, a communication unit configured to transmit and receive data to and from the robot, and at least one of communication information between the robot and the robot teaching device, the status information of the robot, and the status information of the robot teaching device To provide a robot teaching apparatus including a control unit for monitoring and controlling a display unit to output a message related to the monitoring result to the teaching interface when the monitoring result satisfies a preset condition. The message may include at least one of a text and an image for inducing input of information to the robot teaching device based on the monitoring result.

또한, 본 발명은 상기 로봇 교시 방법을 수행하는 로봇 및 로봇 교시 장치를 구비하는 로봇 교시 시스템을 제공한다.In addition, the present invention provides a robot teaching system including a robot and a robot teaching apparatus for performing the above robot teaching method.

상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, it has various effects as follows.

본 발명에 따르면, 사용자는 본 발명에 따른 유저 인터페이스를 통해 상황의 전개를 인지하면서 교시 작업을 수행하기 때문에, 로봇 교시 작업을 완수하는데 필요한 정보 및 행동을 누락하지 않게 된다.According to the present invention, since the user performs the teaching task while recognizing the development of the situation through the user interface according to the present invention, information and actions necessary for completing the robot teaching task are not omitted.

또한, 본 발명에 따르면, 사용자가 최우선적으로 수행해야할 작업을 메시지가 표시된 영역 내에서 모두 수행할 수 있기 때문에, 사용자의 작업 집중도 및 작업 속도가 상승할 수 있다.In addition, according to the present invention, since all tasks to be performed by the user with the highest priority can be performed within the area where the message is displayed, the user's work concentration and work speed can be increased.

또한, 본 발명에 따르면, 사용자와 로봇 교시 장치 간의 상호작용을 통하여 로봇 교시 작업의 각 단계에서 로봇에 대한 모니터링과 문제의 해소가 순차적으로 구현되기 때문에, 이를 통하여 초보자도 용이하게 로봇의 교시를 할 수 있게 된다.In addition, according to the present invention, since the monitoring of the robot and the resolution of problems are sequentially implemented at each stage of the robot teaching task through the interaction between the user and the robot teaching device, even beginners can easily teach the robot through this. be able to

또한, 본 발명에 따르면, 로봇 교시 장치는 사용자와의 상호작용을 통해 부가 장치 장착에 필요한 정보를 사용자에게 제공하고, 사용자로부터 부가 장치 설정에 필요한 정보를 수집하기 때문에, 사용자는 로봇에 장착하는 부가 장치에 대한 구체적인 지식이 없이도 쉽게 부가 장치를 로봇에 장착할 수 있게 된다.In addition, according to the present invention, since the robot teaching device provides the user with information necessary for mounting the additional device through interaction with the user, and collects the information required for setting the additional device from the user, the user can install the additional device mounted on the robot. Additional devices can be easily mounted on the robot without specific knowledge of the device.

또한, 본 발명에 따르면, 사용자의 실수가 빈번하게 발생하는 작업 단계에 도달하였을 때 이를 사용자가 인지하도록 하고, 사용자가 최소한의 작업을 통해 실수를 예방할 수 있도록 하기 때문에, 로봇 에러 횟수가 최소화 되며 사용자의 작업 시간이 단축될 수 있다.In addition, according to the present invention, the number of robot errors is minimized and the number of robot errors is minimized because the user recognizes this when a user's error reaches a work stage in which frequent occurrence is reached, and the user can prevent the mistake through a minimum amount of work. work time can be shortened.

또한, 본 발명에 따르면, 로봇 동작 및 제어 중 발생되는 에러 상황 및 에러 복구를 위한 인터페이스가 하나의 메시지에서 제공되기 때문에, 사용자는 에러를 인지하는 즉시 에러 복구를 위한 행동을 수행할 수 있게 된다. In addition, according to the present invention, since an interface for error recovery and error situations occurring during robot operation and control is provided in one message, the user can immediately perform an error recovery action upon recognizing an error.

또한, 본 발명에 따르면, 로봇 교시 장치와의 반복된 상호작용 과정을 통하여 별도의 선행(매뉴얼, 교육 커리큘럼 등) 학습없이 사용자의 로봇 사용 숙련도를 스스로 향상시킬 수 있다. In addition, according to the present invention, it is possible to improve the user's robot use proficiency by itself without additional prior (manual, educational curriculum, etc.) learning through the repeated interaction process with the robot teaching device.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 로봇 교시 시스템을 개략적으로 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 로봇 교시 장치(티칭 펜던트)에 포함된 구성요소들을 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 로봇 교시 장치(티칭 펜던트)의 메인 화면을 나타낸 개념도이다.
도 4는 본 발명의 일 실시예에 따른 로봇 교시 장치에 의해 제어되는 프로그래밍 가능한 로봇의 동작을 설명하기 위한 개념도이다.
도 5는 본 발명에 따른 메시지를 출력하는 일 실시 예를 나타내는 순서도이다.
도 6 및 7은 본 발명에 따른 메시지를 출력하는 일 실시 예를 나타내는 개념도이다.
도 8A 내지 10C은 본 발명의 일 실시 예에 따라 부가 장치 장착에 메시지를 활용하는 일 실시 예를 나타내는 개념도들이다.
도 11은 본 발명의 일 실시 예에 따라 사용자가 처음 실행하는 기능에 메시지를 활용하는 일 실시 예를 나타내는 개념도이다.
도 12은 본 발명의 일 실시 예에 따라 사용자가 자주하는 실수를 예방하기 위해 메시지를 활용하는 일 실시 예를 나타내는 개념도이다.
도 13 내지 17은 본 발명의 일 실시 예에 따라 로봇 에러 복구에 메시지를 활용하는 일 실시 예를 나타내는 개념도들이다.
1 is a diagram schematically showing a robot teaching system according to an embodiment of the present invention.
2 is a block diagram illustrating components included in a robot teaching device (teaching pendant) according to an embodiment of the present invention.
3 is a conceptual diagram illustrating a main screen of a robot teaching device (teaching pendant) according to an embodiment of the present invention.
4 is a conceptual diagram for explaining the operation of the programmable robot controlled by the robot teaching device according to an embodiment of the present invention.
5 is a flowchart illustrating an embodiment of outputting a message according to the present invention.
6 and 7 are conceptual diagrams illustrating an embodiment of outputting a message according to the present invention.
8A to 10C are conceptual diagrams illustrating an embodiment of using a message for mounting an additional device according to an embodiment of the present invention.
11 is a conceptual diagram illustrating an embodiment in which a message is used for a function executed for the first time by a user according to an embodiment of the present invention.
12 is a conceptual diagram illustrating an embodiment of using a message in order to prevent a mistake frequently made by a user according to an embodiment of the present invention.
13 to 17 are conceptual diagrams illustrating an embodiment of using a message for robot error recovery according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully understand the scope of the present invention to those skilled in the art, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate the overall understanding, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.

로봇 교시를 위해서는 3가지 방식이 사용될 수 있는데, 상기 3가지 방식은 오프라인 프로그래밍(offline programming), 온라인 프로그래밍(online programming), 직접 교시(direct teaching) 방식을 포함할 수 있다. 오프라인 프로그래밍은 시뮬레이터를 기반으로 동작하는 프로그래밍 방식으로, 경로 생성 및 검증을 수행시 주로 사용되며, 이더캣 마스터 제어기를 통해 실행되는 프로그래밍 방식이다. Three methods may be used for teaching the robot, and the three methods may include an offline programming method, an online programming method, and a direct teaching method. Offline programming is a programming method that operates based on the simulator, is mainly used for path generation and verification, and is a programming method executed through the EtherCAT master controller.

온라인 프로그래밍은 로봇 교시 장치를 이용하는 방식으로, 로봇 운동 명령, 경로 생성/반복 작업에 주로 사용되고 이를 로봇 교시 장치와 로봇의 유/무선 연결에 의해 이루어지는 방식이다. Online programming is a method using a robot teaching device, which is mainly used for robot motion commands and path generation/repeat work, and is performed by wired/wireless connection between the robot teaching device and the robot.

직접 교시는 사용자(또는 조작자)가 로봇을 직접 조작하여 경로를 학습시키는 방법으로 제어 알고리즘의 지원이 필요할 수 있다. 이는 로봇의 목표 궤적을 사용자가 직관적을 결정할 수 있도록 하는 시스템으로, 사용자가 로봇의 말단 부분을 잡고 직접 로봇에 힘과 모멘트를 인가하여 로봇을 자신의 의도대로 운전하는 방식이다. 이로 인해, 사용자는 간단히 로봇의 목표 궤적 정보를 생성할 수 있고, 로봇은 이 경로를 기억한 후, 자동운전시 이를 추종하도록 하여 제어되는 방식이다. Direct teaching is a method in which a user (or an operator) learns a path by directly manipulating the robot, and the support of a control algorithm may be required. This is a system that allows the user to intuitively determine the target trajectory of the robot, in which the user holds the end of the robot and directly applies force and moment to the robot to drive the robot as intended. Due to this, the user can simply generate target trajectory information of the robot, and the robot is controlled by memorizing this path and then following it during automatic operation.

본 발명의 일 실시예에 따른 로봇 교시 장치는 로봇을 제어하기 위한 사용자 인터페이스 장치로써, 티칭 펜턴드(TP: Teaching Pendant)를 포함할 수 있다. 티칭 펜던트는 산업용 장비 또는 로봇에 사용되는 장비로, 주로 모니터 및 마우스를 사용할 수 없는 산업 현장 및 특별한 조작이 필요없는 자동화 장비에서 사용자의 편의를 위해 터치 패드(또는 키버튼)과 디스플레이 스크린(예컨대, LCD, LED 스크린이 포함될 수 있음)을 사용하여 태블릿 PC 형태로 구현 가능하며, 로봇에 유선 또는 무선으로 연결되어 사용될 수 있다.The robot teaching device according to an embodiment of the present invention is a user interface device for controlling the robot, and may include a Teaching Pendant (TP). Teaching pendants are equipment used in industrial equipment or robots, and mainly include touchpads (or key buttons) and display screens (e.g., It can be implemented in the form of a tablet PC using LCD and LED screens), and it can be used by being connected to the robot by wire or wirelessly.

로봇 교시 시스템robot teaching system

도 1은 본 발명의 일 실시예에 따른 로봇 교시 시스템을 개략적으로 나타낸 도면이다. 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 로봇 교시 시스템은 (a) 오프라인 프로그래밍 기반 및 (b) 온라인 프로그래밍 기반으로 프로그래밍할 수 있다. 본 발명의 일 실시 예에 따른 로봇 교시 시스템은 로봇 교시 장치(100: 예컨대 티칭 펜던트일 수 있음), 마스터 제어기 및 로봇(300) 중 적어도 하나를 포함할 수 있다. 본 발명은 온라인 프로그래밍 기반의 로봇 교시 시스템 및 오프라인 프로그래밍 기반의 로봇 교시 시스템에 모두 사용될 수 있다. 또한, 상기 로봇 교시 시스템은 교시를 기준으로 시스템을 정의한 용어로서, 로봇을 기준으로 한 로봇 시스템으로 지칭될 수 있다.1 is a diagram schematically showing a robot teaching system according to an embodiment of the present invention. 1, the robot teaching system according to an embodiment of the present invention can be programmed based on (a) offline programming and (b) online programming. The robot teaching system according to an embodiment of the present invention may include at least one of the robot teaching apparatus 100 (eg, it may be a teaching pendant), a master controller, and the robot 300 . The present invention can be used in both an online programming-based robot teaching system and an offline programming-based robot teaching system. In addition, the robot teaching system is a term that defines a system based on the teaching, and may be referred to as a robot system based on a robot.

도 1의 (a)를 참조하면, 본 발명의 일 실시예에 따른 오프라인 프로그램밍 제어에 있어서, 로봇 교시 장치(100)와 마스터 제어기(200)는 제어 신호를 또는 프로그래밍 데이터를 로봇(300)의 제어 시스템(미도시)에 전달하여 로봇(300)을 구동시킬 수 있다. 로봇(300)의 제어 시스템은 이를 각 로봇의 부분을 구동시키는 구동 수단에 전류를 인가하여 프로그래밍에 상응하는 동작이 수행되도록 제어할 수 있다. Referring to FIG. 1A , in the offline programming control according to an embodiment of the present invention, the robot teaching device 100 and the master controller 200 transmit control signals or programming data to the control of the robot 300 . It is transmitted to a system (not shown) to drive the robot 300 . The control system of the robot 300 may control it so that an operation corresponding to programming is performed by applying a current to a driving means for driving each robot part.

본 발명의 일 실시예에 따른 로봇 교시 장치(100)는 터치 기반의 티칭 펜던트일 수 있다. 즉, 온라인 프로그래밍에 사용되는 티칭 펜던트의 기능에 시뮬레이터를 탑재하여 오프라인 프로그래밍 기능을 제공할 수 있다. 로봇 교시 장치(100)는 오픈소스 동역학 엔진(ODE) 기반의 로봇/센서/환경 모델링 이동 로봇 및 휴머노이드 ROS(소프 트웨어)를 탑재하여 이를 구현할 수 있다. 소프트웨어는 윈도우 또는 리눅스 등 다양한 운영체계에서 실행될 수 있다. 로봇 교시 장치(100)는 시뮬레이터를 통해 충돌 회피 알고리즘, 최적 경로 계산 알고리즘을 검증할 수 있다. The robot teaching apparatus 100 according to an embodiment of the present invention may be a touch-based teaching pendant. That is, an offline programming function can be provided by mounting a simulator on the function of the teaching pendant used for online programming. The robot teaching apparatus 100 may implement this by mounting a robot/sensor/environment modeling mobile robot and humanoid ROS (software) based on an open source dynamics engine (ODE). The software can run on various operating systems, such as Windows or Linux. The robot teaching apparatus 100 may verify the collision avoidance algorithm and the optimal path calculation algorithm through the simulator.

로봇 교시 장치(100)는 로봇(300)의 엔드 이펙터를 포함하여 로봇(300)의 부분들의 기능들 및 움직임들을 제어 하는데 사용될 수 있다. 이를 위해, 로봇 교시 장치(100)는 로봇(300)이 동작하는 주변 환경 및 로봇(300)에 의해 핸들링되는 물체들에 대한 관련 정보뿐만 아니라 미리 저장된 로봇 관련 움직임 및 기능들을 저장하는 저장부를 포함할 수 있다. 로봇 교시 장치(100)는 로봇(300)의 프로그래밍 동안 로봇(300)과 통신할 수 있고, 로봇(300)을 제어할 수 있다. 또한, 로봇(300)의 움직임들의 패턴 및 미리 프로그래밍된 시나리오를 검색할 수도 있다. 따라서, 이러한 시나리오 또는 로봇 관련 정보들은 새로운 테스트를 위한 로봇을 재-프로그래밍하는데 필요한 설정 내에서 서로 다른 태스크를 수행하는데 사용될 수 있다. The robot teaching apparatus 100 may be used to control the functions and movements of parts of the robot 300 including the end effector of the robot 300 . To this end, the robot teaching apparatus 100 includes a storage unit for storing pre-stored robot-related movements and functions as well as related information about the surrounding environment in which the robot 300 operates and objects handled by the robot 300. can The robot teaching apparatus 100 may communicate with the robot 300 and control the robot 300 during programming of the robot 300 . It is also possible to search for a pattern of movements of the robot 300 and a pre-programmed scenario. Thus, this scenario or robot-related information can be used to perform different tasks within the setup needed to re-program the robot for a new test.

마스터 제어기(200)는 사물인터넷(IoT) 서비스가 즉시 가능한 게이트웨이(IGoT: Internet Gateway of Things)를 이용하여 분산된 다수의 센서 및 구동기들을 이더넷 통신을 통해 실시간으로 제어하기 위한 필드버스일 수 있다. 여기서, IGoT는 사물인터넷 서비스가 즉시 가능한 게이트웨이로 산업용 사물인터넷을 위해 필드버스인 RS485 및 CAN 기반의 센서들을 활용하고 실시간 분산 제어를 위해 이더캣(EtherCAT)을 활용하는 것이 가능하다. 즉, 마스터 제어기(200)는 이더캣을 지원하는 리눅스 기반의 실시간 제어기일 수 있다. 마스터 제어기(200)를 통해 산업용 제어기가 갖는 안정성과 고성능을 확보할 수 있을 뿐만 아니라 실시간 운영체제 및 이더캣 마스터 소프트웨어까지 활용하여 제품의 소유 및 유지비용을 낮출 수 있다. 마스터 제어기(200)는 로봇 교시 장치(100)와 USB를 통해 연결되고, 로봇 교시 장치(100)로부터 프로그래밍 데이터 또는 제어 신호 를 받아 로봇을 구동시킬 수 있다. 마스터 제어기(200)는 STEP(Science and Technology Embedded Platform)을 포함할 수 있다. The master controller 200 may be a fieldbus for controlling a plurality of distributed sensors and drivers in real time through Ethernet communication using an Internet Gateway of Things (IGoT) that can immediately provide an Internet of Things (IoT) service. Here, IGoT is a gateway capable of instantaneous Internet of Things service, and it is possible to utilize fieldbus RS485 and CAN-based sensors for the Industrial Internet of Things, and to utilize EtherCAT for real-time distributed control. That is, the master controller 200 may be a Linux-based real-time controller supporting EtherCAT. Through the master controller 200, it is possible not only to secure the stability and high performance of the industrial controller, but also to utilize the real-time operating system and EtherCAT master software to lower the cost of owning and maintaining the product. The master controller 200 may be connected to the robot teaching device 100 through USB, and may receive programming data or a control signal from the robot teaching device 100 to drive the robot. The master controller 200 may include a Science and Technology Embedded Platform (STEP).

온라인 프로그래밍 제어에 있어서, 로봇 교시 장치(100)는 이더캣을 이용하여 온라인으로 로봇(300)을 제어할 수 있다. 즉, 본 발명의 일 실시예에 따르면, 실시간 로봇제어기와 통합된 형태의 로봇 교시 장치(100)를 구현하여 온라인 프로그래밍과 오프라인 프로그래밍을 통합 수행할 수 있다. In the online programming control, the robot teaching apparatus 100 may control the robot 300 online using EtherCAT. That is, according to an embodiment of the present invention, by implementing the robot teaching apparatus 100 integrated with the real-time robot controller, online programming and offline programming can be integrated.

로봇 교시 장치(티칭 펜던트) Robot teaching device (teaching pendant)

도 2는 본 발명의 일 실시예에 따른 로봇 교시 장치(티칭 펜던트)에 포함된 구성요소들을 나타내는 블록도이고, 도 3은 본 발명의 일 실시예에 따른 로봇 교시 장치(티칭 펜던트)의 메인 화면을 나타낸 개념도이다. 2 is a block diagram illustrating components included in the robot teaching device (teaching pendant) according to an embodiment of the present invention, and FIG. 3 is a main screen of the robot teaching device (teaching pendant) according to an embodiment of the present invention. is a conceptual diagram showing

도 2를 참조하면, 본 발명의 일 실시예에 따른 로봇 교시 장치(100)는 디스플레이부(110), 사용자 입력부(120), 제어부(130), 저장부(140), 통신부(150) 및 시뮬레이션부(160)를 포함할 수 있다.Referring to FIG. 2 , the robot teaching apparatus 100 according to an embodiment of the present invention includes a display unit 110 , a user input unit 120 , a control unit 130 , a storage unit 140 , a communication unit 150 , and a simulation. It may include a unit 160 .

디스플레이부(110)는 로봇의 프로그래밍 동안 사용자에 의해 수행되어질 프로그래밍 단계들과 관련된 메뉴들 및/또는 로봇의 프로그래밍 동안, 실제 동작 또는 테스트 실행 동안 상기 로봇의 형상을 나타내는 컴퓨터-생성 표현(예컨대, 3D CAD 이미지)을 디스플레이할 수 있다. 디스플레이부(110)는 시간 축과 로봇의 부분들 중 적어도 하나의 움직임의 정도 값을 나타내는 움직임 정보 축으로 구성된 그래프를 표시할 수 있다. 한편, 디스플레이부(110)에는 사용자의 작업을 보조하기 위한 다양한 메시지가 표시될 수 있다. 이에 대하여는 후술한다. The display unit 110 provides menus related to programming steps to be performed by the user during programming of the robot and/or a computer-generated representation (eg, 3D) representing the shape of the robot during programming, actual operation or test execution of the robot. CAD images) can be displayed. The display unit 110 may display a graph composed of a time axis and a motion information axis indicating a value of a degree of movement of at least one of robot parts. Meanwhile, various messages for assisting a user's work may be displayed on the display unit 110 . This will be described later.

사용자 입력부(120)는 로봇에 대한 제어 시스템에 프로그래밍된 지시어를 입력할 수 있다. 사용자 입력부(120)는 사용자로부터 지시어를 입력받을 수 있고, 이는 터치 스크린을 포함할 수 있다. 터치 스크린은 터치 펜 또는 사용자 손 등을 통해 사용자 입력을 입력받을 수 있다. 터치 스크린은 로봇의 3D 표현이 로봇의 특정 부분을 임의의 위치에 위치시키고 배향시키기(positioning and orienting) 위한 다양한 아이콘들과 함께 표시되도록 하고, 아이콘들에 대한 클릭을 입력받을 수 있다. The user input unit 120 may input an instruction word programmed into the control system for the robot. The user input unit 120 may receive an instruction input from the user, which may include a touch screen. The touch screen may receive a user input through a touch pen or a user's hand. The touch screen allows a 3D representation of the robot to be displayed with various icons for positioning and orienting a specific part of the robot in an arbitrary position, and clicks on the icons can be received.

제어부(130)는 로봇에 대한 프로그래밍 및 제어를 위한 프로세서이다. 이는 하드웨어 프로세서로 구성될 수 있다. 제어부(130)는 사용자 입력부(120)에서 입력된 지시어에 따라 로봇에 입력되는 프로그래밍 코드를 생성할 수 있다. 또는 로봇을 제어할 수 있는 제어 신호를 생성할 수 있다. 제어부(130)는 로봇의 각 부분의 움직임 또는 좌표 값을 기반으로 시간에 따른 흐름을 분석하여 시간축과 움직임 정도 값으로 구성된 그래프를 생성할 수 있다. 또한, 그래프를 이용하여 시간, 대상 로봇 부분 및 웨이포인트를 특정하여 해당 부분의 움직임 정도 값의 변화를 통해 웨이포인트의 위치를 변화시킬 수도 있고, 새로운 웨이포인트를 추가할 수도 있다. 제어부(130)는 로봇의 주변 환경, 예컨대, 장애물 및 금지 구역 등을 파악하여, 로봇의 최적 경로를 계산할 수 있다. 또한, 웨이포인트들의 시퀀스들을 통해 또는 공간 상의 경로를 통해 로봇의 하나 이상의 조인트들 또는 툴을 이동시킴으로써 로봇의 위치 또는 공간적 영역의 상세 좌표를 획득할 수 있다. The controller 130 is a processor for programming and controlling the robot. It may consist of a hardware processor. The controller 130 may generate a programming code input to the robot according to the instruction input from the user input unit 120 . Alternatively, it can generate a control signal that can control the robot. The controller 130 may generate a graph composed of a time axis and a movement degree value by analyzing the flow over time based on the movement or coordinate values of each part of the robot. In addition, by specifying the time, the target robot part, and the waypoint using the graph, the position of the waypoint may be changed by changing the value of the movement degree of the corresponding part, or a new waypoint may be added. The controller 130 may calculate the optimal path of the robot by identifying the surrounding environment of the robot, for example, obstacles and prohibited areas. It is also possible to obtain detailed coordinates of a position or spatial area of a robot by moving a tool or one or more joints of the robot through sequences of waypoints or through a path in space.

이를 위해 제어부(130)에는 기본적으로 각 팔에 대한 역동역학 제어 알고리즘, 임피던스 제어 알고리즘, 컴플라이언스 제어 알고리즘, 암 조작에 따른 충돌 검출 및 회피 알고리즘, Object 임피던스 제어 알고리즘 및 Internal force 임피던스 제어알고리즘을 탑재할 수 있고, 이러한 알고리즘의 검증을 시뮬레이션부(160)의 시뮬레이션을 통해 수행할 수 있다. To this end, the control unit 130 is basically equipped with a dynamic dynamic control algorithm for each arm, an impedance control algorithm, a compliance control algorithm, a collision detection and avoidance algorithm according to arm manipulation, an object impedance control algorithm, and an internal force impedance control algorithm. and verification of such an algorithm may be performed through simulation of the simulation unit 160 .

또한, 제어부(130)는 각 메뉴 및 아이콘의 클릭에 따라 이전 및 다음 메뉴 및 아이콘이 표시되도록 디스플레이부(110)을 제어할 수 있다. 제어부(130)는 적어도 로봇의 프로그래밍 동안, 특정 동작들과 관련하여, 로봇과 관련된 선호 움직임, 액션들 및 다른 특징들을 설명하는 미리 프로그래밍된 템플릿(templates)의 액세스를 가질 수 있다. 이때, 테플릿은 로봇의 차후 프로그래밍을 최적화하고, 촉진시키기 위해 로봇의 서로 다른 동작들을 정의할 수 있다. 상기 템플릿은 저장부(140)에 저장될 수 있다. Also, the controller 130 may control the display 110 to display previous and next menus and icons according to each click of menus and icons. Control 130 may have access to pre-programmed templates that describe preferred movements, actions and other characteristics associated with the robot, at least during programming of the robot, with respect to certain actions. At this point, the template can define different movements of the robot to optimize and facilitate subsequent programming of the robot. The template may be stored in the storage unit 140 .

저장부(140)는 로봇의 프로그래밍 및 동작들과 관련된 정보를 저장할 수 있고, 로봇의 이동 동안 피해야 할 장애물 정보 및/또는 공간 상의 금지된 영역과 같은 로봇 주변에 관한 정보도 저장할 수 있다. 이는 RAM, ROM 등의 플래시 메모리 및/또는 하드 메모리 등의 비휘발성 메모리를 포함할 수 있다. 저장부(140)는 툴의 최초 위치를 나타내는 정보, 최초 위치에서의 툴의 활성화/트리거링 파라미터들, 툴의 최종 위치, 최종 위치에서의 활 성화/트리거링 파라미터들 및 최초 위치와 최종 위치 사이의 공간 상의 경로와 관련된 정보를 저장할 수 있다. The storage unit 140 may store information related to programming and operations of the robot, and may also store information about obstacles to be avoided during movement of the robot and/or information about the robot's surroundings, such as prohibited areas in space. This may include flash memory, such as RAM, ROM, and/or non-volatile memory, such as hard memory. The storage unit 140 stores information indicating the initial position of the tool, the activation/triggering parameters of the tool at the initial position, the final position of the tool, the activation/triggering parameters at the final position, and the space between the initial position and the final position. It is possible to store information related to the path on the

통신부(150)는 실제 로봇에 부착된 센서 등으로부터 로봇의 움직임 정보 또는 위치 정보 등의 로봇 관련 정보를 수신할 수 있다. 이는 통신 프로세서로 구현가능하다. 또한, 통신부(150)는 로봇 간에 데이터 송수신을 수행하도록 이루어질 수 있다.The communication unit 150 may receive robot-related information such as movement information or location information of the robot from a sensor attached to the actual robot. This can be implemented with a communication processor. Also, the communication unit 150 may be configured to transmit/receive data between robots.

시뮬레이션부(160)는 실제 로봇으로부터 수신되는 정보 또는 로봇 교시 장치의 외부 센서로부터의 정보를 기반으로 실제 로봇의 움직임을 컴퓨터-생성 표현으로 생성하여 시뮬레이션이 이루어지도록 할 수 있다. 또한, 실제 로봇과 별개로, 제어부(130)에서 생성된 프로그래밍에 따라 로봇의 컴퓨터-생성 표현을 생성하여 가상으로 로봇의 움직임을 시뮬레이팅할 수 있다. 이러한 시뮬레이션 컴퓨터-생성 표현은 디스플레이부(110)으로 전송되어 디스플레이될 수 있다.The simulation unit 160 may generate the motion of the real robot as a computer-generated expression based on information received from the real robot or information from an external sensor of the robot teaching device to perform the simulation. Also, apart from the real robot, it is possible to simulate the movement of the robot virtually by generating a computer-generated representation of the robot according to the programming generated by the control unit 130 . This simulated computer-generated representation may be transmitted to and displayed on the display unit 110 .

즉, 본 명세서에서 설명되는 시뮬레이션 정보는, 로봇의 실제 움직임을 묘사하는 정보 및 로봇의 가상 움직임을 묘사하는 정보 중 적어도 하나를 포함할 수 있다.That is, the simulation information described in this specification may include at least one of information describing the actual motion of the robot and information describing the virtual motion of the robot.

로봇의 실제 움직임을 묘사하는 정보는, 정적 이미지 또는 동적 이미지 중 적어도 하나를 통해 표현될 수 있다, 나아가, 로봇의 실제 움직임을 묘사하는 정보는 로봇의 외관과 대응되며, 로봇의 각 관절(또는 관절의 포지션)을 묘사하는 이미지일 수 있다.Information describing the actual movement of the robot may be expressed through at least one of a static image or a dynamic image. Furthermore, the information describing the actual movement of the robot corresponds to the appearance of the robot, and each joint (or joint) of the robot It may be an image depicting the position of

마찬가지로, 로봇의 가상 움직임을 묘사하는 정보는, 정적 이미지 또는 동적 이미지 중 적어도 하나를 통해 표현될 수 있다, 나아가, 로봇의 가상 움직임을 묘사하는 정보는 로봇이 실제 움직였을 경우 예상되는 로봇의 외관 및 관절의 표지션에 대한 이미지일 수 있다.Similarly, the information describing the virtual motion of the robot may be expressed through at least one of a static image or a dynamic image. Furthermore, the information describing the virtual motion of the robot may include the appearance and joints of the robot expected when the robot actually moves. It may be an image for the cover of

본 발명에서는 설명의 편의를 위하여, 로봇 교시 장치에서 수행되는 기능 또는 과정을 “로봇 교시 장치가 정보를 출력한다”와 같이, “로봇 교시 장치”를 주체로 하여 표현하도록 한다. 여기에서, “제어 하에”있다는 것은, 로봇 교시 장치와 마스터 제어기 및 로봇과의 통신을 통해, 데이터를 송수신하여, 이에 기반하여 일련의 과정이 수행되는 것을 의미할 수 있다.In the present invention, for convenience of explanation, a function or process performed by the robot teaching device is expressed using the “robot teaching device” as the main subject, such as “the robot teaching device outputs information”. Here, “under control” may mean that data is transmitted and received through communication between the robot teaching device, the master controller, and the robot, and a series of processes are performed based thereon.

또한, “제어 하에”있다는 것은, 실질적으로는 로봇 교시 장치의 제어부가, 본 발명에 따른 로봇 교시 장치에서 제공되는 명령어, 프로그램 또는 기능에 기반하여, 이하에서 설명되는 기능을 수행할 수 있음을 의미할 수 있다. In addition, being “under the control” means that the controller of the robot teaching device can perform the functions described below based on the command, program or function provided by the robot teaching device according to the present invention. can do.

본 발명에 따른 로봇 교시 장치는 디스플레이부(110) 상에 다양한 화면 정보를 표시할 수 있다.The robot teaching apparatus according to the present invention may display various screen information on the display unit 110 .

구체적으로, 도 3을 참조하면, 디스플레이부에는 로봇 교시 장치(100)에서 실행 가능한 기능과 연관된 복수의 아이콘들(111)이 표시될 수 있다. 사용자는 상기 아이콘들 중 어느 하나를 터치함으로써, 특정 기능을 실행할 수 있다. Specifically, referring to FIG. 3 , a plurality of icons 111 related to functions executable in the robot teaching apparatus 100 may be displayed on the display unit. The user may execute a specific function by touching any one of the icons.

한편, 디스플레이부(110)는 로봇에 대한 컴퓨터-생성 표현(112)이 출력될 수 있다. 여기서, 컴퓨터-생성 표현(112)이란 로봇의 구동 및 제어와 관련된 시뮬레이션 정보이다. 상기 컴퓨터-생성 표현(112)은 사용자로부터 인가된 정보를 기반으로 시뮬레이션부(160) 또는 마스터 제어기(200)에서 수행된 시뮬레이션 결과물을 이미지화 한 것이다. 본 명세서에서는 상기 컴퓨터-생성 표현(112)이 표시되는 영역을 시뮬레이션 영역이라 한다.Meanwhile, the display unit 110 may output a computer-generated representation 112 for the robot. Here, the computer-generated representation 112 is simulation information related to the operation and control of the robot. The computer-generated representation 112 is an image of a simulation result performed by the simulation unit 160 or the master controller 200 based on information authorized by the user. In this specification, the region in which the computer-generated representation 112 is displayed is referred to as a simulation region.

상기 컴퓨터-생성 표현은 실제 로봇과 동일한 형상으로 표시되며, 제어하고자 하는 로봇의 종류가 달라질 경우, 컴퓨터-생성 표현(112) 또한 달라질 수 있다. 로봇 교시 장치(100)는 상기 컴퓨터-생성 표현(112)을 이용하여 사용자에게 로봇의 형상 및 특정 제어명령에 따른 로봇의 예상 움직임을 제공할 수 있다. 즉, 컴퓨터-생성 표현(112)은 정지 영상만을 포함하는 것이 아니라 동영상도 포함한다. The computer-generated representation is displayed in the same shape as the real robot, and when the type of robot to be controlled is different, the computer-generated representation 112 may also be different. The teaching robot 100 may use the computer-generated representation 112 to provide the user with the shape of the robot and the expected movement of the robot according to specific control commands. That is, computer-generated representation 112 includes moving images as well as still images.

또한, 로봇 교시 장치(100)는 상기 컴퓨터-생성 표현(112)의 일부분(112’)을 강조 표시함으로써, 사용자가 로봇의 특정 부위에 문제가 있음을 인지할 수 있도록 할 수 있다. 컴퓨터-생성 표현(112)을 활용하는 실시 예에 대하여는 후술한다.Additionally, the teaching robot 100 may highlight a portion 112 ′ of the computer-generated representation 112 , so that the user can recognize that there is a problem in a particular part of the robot. Embodiments utilizing computer-generated representations 112 are described below.

한편, 디스플레이부(110)에는 프로젝트의 정보를 입력할 수 있는 영역(113)이 표시될 수 있다. Meanwhile, an area 113 in which project information can be input may be displayed on the display unit 110 .

한편, 디스플레이부(110)에는 로봇에 인가하는 제어명령의 종류를 선택할 수 있는 복수의 탭(114)이 표시될 수 있다. 사용자는 복수의 탭들 중 어느 하나를 터치하여 로봇에 인가할 제어 명령의 종류를 선택할 수 있다. 사용자가 선택한 탭의 종류에 따라 제어명령 입력창(115)에 입력해야하는 정보가 달라질 수 있다.Meanwhile, the display unit 110 may display a plurality of tabs 114 for selecting the type of control command applied to the robot. The user may select a type of control command to be applied to the robot by touching any one of the plurality of taps. Information to be input into the control command input window 115 may vary according to the type of tab selected by the user.

본 명세서에서는 복수의 아이콘들(111), 프로젝트의 정보를 입력할 수 있는 영역(113), 상술한 복수의 탭(114) 및 입력창(115)을 제어 영역이라 칭한다. 이에 따라, 본 발명에 따른 로봇 교시 장치의 디스플레이부에 출력되는 화면 정보는 시뮬레이션 영역과 제어 영역을 포함한다.In this specification, the plurality of icons 111 , the area 113 for inputting project information, the plurality of tabs 114 and the input window 115 are referred to as a control area. Accordingly, the screen information output to the display unit of the robot teaching apparatus according to the present invention includes a simulation area and a control area.

상술한 디스플레이부에 표시되는 화면 정보는 본 발명에 따른 일 실시 예를 나타낸 것일 뿐 디스플레이부에 표시되는 정보가 상기 나열한 내용들에 한정되지는 않는다. The above-described screen information displayed on the display unit represents an embodiment according to the present invention, and the information displayed on the display unit is not limited to the above-listed contents.

로봇의 동작robot movement

도 4는 본 발명의 일 실시예에 따른 로봇 교시 장치에 의해 제어되는 프로그래밍 가능한 로봇의 동작을 설명하기 위한 개념도이다. 4 is a conceptual diagram for explaining the operation of the programmable robot controlled by the robot teaching device according to an embodiment of the present invention.

로봇은 복수 개의 개별 암 섹션들을 포함할 수 있고, 근접한 암 섹션들은 각 조인트에 의해 인터커넥션되어 있다. 상기 조인트들의 적어도 일부에는 구동가능한 구동수단이 들어있을 수 있다. 또한 로봇은 이러한 구동회로를 제어하는 제어 시스템을 포함할 수 있다. 상기 조인트는 안전 브레이크를 포함할 수 있고, 모터 회전축과 관련하여 회전할 수 있는 환상 멤버(annular member)를 포함할 수 있다.The robot may include a plurality of individual arm sections, adjacent arm sections being interconnected by respective joints. At least a portion of the joints may contain a drivable driving means. In addition, the robot may include a control system for controlling such a drive circuit. The joint may include a safety brake and may include an annular member rotatable with respect to a motor axis of rotation.

로봇은 로봇 교시 장치로부터 수신되는 지시어를 디코딩하기 위한 디코더를 포함할 수 있고, 로봇의 각 부분의 위치 및 움직임과 관련된 정보를 센싱하기 위한 센서(예컨대, 힘/토크 센서(F/T sensor), 위치 센서, 비전 센서 (vision sensor))를 포함할 수 있다. 이러한 센서는 로봇 주변을 센싱할 수도 있다. 또한, 상기 움직임 관련 정보를 인코딩하기 위한 인코더를 포함할 수 있다.The robot may include a decoder for decoding instructions received from the robot teaching device, and a sensor for sensing information related to the position and movement of each part of the robot (eg, a force/torque sensor (F/T sensor); a position sensor, a vision sensor). These sensors can also sense the robot's surroundings. In addition, it may include an encoder for encoding the motion-related information.

로봇은 적어도 다음의 동작들을 수행할 수 있다: 픽-앤-플레이스 동작(pick-and-place operation), 파일링 동작 (filing operation), 팩-인-홀 동작(peg-in-hole operation), 조립 동작(assembly operation), 팔레타이징 동 작(palletizing operation), 직적 교시, 디버링 동작(deburring operation), 스프레잉, 웰딩 동작(spraying, welding operation) 및 휴먼 인터랙션(human interaction)을 수행할 수 있다. 이는 기본적인 기능에 의해 수행될 수 있다: 위치의 특정(specification of position), 트랙킹, 움직임 패턴, 트리거(triggers) 및 이벤트/액션들에 의해 구현될 수 있다. The robot can perform at least the following operations: pick-and-place operation, filing operation, peg-in-hole operation, assembly It can perform assembly operation, palletizing operation, direct teaching, deburring operation, spraying, welding operation, and human interaction. This can be done by basic functions: it can be implemented by specification of position, tracking, movement pattern, triggers and events/actions.

도 4를 참조하면, 로봇(300)은 다자유도의 움직임을 실현하기 위해 복수의 관절(320, 330, 340, 350, 360, 370)을 포함한다. 도 4에는 다자유도 협동 로봇의 일예로서, 6개의 관절(320, 330, 340, 350, 360, 370)을 이용해 6 자유도를 갖도록 구성된 로봇(300)을 도시하였다. Referring to FIG. 4 , the robot 300 includes a plurality of joints 320 , 330 , 340 , 350 , 360 and 370 to realize movement of multiple degrees of freedom. 4 illustrates a robot 300 configured to have six degrees of freedom using six joints 320 , 330 , 340 , 350 , 360 and 370 as an example of a multi-degree-of-freedom cooperative robot.

제1 관절(320)은 베이스(310)의 상부에 회전 가능하게 결합되며, 제1 관절(320)은 Z축(도 4를 기준으로 수직 방향)을 중심으로 회전하게 된다. 제1 관절(320)의 일단면(베이스(310)와 마주하는 면)과 타단면(제2 관절(330)과 마 주하는 면)은 서로 수직한 평면 상에 위치한다. 제2 관절(330)은 제1 관절(320)의 타단부에 회전 가능하게 결합된다. 제1 관절(320)의 일단면과 타단면이 서로 수 직한 평면 상에 위치하므로, 제2 관절(330)은 제1 관절(320)의 회전축에 대해 수직 방향의 축을 중심으로 회전하게 된다. 제2 관절(330)의 일단면(제1 관절(320)과 마주하는 면)과 타단면(제3 관절(340)과 마주하는 면)은 서로 평행하거나 일치하는 평면 상에 위치한다. The first joint 320 is rotatably coupled to the upper portion of the base 310 , and the first joint 320 rotates around the Z-axis (vertical direction with respect to FIG. 4 ). One end surface (surface facing the base 310) and the other end surface (surface facing the second joint 330) of the first joint 320 are located on a plane perpendicular to each other. The second joint 330 is rotatably coupled to the other end of the first joint 320 . Since one end face and the other end face of the first joint 320 are positioned on a plane perpendicular to each other, the second joint 330 rotates about an axis in a direction perpendicular to the axis of rotation of the first joint 320 . One end surface (surface facing the first joint 320) and the other end surface (surface facing the third joint 340) of the second joint 330 are located on a plane that is parallel or coincident with each other.

제3 관절(340)은 제2 관절(330)의 타단부에 회전 가능하게 결합된다. 제2 관절(330)의 일단면과 타단면이 서로 평행하거나 일치하는 평면 상에 위치하므로, 제3 관절(340)은 제2 관절(330)의 회전축과 평행한 축을 중심으로 회전하게 된다. 제3 관절(340)의 일단면(제2 관절(330)과 마주하는 면)과 타단면(제4 관절(350)과 마주하는 면)은 서로 수직한 평면 상에 위치한다.The third joint 340 is rotatably coupled to the other end of the second joint 330 . Since one end face and the other end face of the second joint 330 are located on a plane that is parallel or coincident with each other, the third joint 340 rotates about an axis parallel to the axis of rotation of the second joint 330 . One end surface (surface facing the second joint 330) and the other end surface (surface facing the fourth joint 350) of the third joint 340 are located on a plane perpendicular to each other.

제4 관절(350)은 제3 관절(340)의 타단부에 회전 가능하게 결합된다. 제3 관절(340)의 일단면과 타단면이 서로 수직한 평면 상에 위치하므로, 제4 관절(350)은 제3 관절(340)의 회전축에 대해 수직 방향의 축을 중심으로 회전하 게 된다. 제4 관절(350)의 일단면(제3 관절(340)과 마주하는 면)과 타단면(제5 관절(360)과 마주하는 면)은 서로 수직한 평면 상에 위치한다. The fourth joint 350 is rotatably coupled to the other end of the third joint 340 . Since one end face and the other end face of the third joint 340 are positioned on a plane perpendicular to each other, the fourth joint 350 rotates about an axis in a vertical direction with respect to the axis of rotation of the third joint 340 . One end face (the face facing the third joint 340) and the other end face (the face facing the fifth joint 360) of the fourth joint 350 are located on a plane perpendicular to each other.

제5 관절(360)은 제4 관절(350)의 타단부에 회전 가능하게 결합된다. 제4 관절(350)의 일단면과 타단면이 서로 수직한 평면 상에 위치하므로, 제5 관절(360)은 제4 관절(350)의 회전축에 대해 수직 방향의 축을 중심으로 회전하 게 된다. 제5 관절(360)의 일단면(제4 관절(350)과 마주하는 면)과 타단면(제6 관절(370)과 마주하는 면)은 서로 수직한 평면 상에 위치한다. The fifth joint 360 is rotatably coupled to the other end of the fourth joint 350 . Since the one end face and the other end face of the fourth joint 350 are positioned on a plane perpendicular to each other, the fifth joint 360 rotates about an axis in a direction perpendicular to the axis of rotation of the fourth joint 350 . One end surface (surface facing the fourth joint 350) and the other end surface (surface facing the sixth joint 370) of the fifth joint 360 are located on a plane perpendicular to each other.

제6 관절(370)은 제5 관절(360)의 타단부에 회전 가능하게 결합된다. 제5 관절(360)의 일단면과 타단면이 서로 수직한 평면 상에 위치하므로, 제6 관절(370)은 제5 관절(360)의 회전축에 대해 수직 방향의 축을 중심으로 회전하 게 된다. 제5 관절(360)의 일단면(제4 관절(350)과 마주하는 면)과 타단면은 서로 수직한 평면 상에 위치한다. The sixth joint 370 is rotatably coupled to the other end of the fifth joint 360 . Since one end face and the other end face of the fifth joint 360 are positioned on a plane perpendicular to each other, the sixth joint 370 rotates about an axis in a direction perpendicular to the axis of rotation of the fifth joint 360 . One end face (the face facing the fourth joint 350) and the other end face of the fifth joint 360 are located on a plane perpendicular to each other.

제6 관절(370)의 타단부에는 부가 장치(미도시)가 장착된다. 부가 장치는 로봇(300)이 수행하는 작업 등에 따라 다양한 종류가 존재하며, 제6 관절(370)의 타단부는 다양한 부가 장치가 교체 장착되도록 구성된다.An additional device (not shown) is mounted on the other end of the sixth joint 370 . Various types of additional devices exist depending on the work performed by the robot 300 , and the other end of the sixth joint 370 is configured to replace and mount various additional devices.

상기 부가 장치는, 로봇의 작업을 위한 툴(tool)이나 상기 로봇에 장착되는 센서 등이 될 수 있다.The additional device may be a tool for the operation of the robot or a sensor mounted on the robot.

본 발명은 상술한 로봇 교시 장치를 통해 로봇을 제어할 수 있도록 한다. 상술한 로봇은 본 발명의 일 실시 예를 나타낸 것일 뿐 본 발명에 따라 제어할 수 있는 로봇의 구조가 상술한 로봇에 한정되지는 않는다.The present invention enables the robot to be controlled through the above-described robot teaching device. The above-described robot shows an embodiment of the present invention, and the structure of the robot that can be controlled according to the present invention is not limited to the above-described robot.

이하, 교시 작업의 각 상황에 따라 사용자가 직관적으로 로봇 교시 장치와 상호작용할 수 있도록 하는 로봇 교시 방법에 대하여 구체적으로 설명한다.Hereinafter, a robot teaching method that allows a user to intuitively interact with a robot teaching apparatus according to each situation of the teaching task will be described in detail.

도 5는 본 발명에 따른 메시지를 출력하는 일 실시 예를 나타내는 순서도이고, 도 6 및 7은 본 발명에 따른 메시지를 출력하는 일 실시 예를 나타내는 개념도이다. 5 is a flowchart illustrating an embodiment of outputting a message according to the present invention, and FIGS. 6 and 7 are conceptual diagrams illustrating an embodiment of outputting a message according to the present invention.

본 발명에 따른 로봇 교시 장치는 상황별로 사용자와 상호작용을 통해 사용자의 원활한 작업을 도와준다. 이를 위해, 도 5를 참조하면, 본 발명에 따른 로봇 교시 장치는 상기 로봇과 로봇 교시 장치의 통신 정보, 로봇의 상태 및 상기 로봇 교시 장치의 상태 중 적어도 하나를 모니터링(S110)한다.The robot teaching apparatus according to the present invention helps the user to work smoothly through interaction with the user for each situation. To this end, referring to FIG. 5 , the robot teaching apparatus according to the present invention monitors ( S110 ) at least one of communication information between the robot and the robot teaching apparatus, the state of the robot, and the state of the robot teaching apparatus.

이 경우에, 상기 모니터링(S110)에 앞서, 상기 로봇의 동작을 교시하도록, 로봇 교시 장치에서 교시 인터페이스를 출력하는 단계가 수행될 수 있다. 다만, 본 발명은 반드시 이에 한정되는 것은 아니며, 상기 교시 인터페이스를 출력하는 단계보다 상기 모니터링(S110)이 먼저 수행되는 것도 가능하다.In this case, prior to the monitoring ( S110 ), the step of outputting a teaching interface from the robot teaching device to teach the operation of the robot may be performed. However, the present invention is not necessarily limited thereto, and it is also possible that the monitoring ( S110 ) is performed before the step of outputting the teaching interface.

상기 교시 인터페이스는 로봇 교시 장치에서 사용자와의 인터랙션을 위하여 출력되는 인터페이스로서, 그래픽 유저 인터페이스, 음향 인터페이스 등을 포함한다. 보다 구체적으로, 상기 교시 인터페이스는 도 3을 참조하여 전술한, 시뮬레이션 영역과 제어 영역을 모두 포함한 의미로 해석될 수 있다. 상기 로봇과 로봇 교시 장치의 통신 정보는 유선 또는 무선 신호를 이용한 상기 로봇과 로봇 교시 장치의 통신 연결과 관련된 정보가 될 수 있다. 이하, 본 명세서에서는 설명의 편의를 위하여 주로 무선 통신를 예시로서 설명한다.The teaching interface is an interface output for interaction with a user in the robot teaching device, and includes a graphic user interface, a sound interface, and the like. More specifically, the teaching interface may be interpreted as meaning including both the simulation area and the control area, as described above with reference to FIG. 3 . The communication information between the robot and the robot teaching device may be information related to a communication connection between the robot and the robot teaching device using a wired or wireless signal. Hereinafter, in the present specification, wireless communication is mainly described as an example for convenience of description.

여기서, 로봇의 상태 정보는 로봇의 현재 설정, 로봇의 구동 상태, 부가 장치의 장착 여부, 통신 상태, 로봇의 현재 자세 중 적어도 하나를 포함하며 마스터 제어기(200) 및 로봇(300)으로부터 수신된 정보를 활용하여 모니터링한다. Here, the state information of the robot includes at least one of the current setting of the robot, the driving state of the robot, whether an additional device is installed, the communication state, and the current posture of the robot, and information received from the master controller 200 and the robot 300 . to monitor using

로봇 교시 장치(100)의 상태 정보는 로봇 교시 장치에 대한 사용자 입력 값, 현재 실행 중인 기능, 기능 실행 히스토리, 현재 표시중인 화면 정보 및 로봇 교시 장치에 대한 사용자의 사용 패턴 중 적어도 하나를 포함하며, 제어부(130)에 의해 주기적으로 수집될 수 있다.The state information of the robot teaching device 100 includes at least one of a user input value for the robot teaching device, a currently executing function, a function execution history, currently displayed screen information, and a user's usage pattern for the robot teaching device, It may be periodically collected by the controller 130 .

즉, 로봇 교시 장치(100)는 마스터 제어기 및 로봇과 송수신되는 데이터, 사용자로부터 입력 받는 데이터, 로봇 교시 장치 내에서 생성되는 데이터를 모니터링한다. That is, the robot teaching apparatus 100 monitors data transmitted and received with the master controller and the robot, data input from the user, and data generated in the robot teaching apparatus.

모니터링 결과 기 설정된 조건을 만족하는 경우, 디스플레이부(110) 상에 기 설정된 출력 방식의 메시지를 출력(S120)한다. 이러한 예로서, 상기 모니터링 결과가 기설정된 조건을 만족하는 경우, 상기 교시 인터페이스에 상기 모니터링 결과와 관련된 메시지가 출력된다.As a result of monitoring, when a preset condition is satisfied, a message of a preset output method is output on the display unit 110 (S120). For this example, when the monitoring result satisfies a preset condition, a message related to the monitoring result is output to the teaching interface.

상기 기설정된 조건은 복수 개 설정될 수 있으며, 복수의 조건들은 크게 세 종류로 구분될 수 있다. 구체적으로, 상기 기설정된 조건은 작업 제안을 위한 조건, 작업 경고를 위한 조건, 로봇 에러 복구를 위한 조건으로 이루어질 수 있다. 각각의 조건들 및 이에 따른 실시 예에 대하여는 후술한다.A plurality of the preset conditions may be set, and the plurality of conditions may be roughly divided into three types. Specifically, the preset condition may include a condition for job suggestion, a condition for a job warning, and a condition for robot error recovery. Each of the conditions and examples thereof will be described later.

상기 기 설정된 조건이 충족되는지 여부를 판단하기 위해, 로봇 교시 장치는 주기적으로 로봇의 상태 정보 및 로봇 교시 장치의 상태 정보를 모니터링한다.In order to determine whether the preset condition is satisfied, the robot teaching device periodically monitors the status information of the robot and the status information of the robot teaching device.

상기 메시지는 상기 모니터링 결과를 근거로 상기 로봇 교시 장치에 대한 정보 입력을 유도하는 텍스트 및 이미지 중 적어도 하나를 포함할 수 있다.The message may include at least one of a text and an image for inducing input of information to the robot teaching device based on the monitoring result.

예를 들어, 상기 메시지는 상기 메시지 출력의 원인이 되는 기 설정된 조건의 종류에 따라 서로 다른 화면 정보를 포함할 수 있다. 구체적으로, 상기 메시지는 로봇의 상태 및 로봇 교시 장치의 상태에 관한 정보만 포함할 수 있다. 로봇 교시 장치는 상기 메시지에 대한 사용자 입력에 기반하여, 상기 메시지에 표시되는 정보를 변경할 수 있다. 예를 들어, 상기 메시지가 이미지를 포함하는 경우, 로봇 교시 장치는 상기 메시지가 표시된 영역에 대한 사용자 입력에 근거하여 상기 이미지가 변형된 이미지를 표시할 수 있다. 상술한 바와 같이, 본 발명은 상기 메시지를 통해 사용자가 교시 작업의 진행 상황을 실시간으로 모니터링 할 수 있도록 한다.For example, the message may include different screen information according to the type of a preset condition that causes the message output. Specifically, the message may include only information about the state of the robot and the state of the robot teaching device. The robot teaching apparatus may change information displayed in the message based on a user input to the message. For example, when the message includes an image, the robot teaching apparatus may display an image in which the image is deformed based on a user input for an area in which the message is displayed. As described above, the present invention enables the user to monitor the progress of the teaching task in real time through the message.

이와 달리, 상기 메시지는 로봇의 구동 및 제어에 필요한 정보를 입력하기 위한 입력 영역을 포함할 수 있다. 상기 입력 영역에 입력 가능한 정보의 종류는 상기 기 설정된 조건에 따라 달라질 수 있다. 예를 들어, 상기 메시지가 부가 장치의 장착으로 인해 발생한 경우, 상기 메시지는 부가 장치와 관련된 설정값을 입력하는 입력 영역을 포함할 수 있다. 상기 입력 영역은 사용자의 입력 편의를 위하여 버튼 형태로 이루어질 수 있다. 예를 들어, 상기 메시지는 적어도 하나의 버튼을 포함하고, 상기 버튼 각각에는 로봇의 구동 및 제어에 필요한 정보가 매칭될 수 있다. 상기 버튼 각각은 매칭된 정보를 안내하는 텍스트 및 이미지를 포함할 수 있다. 로봇 교시 장치는 상기 버튼이 표시된 영역에 인가되는 사용자 입력에 기반하여 상기 로봇의 구동 및 제어와 관련된 작업을 수행할 수 있다. Alternatively, the message may include an input area for inputting information necessary for driving and controlling the robot. The type of information that can be input into the input area may vary according to the preset condition. For example, when the message is generated due to the attachment of the additional device, the message may include an input area for inputting a setting value related to the additional device. The input area may be formed in the form of a button for user's input convenience. For example, the message may include at least one button, and information necessary for driving and controlling the robot may be matched to each of the buttons. Each of the buttons may include text and an image to guide the matched information. The robot teaching apparatus may perform a task related to driving and controlling the robot based on a user input applied to an area where the button is displayed.

상술한 메시지에 포함된 화면 정보를 통해, 로봇 교시 장치는 메시지를 통해 사용자가 특정 행동을 하도록 유도한다. 구체적으로, 로봇 교시 장치는 메시지를 통해 사용자가 메시지의 일부분을 터치하거나, 디스플레이부에 표시된 화면 정보의 일부를 터치하거나, 로봇에 직접적인 조작을 가하도록 유도한다. Through the screen information included in the above-described message, the robot teaching device induces the user to take a specific action through the message. Specifically, the robot teaching apparatus induces the user to touch a part of the message, touch a part of screen information displayed on the display unit, or apply a direct manipulation to the robot through the message.

일 실시 예에 있어서, 로봇 교시 장치는 사용자가 메시지의 일부분을 터치하거나, 설정 값을 입력하도록 메시지 내에 입력 영역을 표시한다. 다른 일 실시 예에 있어서, 로봇 교시 장치는 사용자가 특정 화면 정보를 터치하도록 메시지 내에 안내 메시지를 표시한다. 다른 일 실시 예에 있어서, 로봇 교시 장치는 사용자가 특정 행동을 수행하도록 메시지 내에 동영상 또는 정지 영상을 표시한다.In an embodiment, the robot teaching device displays an input area in the message so that the user may touch a part of the message or input a setting value. In another embodiment, the robot teaching device displays a guide message in the message so that the user touches specific screen information. In another embodiment, the robot teaching device displays a moving image or a still image in a message so that the user performs a specific action.

상술한 바와 같이, 상술한 메시지는 교시 작업 상황을 안내함과 동시에 교시 작업의 적어도 일부를 수행할 수 있는 입력 영역을 포함한다. 이를 통해, 본 발명에 따른 로봇 교시 장치는 사용자와 상호작용을 한다.As described above, the above-described message includes an input area capable of performing at least a part of the teaching task while guiding the teaching task situation. Through this, the robot teaching device according to the present invention interacts with the user.

한편, 상기 메시지(400)가 표시되는 위치는 메시지와 관련된 문제의 종류에 따라 달라질 수 있다. Meanwhile, the position where the message 400 is displayed may vary depending on the type of problem related to the message.

구체적으로, 메시지의 위치는 문제가 발생된 기능과 관련된 메뉴, 아이콘, 화면정보와 연관되도록 표시될 수 있다. 여기서, “메시지가 특정 화면 정보와 연관되도록 표시된다” 함은 사용자가 특정 화면 정보와 메시지가 연관성이 있는 것으로 인지할 수 있도록 표시함을 의미한다. 예를 들어, “메시지가 특정 화면과 연관되도록 표시한다”함은 특정 화면 정보와 소정 거리 이내로 표시되거나, 특정 화면 정보를 강조 표시하거나, 메시지와 특정 화면 정보가 연결부를 통해 연결되는 것을 포함할 수 있다. 다만, 이에 한정되지 않고 사용자가 특정 화면 정보와 메시지가 연관성이 있는 것으로 인지할 수 있는 경우 “메시지가 특정 화면 정보와 연관되도록 표시된다” 할 수 있다.Specifically, the location of the message may be displayed so as to be related to menus, icons, and screen information related to the function in which the problem occurs. Here, “a message is displayed so as to be related to the specific screen information” means to display the message so that the user can recognize that the specific screen information and the message are related. For example, “displaying a message to be related to a specific screen” may include displaying within a predetermined distance from specific screen information, highlighting specific screen information, or connecting a message and specific screen information through a connection unit. have. However, the present invention is not limited thereto, and when the user can recognize that the specific screen information and the message are related, “a message is displayed to be related to the specific screen information”.

한편, 메시지가 출력되는 시점은 메시지와 관련된 문제의 종류에 따라 달라질 수 있다. Meanwhile, the timing at which the message is output may vary depending on the type of problem related to the message.

일 실시 예에 있어서, 로봇 에러 복구를 위한 메시지의 경우, 에러가 발생되는 즉시 출력될 수 있으며, 작업 경고를 위한 조건 또한 해당 조건이 충족하는 즉시 메시지가 출력될 수 있다. In an embodiment, in the case of a message for robot error recovery, an error may be output immediately, and a condition for a job warning may also be output as soon as the corresponding condition is satisfied.

이와 달리, 작업 제안을 위한 메시지의 경우, 로봇 교시 장치는 해당 조건을 충족하더라도 메시지를 곧바로 출력하지 않고, 메시지를 출력할 수 있는 별도의 아이콘을 표시할 수 있다. 사용자가 상기 아이콘을 터치하는 경우 메시지가 출력된다.Contrary to this, in the case of a message for a task proposal, the robot teaching device may display a separate icon capable of outputting a message without directly outputting the message even if the corresponding condition is satisfied. When the user touches the icon, a message is output.

또한, 상기 메시지를 출력하는 단계(S120)에서, 상기 메시지의 내용은 상기 정보 입력에 따라 변화될 수 있다. 이와 같이, 상기 메시지는 사용자와 로봇 교시 장치 사이에서 주고받는 정보 형태의 내용을 포함할 수 있으며, 따라서 상기 메시지는 핑퐁 메시지로 정의될 수 있다.In addition, in the step of outputting the message ( S120 ), the content of the message may be changed according to the input of the information. As such, the message may include information in the form of information exchanged between the user and the robot teaching device, and thus the message may be defined as a ping-pong message.

이 때에, 상기 메시지는 상기 교시 인터페이스의 실행화면에 오버랩하여 출력되며, 상기 메시지의 내용이 변화하는 동안에 상기 교시 인터페이스의 실행화면은 유지될 수 있다. 보다 구체적으로, 하나의 실행화면을 유지하면서 상기 핑퐁 메시지를 순차적으로 출력함에 따라, 상기 로봇 교시 장치는 해당 실행화면과 관련된 교시 단계에서, 모니터링 결과를 기반으로 사용자와 인터랙션을 수행할 수 있다.In this case, the message is output to overlap the execution screen of the teaching interface, and the execution screen of the teaching interface may be maintained while the content of the message is changed. More specifically, by sequentially outputting the ping-pong message while maintaining one execution screen, the robot teaching apparatus may interact with the user based on the monitoring result in the teaching step related to the corresponding execution screen.

이러한 메시지의 내용 변화를 위하여, 필요에 따라 상기 메시지가 출력된 후, 로봇 교시 장치는 로봇의 상태 및 로봇 교시 장치의 상태 중 적어도 하나를 모니터링(S130)한다. In order to change the content of such a message, after the message is output as necessary, the robot teaching apparatus monitors at least one of the state of the robot and the state of the robot teaching apparatus (S130).

로봇 교시 장치는 상기 메시지에 포함된 입력 영역을 통해 사용자로부터 로봇의 구동 및 제어에 필요한 정보를 입력받은 후, 로봇의 상태 및 로봇 교시 장치의 상태를 모니터링하고, 메시지 출력의 원인이 된 문제가 해소되었는지 판단한다. The robot teaching device receives information necessary for driving and controlling the robot from the user through the input area included in the message, and then monitors the status of the robot and the status of the robot teaching device, and solves the problem that caused the message output determine whether

상기 모니터링 결과에 기반하여, 상기 로봇 교시 장치는 연관 메시지를 출력(S140)한다. Based on the monitoring result, the robot teaching device outputs a related message (S140).

본 명세서에서는 설명의 편의를 위하여 상기 메시지가 표시된 후 로봇 및 로봇 교시 장치에 대한 모니터링 결과에 따라 표시되는 메시지는 연관 메시지라 한다. 로봇 교시 장치는 상기 메시지가 출력된 후 상기 메시지와 관련된 문제가 해결되었는지 여부에 따라 연관 메시지의 출력 여부를 결정한다. In the present specification, for convenience of explanation, a message displayed according to the monitoring result of the robot and the robot teaching device after the message is displayed is referred to as a related message. After the message is output, the robot teaching device determines whether to output a related message according to whether a problem related to the message is solved.

한편, 연관 메시지는 순차적으로 복수개 출력될 수 있으며, 로봇 교시 장치는 특정 연관 메시지가 출력된 후 상기 특정 연관 메시지와 관련된 문제가 해결되었는지 여부에 따라 추가적인 연관 메시지를 출력할지 여부를 결정한다. 즉, 로봇 교시 장치는 초기에 표시된 메시지와 관련된 문제가 모두 해결될 때까지 연관 메시지를 출력한다. On the other hand, a plurality of related messages may be sequentially output, and the robot teaching apparatus determines whether to output an additional related message according to whether a problem related to the specific related message is solved after the specific related message is output. That is, the robot teaching device outputs related messages until all problems related to the initially displayed message are resolved.

상기 연관 메시지는 사용자에게 문제 해결 여부를 안내하거나, 추가적인 안내를 하기 위한 메시지이다. 사용자가 메시지에 기반하여 특정 행동을 수행한 후 문제가 해결 된 경우, 로봇 교시 장치는 문제가 해결되었음을 안내하는 연관 메시지를 표시한다. 한편, 사용자가 메시지에 기반하여 특정 행동을 수행한 경우, 로봇 교시 장치는 사용자의 다음 행동을 유도하는 연관 메시지를 출력할 수 있다. 이 경우, 연관 메시지는 사용자의 행동이 종료될 때마다 계속해서 표시될 수 있다. 즉, 연관 메시지는 문제가 해결될 때까지 계속 해서 표시될 수 있다. The related message is a message for guiding whether to solve a problem to the user or providing additional guidance. If the problem is solved after the user performs a specific action based on the message, the robot teaching device displays an associated message to inform that the problem has been solved. Meanwhile, when the user performs a specific action based on the message, the robot teaching apparatus may output a related message for inducing the user's next action. In this case, the related message may be continuously displayed whenever the user's action is terminated. That is, the relevant messages can continue to be displayed until the problem is resolved.

한편, 상기 연관 메시지는 상기 기 설정된 형식의 메시지와 마찬가지로 로봇의 구동 및 제어에 필요한 정보를 입력 받기 위한 입력 영역을 포함할 수 있다. 상기 입력 영역은 상기 기 설정된 형식의 메시지에 포함된 입력 영역과 동일한 바 구체적인 설명은 생략한다.Meanwhile, the related message may include an input area for receiving information necessary for driving and controlling the robot, similar to the message of the preset format. Since the input area is the same as the input area included in the message of the preset format, a detailed description thereof will be omitted.

상술한 바와 같이, 본 발명에 따르면, 사용자는 본 발명에 따른 유저 인터페이스를 통해 상황의 전개를 인지하면서 교시 작업을 수행하기 때문에, 로봇 교시 작업을 완수하는데 필요한 정보 및 행동을 누락하지 않게 된다. 이하, 첨부된 도면을 참조하여 본 발명의 일 실시 예에 대하여 구체적으로 설명한다.As described above, according to the present invention, since the user performs the teaching task while recognizing the development of the situation through the user interface according to the present invention, information and actions necessary for completing the robot teaching task are not omitted. Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

예를 들어, 도 6과 같이, 로봇 교시 장치(100)는 로봇의 통신 상태를 모니터링하고, 로봇과 로봇 교시 장치간의 통신이 불가능한 경우, 기 설정된 형식의 메시지(400)를 출력한다. 로봇 교시 장치는 로봇의 통신 상태와 관련된 메시지를 연결 상태 아이콘(111) 주변에 표시한다. 한편, 로봇 교시 장치는 메시지가 표시되는 경우 특정 아이콘을 강조 표시(401)하여 메시지와 특정 아이콘이 연관성이 있는 것으로 인지하도록 할 수 있다.For example, as shown in FIG. 6 , the robot teaching apparatus 100 monitors the communication state of the robot, and outputs a message 400 in a preset format when communication between the robot and the robot teaching apparatus is impossible. The robot teaching device displays a message related to the communication state of the robot around the connection state icon 111 . Meanwhile, when a message is displayed, the robot teaching apparatus may highlight ( 401 ) a specific icon to recognize that the message and the specific icon are related.

다른 일 실시 예에 있어서, 도 7을 참조하면, 로봇 교시 장치는 메시지(400)와 특정 아이콘(111)을 연결하는 연결부(402)를 표시할 수 있다. In another embodiment, referring to FIG. 7 , the robot teaching apparatus may display the connection unit 402 connecting the message 400 and the specific icon 111 .

다른 일 실시 예에 있어서, 도시되지 않았지만, 로봇 교시 장치는 로봇에 장착된 부가 장치와 관련된 메시지를 시뮬레이션 영역에 표시한다. 다른 일 실시 예에 있어서, 로봇 교시 장치는 로봇에서 에러가 발생된 경우, 시뮬레이션 생성 표현 상에 에러가 발생된 위치를 강조하고, 강조된 위치 주변에 메시지를 표시한다. In another embodiment, although not shown, the robot teaching device displays a message related to an additional device mounted on the robot in the simulation area. In another embodiment, when an error occurs in the robot, the robot teaching device highlights the location where the error occurred on the simulation-generated expression and displays a message around the highlighted location.

이하에서는, 메시지가 출력되는 조건 및 이와 관련된 다양한 실시 예들에 대하여 첨부된 도면과 함께 설명한다. 본 명세서에서는 본 발명과 관련된 실시 예들을 작업 제안, 작업 경고, 로봇 에러로 분류하여 설명하나, 본 발명은 상기 분류에 한정되어 해석되지는 않는다.Hereinafter, a message output condition and various embodiments related thereto will be described along with the accompanying drawings. In the present specification, embodiments related to the present invention are described by classifying them into a task proposal, a task warning, and a robot error, but the present invention is not limited to the above classification and interpreted.

작업 제안work proposal

본 발명은 로봇 교시 작업을 완수하기 위해 필요한 각각의 단계마다 순차적으로 사용자와 상호작용할 수 있는 유저 인터페이스를 제공한다.The present invention provides a user interface that can sequentially interact with a user for each step necessary to complete a robot teaching task.

도 8A 내지 10C은 본 발명의 일 실시 예에 따라 부가 장치 장착에 메시지를 활용하는 일 실시 예를 나타내는 개념도들이고, 도 11은 본 발명의 일 실시 예에 따라 사용자가 처음 실행하는 기능에 메시지를 활용하는 일 실시 예를 나타내는 개념도이다.8A to 10C are conceptual diagrams illustrating an embodiment of using a message for mounting an additional device according to an embodiment of the present invention, and FIG. 11 is a diagram showing an embodiment of using a message for a function executed by a user for the first time according to an embodiment of the present invention. It is a conceptual diagram showing an embodiment of the

본 발명에 따른 로봇 교시 장치는 사용자에게 작업을 제안하기 위한 메시지를 출력한다. 구체적으로, 로봇 교시 장치는 현재 상황에서 사용자가 최우선으로 진행해야 할 작업을 제시하는 메시지를 출력한다. The robot teaching apparatus according to the present invention outputs a message for suggesting a task to the user. Specifically, the robot teaching device outputs a message suggesting a task to be performed with the highest priority by the user in the current situation.

여기서, 메시지가 출력되는 조건은 새로운 부가 장치가 로봇에 장착되는 것이 감지되는 것, 사용자가 특정 기능을 처음 실행하는 것, 사용자가 기설정된 횟수 이내로 실행된 기능을 실행하는 것, 특정 기능 수행 중 사용자 요청이 있는 것 중 적어도 하나를 포함할 수 있다. 이하, 상술한 조건과 관련된 실시 예들에 대하여 구체적으로 설명한다.Here, the condition for which the message is output is that it is detected that a new additional device is mounted on the robot, that the user executes a specific function for the first time, that the user executes the function executed within a preset number of times, that the user is performing a specific function It may include at least one of the requested ones. Hereinafter, embodiments related to the above-described conditions will be described in detail.

로봇에 부가 장치가 장착되는 경우, 로봇은 이와 관련된 데이터를 로봇 교시 장치로 전송한다. 로봇 교시 장치에서 로봇에 부가 장치가 장착된 것이 감지되는 경우, 로봇 교시 장치는 메시지를 출력한다.When the robot is equipped with an additional device, the robot transmits related data to the robot teaching device. When the robot teaching device detects that the robot is equipped with an additional device, the robot teaching device outputs a message.

이 때에, 상기 로봇의 부가 장치가 장착되는 시점에, 상기 로봇 교시 장치의 교시 인터페이스 상에 상기 메시지가 출력될 수 있다. 이를 위하여, 상기 로봇 교시 장치는 상기 부가 장치의 장착을 모니터링하며, 상기 부가 장치의 장착에 응답하여 상기 메시지를 출력하게 된다. 이 경우에, 상기 메시지는 상기 부가 장치의 캘리브레이션을 위한 설정 정보를 포함할 수 있다. 따라서, 사용자는 상기 메시지의 유도에 따라 상기 부가 장치의 캘리브레이션을 수행할 수 있다.At this time, when the additional device of the robot is mounted, the message may be output on the teaching interface of the robot teaching device. To this end, the robot teaching device monitors the attachment of the attachment device, and outputs the message in response to the attachment of the attachment device. In this case, the message may include setting information for calibration of the additional device. Accordingly, the user may perform calibration of the additional device according to the induction of the message.

여기서, 메시지의 내용은 장착된 부가장치의 종류에 따라 다를 수 있다. Here, the content of the message may be different depending on the type of the attached additional device.

일 실시 예에 있어서, 도 8A 내지 8C를 참조하면, 로봇에 힘/토크 센서(F/T 센서)가 장착된 것이 감지된 경우, 로봇 교시 장치는 새로운 장치가 감지되었음을 안내하는 메시지(400)를 출력한다. 상기 메시지(400)가 출력된 후 기설정된 시간이 지나거나, 상기 메시지(400)에 대한 터치 입력이 감지되는 경우, 로봇 교시 장치는 사용자가 로봇을 특정한 움직임으로 움직일 수 있도록 안내하는 메시지(404)를 출력한다. 여기서, 상기 메시지(404)는 동영상을 포함할 수 있다.In one embodiment, referring to FIGS. 8A to 8C , when it is detected that a force/torque sensor (F/T sensor) is mounted on the robot, the robot teaching device displays a message 400 informing that a new device has been detected. print out When a preset time elapses after the message 400 is output, or when a touch input to the message 400 is detected, the robot teaching device guides the user to move the robot in a specific movement message 404 to output Here, the message 404 may include a video.

상기 메시지(404)가 출력된 상태에서 로봇 교시 장치는 로봇에 포함된 센서에서 센싱된 값을 모니터링하고, 모니터링된 값을 이용하여 로봇의 좌표계를 설정한다. In a state in which the message 404 is output, the robot teaching device monitors a value sensed by a sensor included in the robot, and sets the coordinate system of the robot using the monitored value.

이때, 상기 메시지(404)는 사용자가 로봇을 특정한 움직임으로 움직일 때까지 표시되며, 시뮬레이션 생성 표현 주변에 표시될 수 있다.At this time, the message 404 is displayed until the user moves the robot to a specific movement, and may be displayed around the simulation-generated expression.

또한, 시뮬레이션 생성 표현의 전체 영역 중 센서가 설치된 위치에 대응하는 영역이 강조(403)표시 될 수 있다.In addition, a region corresponding to the location where the sensor is installed among the entire region of the simulation-generated expression may be highlighted 403 .

한편, 로봇 교시 장치는 상기 모니터링된 값을 이용하여 로봇의 좌표계를 설정할 수 없는 경우, 부가 장치를 재장착할 것을 안내하는 연관 메시지를 출력한다. 이와 동시에 부가 장치의 장착을 보조하는 동영상이 함께 출력될 수 있다.On the other hand, when the robot teaching device cannot set the coordinate system of the robot using the monitored value, the robot teaching device outputs a related message guiding the remounting of the additional device. At the same time, a video supporting the installation of the additional device may be output together.

한편, 로봇 교시 장치는 로봇의 좌표계 설정이 완료된 경우, 이를 안내하는 연관 메시지(405)를 표시한다.On the other hand, when the robot teaching apparatus completes the setting of the robot's coordinate system, a related message 405 is displayed to guide it.

다른 일 실시 예에 있어서, 도 9A 내지 9C를 참조하면, 로봇에 비전 센서가 장착된 것이 감지된 경우, 로봇 교시 장치는 비전 센서로 특정 위치를 센싱하도록 하는 메시지(406)를 출력한다. 상기 메시지(406)가 출력된 상태에서 로봇 교시 장치는 로봇에 포함된 비전 센서에서 센싱된 값을 모니터링하고, 모니터링된 값을 이용하여 캘리브레이션을 수행한다.In another embodiment, referring to FIGS. 9A to 9C , when it is sensed that the vision sensor is mounted on the robot, the robot teaching device outputs a message 406 for sensing a specific position with the vision sensor. In a state in which the message 406 is output, the robot teaching apparatus monitors a value sensed by a vision sensor included in the robot, and performs calibration using the monitored value.

이때, 메시지는 비전 센서로 특정 위치를 센싱할 때까지 표시되며, 시뮬레이션 생성 표현 주변에 표시될 수 있다.At this time, the message is displayed until a specific position is sensed by the vision sensor, and may be displayed around the simulation-generated representation.

한편, 로봇 교시 장치는 상기 모니터링된 값을 이용하여 캘리브레이션을 수행할 수 없는 경우, 비전 센서가 다른 위치를 센싱하도록 하는 연관 메시지를 출력한다. 이와 동시에 부가 장치의 장착을 보조하는 동영상이 함께 출력될 수 있다.Meanwhile, when the robot teaching device cannot perform calibration using the monitored value, the robot teaching device outputs a related message for allowing the vision sensor to sense another position. At the same time, a video supporting the installation of the additional device may be output together.

다른 일 실시 예에 있어서, 도 10A 내지 10C을 참조하면, 부가 장치가 장착되었음이 감지되었으나, 장착된 부가 장치의 종류를 감지할 수 없는 경우, 로봇 교시 장치는 사용자가 장착한 부가 장치의 종류를 선택할 수 있도록 하는 메시지(407)를 출력한다.In another embodiment, referring to FIGS. 10A to 10C , if it is detected that the additional device is mounted, but the type of the mounted additional device cannot be detected, the robot teaching device determines the type of the additional device mounted by the user. A message 407 to enable selection is output.

구체적으로, 로봇 교시 장치는 사용자가 장착한 것으로 예상되는 부가 장치의 형상을 2차원 또는 3차원 이미지로 표시한다. 부가 장치와 관련된 영상이 3차원 이미지로 표시되는 경우, 로봇 교시 장치는 상기 3차원 이미지에 대한 터치 입력이 있는 경우, 다른 각도에서 바라본 이미지를 표시한다. 이를 통해, 본 발명은 사용자가 부가 장치의 명칭을 정확히 알지 못하더라도 부가 장치를 장착하여 사용할 수 있도록 한다.Specifically, the robot teaching device displays the shape of the additional device expected to be mounted by the user as a two-dimensional or three-dimensional image. When an image related to an additional device is displayed as a three-dimensional image, the robot teaching apparatus displays an image viewed from a different angle when there is a touch input for the three-dimensional image. Through this, the present invention allows the user to mount and use the additional device even if the user does not know the exact name of the additional device.

한편, 도시되지 않았지만, 상기 메시지(407)는 부가 장치의 리스트를 포함할 수 있다. 사용자는 사용자가 설치한 부가 장치를 상기 리스트에서 선택할 수 있다.Meanwhile, although not shown, the message 407 may include a list of additional devices. The user may select an additional device installed by the user from the list.

한편, 로봇 교시 장치는 사용자가 소정 횟수 이내로 실행된 기능을 실행하는 경우, 메시지를 출력한다. 이때, 메시지는 사용자가 특정 기능이 실행된 상태에서 실행해야할 작업을 안내하는 메시지를 포함한다. 로봇 교시 장치는 사용자가 메시지를 통해 안내된 작업을 수행하는지 여부를 모니터링하고, 사용자가 해당 작업을 수행한 경우, 다음 작업을 유도하는 연관 메시지를 출력한다. On the other hand, the robot teaching device outputs a message when the user executes a function executed within a predetermined number of times. In this case, the message includes a message guiding a task to be executed in a state in which a specific function is executed by the user. The robot teaching device monitors whether the user performs the task guided through the message, and when the user performs the task, outputs a related message for inducing the next task.

예를 들어, 도 11을 참조하면, 사용자가 특정 기능을 처음 실행한 경우, 로봇 교시 장치는 해당 기능이 처음 실행되었음을 안내하고, 로봇 교시 장치를 특정 모드(예를 들어, 튜토리얼 모드)로 전환할 것을 선택받는 메시지(408)를 출력한다. 사용자가 특정 모드를 실행할 것을 선택한 경우, 로봇 교시 장치는 사용자가 최우선적으로 수행할 작업을 안내하는 연관 메시지를 출력한다. For example, referring to FIG. 11 , when a user executes a specific function for the first time, the robot teaching device notifies that the corresponding function is first executed, and switches the robot teaching device to a specific mode (eg, tutorial mode). A message 408 for receiving a selection is output. When the user selects to execute a specific mode, the robot teaching device outputs a related message guiding the user to perform the task with the highest priority.

상술한 바와 같이, 본 발명에 따르면 사용자와 로봇 교시 장치 간의 상호작용을 통하여 로봇 교시 작업의 각 단계에서 로봇에 대한 모니터링과 문제의 해소가 순차적으로 구현되기 때문에, 이를 통하여 초보자도 용이하게 로봇의 교시를 할 수 있게 된다.As described above, according to the present invention, since the monitoring of the robot and the resolution of the problem are sequentially implemented at each stage of the robot teaching task through the interaction between the user and the robot teaching device, through this, even beginners can easily teach the robot be able to do

또한, 본 발명에 따르면, 로봇 교시 장치는 사용자와의 상호작용을 통해 부가 장치 장착에 필요한 정보를 사용자에게 제공하고, 사용자로부터 부가 장치 설정에 필요한 정보를 수집하기 때문에, 사용자는 로봇에 장착하는 부가 장치에 대한 구체적인 지식이 없이도 쉽게 부가 장치를 로봇에 장착할 수 있게 된다.In addition, according to the present invention, since the robot teaching device provides the user with information necessary for mounting the additional device through interaction with the user, and collects the information required for setting the additional device from the user, the user can install the additional device mounted on the robot. Additional devices can be easily mounted on the robot without specific knowledge of the device.

작업 경고job warning

한편, 본 발명은 사용자가 로봇 교시 작업 중 빈번하게 하는 실수를 사전에 예측하고 예방할 수 있도록 하는 유저 인터페이스를 제공한다.Meanwhile, the present invention provides a user interface that enables a user to predict and prevent a mistake frequently made during a robot teaching task in advance.

도 12는 본 발명의 일 실시 예에 따라 사용자가 자주하는 실수를 예방하기 위해 메시지를 활용하는 일 실시 예를 나타내는 개념도이다.12 is a conceptual diagram illustrating an embodiment of using a message in order to prevent a mistake frequently made by a user according to an embodiment of the present invention.

본 발명에 따른 로봇 교시 장치는 사용자에게 작업 경고를 하기 위해 메시지를 출력한다. 구체적으로, 로봇 교시 장치는 빈번하게 실수가 발생하는 시점에 메시지를 출력한다. The robot teaching apparatus according to the present invention outputs a message to give a task warning to the user. Specifically, the robot teaching device frequently outputs a message at a point in time when a mistake occurs.

여기서, 메시지가 출력되는 조건은 로봇 교시 장치는 특정 조건을 만족하는 상태에서 사용자로부터 특정 기능에 대한 실행 요청을 수신하는 경우, 메시지를 출력한다. 여기서, 특정 조건이란 부가 장치가 장착된 후 부가 장치에 대한 설정을 하지 않았을 것, 특정 기능 실행 시 기설정된 횟 수 이상 오류가 발생되었을 것 중 적어도 하나를 포함할 수 있다. 이하, 상술한 조건과 관련된 실시 예들에 대하여, 상기 부가 장치가 로봇의 엔드 이펙터로 로봇의 암에 장착되는 툴(tool)인 경우를 예를 들어, 구체적으로 설명한다.Here, the message is output condition, when the robot teaching device receives a request for execution of a specific function from the user in a state where the specific condition is satisfied, the message is output. Here, the specific condition may include at least one of that an additional device is not set after the additional device is mounted, and that an error occurs more than a preset number of times when a specific function is executed. Hereinafter, with respect to the embodiments related to the above-described conditions, a case in which the additional device is a tool mounted on the arm of the robot as an end effector of the robot will be described in detail.

로봇에 부가 장치가 장착되는 경우, 로봇은 이와 관련된 데이터를 로봇 교시 장치로 전송한다. 로봇 교시 장치는 로봇에 부가 장치가 장착된 것을 감지할 수 있다.When the robot is equipped with an additional device, the robot transmits related data to the robot teaching device. The robot teaching device may detect that the robot is equipped with an additional device.

상기 부가 장치는 고유의 무게를 가지기 때문에, 상기 무게를 고려하여 제어 명령이 인가되어야 한다. 이를 위해, 부가 장치를 로봇에 장착한 후 사용자는 부가 장치와 관련된 설정값을 로봇 교시 장치에 입력하여 부가 장치와 관련된 설정을 해야한다. Since the attachment device has its own weight, a control command must be applied in consideration of the weight. To this end, after the additional device is mounted on the robot, the user must input the setting value related to the additional device into the robot teaching device to set the additional device related settings.

본 예시에서, 로봇 교시 시스템은 로봇에 툴이 연결되었음을 감지하고, 무게의 입력을 모니터링한다. 이 때에, 무게가 입력되지 않은 경우에 메시지가 출력될 수 있으며, 상기 메시지는 툴의 무게에 대한 입력을 수신하도록 형성될 수 있다.In this example, the robot teaching system detects that a tool is connected to the robot and monitors the input of weight. At this time, a message may be output when the weight is not input, and the message may be configured to receive an input for the weight of the tool.

보다 구체적으로, 상기 로봇 교시 장치는 새로운 툴이 감지된 상태에서 별도의 설정 없이 상기 로봇에 대한 구동 요청이 인가되는 경우, 또는 사용자로부터 입력 받은 값이 상기 툴과 관련된 추정 값과 기 설정된 수준 이상으로 차이가 있는 경우, 상기 메시지를 출력할 수 있다. 상기 메시지는 별도의 버튼을 포함할 수 있다. 로봇 교시 장치는 상기 버튼에 사용자 입력이 인가되는 경우, 상기 부가 장치와 관련된 설정값을 입력하는 입력창을 표시할 수 있다. More specifically, the robot teaching apparatus is configured to set a value higher than the estimated value related to the tool and a preset level when a driving request for the robot is applied without a separate setting in a state in which a new tool is detected, or a value input from the user If there is a difference, the message can be output. The message may include a separate button. When a user input is applied to the button, the robot teaching device may display an input window for inputting a setting value related to the additional device.

예를 들어, 도 12를 참조하면, 로봇에 부가 장치가 장착된 후 별도의 설정없이 로봇 관절 이동 요청이 인가되는 경우, 로봇 교시 장치는 부가 장치와 관련된 설정값을 입력할 것을 안내하는 메시지(400)를 출력한다. 상기 메시지(400)에 대한 터치 입력이 인가되거나, 상기 메시지(400)가 출력된 시점부터 별도의 사용자 입력 없이 기설정된 시간이 경과하는 경우, 로봇 교시 장치는 상기 부가 장치와 관련된 설정값을 입력하는 입력창(409)을 출력한다.For example, referring to FIG. 12 , when a request for movement of a robot joint is applied without a separate setting after the additional device is mounted on the robot, the robot teaching device provides a message 400 to guide input of the setting value related to the additional device. ) is output. When a touch input for the message 400 is applied or a preset time elapses without a separate user input from the time the message 400 is output, the robot teaching device inputs a setting value related to the additional device An input window 409 is output.

또한, 상기 입력창(409)을 통하여 설정값으로서 무게의 입력이 완료되면 상기 메시지는 사리지며, 로봇이 동작을 수행하게 된다.In addition, when the input of the weight as a set value through the input window 409 is completed, the message disappears and the robot performs the operation.

상기에서 설명한 툴 연결 이슈를 모니터링하는 예시는 여러가지 형태로 확장되어 활용될 수 있다. 예를 들어, 툴을 연결한 후에, 상기 로봇 교시 시스템이 상기 로봇의 동작을 모니터링하고, 로봇의 비정상 동작을 감지할 수 있다. 이러한, 비정상 동작은, 예를 들어 비정상 가속도가 될 수 있다.The example of monitoring the tool connection issue described above can be extended and utilized in various forms. For example, after connecting the tool, the robot teaching system may monitor the operation of the robot and detect an abnormal operation of the robot. Such an abnormal operation may be, for example, an abnormal acceleration.

이와 같이, 비정상 동작이 감지되면, 상기 로봇의 구동을 정지하고 상기 메시지가 상기 로봇 교시 장치의 교시 인터페이스에 출력될 수 있다. 상기 메시지는 사용자가 로봇의 동작을 의도한 것인지 문의하며, 사용자의 응답을 수신하는 인터페이스가 될 수 있다. As such, when an abnormal operation is detected, the driving of the robot may be stopped and the message may be output to the teaching interface of the robot teaching apparatus. The message inquires whether the user intended the robot to operate, and may be an interface for receiving the user's response.

상기 메시지를 통하여, 사용자의 의도한 동작이라는 응답이 입력되면 상기 로봇의 구동이 계속될 수 있다. 반면에, 상기 메시지를 통하여 사용자의 의도한 동작이 아니라는 응답이 입력되면 상기 메시지 상에는 상기 툴의 무게를 입력하는 입력창이 출력될 수 있다.If a response indicating the user's intended operation is input through the message, the robot may be continuously driven. On the other hand, when a response indicating that the user's intended operation is not inputted through the message, an input window for inputting the weight of the tool may be output on the message.

나아가, 본 예시에서 상기 툴의 무게 입력은 자동으로 수행되는 것도 가능하다. 예를 들어, 상기 로봇 교시 시스템은 툴의 연결이 감지되면, 툴의 스펙이나 종류를 입력받고, 상기 툴의 스펙이나 종류를 이용하여 상기 툴의 무게를 산출한다. 상기 로봇 교시 장치는 산출된 무게를 제안값으로 상기 메시지에 출력하여, 자동으로 무게를 입력하는 제안을 수행할 수 있다.Furthermore, in this example, it is also possible that the input of the weight of the tool is performed automatically. For example, when the connection of the tool is detected, the robot teaching system receives the specification or type of the tool, and calculates the weight of the tool using the specification or type of the tool. The robot teaching device may output the calculated weight as a suggested value to the message, and perform a suggestion for automatically inputting the weight.

한편, 도시되지 않았지만, 특정 기능 실행시 기설정된 횟수 이상 오류가 발생되는 경우, 로봇 교시 장치는 상기 특정 기능 실행 요청이 인가될 때마다 빈번하게 오류가 발생된 기능임을 안내하는 메시지를 출력한다. 이때, 상기 메시지는 사용자가 오류 해결에 사용하였던 방법을 안내하는 텍스트 또는 이미지를 포함할 수 있다. Meanwhile, although not shown, when an error occurs more than a preset number of times when a specific function is executed, the robot teaching device frequently outputs a message guiding that the function has an error whenever the specific function execution request is applied. In this case, the message may include text or an image guiding the method used by the user to resolve the error.

상술한 바와 같이, 본 발명에 따르면, 사용자의 실수가 빈번하게 발생하는 작업 단계에 도달하였을 때 이를 사용자가 인지하도록 하고, 사용자가 최소한의 작업을 통해 실수를 예방할 수 있도록 하기 때문에, 로봇 에러 횟수가 최소화 되며 사용자의 작업 시간이 단축될 수 있다.As described above, according to the present invention, the number of robot errors is reduced because it allows the user to recognize when a user's error reaches a work stage in which frequent occurrence is reached, and allows the user to prevent a mistake through a minimum amount of work. It is minimized and the user's working time can be shortened.

로봇 에러robot error

한편, 본 발명은 사용자가 로봇의 구동 및 제어 시 발생되는 에러 상황에 대한 인지와 복구를 함께 할 수 있도록 하는 유저 인터페이스를 제공한다.On the other hand, the present invention provides a user interface that allows a user to recognize and recover an error situation that occurs when driving and controlling a robot.

도 13 내지 17은 본 발명의 일 실시 예에 따라 로봇 에러 복구에 메시지를 활용하는 일 실시 예를 나타내는 개념도들이다.13 to 17 are conceptual diagrams illustrating an embodiment of using a message for robot error recovery according to an embodiment of the present invention.

본 발명에 따른 로봇 교시 장치는 로봇 에러를 복구를 하기 위해 메시지를 출력한다. 구체적으로, 로봇 교시 장치는 로봇 에러가 발생하는 시점에 메시지를 출력한다. The robot teaching device according to the present invention outputs a message to recover the robot error. Specifically, the robot teaching device outputs a message at a time when a robot error occurs.

여기서, 메시지가 출력되는 조건은 로봇 교시 장치는 로봇이 인가된 제어명령대로 구동할 수 없을 것, 로봇의 현재 자세와 컴퓨터-생성 표현의 형상이 상이할 것, 사용자 입력을 인식할 수 없을 것 중 적어도 하나를 포함할 수 있다. 이하, 상술한 조건과 관련된 실시 예들에 대하여 구체적으로 설명한다.Here, the conditions for the message to be output are that the robot teaching device cannot operate the robot according to the applied control command, the current posture of the robot and the shape of the computer-generated expression are different, and the user input cannot be recognized It may include at least one. Hereinafter, embodiments related to the above-described conditions will be described in detail.

로봇 교시 장치는 사용자로부터 입력 받은 값에 기반하여 제어 명령을 형성하고 로봇으로 전송한다. 로봇은 수신된 제어 명령에 따라 구동한다. 로봇 교시 장치는 로봇으로 제어명령을 전송하고 로봇의 구동상태를 모니터링한다. 로봇이 제어 명령대로 구동하지 않는 것을 감지하는 경우, 로봇 교시 장치는 메시지를 출력한다.The robot teaching device forms a control command based on the value input by the user and transmits it to the robot. The robot is driven according to the received control command. The robot teaching device transmits a control command to the robot and monitors the driving state of the robot. When detecting that the robot does not operate according to the control command, the robot teaching device outputs a message.

이때, 메시지는 다양한 방식으로 출력될 수 있다. 구체적으로, 메시지는 사용자가 에러를 복구할 수 있는 방법을 안내하거나, 에러 복구와 관련된 아이콘을 포함할 수 있다. In this case, the message may be output in various ways. Specifically, the message may guide the user on how to recover an error, or include an icon related to error recovery.

나아가, 상기 에러가 기존에도 발생하였던 에러인 경우, 로봇 교시 장치는 사용자가 상기 에러 복구에 사용하였던 방법을 그대로 안내할 수 있다. 이때, 메시지는 사용자가 에러 복구에 사용한 방법을 안내하는 텍스트 및 이미지 중 적어도 하나를 포함할 수 있다.Furthermore, when the error is an error that has occurred before, the robot teaching apparatus may guide the method used by the user to recover the error as it is. In this case, the message may include at least one of text and an image guiding a method used by the user for error recovery.

일 실시 예에 있어서, 도 13을 참조하면, 로봇 교시 장치는 입력창(410)을 통해 사용자로부터 로봇 구동을 위한 값을 입력 받은 후 제어명령을 생성하여 로봇으로 전송한다. 로봇이 상기 제어명령대로 구동하지 않는 것을 감지하는 경우, 로봇 교시 장치는 메시지(400)을 출력한다. 이와 함께, 로봇 교시 장치는 디스플레이부의 일부 영역(411)을 강조표시하여 사용자가 로봇 에러가 발생하였음을 쉽게 알 수 있도록 한다.In one embodiment, referring to FIG. 13 , the robot teaching apparatus receives a value for driving the robot from the user through the input window 410 , and then generates a control command and transmits it to the robot. When detecting that the robot does not operate according to the control command, the robot teaching device outputs a message 400 . In addition, the robot teaching apparatus highlights the partial area 411 of the display unit so that the user can easily recognize that a robot error has occurred.

다른 일 실시 예에 있어서, 도 14를 참조하면, 로봇 교시 장치는 로봇 에러가 발생하는 경우 복구 버튼(413)을 포함하는 메시지(400)를 출력할 수 있다. 로봇 교시 장치는 상기 복구 버튼(413)에 사용자 입력이 인가될 경우, 로봇 에러를 복구한다. 이를 통해, 본 발명은 로봇 에러가 발생하였을 때 사용자가 별도의 조치를 취하지 않고도 로봇 에러를 복구할 수 있도록 한다.In another embodiment, referring to FIG. 14 , the robot teaching apparatus may output a message 400 including a recovery button 413 when a robot error occurs. The robot teaching device recovers a robot error when a user input is applied to the recovery button 413 . Through this, the present invention enables the robot error to be restored without the user taking a separate action when a robot error occurs.

이와 달리, 본 발명은 로봇 에러가 발생한 경우, 에러가 발생된 위치를 명확하게 안내하고 사용자가 에러 복구 방식을 선택할 수 있도록 한다. 구체적으로, 로봇 교시 장치는 로봇 에러가 발생한 경우 컴퓨터-생성 표현의 전체 영역 중 에러가 발생된 위치에 대응하는 영역을 강조 표시한다. 에러가 발생된 위치가 복수인 경우 컴퓨터-생성 표현의 복수의 영역이 강조표시될 수 있다. 이후, 로봇 교시 장치는 강조 표시된 영역에 사용자 입력이 인가될 경우, 강조 표시된 영역에 대응하는 위치의 에러를 복구한다. On the contrary, in the case of a robot error, the present invention clearly guides the location of the error and allows the user to select an error recovery method. Specifically, when a robot error occurs, the robot teaching device highlights the area corresponding to the location where the error occurred among the entire area of the computer-generated representation. Multiple regions of the computer-generated representation may be highlighted if there are multiple locations where the error occurred. Thereafter, when a user input is applied to the highlighted area, the robot teaching apparatus recovers an error in a position corresponding to the highlighted area.

일 실시 예에 있어서, 도 15를 참조하면, 로봇 교시 장치는 로봇의 복수의 위치에서 에러가 발생된 경우, 컴퓨터-생성 표현(112’)의 복수의 영역을 강조 표시(414)한다. 이와 함께, 로봇 교시 장치는 에러가 발생되었음을 안내하고, 복구할 위치를 선택할 것을 안내하는 메시지(400)을 출력한다. In one embodiment, referring to FIG. 15 , the robot teaching apparatus highlights 414 a plurality of regions of the computer-generated representation 112 ′ when an error occurs in a plurality of positions of the robot. At the same time, the robot teaching apparatus outputs a message 400 to guide that an error has occurred and to select a location to be restored.

구체적으로, 로봇이 더 이상 움직일 수 없는 싱귤러리티 에러가 발생된 경우, 로봇 교시 장치는 구동이 불가능한 관절에 대응하는 컴퓨터-생성 표현(112’)의 일 영역을 강조 표시한다. 이후, 강조 표시된 일 영역에 사용자 입력이 인가되면, 로봇 교시 장치는 상기 일 영역에 대응하는 관절을 풀어 싱귤러리티 에러를 복구한다. 사용자가 선택한 영역에 대응하는 관절을 푸는 것 만으로 에러가 복구되지 않는 경우, 로봇 교시 장치는 연관 메시지(415)를 출력하여 사용자가 추가적인 관절을 선택할 수 있도록 유도한다. 이때, 로봇 교시 장치는 복구된 관절에 대응하는 컴퓨터-생성 표현(112’)의 일 영역의 색을 변경하여 일부분의 복구가 완료되었음을 안내한다.Specifically, when a singularity error occurs in which the robot is no longer able to move, the robot teaching device highlights an area of the computer-generated representation 112 ′ corresponding to a joint that cannot be driven. Thereafter, when a user input is applied to one highlighted region, the robot teaching apparatus recovers the singularity error by unraveling a joint corresponding to the one region. If the error is not recovered only by unraveling the joint corresponding to the area selected by the user, the robot teaching device outputs a related message 415 to induce the user to select an additional joint. At this time, the robot teaching device changes the color of a region of the computer-generated representation 112 ′ corresponding to the restored joint to inform that the restoration of the part has been completed.

한편, 본 발명은 로봇 구동 시 로봇의 일부분이 로봇의 다른 부위에 충돌하거나, 주변 물체에 충돌하는 것을 방지한다. 구체적으로, 로봇 교시 장치는 사용자로부터 로봇 구동 및 제어에 필요한 정보를 입력 받은 후 로봇의 동작을 시뮬레이션 한다. 시뮬레이션 결과, 로봇의 충돌이 예상되는 경우, 로봇 교시 장치는 로봇 교시 장치의 실행화면에 충돌과 관련된 메시지를 출력한다. 충돌과 관련된 메시지는 충돌과 관련된 다양한 정보를 포함할 수 있다. 예를 들어, 충돌과 관련된 메시지는 충돌이 예상되는 로봇의 관절 정보, 충돌이 예상되는 3차원 좌표 정보, 충돌이 예상되는 방향, 충돌이 예상되는 시간 정보 중 적어도 하나를 포함할 수 있다.On the other hand, the present invention prevents a part of the robot from colliding with other parts of the robot or from colliding with a surrounding object when the robot is driven. Specifically, the robot teaching device simulates the operation of the robot after receiving information necessary for driving and controlling the robot from the user. As a result of the simulation, when the collision of the robot is expected, the robot teaching device outputs a message related to the collision on the execution screen of the robot teaching device. The message related to the collision may include various information related to the collision. For example, the message related to a collision may include at least one of joint information of a robot in which a collision is expected, 3D coordinate information in which a collision is expected, a direction in which a collision is expected, and time information in which a collision is expected.

이 경우, 상기 메시지는 전술한 예시와 마찬가지로 핑퐁 메시지 형태로 출력될 수 있다.In this case, the message may be output in the form of a ping-pong message similar to the above-described example.

한편, 로봇의 충돌이 예상되는 경우, 컴퓨터 생성 표현에 포함된 로봇에 포함된 관절에 대응되는 이미지에 충돌을 안내하는 아이콘이 표시될 수 있다. 복수의 부위에 충격이 예상되는 경우, 복수의 위치에 아이콘이 표시될 수 있다. Meanwhile, when a collision of the robot is expected, an icon for guiding the collision may be displayed on an image corresponding to a joint included in the robot included in the computer-generated expression. When an impact to a plurality of parts is expected, icons may be displayed in a plurality of positions.

본 발명에 따른 로봇 교시 장치는 출력되는 메시지에 대한 사용자 입력을 통해 상술한 충돌 에러를 해소할 수 있도록 할 수 있다. 구체적으로, 상기 메시지에는 충돌이 발생된 부위 별로 복구 아이콘이 표시될 수 있다. 상기 복구 아이콘은 컴퓨터 생성 표현 중 충돌이 발생된 부위에 오버랩되어 표시될 수 있다. 충돌이 발생된 부위가 복수 개인 경우, 복수의 부위에 복구 아이콘이 표시될 수 있다.The robot teaching apparatus according to the present invention may be capable of resolving the above-described collision error through a user input to an output message. Specifically, in the message, a recovery icon may be displayed for each part in which a collision has occurred. The recovery icon may be displayed overlapping a portion where a collision occurred during the computer-generated expression. When there are a plurality of parts where the collision has occurred, a recovery icon may be displayed on the plurality of parts.

상기 복구 아이콘 중 어느 하나에 사용자 입력이 인가되는 경우, 로봇 교시 장치는 해당 부위의 충돌을 회피할 수 있는 설정값을 산출하고, 상기 산출된 값으로 로봇의 구동을 시뮬레이션 한다. 로봇 교시 장치는 상기 시뮬레이션 결과 상기 부위의 충돌이 해소될 때까지 해당 부위의 충돌을 회피할 수 있는 설정값을 재산출한다. 이를 통해, 본 발명은 사용자가 별도의 설정값을 입력할 필요 없이 충돌 에러를 해소할 수 있도록 한다.When a user input is applied to any one of the recovery icons, the robot teaching device calculates a setting value for avoiding collision of the corresponding part, and simulates the operation of the robot with the calculated value. The robot teaching device recalculates a set value capable of avoiding the collision of the corresponding part until the collision of the corresponding part is resolved as a result of the simulation. Through this, the present invention enables the user to resolve a collision error without the need to input a separate setting value.

이와 달리, 로봇 교시 장치는 충돌이 발생된 부위에 대응하는 설정값을 재입력 받아 충돌 에러가 해소될 수 있도록 한다. 구체적으로, 메시지에는 충돌 에러가 발생된 부위에 대응하는 입력 영역이 표시된다. 로봇 교시 장치는 상기 입력 영역을 통해 사용자로부터 설정값을 입력 받고, 입력 받은 설정값으로 로봇의 구동을 시뮬레이션 한다. 로봇 교시 장치는 상기 시뮬레이션 결과 상기 부위의 충돌이 해소될 때까지 해당 부위의 충돌을 회피할 수 있는 설정값을 재입력 받는다.On the other hand, the robot teaching apparatus receives a set value corresponding to the part where the collision has occurred again so that the collision error can be resolved. Specifically, in the message, an input area corresponding to a region in which a collision error occurs is displayed. The robot teaching device receives a set value input from the user through the input area, and simulates the operation of the robot with the input set value. The robot teaching device receives a set value for avoiding the collision of the corresponding part again until the collision of the corresponding part is resolved as a result of the simulation.

한편, 본 발명은 로봇의 특정 부위에 대한 충돌 민감도 재설정을 통해 충돌 에러가 해소될 수 있도록 한다. 구체적으로, 메시지에는 로봇의 각 부위에 대한 충돌 민감도가 표시될 수 있다. 상기 메시지에 대한 사용자 입력에 응답하여, 로봇 교시 장치는 특정 부위에 대한 충돌 민감도 값을 수정할 수 있다. 구체적으로, 사용자는 특정 부위에 대한 충돌 민감도 값을 낮춰 충돌 에러가 해소될 수 있도록 한다. 이때 충돌 에러는, 실제 로봇이 구동됨에 따라 발생된 에러일 수 있다.On the other hand, the present invention enables the collision error to be resolved by resetting the collision sensitivity for a specific part of the robot. Specifically, the message may indicate the collision sensitivity for each part of the robot. In response to a user input to the message, the robot teaching device may modify a collision sensitivity value for a specific part. Specifically, the user lowers the collision sensitivity value for a specific part so that the collision error can be resolved. In this case, the collision error may be an error generated as the robot is actually driven.

충돌 민감도 값이 낮게 설정됨에 따라, 특정 부위에 대한 충돌 에러가 해소되는 경우, 로봇 교시 장치는 충돌 에러가 해소되었음을 안내하는 메시지와 함께, 충돌 민감도 변경 히스토리를 포함하는 연관 메시지 표시할 수 있다. 상기 연관 메시지는 변경 전 충돌 민감도로 복구할 수 있는 아이콘을 포함할 수 있다. 상술한 바와 같이, 본 발명은 핑퐁 메시지를 통해 로봇의 특정 부위에 대한 충돌 민감도를 재설정할 수 있도록 함으로써, 불필요한 충돌 감지를 줄일 수 있게 된다.As the collision sensitivity value is set low, when the collision error for a specific part is resolved, the robot teaching apparatus may display a message guiding that the collision error is resolved and a related message including the collision sensitivity change history. The related message may include an icon that can be restored to the collision sensitivity before the change. As described above, the present invention can reduce unnecessary collision detection by resetting the collision sensitivity for a specific part of the robot through the ping-pong message.

일 실시 예에 있어서, 도 16을 참조하면, 로봇 교시 장치는 사용자로부터 입력받은 정보를 이용하여 로봇의 구동 및 시뮬레이션하고, 시뮬레이션 결과 특정 부위에 충돌이 감지되는 경우, 메시지(400)를 출력한다. 이때, 메시지(400)에 출력되는 정보는, 실제 로봇의 구동에 따른 충돌 정보를 포함할 수 있다.In one embodiment, referring to FIG. 16 , the robot teaching apparatus drives and simulates the robot using information input from the user, and outputs a message 400 when a collision is detected in a specific part as a result of the simulation. In this case, the information output to the message 400 may include collision information according to the driving of the actual robot.

상기 메시지(400)는 로봇에 대한 시뮬레이션 영상(112)을 포함한다. 이렇나 시뮬레이션 영상(112)은 실제 로봇의 구동에 따른 정보일 수 있다. 상기 시뮬레이션 영상(112) 중 로봇의 관절 각각에 해당하는 영역에는 각 관절의 충돌 민감도 값(416)이 출력될 수 있다. 한편, 충돌이 예상 또는 충돌이 발생된 영역에는 충돌 민감도 값(416)과 함께 별도의 아이콘(416’)이 오버랩되어 표시될 수 있다. The message 400 includes a simulation image 112 of the robot. As such, the simulation image 112 may be information according to the driving of the actual robot. A collision sensitivity value 416 of each joint may be output to a region corresponding to each joint of the robot in the simulation image 112 . On the other hand, a separate icon 416 ′ may be overlapped and displayed together with the collision sensitivity value 416 in an area where a collision is expected or a collision has occurred.

또한, 상기 메시지(400)에는 충돌이 발생된 관절에 대응하는 입력 영역(417)이 표시되며, 충돌 해소를 위한 추천 설정값이 함께 표시될 수 있다. 제1관절에 대응하는 입력 영역(417)에 터치 입력이 인가되면, 로봇 교시 장치는 제1관절에 대응하는 설정값을 변경하고, 로봇의 동작을 시뮬레이션 한다. 시뮬레이션 결과 제1관절에서의 충돌이 감지되지 않는 경우, 제1관절에 대응하는 충돌 아이콘(416’)이 사라진다(418).In addition, an input area 417 corresponding to a joint in which a collision has occurred is displayed in the message 400 , and a recommended setting value for resolving the collision may be displayed together. When a touch input is applied to the input area 417 corresponding to the first joint, the robot teaching device changes the setting value corresponding to the first joint and simulates the operation of the robot. As a result of the simulation, when the collision at the first joint is not detected, the collision icon 416 ′ corresponding to the first joint disappears ( 418 ).

한편, 도 17을 참조하면, 제6관절에서 충돌이 발생하였음을 안내하는 아이콘(416’)에 터치가 인가되면, 로봇 교시 장치는 별도의 숫자 입력창을 표시할 수 있다. 상기 숫자 입력창을 통해 로봇 교시 장치는 사용자로부터 제6관절에 대한 충돌 민감도 값을 입력 받을 수 있다. 사용자로부터 입력 받은 충돌 민감도를 이용하여, 로봇의 동작을 시뮬레이션한 결과 충돌이 감지되지 않는 경우, 제6관절에 대응하는 충돌 아이콘(416’)이 사라진다(419). 또한, 시뮬레이션 영상 중 제6관절에 대응하는 영역에 변경된 충돌 민감도 값이 표시된다.Meanwhile, referring to FIG. 17 , when a touch is applied to the icon 416 ′ indicating that a collision has occurred in the sixth joint, the robot teaching device may display a separate number input window. Through the numerical input window, the robot teaching device may receive a collision sensitivity value for the sixth joint from the user. When a collision is not detected as a result of simulating the motion of the robot using the collision sensitivity input from the user, the collision icon 416 ′ corresponding to the sixth joint disappears ( 419 ). In addition, the changed collision sensitivity value is displayed in the region corresponding to the sixth joint in the simulation image.

상기에서는, 핑퐁 메시지를 이용하여 충돌 방지를 위한 제어 이득 튜닝을 간소화하는 방법에 대하여 설명하였으며, 이를 통하여 사용자가 세팅을 어려워하는 요소에 대한 가이드 수행이 보다 직관적으로 구현될 수 있다.In the above, a method of simplifying control gain tuning for collision avoidance using a ping-pong message has been described, and through this, guide performance for an element that is difficult for a user to set can be implemented more intuitively.

한편, 본 발명의 핑퐁 메시지는 또 다른 형태의 로봇 교시나 제어에 활용될 수 있다. 또한, 핑퐁 메시지를 통하여 교시와 관련되어 사용자가 인지하기 어려운 모니터링 이슈가 해결될 수 있다. 예를 들어, 로봇 교시 장치는 로봇의 초기 자세 세팅이 변경되는 경우, 사용자가 이를 복구할 수 있도록 한다.Meanwhile, the ping-pong message of the present invention may be utilized for teaching or controlling another type of robot. In addition, a monitoring issue that is difficult for a user to recognize in relation to teaching through the ping-pong message may be resolved. For example, the robot teaching device allows the user to restore the robot's initial posture setting when it is changed.

구체적으로, 로봇의 초기 자세는 기준값으로서 로봇 공장 출고 시 설정되는 값이다. 로봇 사용 중에는 로봇의 초기 자세에 오류가 발생하여, 상기 기준값에서의 로봇 자세가 초기 자세와 차이가 발생할 수 있다.Specifically, the initial posture of the robot is a reference value, which is a value set when the robot is shipped from the factory. An error may occur in the initial posture of the robot while the robot is in use, and the robot posture in the reference value may be different from the initial posture.

본 발명의 로봇 교시 장치는 상기 초기 자세 세팅 값이 로봇 사용 중 변경 되는 경우, 메시지를 출력할 수 있다. 이러한 메시지의 출력을 위하여 로봇의 초기 자세에 대한 오류가 모니터링될 수 있다.The robot teaching apparatus of the present invention may output a message when the initial posture setting value is changed while the robot is in use. In order to output such a message, an error in the initial posture of the robot may be monitored.

이 경우에, 상기 메시지는 초기 자세 세팅 값을 입력할 수 있는 입력 영역을 포함할 수 있다. 사용자는 상기 입력 영역에 초기 자세 세팅값을 입력하여 로봇 초기 자세를 재설정할 수 있다. 나아가, 상기 메시지에는 로봇 공장 출고 시 설정된 값이 표시될 수 있다. 사용자는 상기 초기 설정값을 참조하여 로봇 초기 자세를 재설정할 수 있다.In this case, the message may include an input area for inputting an initial posture setting value. The user may reset the initial robot posture by inputting an initial posture setting value in the input area. Furthermore, in the message, a value set at the time of factory shipment of the robot may be displayed. The user may reset the initial robot posture with reference to the initial setting value.

상술한 바와 같이, 본 발명에 따르면, 로봇 동작 및 제어 중 발생되는 에러 상황 및 에러 복구를 위한 인터페이스가 하나의 메시지에서 제공되기 때문에, 사용자는 에러를 인지하는 즉시 에러 복구를 위한 행동을 수행할 수 있게 된다.As described above, according to the present invention, since the interface for error condition and error recovery generated during robot operation and control is provided in one message, the user can immediately perform the action for error recovery upon recognizing the error. there will be

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. As mentioned above, although embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains know that the present invention may be embodied in other specific forms without changing the technical spirit or essential features thereof. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

Claims (12)

로봇을 교시하는 로봇 교시 방법에 있어서,
상기 로봇의 동작을 교시하도록, 로봇 교시 장치에서 교시 인터페이스를 출력하는 단계;
상기 로봇과 로봇 교시 장치의 통신 정보, 상기 로봇의 구동 상태와 부가 장치의 장착 여부를 포함하는 상기 로봇의 상태 정보 및 상기 로봇 교시 장치에 대한 사용자로부터 입력 받은 값을 포함하는 상기 로봇 교시 장치의 상태 정보 중 적어도 하나를 모니터링하는 단계; 및
상기 모니터링 결과가 기 설정된 조건을 만족하는 경우, 상기 교시 인터페이스에 상기 모니터링 결과와 관련된 메시지를 출력하는 단계를 포함하고,
상기 메시지는,
상기 모니터링 결과를 근거로 상기 로봇 교시 장치에 대한 정보 입력 또는 상기 사용자의 특정 행동을 유도하는 텍스트 및 이미지 중 적어도 하나를 포함하고,
상기 기 설정된 조건은 상기 부가 장치가 상기 로봇에 장착된 것이 감지되는 것이고,
상기 메시지는 상기 사용자가 상기 로봇을 특정한 움직임으로 움직이도록 안내하는 텍스트 및 이미지 중 적어도 하나를 포함하며,
상기 로봇을 특정한 움직임으로 움직이도록 안내하는 상기 메시지가 출력된 상태에서 상기 로봇에 포함된 센서에서 센싱된 값을 모니터링하고,
상기 로봇 교시 장치가 상기 센싱된 값에 기반하여, 상기 부가 장치와 관련된 설정을 수행하며,
상기 로봇 교시 장치는, 상기 로봇 교시 장치를 통해 상기 사용자로부터 입력 받은 값에 기반하여 상기 로봇의 구동을 위한 제어 명령을 형성하고,
상기 로봇은,
상기 로봇 교시 장치로부터 수신된 상기 제어 명령에 따라 구동되며,
상기 메시지를 출력하는 단계에서는,
상기 제어 명령을 수신한 상기 로봇의 구동 상태를 모니터링 하여, 상기 로봇이 상기 제어 명령 대로 구동하지 않는 에러를 감지하는 경우, 상기 에러와 관련된 메시지를 출력하고,
상기 에러와 관련된 메시지는,
상기 에러가, 상기 에러가 발생하기 전에도 발생된 적이 있었던 에러인 경우, 상기 사용자가 상기 에러를 복구하기 위해 사용하였던 방법을 안내하는 텍스트 및 이미지 중 적어도 하나를 포함하는 것을 특징으로 하는 로봇 교시 방법.
A method of teaching a robot for teaching a robot, the method comprising:
outputting a teaching interface from the robot teaching device to teach the operation of the robot;
Communication information between the robot and the robot teaching device, status information of the robot including the driving state of the robot and whether an additional device is installed, and the state of the robot teaching device including a value input by a user for the robot teaching device monitoring at least one of the information; and
When the monitoring result satisfies a preset condition, outputting a message related to the monitoring result to the teaching interface,
The message is
Based on the monitoring result, it includes at least one of a text and an image for inducing information input to the robot teaching device or a specific action of the user,
The preset condition is that it is detected that the attachment device is mounted on the robot,
The message includes at least one of a text and an image guiding the user to move the robot in a specific motion,
Monitoring the value sensed by the sensor included in the robot in a state in which the message guiding the robot to move in a specific motion is output,
The robot teaching device performs settings related to the additional device based on the sensed value,
The robot teaching device forms a control command for driving the robot based on a value input from the user through the robot teaching device,
The robot is
driven according to the control command received from the robot teaching device,
In the step of outputting the message,
monitoring the driving state of the robot that has received the control command, and when detecting an error that the robot does not operate according to the control command, outputs a message related to the error,
The message related to the error is:
When the error is an error that has occurred even before the error occurred, the method of teaching a robot comprising at least one of a text and an image guiding a method used by the user to recover the error.
제1항에 있어서,
상기 메시지를 출력하는 단계에서,
상기 메시지의 내용은 상기 정보 입력에 따라 변화하는 것을 특징으로 하는 로봇 교시 방법.
According to claim 1,
In the step of outputting the message,
The robot teaching method, characterized in that the content of the message changes according to the input of the information.
제2항에 있어서,
상기 메시지는 상기 교시 인터페이스의 실행화면에 오버랩하여 출력되며,
상기 메시지의 내용이 변화하는 동안에 상기 교시 인터페이스의 실행화면은 유지되는 것을 특징으로 하는 로봇 교시 방법.
3. The method of claim 2,
The message is output to overlap the execution screen of the teaching interface,
The method for teaching a robot, characterized in that while the content of the message is changed, the execution screen of the teaching interface is maintained.
제1항에 있어서,
상기 기 설정된 조건은 상기 로봇의 동작 및 제어 중 적어도 하나에 오류가 발생하였거나, 오류가 발생될 것으로 예상되는 것임을 특징으로 하는 로봇 교시 방법.
According to claim 1,
The preset condition is a robot teaching method, characterized in that an error has occurred or an error is expected to occur in at least one of the operation and control of the robot.
제1항에 있어서,
상기 기 설정된 조건은 상기 로봇의 동작 및 제어 중 적어도 하나에 활용될 정보 입력이 필요한 상태임을 특징으로 하는 로봇 교시 방법.
According to claim 1,
The preset condition is a robot teaching method, characterized in that the input of information to be used for at least one of the operation and control of the robot is required.
제1항에 있어서,
상기 로봇 교시 장치의 교시 인터페이스에 상기 로봇의 동작 정보를 포함하는 시뮬레이션 영역 및 상기 로봇의 제어와 관련된 입력을 수신하는 제어 영역을 표시하는 단계를 더 포함하고,
상기 메시지는,
상기 시뮬레이션 영역 및 상기 제어 영역 중 상기 기 설정된 조건과 관련된 영역과 연관되도록 표시되는 것을 특징으로 하는 로봇 교시 방법.
According to claim 1,
Displaying a simulation area including motion information of the robot and a control area for receiving an input related to control of the robot on a teaching interface of the robot teaching device further comprising:
The message is
The method for teaching a robot, characterized in that it is displayed in association with an area related to the preset condition among the simulation area and the control area.
제6항에 있어서,
상기 메시지는,
상기 기 설정된 조건과 관련된 상기 로봇의 동작, 제어 및 설정 중 적어도 하나에 활용될 정보를 수신하는 입력 영역을 포함하는 것을 특징으로 하는 로봇 교시 방법.
7. The method of claim 6,
The message is
Robot teaching method comprising an input area for receiving information to be utilized for at least one of operation, control, and setting of the robot related to the preset condition.
제7항에 있어서,
상기 로봇 교시 장치가 상기 입력 영역을 통해 사용자로부터 정보를 입력 받는 단계;
상기 로봇 교시 장치가 상기 입력 영역을 통해 입력 받은 정보를 활용하여 상기 로봇의 상태 및 상기 로봇 교시 장치의 상태 중 적어도 하나를 모니터링하는 단계; 및
상기 메시지가 출력된 후 수행된 모니터링 결과에 기반하여, 연관 메시지를 출력하는 단계를 더 포함하는 로봇 교시 방법.
8. The method of claim 7,
receiving, by the robot teaching device, information from a user through the input area;
monitoring, by the robot teaching device, at least one of a status of the robot and a status of the robot teaching device using information received through the input area; and
Based on the monitoring result performed after the message is output, the robot teaching method further comprising the step of outputting a related message.
삭제delete 삭제delete 로봇을 교시하는 로봇 교시 장치에 있어서,
교시 인터페이스를 출력하는 디스플레이부;
로봇과 데이터를 송수신하도록 이루어지는 통신부; 및
상기 로봇과 로봇 교시 장치의 통신 정보, 상기 로봇의 구동 상태와 부가 장치의 장착 여부를 포함하는 상기 로봇의 상태 정보 및 상기 로봇 교시 장치에 대한 사용자 입력 값을 포함하는 상기 로봇 교시 장치의 상태 정보 중 적어도 하나를 모니터링하고,
상기 모니터링 결과가 기 설정된 조건을 만족하는 경우, 상기 교시 인터페이스에 상기 모니터링 결과와 관련된 메시지가 출력되도록 상기 디스플레이부를 제어하는 제어부를 포함하고,
상기 메시지는,
상기 모니터링 결과를 근거로 상기 로봇 교시 장치에 대한 정보 입력 또는 상기 사용자의 특정 행동을 유도하는 텍스트 및 이미지 중 적어도 하나를 포함하고,
상기 기 설정된 조건은 상기 부가 장치가 상기 로봇에 장착된 것이 감지되는 것이고,
상기 메시지는 상기 사용자가 상기 로봇을 특정한 움직임으로 움직이도록 안내하는 텍스트 및 이미지 중 적어도 하나를 포함하며,
상기 제어부는,
상기 로봇을 특정한 움직임으로 움직이도록 안내하는 메시지가 출력된 상태에서 상기 로봇에 포함된 센서에서 센싱된 값을 모니터링하고, 상기 센싱된 값에 기반하여, 상기 부가 장치와 관련된 설정을 수행하며,
상기 로봇 교시 장치를 통해 상기 사용자로부터 입력 받은 값에 기반하여 상기 로봇의 구동을 위한 제어 명령을 형성하고,
상기 로봇은, 상기 로봇 교시 장치로부터 수신된 상기 제어 명령에 따라 구동되며,
상기 제어부는,
상기 제어 명령을 수신한 상기 로봇의 구동 상태를 모니터링 하여, 상기 로봇이 상기 제어 명령 대로 구동하지 않는 에러를 감지하는 경우, 상기 에러와 관련된 메시지를 출력하고,
상기 에러와 관련된 메시지는,
상기 에러가, 상기 에러가 발생하기 전에도 발생된 적이 있었던 에러인 경우, 상기 사용자가 상기 에러를 복구하기 위해 사용하였던 방법을 안내하는 텍스트 및 이미지 중 적어도 하나를 포함하는 것을 특징으로 하는 로봇 교시 장치.
A robot teaching apparatus for teaching a robot, comprising:
a display unit for outputting a teaching interface;
a communication unit configured to transmit and receive data to and from the robot; and
Among the communication information between the robot and the robot teaching device, the status information of the robot including the driving state of the robot and whether an additional device is installed, and the status information of the robot teaching device including a user input value for the robot teaching device monitor at least one;
a control unit controlling the display unit to output a message related to the monitoring result to the teaching interface when the monitoring result satisfies a preset condition;
The message is
Based on the monitoring result, it includes at least one of a text and an image for inducing information input to the robot teaching device or a specific action of the user,
The preset condition is that it is detected that the attachment device is mounted on the robot,
The message includes at least one of a text and an image guiding the user to move the robot in a specific motion,
The control unit is
In a state in which a message guiding the robot to move in a specific movement is output, a value sensed by a sensor included in the robot is monitored, and based on the sensed value, settings related to the additional device are performed,
Forming a control command for driving the robot based on the value input from the user through the robot teaching device,
The robot is driven according to the control command received from the robot teaching device,
The control unit is
monitoring the driving state of the robot that has received the control command, and when detecting an error that the robot does not operate according to the control command, outputs a message related to the error,
The message related to the error is:
When the error is an error that has occurred even before the error occurs, the robot teaching apparatus comprises at least one of a text and an image guiding a method used by the user to recover the error.
로봇; 및
상기 로봇의 동작을 교시하는 로봇 교시 장치를 포함하고,
상기 로봇 및 로봇 교시 장치는 상기 로봇을 교시하는 로봇 교시 방법을 수행하며,
상기 로봇 교시 방법은,
상기 로봇의 동작을 교시하도록, 로봇 교시 장치에서 교시 인터페이스를 출력하는 단계;
상기 로봇과 로봇 교시 장치의 통신 정보, 상기 로봇의 구동 상태와 부가 장치의 장착 여부를 포함하는 상기 로봇의 상태 정보 및 상기 로봇 교시 장치에 대한 사용자로부터 입력 받은 값을 포함하는 상기 로봇 교시 장치의 상태 정보 중 적어도 하나를 모니터링하는 단계; 및
상기 모니터링 결과가 기 설정된 조건을 만족하는 경우, 상기 교시 인터페이스에 상기 모니터링 결과와 관련된 메시지를 출력하는 단계를 포함하고,
상기 메시지는,
상기 모니터링 결과를 근거로 상기 로봇 교시 장치에 대한 정보 입력 또는 상기 사용자의 특정 행동을 유도하는 텍스트 및 이미지 중 적어도 하나를 포함하고,
상기 기 설정된 조건은 상기 부가 장치가 상기 로봇에 장착된 것이 감지되는 것이고,
상기 메시지는 상기 사용자가 상기 로봇을 특정한 움직임으로 움직이도록 안내하는 텍스트 및 이미지 중 적어도 하나를 포함하며,
상기 로봇을 특정한 움직임으로 움직이도록 안내하는 상기 메시지가 출력된 상태에서 상기 로봇에 포함된 센서에서 센싱된 값을 모니터링하고,
상기 로봇 교시 장치가 상기 센싱된 값에 기반하여, 상기 부가 장치와 관련된 설정을 수행하며,
상기 로봇 교시 장치는, 상기 로봇 교시 장치를 통해 상기 사용자로부터 입력 받은 값에 기반하여 상기 로봇의 구동을 위한 제어 명령을 형성하고,
상기 로봇은,
상기 로봇 교시 장치로부터 수신된 상기 제어 명령에 따라 구동되며,
상기 메시지를 출력하는 단계에서는,
상기 제어 명령을 수신한 상기 로봇의 구동 상태를 모니터링 하여, 상기 로봇이 상기 제어 명령 대로 구동하지 않는 에러를 감지하는 경우, 상기 에러와 관련된 메시지를 출력하고,
상기 에러와 관련된 메시지는,
상기 에러가, 상기 에러가 발생하기 전에도 발생된 적이 있었던 에러인 경우, 상기 사용자가 상기 에러를 복구하기 위해 사용하였던 방법을 안내하는 텍스트 및 이미지 중 적어도 하나를 포함하는 것을 특징으로 하는 로봇 교시 시스템.
robot; and
A robot teaching device for teaching the operation of the robot,
The robot and the robot teaching device perform a robot teaching method of teaching the robot,
The robot teaching method,
outputting a teaching interface from the robot teaching device to teach the operation of the robot;
Communication information between the robot and the robot teaching device, status information of the robot including the driving state of the robot and whether an additional device is installed, and the state of the robot teaching device including a value input by a user for the robot teaching device monitoring at least one of the information; and
When the monitoring result satisfies a preset condition, outputting a message related to the monitoring result to the teaching interface,
The message is
Based on the monitoring result, it includes at least one of a text and an image for inducing information input to the robot teaching device or a specific action of the user,
The preset condition is that it is detected that the attachment device is mounted on the robot,
The message includes at least one of a text and an image guiding the user to move the robot in a specific motion,
Monitoring the value sensed by the sensor included in the robot in a state in which the message guiding the robot to move in a specific motion is output,
The robot teaching device performs settings related to the additional device based on the sensed value,
The robot teaching device forms a control command for driving the robot based on a value input from the user through the robot teaching device,
The robot is
driven according to the control command received from the robot teaching device,
In the step of outputting the message,
monitoring the driving state of the robot that has received the control command, and when detecting an error that the robot does not operate according to the control command, outputs a message related to the error,
The message related to the error is:
and when the error is an error that has occurred before the error occurred, at least one of a text and an image guiding a method used by the user to recover from the error.
KR1020210078341A 2021-06-16 2021-06-16 Robot teaching apparatus and method for teaching robot using the same KR102403568B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020210078341A KR102403568B1 (en) 2021-06-16 2021-06-16 Robot teaching apparatus and method for teaching robot using the same
KR1020220063536A KR102567361B1 (en) 2021-06-16 2022-05-24 Robot teaching apparatus and method for teaching robot using the same
CN202210682428.3A CN115476365A (en) 2021-06-16 2022-06-16 Robot teaching device and robot teaching method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210078341A KR102403568B1 (en) 2021-06-16 2021-06-16 Robot teaching apparatus and method for teaching robot using the same

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220063536A Division KR102567361B1 (en) 2021-06-16 2022-05-24 Robot teaching apparatus and method for teaching robot using the same

Publications (1)

Publication Number Publication Date
KR102403568B1 true KR102403568B1 (en) 2022-06-10

Family

ID=81986319

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210078341A KR102403568B1 (en) 2021-06-16 2021-06-16 Robot teaching apparatus and method for teaching robot using the same
KR1020220063536A KR102567361B1 (en) 2021-06-16 2022-05-24 Robot teaching apparatus and method for teaching robot using the same

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220063536A KR102567361B1 (en) 2021-06-16 2022-05-24 Robot teaching apparatus and method for teaching robot using the same

Country Status (2)

Country Link
KR (2) KR102403568B1 (en)
CN (1) CN115476365A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06134684A (en) * 1992-09-22 1994-05-17 Nippon Telegr & Teleph Corp <Ntt> Teaching method of robot track
JP2019126895A (en) * 2018-01-26 2019-08-01 セイコーエプソン株式会社 Robot control device and robot system
JP2019152971A (en) * 2018-03-01 2019-09-12 オムロン株式会社 Simulation device, simulation method and simulation program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6134684A (en) * 1984-07-27 1986-02-18 Matsushita Electric Ind Co Ltd Binary information counting device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06134684A (en) * 1992-09-22 1994-05-17 Nippon Telegr & Teleph Corp <Ntt> Teaching method of robot track
JP2019126895A (en) * 2018-01-26 2019-08-01 セイコーエプソン株式会社 Robot control device and robot system
JP2019152971A (en) * 2018-03-01 2019-09-12 オムロン株式会社 Simulation device, simulation method and simulation program

Also Published As

Publication number Publication date
KR20220168552A (en) 2022-12-23
KR102567361B1 (en) 2023-08-16
CN115476365A (en) 2022-12-16

Similar Documents

Publication Publication Date Title
US11220002B2 (en) Robot simulation device
JP7419271B2 (en) Visualizing and modifying operational boundary zones using augmented reality
US9387589B2 (en) Visual debugging of robotic tasks
US10166673B2 (en) Portable apparatus for controlling robot and method thereof
JP4680516B2 (en) Method for fading in robot information to real-world images, and apparatus for visualizing robot information into real-world images
US10737396B2 (en) Method and apparatus for robot path teaching
JP6886869B2 (en) Motion prediction system and motion prediction method
US9958862B2 (en) Intuitive motion coordinate system for controlling an industrial robot
JP3708083B2 (en) Robot teaching device
Fang et al. Novel AR-based interface for human-robot interaction and visualization
KR101876845B1 (en) Robot control apparatus
EP3595850A1 (en) Mixed reality assisted spatial programming of robotic systems
EP2055446A1 (en) A portable robot control apparatus and a method for controlling a movement of a robot
WO2011039542A1 (en) Method and system of programming a robot
JP2013136123A (en) Assisting device and assisting method for teaching operation for robot
Andersen et al. Intuitive task programming of stud welding robots for ship construction
WO2019046559A1 (en) Using augmented reality for controlling intelligent devices
CN116802021A (en) Object-based robot control
JP2021062436A (en) Teaching method
KR102403021B1 (en) Robot teaching apparatus and method for teaching robot using the same
Thoo et al. Online and offline robot programming via augmented reality workspaces
KR102403568B1 (en) Robot teaching apparatus and method for teaching robot using the same
US9415512B2 (en) System and method for enhancing a visualization of coordinate points within a robots working envelope
KR101474778B1 (en) Control device using motion recognition in artculated robot and method thereof
WO2023162248A1 (en) Teaching operation panel and robot control system

Legal Events

Date Code Title Description
A107 Divisional application of patent
GRNT Written decision to grant