KR102403568B1 - Robot teaching apparatus and method for teaching robot using the same - Google Patents
Robot teaching apparatus and method for teaching robot using the same Download PDFInfo
- Publication number
- KR102403568B1 KR102403568B1 KR1020210078341A KR20210078341A KR102403568B1 KR 102403568 B1 KR102403568 B1 KR 102403568B1 KR 1020210078341 A KR1020210078341 A KR 1020210078341A KR 20210078341 A KR20210078341 A KR 20210078341A KR 102403568 B1 KR102403568 B1 KR 102403568B1
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- message
- teaching
- user
- error
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 47
- 238000004088 simulation Methods 0.000 claims abstract description 28
- 238000012544 monitoring process Methods 0.000 claims description 43
- 238000004891 communication Methods 0.000 claims description 21
- 230000009471 action Effects 0.000 claims description 17
- 230000001939 inductive effect Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 19
- 238000011084 recovery Methods 0.000 description 17
- 230000035945 sensitivity Effects 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 10
- 230000003993 interaction Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 4
- 239000012636 effector Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000005019 pattern of movement Effects 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0081—Programme-controlled manipulators with master teach-in means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/409—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36162—Pendant control box
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39443—Portable, adapted to handpalm, with joystick, function keys, display
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40099—Graphical user interface for robotics, visual robot user interface
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Manufacturing & Machinery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
본 발명은 프로그래밍 가능한(Programmable) 로봇을 제어하기 위한 로봇 교시 장치에 관한 것으로, 보다 상세하게는, 로봇 프로그래밍, 시뮬레이션 및 제어를 위한 로봇 교시 장치에 관한 것이다.The present invention relates to a robot teaching apparatus for controlling a programmable robot, and more particularly, to a robot teaching apparatus for robot programming, simulation and control.
Description
본 발명은 프로그래밍 가능한(Programmable) 로봇을 교시하기 위한 로봇 교시 장치에 관한 것으로, 보다 상세하게는, 로봇 프로그래밍, 시뮬레이션 및 제어를 위한 로봇 교시 장치(티칭 팬던트(Teaching pendant))에 관한 것이다.The present invention relates to a robot teaching apparatus for teaching a programmable robot, and more particularly, to a robot teaching apparatus (teaching pendant) for robot programming, simulation and control.
산업용 프로그래밍 가능한 로봇은 일반적으로 알려져 있다. 이러한 로봇을 프로그래밍하는 일반적인 방법은 예컨대, 공간에 최초 포인트로부터 로봇 암 상의 엔드 이펙터(end effector) 및 툴(tool)과 같이 로봇의 특정 부분을 안내하고, 엔드 이펙터의 최종 목적지인 픽업-위치(pick-up location)로 원하는 경로를 통해 보내는 방식이 사용될 수 있다.Industrial programmable robots are generally known. A common method of programming such robots is to guide certain parts of the robot, such as end effectors and tools on the robot arm, from an initial point in space, for example, and pick-up the end effector's final destination. -up location), the method of sending through the desired path can be used.
로봇 또는 외부 제어 장치들은 최초 위치로부터 최종 위치로의 움직임과 관련된 정보를 저장하고 있다. 이러한 학습 세션 이후에, 로봇은 위 절차들(procedures)을 반복하고, 수행해야 할 태스크를 수행할 수 있다Robots or external control devices store information related to movement from an initial position to a final position. After this learning session, the robot can repeat the above procedures and perform the task to be performed.
다만, 이러한 로봇 교시에 있어서, 로봇을 교시하기 위한 티칭 펜던트는 사용 방법이 복잡하고 어려워 초보자들이 사용하기 어렵다. 이로 인하여, 티칭 펜던트의 활용성이 떨어지는 문제가 있다. However, in this robot teaching, the teaching pendant for teaching the robot is complicated and difficult to use, making it difficult for beginners to use. For this reason, there is a problem in that the utility of the teaching pendant is poor.
본 발명은 교시 작업의 각 상황에 따라 사용자가 직관적으로 로봇 교시 장치와 상호작용할 수 있도록 하는 로봇 교시 방법, 프로그램 및 장치를 제공하는 것을 그 목적으로 한다.An object of the present invention is to provide a robot teaching method, program, and apparatus that allow a user to intuitively interact with a robot teaching apparatus according to each situation of the teaching task.
또한, 본 발명은 사용자와 로봇 교시 장치가 메시지를 주고 받으면서 로봇을 교시하는 유저 인터페이스를 제공하는 것을 그 목적으로 한다.Another object of the present invention is to provide a user interface for teaching a robot while exchanging messages between a user and a robot teaching device.
또한, 본 발명은 로봇 교시 작업을 완수하기 위해 필요한 각각의 단계마다 순차적으로 사용자와 상호작용할 수 있는 유저 인터페이스를 제공하는 것을 그 목적으로 한다.In addition, an object of the present invention is to provide a user interface that can sequentially interact with the user for each step necessary to complete the robot teaching task.
또한, 본 발명은 사용자가 로봇 교시 작업 중 빈번하게 하는 실수를 사전에 예측하고 예방할 수 있도록 하는 유저 인터페이스를 제공하는 것을 그 목적으로 한다.Another object of the present invention is to provide a user interface that enables a user to predict and prevent a mistake frequently made during a robot teaching task in advance.
또한, 본 발명은 사용자가 로봇의 구동 및 제어 시 발생되는 에러 상황에 대한 인지와 복구를 함께 할 수 있도록 하는 유저 인터페이스를 제공하는 것을 그 목적으로 한다.In addition, an object of the present invention is to provide a user interface that allows a user to recognize and recover an error situation that occurs when driving and controlling a robot.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
상술한 과제를 해결하기 위한 본 발명은 로봇을 교시하는 로봇 교시 방법을 제공한다. 구체적으로, 본 발명은 상기 로봇의 동작을 교시하도록, 로봇 교시 장치에서 교시 인터페이스를 출력하는 단계, 상기 로봇과 로봇 교시 장치의 통신 정보, 상기 로봇의 상태 정보 및 상기 로봇 교시 장치의 상태 정보 중 적어도 하나를 모니터링하는 단계, 및 상기 모니터링 결과가 기설정된 조건을 만족하는 경우, 상기 교시 인터페이스에 상기 모니터링 결과와 관련된 메시지를 출력하는 단계를 포함하고, 상기 메시지는, 상기 모니터링 결과를 근거로 상기 로봇 교시 장치에 대한 정보 입력을 유도하는 텍스트 및 이미지 중 적어도 하나를 포함하는 것을 특징으로 하는 로봇 교시 방법을 제공한다.The present invention for solving the above problems provides a robot teaching method for teaching a robot. Specifically, the present invention provides at least one of outputting a teaching interface from a robot teaching device to teach the operation of the robot, communication information between the robot and the robot teaching device, status information of the robot, and status information of the robot teaching device monitoring one, and outputting a message related to the monitoring result to the teaching interface when the monitoring result satisfies a preset condition, wherein the message is the robot teaching based on the monitoring result It provides a robot teaching method comprising at least one of a text and an image for inducing input of information to the device.
일 실시 예에 있어서, 상기 메시지를 출력하는 단계에서, 상기 메시지의 내용은 상기 정보 입력에 따라 변화할 수 있다. 상기 메시지는 상기 교시 인터페이스의 실행화면에 오버랩하여 출력되며, 상기 메시지의 내용이 변화하는 동안에 상기 교시 인터페이스의 실행화면은 유지될 수 있다.In an embodiment, in the step of outputting the message, the content of the message may change according to the input of the information. The message is output to overlap the execution screen of the teaching interface, and the execution screen of the teaching interface may be maintained while the content of the message is changed.
일 실시 예에 있어서, 상기 기 설정된 조건은 상기 로봇의 동작 및 제어 중 적어도 하나에 오류가 발생하였거나, 오류가 발생될 것으로 예상되는 것일 수 있다.In an embodiment, the preset condition may be that an error has occurred or an error is expected to occur in at least one of the operation and control of the robot.
일 실시 예에 있어서, 상기 기 설정된 조건은 상기 로봇의 동작 및 제어 중 적어도 하나에 활용될 정보 입력이 필요한 상태일 수 있다.In an embodiment, the preset condition may be a state in which information input to be utilized for at least one of operation and control of the robot is required.
일 실시 예에 있어서, 본 발명은 상기 로봇 교시 장치의 교시 인터페이스에 상기 로봇의 동작 정보를 포함하는 시뮬레이션 영역 및 상기 로봇의 제어와 관련된 입력을 수신하는 제어 영역을 표시하는 단계를 더 포함하고, 상기 메시지는 상기 시뮬레이션 영역 및 상기 제어 영역 중 상기 기 설정된 조건과 관련된 영역과 연관되도록 표시될 수 있다.In one embodiment, the present invention further comprises displaying a simulation area including motion information of the robot and a control area for receiving an input related to control of the robot on a teaching interface of the robot teaching apparatus, the The message may be displayed to be associated with a region related to the preset condition among the simulation region and the control region.
일 실시 예에 있어서, 상기 메시지는 상기 기 설정된 조건과 관련된 상기 로봇의 동작, 제어 및 설정 중 적어도 하나에 활용될 정보를 수신하는 입력 영역을 포함할 수 있다.In an embodiment, the message may include an input area for receiving information to be utilized for at least one of operation, control, and setting of the robot related to the preset condition.
일 실시 예에 있어서, 본 발명은 상기 로봇 교시 장치가 상기 입력 영역을 통해 사용자로부터 정보를 입력 받는 단계, 상기 로봇 교시 장치가 상기 입력 영역을 통해 입력 받은 정보를 활용하여 상기 로봇의 상태 및 상기 로봇 교시 장치의 상태 중 적어도 하나를 모니터링하는 단계 및 상기 메시지가 출력된 후 수행된 모니터링 결과에 기반하여, 연관 메시지를 출력하는 단계를 더 포함할 수 있다.In one embodiment, the present invention comprises the steps of: the robot teaching device receiving information from a user through the input area; The method may further include monitoring at least one of the states of the teaching device and outputting a related message based on a result of monitoring performed after the message is output.
일 실시 예에 있어서, 상기 기설정된 조건은 부가 장치가 상기 로봇에 장착된 것이 감지되는 것이고, 상기 메시지는 사용자가 상기 로봇을 특정한 움직임으로 움직이도록 안내하는 텍스트 및 이미지 중 적어도 하나를 포함할 수 있다.In an embodiment, the preset condition is that it is detected that the attachment device is mounted on the robot, and the message may include at least one of a text and an image for guiding the user to move the robot in a specific motion. .
일 실시 예에 있어서, 본 발명은 상기 메시지가 출력된 후, 상기 로봇 교시 장치가 상기 로봇의 움직임을 모니터링하는 단계 및 상기 로봇 교시 장치가 상기 움직임 모니터링 결과에 기반하여, 상기 부가 장치와 관련된 설정을 수행하는 단계를 더 포함할 수 있다.In one embodiment, the present invention, after the message is output, the step of the robot teaching device monitoring the movement of the robot, and the robot teaching device based on the motion monitoring result, the setting related to the additional device It may further include the step of performing.
또한, 본 발명은 교시 인터페이스를 출력하는 디스플레이부와, 로봇과 데이터를 송수신하도록 이루어지는 통신부, 및 상기 로봇과 로봇 교시 장치의 통신 정보, 상기 로봇의 상태 정보 및 상기 로봇 교시 장치의 상태 정보 중 적어도 하나를 모니터링하고, 상기 모니터링 결과가 기설정된 조건을 만족하는 경우, 상기 교시 인터페이스에 상기 모니터링 결과와 관련된 메시지가 출력되도록 디스플레이부를 제어하는 제어부를 포함하는 로봇 교시 장치를 제공한다. 상기 메시지는, 상기 모니터링 결과를 근거로 상기 로봇 교시 장치에 대한 정보 입력을 유도하는 텍스트 및 이미지 중 적어도 하나를 포함할 수 있다.In addition, the present invention provides a display unit for outputting a teaching interface, a communication unit configured to transmit and receive data to and from the robot, and at least one of communication information between the robot and the robot teaching device, the status information of the robot, and the status information of the robot teaching device To provide a robot teaching apparatus including a control unit for monitoring and controlling a display unit to output a message related to the monitoring result to the teaching interface when the monitoring result satisfies a preset condition. The message may include at least one of a text and an image for inducing input of information to the robot teaching device based on the monitoring result.
또한, 본 발명은 상기 로봇 교시 방법을 수행하는 로봇 및 로봇 교시 장치를 구비하는 로봇 교시 시스템을 제공한다.In addition, the present invention provides a robot teaching system including a robot and a robot teaching apparatus for performing the above robot teaching method.
상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, it has various effects as follows.
본 발명에 따르면, 사용자는 본 발명에 따른 유저 인터페이스를 통해 상황의 전개를 인지하면서 교시 작업을 수행하기 때문에, 로봇 교시 작업을 완수하는데 필요한 정보 및 행동을 누락하지 않게 된다.According to the present invention, since the user performs the teaching task while recognizing the development of the situation through the user interface according to the present invention, information and actions necessary for completing the robot teaching task are not omitted.
또한, 본 발명에 따르면, 사용자가 최우선적으로 수행해야할 작업을 메시지가 표시된 영역 내에서 모두 수행할 수 있기 때문에, 사용자의 작업 집중도 및 작업 속도가 상승할 수 있다.In addition, according to the present invention, since all tasks to be performed by the user with the highest priority can be performed within the area where the message is displayed, the user's work concentration and work speed can be increased.
또한, 본 발명에 따르면, 사용자와 로봇 교시 장치 간의 상호작용을 통하여 로봇 교시 작업의 각 단계에서 로봇에 대한 모니터링과 문제의 해소가 순차적으로 구현되기 때문에, 이를 통하여 초보자도 용이하게 로봇의 교시를 할 수 있게 된다.In addition, according to the present invention, since the monitoring of the robot and the resolution of problems are sequentially implemented at each stage of the robot teaching task through the interaction between the user and the robot teaching device, even beginners can easily teach the robot through this. be able to
또한, 본 발명에 따르면, 로봇 교시 장치는 사용자와의 상호작용을 통해 부가 장치 장착에 필요한 정보를 사용자에게 제공하고, 사용자로부터 부가 장치 설정에 필요한 정보를 수집하기 때문에, 사용자는 로봇에 장착하는 부가 장치에 대한 구체적인 지식이 없이도 쉽게 부가 장치를 로봇에 장착할 수 있게 된다.In addition, according to the present invention, since the robot teaching device provides the user with information necessary for mounting the additional device through interaction with the user, and collects the information required for setting the additional device from the user, the user can install the additional device mounted on the robot. Additional devices can be easily mounted on the robot without specific knowledge of the device.
또한, 본 발명에 따르면, 사용자의 실수가 빈번하게 발생하는 작업 단계에 도달하였을 때 이를 사용자가 인지하도록 하고, 사용자가 최소한의 작업을 통해 실수를 예방할 수 있도록 하기 때문에, 로봇 에러 횟수가 최소화 되며 사용자의 작업 시간이 단축될 수 있다.In addition, according to the present invention, the number of robot errors is minimized and the number of robot errors is minimized because the user recognizes this when a user's error reaches a work stage in which frequent occurrence is reached, and the user can prevent the mistake through a minimum amount of work. work time can be shortened.
또한, 본 발명에 따르면, 로봇 동작 및 제어 중 발생되는 에러 상황 및 에러 복구를 위한 인터페이스가 하나의 메시지에서 제공되기 때문에, 사용자는 에러를 인지하는 즉시 에러 복구를 위한 행동을 수행할 수 있게 된다. In addition, according to the present invention, since an interface for error recovery and error situations occurring during robot operation and control is provided in one message, the user can immediately perform an error recovery action upon recognizing an error.
또한, 본 발명에 따르면, 로봇 교시 장치와의 반복된 상호작용 과정을 통하여 별도의 선행(매뉴얼, 교육 커리큘럼 등) 학습없이 사용자의 로봇 사용 숙련도를 스스로 향상시킬 수 있다. In addition, according to the present invention, it is possible to improve the user's robot use proficiency by itself without additional prior (manual, educational curriculum, etc.) learning through the repeated interaction process with the robot teaching device.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 일 실시예에 따른 로봇 교시 시스템을 개략적으로 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 로봇 교시 장치(티칭 펜던트)에 포함된 구성요소들을 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 로봇 교시 장치(티칭 펜던트)의 메인 화면을 나타낸 개념도이다.
도 4는 본 발명의 일 실시예에 따른 로봇 교시 장치에 의해 제어되는 프로그래밍 가능한 로봇의 동작을 설명하기 위한 개념도이다.
도 5는 본 발명에 따른 메시지를 출력하는 일 실시 예를 나타내는 순서도이다.
도 6 및 7은 본 발명에 따른 메시지를 출력하는 일 실시 예를 나타내는 개념도이다.
도 8A 내지 10C은 본 발명의 일 실시 예에 따라 부가 장치 장착에 메시지를 활용하는 일 실시 예를 나타내는 개념도들이다.
도 11은 본 발명의 일 실시 예에 따라 사용자가 처음 실행하는 기능에 메시지를 활용하는 일 실시 예를 나타내는 개념도이다.
도 12은 본 발명의 일 실시 예에 따라 사용자가 자주하는 실수를 예방하기 위해 메시지를 활용하는 일 실시 예를 나타내는 개념도이다.
도 13 내지 17은 본 발명의 일 실시 예에 따라 로봇 에러 복구에 메시지를 활용하는 일 실시 예를 나타내는 개념도들이다.1 is a diagram schematically showing a robot teaching system according to an embodiment of the present invention.
2 is a block diagram illustrating components included in a robot teaching device (teaching pendant) according to an embodiment of the present invention.
3 is a conceptual diagram illustrating a main screen of a robot teaching device (teaching pendant) according to an embodiment of the present invention.
4 is a conceptual diagram for explaining the operation of the programmable robot controlled by the robot teaching device according to an embodiment of the present invention.
5 is a flowchart illustrating an embodiment of outputting a message according to the present invention.
6 and 7 are conceptual diagrams illustrating an embodiment of outputting a message according to the present invention.
8A to 10C are conceptual diagrams illustrating an embodiment of using a message for mounting an additional device according to an embodiment of the present invention.
11 is a conceptual diagram illustrating an embodiment in which a message is used for a function executed for the first time by a user according to an embodiment of the present invention.
12 is a conceptual diagram illustrating an embodiment of using a message in order to prevent a mistake frequently made by a user according to an embodiment of the present invention.
13 to 17 are conceptual diagrams illustrating an embodiment of using a message for robot error recovery according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully understand the scope of the present invention to those skilled in the art, and the present invention is only defined by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate the overall understanding, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.
로봇 교시를 위해서는 3가지 방식이 사용될 수 있는데, 상기 3가지 방식은 오프라인 프로그래밍(offline programming), 온라인 프로그래밍(online programming), 직접 교시(direct teaching) 방식을 포함할 수 있다. 오프라인 프로그래밍은 시뮬레이터를 기반으로 동작하는 프로그래밍 방식으로, 경로 생성 및 검증을 수행시 주로 사용되며, 이더캣 마스터 제어기를 통해 실행되는 프로그래밍 방식이다. Three methods may be used for teaching the robot, and the three methods may include an offline programming method, an online programming method, and a direct teaching method. Offline programming is a programming method that operates based on the simulator, is mainly used for path generation and verification, and is a programming method executed through the EtherCAT master controller.
온라인 프로그래밍은 로봇 교시 장치를 이용하는 방식으로, 로봇 운동 명령, 경로 생성/반복 작업에 주로 사용되고 이를 로봇 교시 장치와 로봇의 유/무선 연결에 의해 이루어지는 방식이다. Online programming is a method using a robot teaching device, which is mainly used for robot motion commands and path generation/repeat work, and is performed by wired/wireless connection between the robot teaching device and the robot.
직접 교시는 사용자(또는 조작자)가 로봇을 직접 조작하여 경로를 학습시키는 방법으로 제어 알고리즘의 지원이 필요할 수 있다. 이는 로봇의 목표 궤적을 사용자가 직관적을 결정할 수 있도록 하는 시스템으로, 사용자가 로봇의 말단 부분을 잡고 직접 로봇에 힘과 모멘트를 인가하여 로봇을 자신의 의도대로 운전하는 방식이다. 이로 인해, 사용자는 간단히 로봇의 목표 궤적 정보를 생성할 수 있고, 로봇은 이 경로를 기억한 후, 자동운전시 이를 추종하도록 하여 제어되는 방식이다. Direct teaching is a method in which a user (or an operator) learns a path by directly manipulating the robot, and the support of a control algorithm may be required. This is a system that allows the user to intuitively determine the target trajectory of the robot, in which the user holds the end of the robot and directly applies force and moment to the robot to drive the robot as intended. Due to this, the user can simply generate target trajectory information of the robot, and the robot is controlled by memorizing this path and then following it during automatic operation.
본 발명의 일 실시예에 따른 로봇 교시 장치는 로봇을 제어하기 위한 사용자 인터페이스 장치로써, 티칭 펜턴드(TP: Teaching Pendant)를 포함할 수 있다. 티칭 펜던트는 산업용 장비 또는 로봇에 사용되는 장비로, 주로 모니터 및 마우스를 사용할 수 없는 산업 현장 및 특별한 조작이 필요없는 자동화 장비에서 사용자의 편의를 위해 터치 패드(또는 키버튼)과 디스플레이 스크린(예컨대, LCD, LED 스크린이 포함될 수 있음)을 사용하여 태블릿 PC 형태로 구현 가능하며, 로봇에 유선 또는 무선으로 연결되어 사용될 수 있다.The robot teaching device according to an embodiment of the present invention is a user interface device for controlling the robot, and may include a Teaching Pendant (TP). Teaching pendants are equipment used in industrial equipment or robots, and mainly include touchpads (or key buttons) and display screens (e.g., It can be implemented in the form of a tablet PC using LCD and LED screens), and it can be used by being connected to the robot by wire or wirelessly.
로봇 교시 시스템robot teaching system
도 1은 본 발명의 일 실시예에 따른 로봇 교시 시스템을 개략적으로 나타낸 도면이다. 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 로봇 교시 시스템은 (a) 오프라인 프로그래밍 기반 및 (b) 온라인 프로그래밍 기반으로 프로그래밍할 수 있다. 본 발명의 일 실시 예에 따른 로봇 교시 시스템은 로봇 교시 장치(100: 예컨대 티칭 펜던트일 수 있음), 마스터 제어기 및 로봇(300) 중 적어도 하나를 포함할 수 있다. 본 발명은 온라인 프로그래밍 기반의 로봇 교시 시스템 및 오프라인 프로그래밍 기반의 로봇 교시 시스템에 모두 사용될 수 있다. 또한, 상기 로봇 교시 시스템은 교시를 기준으로 시스템을 정의한 용어로서, 로봇을 기준으로 한 로봇 시스템으로 지칭될 수 있다.1 is a diagram schematically showing a robot teaching system according to an embodiment of the present invention. 1, the robot teaching system according to an embodiment of the present invention can be programmed based on (a) offline programming and (b) online programming. The robot teaching system according to an embodiment of the present invention may include at least one of the robot teaching apparatus 100 (eg, it may be a teaching pendant), a master controller, and the
도 1의 (a)를 참조하면, 본 발명의 일 실시예에 따른 오프라인 프로그램밍 제어에 있어서, 로봇 교시 장치(100)와 마스터 제어기(200)는 제어 신호를 또는 프로그래밍 데이터를 로봇(300)의 제어 시스템(미도시)에 전달하여 로봇(300)을 구동시킬 수 있다. 로봇(300)의 제어 시스템은 이를 각 로봇의 부분을 구동시키는 구동 수단에 전류를 인가하여 프로그래밍에 상응하는 동작이 수행되도록 제어할 수 있다. Referring to FIG. 1A , in the offline programming control according to an embodiment of the present invention, the
본 발명의 일 실시예에 따른 로봇 교시 장치(100)는 터치 기반의 티칭 펜던트일 수 있다. 즉, 온라인 프로그래밍에 사용되는 티칭 펜던트의 기능에 시뮬레이터를 탑재하여 오프라인 프로그래밍 기능을 제공할 수 있다. 로봇 교시 장치(100)는 오픈소스 동역학 엔진(ODE) 기반의 로봇/센서/환경 모델링 이동 로봇 및 휴머노이드 ROS(소프 트웨어)를 탑재하여 이를 구현할 수 있다. 소프트웨어는 윈도우 또는 리눅스 등 다양한 운영체계에서 실행될 수 있다. 로봇 교시 장치(100)는 시뮬레이터를 통해 충돌 회피 알고리즘, 최적 경로 계산 알고리즘을 검증할 수 있다. The
로봇 교시 장치(100)는 로봇(300)의 엔드 이펙터를 포함하여 로봇(300)의 부분들의 기능들 및 움직임들을 제어 하는데 사용될 수 있다. 이를 위해, 로봇 교시 장치(100)는 로봇(300)이 동작하는 주변 환경 및 로봇(300)에 의해 핸들링되는 물체들에 대한 관련 정보뿐만 아니라 미리 저장된 로봇 관련 움직임 및 기능들을 저장하는 저장부를 포함할 수 있다. 로봇 교시 장치(100)는 로봇(300)의 프로그래밍 동안 로봇(300)과 통신할 수 있고, 로봇(300)을 제어할 수 있다. 또한, 로봇(300)의 움직임들의 패턴 및 미리 프로그래밍된 시나리오를 검색할 수도 있다. 따라서, 이러한 시나리오 또는 로봇 관련 정보들은 새로운 테스트를 위한 로봇을 재-프로그래밍하는데 필요한 설정 내에서 서로 다른 태스크를 수행하는데 사용될 수 있다. The
마스터 제어기(200)는 사물인터넷(IoT) 서비스가 즉시 가능한 게이트웨이(IGoT: Internet Gateway of Things)를 이용하여 분산된 다수의 센서 및 구동기들을 이더넷 통신을 통해 실시간으로 제어하기 위한 필드버스일 수 있다. 여기서, IGoT는 사물인터넷 서비스가 즉시 가능한 게이트웨이로 산업용 사물인터넷을 위해 필드버스인 RS485 및 CAN 기반의 센서들을 활용하고 실시간 분산 제어를 위해 이더캣(EtherCAT)을 활용하는 것이 가능하다. 즉, 마스터 제어기(200)는 이더캣을 지원하는 리눅스 기반의 실시간 제어기일 수 있다. 마스터 제어기(200)를 통해 산업용 제어기가 갖는 안정성과 고성능을 확보할 수 있을 뿐만 아니라 실시간 운영체제 및 이더캣 마스터 소프트웨어까지 활용하여 제품의 소유 및 유지비용을 낮출 수 있다. 마스터 제어기(200)는 로봇 교시 장치(100)와 USB를 통해 연결되고, 로봇 교시 장치(100)로부터 프로그래밍 데이터 또는 제어 신호 를 받아 로봇을 구동시킬 수 있다. 마스터 제어기(200)는 STEP(Science and Technology Embedded Platform)을 포함할 수 있다. The master controller 200 may be a fieldbus for controlling a plurality of distributed sensors and drivers in real time through Ethernet communication using an Internet Gateway of Things (IGoT) that can immediately provide an Internet of Things (IoT) service. Here, IGoT is a gateway capable of instantaneous Internet of Things service, and it is possible to utilize fieldbus RS485 and CAN-based sensors for the Industrial Internet of Things, and to utilize EtherCAT for real-time distributed control. That is, the master controller 200 may be a Linux-based real-time controller supporting EtherCAT. Through the master controller 200, it is possible not only to secure the stability and high performance of the industrial controller, but also to utilize the real-time operating system and EtherCAT master software to lower the cost of owning and maintaining the product. The master controller 200 may be connected to the
온라인 프로그래밍 제어에 있어서, 로봇 교시 장치(100)는 이더캣을 이용하여 온라인으로 로봇(300)을 제어할 수 있다. 즉, 본 발명의 일 실시예에 따르면, 실시간 로봇제어기와 통합된 형태의 로봇 교시 장치(100)를 구현하여 온라인 프로그래밍과 오프라인 프로그래밍을 통합 수행할 수 있다. In the online programming control, the
로봇 교시 장치(티칭 펜던트) Robot teaching device (teaching pendant)
도 2는 본 발명의 일 실시예에 따른 로봇 교시 장치(티칭 펜던트)에 포함된 구성요소들을 나타내는 블록도이고, 도 3은 본 발명의 일 실시예에 따른 로봇 교시 장치(티칭 펜던트)의 메인 화면을 나타낸 개념도이다. 2 is a block diagram illustrating components included in the robot teaching device (teaching pendant) according to an embodiment of the present invention, and FIG. 3 is a main screen of the robot teaching device (teaching pendant) according to an embodiment of the present invention. is a conceptual diagram showing
도 2를 참조하면, 본 발명의 일 실시예에 따른 로봇 교시 장치(100)는 디스플레이부(110), 사용자 입력부(120), 제어부(130), 저장부(140), 통신부(150) 및 시뮬레이션부(160)를 포함할 수 있다.Referring to FIG. 2 , the
디스플레이부(110)는 로봇의 프로그래밍 동안 사용자에 의해 수행되어질 프로그래밍 단계들과 관련된 메뉴들 및/또는 로봇의 프로그래밍 동안, 실제 동작 또는 테스트 실행 동안 상기 로봇의 형상을 나타내는 컴퓨터-생성 표현(예컨대, 3D CAD 이미지)을 디스플레이할 수 있다. 디스플레이부(110)는 시간 축과 로봇의 부분들 중 적어도 하나의 움직임의 정도 값을 나타내는 움직임 정보 축으로 구성된 그래프를 표시할 수 있다. 한편, 디스플레이부(110)에는 사용자의 작업을 보조하기 위한 다양한 메시지가 표시될 수 있다. 이에 대하여는 후술한다. The
사용자 입력부(120)는 로봇에 대한 제어 시스템에 프로그래밍된 지시어를 입력할 수 있다. 사용자 입력부(120)는 사용자로부터 지시어를 입력받을 수 있고, 이는 터치 스크린을 포함할 수 있다. 터치 스크린은 터치 펜 또는 사용자 손 등을 통해 사용자 입력을 입력받을 수 있다. 터치 스크린은 로봇의 3D 표현이 로봇의 특정 부분을 임의의 위치에 위치시키고 배향시키기(positioning and orienting) 위한 다양한 아이콘들과 함께 표시되도록 하고, 아이콘들에 대한 클릭을 입력받을 수 있다. The
제어부(130)는 로봇에 대한 프로그래밍 및 제어를 위한 프로세서이다. 이는 하드웨어 프로세서로 구성될 수 있다. 제어부(130)는 사용자 입력부(120)에서 입력된 지시어에 따라 로봇에 입력되는 프로그래밍 코드를 생성할 수 있다. 또는 로봇을 제어할 수 있는 제어 신호를 생성할 수 있다. 제어부(130)는 로봇의 각 부분의 움직임 또는 좌표 값을 기반으로 시간에 따른 흐름을 분석하여 시간축과 움직임 정도 값으로 구성된 그래프를 생성할 수 있다. 또한, 그래프를 이용하여 시간, 대상 로봇 부분 및 웨이포인트를 특정하여 해당 부분의 움직임 정도 값의 변화를 통해 웨이포인트의 위치를 변화시킬 수도 있고, 새로운 웨이포인트를 추가할 수도 있다. 제어부(130)는 로봇의 주변 환경, 예컨대, 장애물 및 금지 구역 등을 파악하여, 로봇의 최적 경로를 계산할 수 있다. 또한, 웨이포인트들의 시퀀스들을 통해 또는 공간 상의 경로를 통해 로봇의 하나 이상의 조인트들 또는 툴을 이동시킴으로써 로봇의 위치 또는 공간적 영역의 상세 좌표를 획득할 수 있다. The
이를 위해 제어부(130)에는 기본적으로 각 팔에 대한 역동역학 제어 알고리즘, 임피던스 제어 알고리즘, 컴플라이언스 제어 알고리즘, 암 조작에 따른 충돌 검출 및 회피 알고리즘, Object 임피던스 제어 알고리즘 및 Internal force 임피던스 제어알고리즘을 탑재할 수 있고, 이러한 알고리즘의 검증을 시뮬레이션부(160)의 시뮬레이션을 통해 수행할 수 있다. To this end, the
또한, 제어부(130)는 각 메뉴 및 아이콘의 클릭에 따라 이전 및 다음 메뉴 및 아이콘이 표시되도록 디스플레이부(110)을 제어할 수 있다. 제어부(130)는 적어도 로봇의 프로그래밍 동안, 특정 동작들과 관련하여, 로봇과 관련된 선호 움직임, 액션들 및 다른 특징들을 설명하는 미리 프로그래밍된 템플릿(templates)의 액세스를 가질 수 있다. 이때, 테플릿은 로봇의 차후 프로그래밍을 최적화하고, 촉진시키기 위해 로봇의 서로 다른 동작들을 정의할 수 있다. 상기 템플릿은 저장부(140)에 저장될 수 있다. Also, the
저장부(140)는 로봇의 프로그래밍 및 동작들과 관련된 정보를 저장할 수 있고, 로봇의 이동 동안 피해야 할 장애물 정보 및/또는 공간 상의 금지된 영역과 같은 로봇 주변에 관한 정보도 저장할 수 있다. 이는 RAM, ROM 등의 플래시 메모리 및/또는 하드 메모리 등의 비휘발성 메모리를 포함할 수 있다. 저장부(140)는 툴의 최초 위치를 나타내는 정보, 최초 위치에서의 툴의 활성화/트리거링 파라미터들, 툴의 최종 위치, 최종 위치에서의 활 성화/트리거링 파라미터들 및 최초 위치와 최종 위치 사이의 공간 상의 경로와 관련된 정보를 저장할 수 있다. The
통신부(150)는 실제 로봇에 부착된 센서 등으로부터 로봇의 움직임 정보 또는 위치 정보 등의 로봇 관련 정보를 수신할 수 있다. 이는 통신 프로세서로 구현가능하다. 또한, 통신부(150)는 로봇 간에 데이터 송수신을 수행하도록 이루어질 수 있다.The
시뮬레이션부(160)는 실제 로봇으로부터 수신되는 정보 또는 로봇 교시 장치의 외부 센서로부터의 정보를 기반으로 실제 로봇의 움직임을 컴퓨터-생성 표현으로 생성하여 시뮬레이션이 이루어지도록 할 수 있다. 또한, 실제 로봇과 별개로, 제어부(130)에서 생성된 프로그래밍에 따라 로봇의 컴퓨터-생성 표현을 생성하여 가상으로 로봇의 움직임을 시뮬레이팅할 수 있다. 이러한 시뮬레이션 컴퓨터-생성 표현은 디스플레이부(110)으로 전송되어 디스플레이될 수 있다.The
즉, 본 명세서에서 설명되는 시뮬레이션 정보는, 로봇의 실제 움직임을 묘사하는 정보 및 로봇의 가상 움직임을 묘사하는 정보 중 적어도 하나를 포함할 수 있다.That is, the simulation information described in this specification may include at least one of information describing the actual motion of the robot and information describing the virtual motion of the robot.
로봇의 실제 움직임을 묘사하는 정보는, 정적 이미지 또는 동적 이미지 중 적어도 하나를 통해 표현될 수 있다, 나아가, 로봇의 실제 움직임을 묘사하는 정보는 로봇의 외관과 대응되며, 로봇의 각 관절(또는 관절의 포지션)을 묘사하는 이미지일 수 있다.Information describing the actual movement of the robot may be expressed through at least one of a static image or a dynamic image. Furthermore, the information describing the actual movement of the robot corresponds to the appearance of the robot, and each joint (or joint) of the robot It may be an image depicting the position of
마찬가지로, 로봇의 가상 움직임을 묘사하는 정보는, 정적 이미지 또는 동적 이미지 중 적어도 하나를 통해 표현될 수 있다, 나아가, 로봇의 가상 움직임을 묘사하는 정보는 로봇이 실제 움직였을 경우 예상되는 로봇의 외관 및 관절의 표지션에 대한 이미지일 수 있다.Similarly, the information describing the virtual motion of the robot may be expressed through at least one of a static image or a dynamic image. Furthermore, the information describing the virtual motion of the robot may include the appearance and joints of the robot expected when the robot actually moves. It may be an image for the cover of
본 발명에서는 설명의 편의를 위하여, 로봇 교시 장치에서 수행되는 기능 또는 과정을 “로봇 교시 장치가 정보를 출력한다”와 같이, “로봇 교시 장치”를 주체로 하여 표현하도록 한다. 여기에서, “제어 하에”있다는 것은, 로봇 교시 장치와 마스터 제어기 및 로봇과의 통신을 통해, 데이터를 송수신하여, 이에 기반하여 일련의 과정이 수행되는 것을 의미할 수 있다.In the present invention, for convenience of explanation, a function or process performed by the robot teaching device is expressed using the “robot teaching device” as the main subject, such as “the robot teaching device outputs information”. Here, “under control” may mean that data is transmitted and received through communication between the robot teaching device, the master controller, and the robot, and a series of processes are performed based thereon.
또한, “제어 하에”있다는 것은, 실질적으로는 로봇 교시 장치의 제어부가, 본 발명에 따른 로봇 교시 장치에서 제공되는 명령어, 프로그램 또는 기능에 기반하여, 이하에서 설명되는 기능을 수행할 수 있음을 의미할 수 있다. In addition, being “under the control” means that the controller of the robot teaching device can perform the functions described below based on the command, program or function provided by the robot teaching device according to the present invention. can do.
본 발명에 따른 로봇 교시 장치는 디스플레이부(110) 상에 다양한 화면 정보를 표시할 수 있다.The robot teaching apparatus according to the present invention may display various screen information on the
구체적으로, 도 3을 참조하면, 디스플레이부에는 로봇 교시 장치(100)에서 실행 가능한 기능과 연관된 복수의 아이콘들(111)이 표시될 수 있다. 사용자는 상기 아이콘들 중 어느 하나를 터치함으로써, 특정 기능을 실행할 수 있다. Specifically, referring to FIG. 3 , a plurality of
한편, 디스플레이부(110)는 로봇에 대한 컴퓨터-생성 표현(112)이 출력될 수 있다. 여기서, 컴퓨터-생성 표현(112)이란 로봇의 구동 및 제어와 관련된 시뮬레이션 정보이다. 상기 컴퓨터-생성 표현(112)은 사용자로부터 인가된 정보를 기반으로 시뮬레이션부(160) 또는 마스터 제어기(200)에서 수행된 시뮬레이션 결과물을 이미지화 한 것이다. 본 명세서에서는 상기 컴퓨터-생성 표현(112)이 표시되는 영역을 시뮬레이션 영역이라 한다.Meanwhile, the
상기 컴퓨터-생성 표현은 실제 로봇과 동일한 형상으로 표시되며, 제어하고자 하는 로봇의 종류가 달라질 경우, 컴퓨터-생성 표현(112) 또한 달라질 수 있다. 로봇 교시 장치(100)는 상기 컴퓨터-생성 표현(112)을 이용하여 사용자에게 로봇의 형상 및 특정 제어명령에 따른 로봇의 예상 움직임을 제공할 수 있다. 즉, 컴퓨터-생성 표현(112)은 정지 영상만을 포함하는 것이 아니라 동영상도 포함한다. The computer-generated representation is displayed in the same shape as the real robot, and when the type of robot to be controlled is different, the computer-generated
또한, 로봇 교시 장치(100)는 상기 컴퓨터-생성 표현(112)의 일부분(112’)을 강조 표시함으로써, 사용자가 로봇의 특정 부위에 문제가 있음을 인지할 수 있도록 할 수 있다. 컴퓨터-생성 표현(112)을 활용하는 실시 예에 대하여는 후술한다.Additionally, the
한편, 디스플레이부(110)에는 프로젝트의 정보를 입력할 수 있는 영역(113)이 표시될 수 있다. Meanwhile, an
한편, 디스플레이부(110)에는 로봇에 인가하는 제어명령의 종류를 선택할 수 있는 복수의 탭(114)이 표시될 수 있다. 사용자는 복수의 탭들 중 어느 하나를 터치하여 로봇에 인가할 제어 명령의 종류를 선택할 수 있다. 사용자가 선택한 탭의 종류에 따라 제어명령 입력창(115)에 입력해야하는 정보가 달라질 수 있다.Meanwhile, the
본 명세서에서는 복수의 아이콘들(111), 프로젝트의 정보를 입력할 수 있는 영역(113), 상술한 복수의 탭(114) 및 입력창(115)을 제어 영역이라 칭한다. 이에 따라, 본 발명에 따른 로봇 교시 장치의 디스플레이부에 출력되는 화면 정보는 시뮬레이션 영역과 제어 영역을 포함한다.In this specification, the plurality of
상술한 디스플레이부에 표시되는 화면 정보는 본 발명에 따른 일 실시 예를 나타낸 것일 뿐 디스플레이부에 표시되는 정보가 상기 나열한 내용들에 한정되지는 않는다. The above-described screen information displayed on the display unit represents an embodiment according to the present invention, and the information displayed on the display unit is not limited to the above-listed contents.
로봇의 동작robot movement
도 4는 본 발명의 일 실시예에 따른 로봇 교시 장치에 의해 제어되는 프로그래밍 가능한 로봇의 동작을 설명하기 위한 개념도이다. 4 is a conceptual diagram for explaining the operation of the programmable robot controlled by the robot teaching device according to an embodiment of the present invention.
로봇은 복수 개의 개별 암 섹션들을 포함할 수 있고, 근접한 암 섹션들은 각 조인트에 의해 인터커넥션되어 있다. 상기 조인트들의 적어도 일부에는 구동가능한 구동수단이 들어있을 수 있다. 또한 로봇은 이러한 구동회로를 제어하는 제어 시스템을 포함할 수 있다. 상기 조인트는 안전 브레이크를 포함할 수 있고, 모터 회전축과 관련하여 회전할 수 있는 환상 멤버(annular member)를 포함할 수 있다.The robot may include a plurality of individual arm sections, adjacent arm sections being interconnected by respective joints. At least a portion of the joints may contain a drivable driving means. In addition, the robot may include a control system for controlling such a drive circuit. The joint may include a safety brake and may include an annular member rotatable with respect to a motor axis of rotation.
로봇은 로봇 교시 장치로부터 수신되는 지시어를 디코딩하기 위한 디코더를 포함할 수 있고, 로봇의 각 부분의 위치 및 움직임과 관련된 정보를 센싱하기 위한 센서(예컨대, 힘/토크 센서(F/T sensor), 위치 센서, 비전 센서 (vision sensor))를 포함할 수 있다. 이러한 센서는 로봇 주변을 센싱할 수도 있다. 또한, 상기 움직임 관련 정보를 인코딩하기 위한 인코더를 포함할 수 있다.The robot may include a decoder for decoding instructions received from the robot teaching device, and a sensor for sensing information related to the position and movement of each part of the robot (eg, a force/torque sensor (F/T sensor); a position sensor, a vision sensor). These sensors can also sense the robot's surroundings. In addition, it may include an encoder for encoding the motion-related information.
로봇은 적어도 다음의 동작들을 수행할 수 있다: 픽-앤-플레이스 동작(pick-and-place operation), 파일링 동작 (filing operation), 팩-인-홀 동작(peg-in-hole operation), 조립 동작(assembly operation), 팔레타이징 동 작(palletizing operation), 직적 교시, 디버링 동작(deburring operation), 스프레잉, 웰딩 동작(spraying, welding operation) 및 휴먼 인터랙션(human interaction)을 수행할 수 있다. 이는 기본적인 기능에 의해 수행될 수 있다: 위치의 특정(specification of position), 트랙킹, 움직임 패턴, 트리거(triggers) 및 이벤트/액션들에 의해 구현될 수 있다. The robot can perform at least the following operations: pick-and-place operation, filing operation, peg-in-hole operation, assembly It can perform assembly operation, palletizing operation, direct teaching, deburring operation, spraying, welding operation, and human interaction. This can be done by basic functions: it can be implemented by specification of position, tracking, movement pattern, triggers and events/actions.
도 4를 참조하면, 로봇(300)은 다자유도의 움직임을 실현하기 위해 복수의 관절(320, 330, 340, 350, 360, 370)을 포함한다. 도 4에는 다자유도 협동 로봇의 일예로서, 6개의 관절(320, 330, 340, 350, 360, 370)을 이용해 6 자유도를 갖도록 구성된 로봇(300)을 도시하였다. Referring to FIG. 4 , the
제1 관절(320)은 베이스(310)의 상부에 회전 가능하게 결합되며, 제1 관절(320)은 Z축(도 4를 기준으로 수직 방향)을 중심으로 회전하게 된다. 제1 관절(320)의 일단면(베이스(310)와 마주하는 면)과 타단면(제2 관절(330)과 마 주하는 면)은 서로 수직한 평면 상에 위치한다. 제2 관절(330)은 제1 관절(320)의 타단부에 회전 가능하게 결합된다. 제1 관절(320)의 일단면과 타단면이 서로 수 직한 평면 상에 위치하므로, 제2 관절(330)은 제1 관절(320)의 회전축에 대해 수직 방향의 축을 중심으로 회전하게 된다. 제2 관절(330)의 일단면(제1 관절(320)과 마주하는 면)과 타단면(제3 관절(340)과 마주하는 면)은 서로 평행하거나 일치하는 평면 상에 위치한다. The first joint 320 is rotatably coupled to the upper portion of the
제3 관절(340)은 제2 관절(330)의 타단부에 회전 가능하게 결합된다. 제2 관절(330)의 일단면과 타단면이 서로 평행하거나 일치하는 평면 상에 위치하므로, 제3 관절(340)은 제2 관절(330)의 회전축과 평행한 축을 중심으로 회전하게 된다. 제3 관절(340)의 일단면(제2 관절(330)과 마주하는 면)과 타단면(제4 관절(350)과 마주하는 면)은 서로 수직한 평면 상에 위치한다.The third joint 340 is rotatably coupled to the other end of the
제4 관절(350)은 제3 관절(340)의 타단부에 회전 가능하게 결합된다. 제3 관절(340)의 일단면과 타단면이 서로 수직한 평면 상에 위치하므로, 제4 관절(350)은 제3 관절(340)의 회전축에 대해 수직 방향의 축을 중심으로 회전하 게 된다. 제4 관절(350)의 일단면(제3 관절(340)과 마주하는 면)과 타단면(제5 관절(360)과 마주하는 면)은 서로 수직한 평면 상에 위치한다. The fourth joint 350 is rotatably coupled to the other end of the third joint 340 . Since one end face and the other end face of the third joint 340 are positioned on a plane perpendicular to each other, the fourth joint 350 rotates about an axis in a vertical direction with respect to the axis of rotation of the third joint 340 . One end face (the face facing the third joint 340) and the other end face (the face facing the fifth joint 360) of the fourth joint 350 are located on a plane perpendicular to each other.
제5 관절(360)은 제4 관절(350)의 타단부에 회전 가능하게 결합된다. 제4 관절(350)의 일단면과 타단면이 서로 수직한 평면 상에 위치하므로, 제5 관절(360)은 제4 관절(350)의 회전축에 대해 수직 방향의 축을 중심으로 회전하 게 된다. 제5 관절(360)의 일단면(제4 관절(350)과 마주하는 면)과 타단면(제6 관절(370)과 마주하는 면)은 서로 수직한 평면 상에 위치한다. The fifth joint 360 is rotatably coupled to the other end of the fourth joint 350 . Since the one end face and the other end face of the fourth joint 350 are positioned on a plane perpendicular to each other, the fifth joint 360 rotates about an axis in a direction perpendicular to the axis of rotation of the fourth joint 350 . One end surface (surface facing the fourth joint 350) and the other end surface (surface facing the sixth joint 370) of the fifth joint 360 are located on a plane perpendicular to each other.
제6 관절(370)은 제5 관절(360)의 타단부에 회전 가능하게 결합된다. 제5 관절(360)의 일단면과 타단면이 서로 수직한 평면 상에 위치하므로, 제6 관절(370)은 제5 관절(360)의 회전축에 대해 수직 방향의 축을 중심으로 회전하 게 된다. 제5 관절(360)의 일단면(제4 관절(350)과 마주하는 면)과 타단면은 서로 수직한 평면 상에 위치한다. The sixth joint 370 is rotatably coupled to the other end of the fifth joint 360 . Since one end face and the other end face of the fifth joint 360 are positioned on a plane perpendicular to each other, the sixth joint 370 rotates about an axis in a direction perpendicular to the axis of rotation of the fifth joint 360 . One end face (the face facing the fourth joint 350) and the other end face of the fifth joint 360 are located on a plane perpendicular to each other.
제6 관절(370)의 타단부에는 부가 장치(미도시)가 장착된다. 부가 장치는 로봇(300)이 수행하는 작업 등에 따라 다양한 종류가 존재하며, 제6 관절(370)의 타단부는 다양한 부가 장치가 교체 장착되도록 구성된다.An additional device (not shown) is mounted on the other end of the sixth joint 370 . Various types of additional devices exist depending on the work performed by the
상기 부가 장치는, 로봇의 작업을 위한 툴(tool)이나 상기 로봇에 장착되는 센서 등이 될 수 있다.The additional device may be a tool for the operation of the robot or a sensor mounted on the robot.
본 발명은 상술한 로봇 교시 장치를 통해 로봇을 제어할 수 있도록 한다. 상술한 로봇은 본 발명의 일 실시 예를 나타낸 것일 뿐 본 발명에 따라 제어할 수 있는 로봇의 구조가 상술한 로봇에 한정되지는 않는다.The present invention enables the robot to be controlled through the above-described robot teaching device. The above-described robot shows an embodiment of the present invention, and the structure of the robot that can be controlled according to the present invention is not limited to the above-described robot.
이하, 교시 작업의 각 상황에 따라 사용자가 직관적으로 로봇 교시 장치와 상호작용할 수 있도록 하는 로봇 교시 방법에 대하여 구체적으로 설명한다.Hereinafter, a robot teaching method that allows a user to intuitively interact with a robot teaching apparatus according to each situation of the teaching task will be described in detail.
도 5는 본 발명에 따른 메시지를 출력하는 일 실시 예를 나타내는 순서도이고, 도 6 및 7은 본 발명에 따른 메시지를 출력하는 일 실시 예를 나타내는 개념도이다. 5 is a flowchart illustrating an embodiment of outputting a message according to the present invention, and FIGS. 6 and 7 are conceptual diagrams illustrating an embodiment of outputting a message according to the present invention.
본 발명에 따른 로봇 교시 장치는 상황별로 사용자와 상호작용을 통해 사용자의 원활한 작업을 도와준다. 이를 위해, 도 5를 참조하면, 본 발명에 따른 로봇 교시 장치는 상기 로봇과 로봇 교시 장치의 통신 정보, 로봇의 상태 및 상기 로봇 교시 장치의 상태 중 적어도 하나를 모니터링(S110)한다.The robot teaching apparatus according to the present invention helps the user to work smoothly through interaction with the user for each situation. To this end, referring to FIG. 5 , the robot teaching apparatus according to the present invention monitors ( S110 ) at least one of communication information between the robot and the robot teaching apparatus, the state of the robot, and the state of the robot teaching apparatus.
이 경우에, 상기 모니터링(S110)에 앞서, 상기 로봇의 동작을 교시하도록, 로봇 교시 장치에서 교시 인터페이스를 출력하는 단계가 수행될 수 있다. 다만, 본 발명은 반드시 이에 한정되는 것은 아니며, 상기 교시 인터페이스를 출력하는 단계보다 상기 모니터링(S110)이 먼저 수행되는 것도 가능하다.In this case, prior to the monitoring ( S110 ), the step of outputting a teaching interface from the robot teaching device to teach the operation of the robot may be performed. However, the present invention is not necessarily limited thereto, and it is also possible that the monitoring ( S110 ) is performed before the step of outputting the teaching interface.
상기 교시 인터페이스는 로봇 교시 장치에서 사용자와의 인터랙션을 위하여 출력되는 인터페이스로서, 그래픽 유저 인터페이스, 음향 인터페이스 등을 포함한다. 보다 구체적으로, 상기 교시 인터페이스는 도 3을 참조하여 전술한, 시뮬레이션 영역과 제어 영역을 모두 포함한 의미로 해석될 수 있다. 상기 로봇과 로봇 교시 장치의 통신 정보는 유선 또는 무선 신호를 이용한 상기 로봇과 로봇 교시 장치의 통신 연결과 관련된 정보가 될 수 있다. 이하, 본 명세서에서는 설명의 편의를 위하여 주로 무선 통신를 예시로서 설명한다.The teaching interface is an interface output for interaction with a user in the robot teaching device, and includes a graphic user interface, a sound interface, and the like. More specifically, the teaching interface may be interpreted as meaning including both the simulation area and the control area, as described above with reference to FIG. 3 . The communication information between the robot and the robot teaching device may be information related to a communication connection between the robot and the robot teaching device using a wired or wireless signal. Hereinafter, in the present specification, wireless communication is mainly described as an example for convenience of description.
여기서, 로봇의 상태 정보는 로봇의 현재 설정, 로봇의 구동 상태, 부가 장치의 장착 여부, 통신 상태, 로봇의 현재 자세 중 적어도 하나를 포함하며 마스터 제어기(200) 및 로봇(300)으로부터 수신된 정보를 활용하여 모니터링한다. Here, the state information of the robot includes at least one of the current setting of the robot, the driving state of the robot, whether an additional device is installed, the communication state, and the current posture of the robot, and information received from the master controller 200 and the
로봇 교시 장치(100)의 상태 정보는 로봇 교시 장치에 대한 사용자 입력 값, 현재 실행 중인 기능, 기능 실행 히스토리, 현재 표시중인 화면 정보 및 로봇 교시 장치에 대한 사용자의 사용 패턴 중 적어도 하나를 포함하며, 제어부(130)에 의해 주기적으로 수집될 수 있다.The state information of the
즉, 로봇 교시 장치(100)는 마스터 제어기 및 로봇과 송수신되는 데이터, 사용자로부터 입력 받는 데이터, 로봇 교시 장치 내에서 생성되는 데이터를 모니터링한다. That is, the
모니터링 결과 기 설정된 조건을 만족하는 경우, 디스플레이부(110) 상에 기 설정된 출력 방식의 메시지를 출력(S120)한다. 이러한 예로서, 상기 모니터링 결과가 기설정된 조건을 만족하는 경우, 상기 교시 인터페이스에 상기 모니터링 결과와 관련된 메시지가 출력된다.As a result of monitoring, when a preset condition is satisfied, a message of a preset output method is output on the display unit 110 (S120). For this example, when the monitoring result satisfies a preset condition, a message related to the monitoring result is output to the teaching interface.
상기 기설정된 조건은 복수 개 설정될 수 있으며, 복수의 조건들은 크게 세 종류로 구분될 수 있다. 구체적으로, 상기 기설정된 조건은 작업 제안을 위한 조건, 작업 경고를 위한 조건, 로봇 에러 복구를 위한 조건으로 이루어질 수 있다. 각각의 조건들 및 이에 따른 실시 예에 대하여는 후술한다.A plurality of the preset conditions may be set, and the plurality of conditions may be roughly divided into three types. Specifically, the preset condition may include a condition for job suggestion, a condition for a job warning, and a condition for robot error recovery. Each of the conditions and examples thereof will be described later.
상기 기 설정된 조건이 충족되는지 여부를 판단하기 위해, 로봇 교시 장치는 주기적으로 로봇의 상태 정보 및 로봇 교시 장치의 상태 정보를 모니터링한다.In order to determine whether the preset condition is satisfied, the robot teaching device periodically monitors the status information of the robot and the status information of the robot teaching device.
상기 메시지는 상기 모니터링 결과를 근거로 상기 로봇 교시 장치에 대한 정보 입력을 유도하는 텍스트 및 이미지 중 적어도 하나를 포함할 수 있다.The message may include at least one of a text and an image for inducing input of information to the robot teaching device based on the monitoring result.
예를 들어, 상기 메시지는 상기 메시지 출력의 원인이 되는 기 설정된 조건의 종류에 따라 서로 다른 화면 정보를 포함할 수 있다. 구체적으로, 상기 메시지는 로봇의 상태 및 로봇 교시 장치의 상태에 관한 정보만 포함할 수 있다. 로봇 교시 장치는 상기 메시지에 대한 사용자 입력에 기반하여, 상기 메시지에 표시되는 정보를 변경할 수 있다. 예를 들어, 상기 메시지가 이미지를 포함하는 경우, 로봇 교시 장치는 상기 메시지가 표시된 영역에 대한 사용자 입력에 근거하여 상기 이미지가 변형된 이미지를 표시할 수 있다. 상술한 바와 같이, 본 발명은 상기 메시지를 통해 사용자가 교시 작업의 진행 상황을 실시간으로 모니터링 할 수 있도록 한다.For example, the message may include different screen information according to the type of a preset condition that causes the message output. Specifically, the message may include only information about the state of the robot and the state of the robot teaching device. The robot teaching apparatus may change information displayed in the message based on a user input to the message. For example, when the message includes an image, the robot teaching apparatus may display an image in which the image is deformed based on a user input for an area in which the message is displayed. As described above, the present invention enables the user to monitor the progress of the teaching task in real time through the message.
이와 달리, 상기 메시지는 로봇의 구동 및 제어에 필요한 정보를 입력하기 위한 입력 영역을 포함할 수 있다. 상기 입력 영역에 입력 가능한 정보의 종류는 상기 기 설정된 조건에 따라 달라질 수 있다. 예를 들어, 상기 메시지가 부가 장치의 장착으로 인해 발생한 경우, 상기 메시지는 부가 장치와 관련된 설정값을 입력하는 입력 영역을 포함할 수 있다. 상기 입력 영역은 사용자의 입력 편의를 위하여 버튼 형태로 이루어질 수 있다. 예를 들어, 상기 메시지는 적어도 하나의 버튼을 포함하고, 상기 버튼 각각에는 로봇의 구동 및 제어에 필요한 정보가 매칭될 수 있다. 상기 버튼 각각은 매칭된 정보를 안내하는 텍스트 및 이미지를 포함할 수 있다. 로봇 교시 장치는 상기 버튼이 표시된 영역에 인가되는 사용자 입력에 기반하여 상기 로봇의 구동 및 제어와 관련된 작업을 수행할 수 있다. Alternatively, the message may include an input area for inputting information necessary for driving and controlling the robot. The type of information that can be input into the input area may vary according to the preset condition. For example, when the message is generated due to the attachment of the additional device, the message may include an input area for inputting a setting value related to the additional device. The input area may be formed in the form of a button for user's input convenience. For example, the message may include at least one button, and information necessary for driving and controlling the robot may be matched to each of the buttons. Each of the buttons may include text and an image to guide the matched information. The robot teaching apparatus may perform a task related to driving and controlling the robot based on a user input applied to an area where the button is displayed.
상술한 메시지에 포함된 화면 정보를 통해, 로봇 교시 장치는 메시지를 통해 사용자가 특정 행동을 하도록 유도한다. 구체적으로, 로봇 교시 장치는 메시지를 통해 사용자가 메시지의 일부분을 터치하거나, 디스플레이부에 표시된 화면 정보의 일부를 터치하거나, 로봇에 직접적인 조작을 가하도록 유도한다. Through the screen information included in the above-described message, the robot teaching device induces the user to take a specific action through the message. Specifically, the robot teaching apparatus induces the user to touch a part of the message, touch a part of screen information displayed on the display unit, or apply a direct manipulation to the robot through the message.
일 실시 예에 있어서, 로봇 교시 장치는 사용자가 메시지의 일부분을 터치하거나, 설정 값을 입력하도록 메시지 내에 입력 영역을 표시한다. 다른 일 실시 예에 있어서, 로봇 교시 장치는 사용자가 특정 화면 정보를 터치하도록 메시지 내에 안내 메시지를 표시한다. 다른 일 실시 예에 있어서, 로봇 교시 장치는 사용자가 특정 행동을 수행하도록 메시지 내에 동영상 또는 정지 영상을 표시한다.In an embodiment, the robot teaching device displays an input area in the message so that the user may touch a part of the message or input a setting value. In another embodiment, the robot teaching device displays a guide message in the message so that the user touches specific screen information. In another embodiment, the robot teaching device displays a moving image or a still image in a message so that the user performs a specific action.
상술한 바와 같이, 상술한 메시지는 교시 작업 상황을 안내함과 동시에 교시 작업의 적어도 일부를 수행할 수 있는 입력 영역을 포함한다. 이를 통해, 본 발명에 따른 로봇 교시 장치는 사용자와 상호작용을 한다.As described above, the above-described message includes an input area capable of performing at least a part of the teaching task while guiding the teaching task situation. Through this, the robot teaching device according to the present invention interacts with the user.
한편, 상기 메시지(400)가 표시되는 위치는 메시지와 관련된 문제의 종류에 따라 달라질 수 있다. Meanwhile, the position where the
구체적으로, 메시지의 위치는 문제가 발생된 기능과 관련된 메뉴, 아이콘, 화면정보와 연관되도록 표시될 수 있다. 여기서, “메시지가 특정 화면 정보와 연관되도록 표시된다” 함은 사용자가 특정 화면 정보와 메시지가 연관성이 있는 것으로 인지할 수 있도록 표시함을 의미한다. 예를 들어, “메시지가 특정 화면과 연관되도록 표시한다”함은 특정 화면 정보와 소정 거리 이내로 표시되거나, 특정 화면 정보를 강조 표시하거나, 메시지와 특정 화면 정보가 연결부를 통해 연결되는 것을 포함할 수 있다. 다만, 이에 한정되지 않고 사용자가 특정 화면 정보와 메시지가 연관성이 있는 것으로 인지할 수 있는 경우 “메시지가 특정 화면 정보와 연관되도록 표시된다” 할 수 있다.Specifically, the location of the message may be displayed so as to be related to menus, icons, and screen information related to the function in which the problem occurs. Here, “a message is displayed so as to be related to the specific screen information” means to display the message so that the user can recognize that the specific screen information and the message are related. For example, “displaying a message to be related to a specific screen” may include displaying within a predetermined distance from specific screen information, highlighting specific screen information, or connecting a message and specific screen information through a connection unit. have. However, the present invention is not limited thereto, and when the user can recognize that the specific screen information and the message are related, “a message is displayed to be related to the specific screen information”.
한편, 메시지가 출력되는 시점은 메시지와 관련된 문제의 종류에 따라 달라질 수 있다. Meanwhile, the timing at which the message is output may vary depending on the type of problem related to the message.
일 실시 예에 있어서, 로봇 에러 복구를 위한 메시지의 경우, 에러가 발생되는 즉시 출력될 수 있으며, 작업 경고를 위한 조건 또한 해당 조건이 충족하는 즉시 메시지가 출력될 수 있다. In an embodiment, in the case of a message for robot error recovery, an error may be output immediately, and a condition for a job warning may also be output as soon as the corresponding condition is satisfied.
이와 달리, 작업 제안을 위한 메시지의 경우, 로봇 교시 장치는 해당 조건을 충족하더라도 메시지를 곧바로 출력하지 않고, 메시지를 출력할 수 있는 별도의 아이콘을 표시할 수 있다. 사용자가 상기 아이콘을 터치하는 경우 메시지가 출력된다.Contrary to this, in the case of a message for a task proposal, the robot teaching device may display a separate icon capable of outputting a message without directly outputting the message even if the corresponding condition is satisfied. When the user touches the icon, a message is output.
또한, 상기 메시지를 출력하는 단계(S120)에서, 상기 메시지의 내용은 상기 정보 입력에 따라 변화될 수 있다. 이와 같이, 상기 메시지는 사용자와 로봇 교시 장치 사이에서 주고받는 정보 형태의 내용을 포함할 수 있으며, 따라서 상기 메시지는 핑퐁 메시지로 정의될 수 있다.In addition, in the step of outputting the message ( S120 ), the content of the message may be changed according to the input of the information. As such, the message may include information in the form of information exchanged between the user and the robot teaching device, and thus the message may be defined as a ping-pong message.
이 때에, 상기 메시지는 상기 교시 인터페이스의 실행화면에 오버랩하여 출력되며, 상기 메시지의 내용이 변화하는 동안에 상기 교시 인터페이스의 실행화면은 유지될 수 있다. 보다 구체적으로, 하나의 실행화면을 유지하면서 상기 핑퐁 메시지를 순차적으로 출력함에 따라, 상기 로봇 교시 장치는 해당 실행화면과 관련된 교시 단계에서, 모니터링 결과를 기반으로 사용자와 인터랙션을 수행할 수 있다.In this case, the message is output to overlap the execution screen of the teaching interface, and the execution screen of the teaching interface may be maintained while the content of the message is changed. More specifically, by sequentially outputting the ping-pong message while maintaining one execution screen, the robot teaching apparatus may interact with the user based on the monitoring result in the teaching step related to the corresponding execution screen.
이러한 메시지의 내용 변화를 위하여, 필요에 따라 상기 메시지가 출력된 후, 로봇 교시 장치는 로봇의 상태 및 로봇 교시 장치의 상태 중 적어도 하나를 모니터링(S130)한다. In order to change the content of such a message, after the message is output as necessary, the robot teaching apparatus monitors at least one of the state of the robot and the state of the robot teaching apparatus (S130).
로봇 교시 장치는 상기 메시지에 포함된 입력 영역을 통해 사용자로부터 로봇의 구동 및 제어에 필요한 정보를 입력받은 후, 로봇의 상태 및 로봇 교시 장치의 상태를 모니터링하고, 메시지 출력의 원인이 된 문제가 해소되었는지 판단한다. The robot teaching device receives information necessary for driving and controlling the robot from the user through the input area included in the message, and then monitors the status of the robot and the status of the robot teaching device, and solves the problem that caused the message output determine whether
상기 모니터링 결과에 기반하여, 상기 로봇 교시 장치는 연관 메시지를 출력(S140)한다. Based on the monitoring result, the robot teaching device outputs a related message (S140).
본 명세서에서는 설명의 편의를 위하여 상기 메시지가 표시된 후 로봇 및 로봇 교시 장치에 대한 모니터링 결과에 따라 표시되는 메시지는 연관 메시지라 한다. 로봇 교시 장치는 상기 메시지가 출력된 후 상기 메시지와 관련된 문제가 해결되었는지 여부에 따라 연관 메시지의 출력 여부를 결정한다. In the present specification, for convenience of explanation, a message displayed according to the monitoring result of the robot and the robot teaching device after the message is displayed is referred to as a related message. After the message is output, the robot teaching device determines whether to output a related message according to whether a problem related to the message is solved.
한편, 연관 메시지는 순차적으로 복수개 출력될 수 있으며, 로봇 교시 장치는 특정 연관 메시지가 출력된 후 상기 특정 연관 메시지와 관련된 문제가 해결되었는지 여부에 따라 추가적인 연관 메시지를 출력할지 여부를 결정한다. 즉, 로봇 교시 장치는 초기에 표시된 메시지와 관련된 문제가 모두 해결될 때까지 연관 메시지를 출력한다. On the other hand, a plurality of related messages may be sequentially output, and the robot teaching apparatus determines whether to output an additional related message according to whether a problem related to the specific related message is solved after the specific related message is output. That is, the robot teaching device outputs related messages until all problems related to the initially displayed message are resolved.
상기 연관 메시지는 사용자에게 문제 해결 여부를 안내하거나, 추가적인 안내를 하기 위한 메시지이다. 사용자가 메시지에 기반하여 특정 행동을 수행한 후 문제가 해결 된 경우, 로봇 교시 장치는 문제가 해결되었음을 안내하는 연관 메시지를 표시한다. 한편, 사용자가 메시지에 기반하여 특정 행동을 수행한 경우, 로봇 교시 장치는 사용자의 다음 행동을 유도하는 연관 메시지를 출력할 수 있다. 이 경우, 연관 메시지는 사용자의 행동이 종료될 때마다 계속해서 표시될 수 있다. 즉, 연관 메시지는 문제가 해결될 때까지 계속 해서 표시될 수 있다. The related message is a message for guiding whether to solve a problem to the user or providing additional guidance. If the problem is solved after the user performs a specific action based on the message, the robot teaching device displays an associated message to inform that the problem has been solved. Meanwhile, when the user performs a specific action based on the message, the robot teaching apparatus may output a related message for inducing the user's next action. In this case, the related message may be continuously displayed whenever the user's action is terminated. That is, the relevant messages can continue to be displayed until the problem is resolved.
한편, 상기 연관 메시지는 상기 기 설정된 형식의 메시지와 마찬가지로 로봇의 구동 및 제어에 필요한 정보를 입력 받기 위한 입력 영역을 포함할 수 있다. 상기 입력 영역은 상기 기 설정된 형식의 메시지에 포함된 입력 영역과 동일한 바 구체적인 설명은 생략한다.Meanwhile, the related message may include an input area for receiving information necessary for driving and controlling the robot, similar to the message of the preset format. Since the input area is the same as the input area included in the message of the preset format, a detailed description thereof will be omitted.
상술한 바와 같이, 본 발명에 따르면, 사용자는 본 발명에 따른 유저 인터페이스를 통해 상황의 전개를 인지하면서 교시 작업을 수행하기 때문에, 로봇 교시 작업을 완수하는데 필요한 정보 및 행동을 누락하지 않게 된다. 이하, 첨부된 도면을 참조하여 본 발명의 일 실시 예에 대하여 구체적으로 설명한다.As described above, according to the present invention, since the user performs the teaching task while recognizing the development of the situation through the user interface according to the present invention, information and actions necessary for completing the robot teaching task are not omitted. Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
예를 들어, 도 6과 같이, 로봇 교시 장치(100)는 로봇의 통신 상태를 모니터링하고, 로봇과 로봇 교시 장치간의 통신이 불가능한 경우, 기 설정된 형식의 메시지(400)를 출력한다. 로봇 교시 장치는 로봇의 통신 상태와 관련된 메시지를 연결 상태 아이콘(111) 주변에 표시한다. 한편, 로봇 교시 장치는 메시지가 표시되는 경우 특정 아이콘을 강조 표시(401)하여 메시지와 특정 아이콘이 연관성이 있는 것으로 인지하도록 할 수 있다.For example, as shown in FIG. 6 , the
다른 일 실시 예에 있어서, 도 7을 참조하면, 로봇 교시 장치는 메시지(400)와 특정 아이콘(111)을 연결하는 연결부(402)를 표시할 수 있다. In another embodiment, referring to FIG. 7 , the robot teaching apparatus may display the
다른 일 실시 예에 있어서, 도시되지 않았지만, 로봇 교시 장치는 로봇에 장착된 부가 장치와 관련된 메시지를 시뮬레이션 영역에 표시한다. 다른 일 실시 예에 있어서, 로봇 교시 장치는 로봇에서 에러가 발생된 경우, 시뮬레이션 생성 표현 상에 에러가 발생된 위치를 강조하고, 강조된 위치 주변에 메시지를 표시한다. In another embodiment, although not shown, the robot teaching device displays a message related to an additional device mounted on the robot in the simulation area. In another embodiment, when an error occurs in the robot, the robot teaching device highlights the location where the error occurred on the simulation-generated expression and displays a message around the highlighted location.
이하에서는, 메시지가 출력되는 조건 및 이와 관련된 다양한 실시 예들에 대하여 첨부된 도면과 함께 설명한다. 본 명세서에서는 본 발명과 관련된 실시 예들을 작업 제안, 작업 경고, 로봇 에러로 분류하여 설명하나, 본 발명은 상기 분류에 한정되어 해석되지는 않는다.Hereinafter, a message output condition and various embodiments related thereto will be described along with the accompanying drawings. In the present specification, embodiments related to the present invention are described by classifying them into a task proposal, a task warning, and a robot error, but the present invention is not limited to the above classification and interpreted.
작업 제안work proposal
본 발명은 로봇 교시 작업을 완수하기 위해 필요한 각각의 단계마다 순차적으로 사용자와 상호작용할 수 있는 유저 인터페이스를 제공한다.The present invention provides a user interface that can sequentially interact with a user for each step necessary to complete a robot teaching task.
도 8A 내지 10C은 본 발명의 일 실시 예에 따라 부가 장치 장착에 메시지를 활용하는 일 실시 예를 나타내는 개념도들이고, 도 11은 본 발명의 일 실시 예에 따라 사용자가 처음 실행하는 기능에 메시지를 활용하는 일 실시 예를 나타내는 개념도이다.8A to 10C are conceptual diagrams illustrating an embodiment of using a message for mounting an additional device according to an embodiment of the present invention, and FIG. 11 is a diagram showing an embodiment of using a message for a function executed by a user for the first time according to an embodiment of the present invention. It is a conceptual diagram showing an embodiment of the
본 발명에 따른 로봇 교시 장치는 사용자에게 작업을 제안하기 위한 메시지를 출력한다. 구체적으로, 로봇 교시 장치는 현재 상황에서 사용자가 최우선으로 진행해야 할 작업을 제시하는 메시지를 출력한다. The robot teaching apparatus according to the present invention outputs a message for suggesting a task to the user. Specifically, the robot teaching device outputs a message suggesting a task to be performed with the highest priority by the user in the current situation.
여기서, 메시지가 출력되는 조건은 새로운 부가 장치가 로봇에 장착되는 것이 감지되는 것, 사용자가 특정 기능을 처음 실행하는 것, 사용자가 기설정된 횟수 이내로 실행된 기능을 실행하는 것, 특정 기능 수행 중 사용자 요청이 있는 것 중 적어도 하나를 포함할 수 있다. 이하, 상술한 조건과 관련된 실시 예들에 대하여 구체적으로 설명한다.Here, the condition for which the message is output is that it is detected that a new additional device is mounted on the robot, that the user executes a specific function for the first time, that the user executes the function executed within a preset number of times, that the user is performing a specific function It may include at least one of the requested ones. Hereinafter, embodiments related to the above-described conditions will be described in detail.
로봇에 부가 장치가 장착되는 경우, 로봇은 이와 관련된 데이터를 로봇 교시 장치로 전송한다. 로봇 교시 장치에서 로봇에 부가 장치가 장착된 것이 감지되는 경우, 로봇 교시 장치는 메시지를 출력한다.When the robot is equipped with an additional device, the robot transmits related data to the robot teaching device. When the robot teaching device detects that the robot is equipped with an additional device, the robot teaching device outputs a message.
이 때에, 상기 로봇의 부가 장치가 장착되는 시점에, 상기 로봇 교시 장치의 교시 인터페이스 상에 상기 메시지가 출력될 수 있다. 이를 위하여, 상기 로봇 교시 장치는 상기 부가 장치의 장착을 모니터링하며, 상기 부가 장치의 장착에 응답하여 상기 메시지를 출력하게 된다. 이 경우에, 상기 메시지는 상기 부가 장치의 캘리브레이션을 위한 설정 정보를 포함할 수 있다. 따라서, 사용자는 상기 메시지의 유도에 따라 상기 부가 장치의 캘리브레이션을 수행할 수 있다.At this time, when the additional device of the robot is mounted, the message may be output on the teaching interface of the robot teaching device. To this end, the robot teaching device monitors the attachment of the attachment device, and outputs the message in response to the attachment of the attachment device. In this case, the message may include setting information for calibration of the additional device. Accordingly, the user may perform calibration of the additional device according to the induction of the message.
여기서, 메시지의 내용은 장착된 부가장치의 종류에 따라 다를 수 있다. Here, the content of the message may be different depending on the type of the attached additional device.
일 실시 예에 있어서, 도 8A 내지 8C를 참조하면, 로봇에 힘/토크 센서(F/T 센서)가 장착된 것이 감지된 경우, 로봇 교시 장치는 새로운 장치가 감지되었음을 안내하는 메시지(400)를 출력한다. 상기 메시지(400)가 출력된 후 기설정된 시간이 지나거나, 상기 메시지(400)에 대한 터치 입력이 감지되는 경우, 로봇 교시 장치는 사용자가 로봇을 특정한 움직임으로 움직일 수 있도록 안내하는 메시지(404)를 출력한다. 여기서, 상기 메시지(404)는 동영상을 포함할 수 있다.In one embodiment, referring to FIGS. 8A to 8C , when it is detected that a force/torque sensor (F/T sensor) is mounted on the robot, the robot teaching device displays a
상기 메시지(404)가 출력된 상태에서 로봇 교시 장치는 로봇에 포함된 센서에서 센싱된 값을 모니터링하고, 모니터링된 값을 이용하여 로봇의 좌표계를 설정한다. In a state in which the
이때, 상기 메시지(404)는 사용자가 로봇을 특정한 움직임으로 움직일 때까지 표시되며, 시뮬레이션 생성 표현 주변에 표시될 수 있다.At this time, the
또한, 시뮬레이션 생성 표현의 전체 영역 중 센서가 설치된 위치에 대응하는 영역이 강조(403)표시 될 수 있다.In addition, a region corresponding to the location where the sensor is installed among the entire region of the simulation-generated expression may be highlighted 403 .
한편, 로봇 교시 장치는 상기 모니터링된 값을 이용하여 로봇의 좌표계를 설정할 수 없는 경우, 부가 장치를 재장착할 것을 안내하는 연관 메시지를 출력한다. 이와 동시에 부가 장치의 장착을 보조하는 동영상이 함께 출력될 수 있다.On the other hand, when the robot teaching device cannot set the coordinate system of the robot using the monitored value, the robot teaching device outputs a related message guiding the remounting of the additional device. At the same time, a video supporting the installation of the additional device may be output together.
한편, 로봇 교시 장치는 로봇의 좌표계 설정이 완료된 경우, 이를 안내하는 연관 메시지(405)를 표시한다.On the other hand, when the robot teaching apparatus completes the setting of the robot's coordinate system, a
다른 일 실시 예에 있어서, 도 9A 내지 9C를 참조하면, 로봇에 비전 센서가 장착된 것이 감지된 경우, 로봇 교시 장치는 비전 센서로 특정 위치를 센싱하도록 하는 메시지(406)를 출력한다. 상기 메시지(406)가 출력된 상태에서 로봇 교시 장치는 로봇에 포함된 비전 센서에서 센싱된 값을 모니터링하고, 모니터링된 값을 이용하여 캘리브레이션을 수행한다.In another embodiment, referring to FIGS. 9A to 9C , when it is sensed that the vision sensor is mounted on the robot, the robot teaching device outputs a
이때, 메시지는 비전 센서로 특정 위치를 센싱할 때까지 표시되며, 시뮬레이션 생성 표현 주변에 표시될 수 있다.At this time, the message is displayed until a specific position is sensed by the vision sensor, and may be displayed around the simulation-generated representation.
한편, 로봇 교시 장치는 상기 모니터링된 값을 이용하여 캘리브레이션을 수행할 수 없는 경우, 비전 센서가 다른 위치를 센싱하도록 하는 연관 메시지를 출력한다. 이와 동시에 부가 장치의 장착을 보조하는 동영상이 함께 출력될 수 있다.Meanwhile, when the robot teaching device cannot perform calibration using the monitored value, the robot teaching device outputs a related message for allowing the vision sensor to sense another position. At the same time, a video supporting the installation of the additional device may be output together.
다른 일 실시 예에 있어서, 도 10A 내지 10C을 참조하면, 부가 장치가 장착되었음이 감지되었으나, 장착된 부가 장치의 종류를 감지할 수 없는 경우, 로봇 교시 장치는 사용자가 장착한 부가 장치의 종류를 선택할 수 있도록 하는 메시지(407)를 출력한다.In another embodiment, referring to FIGS. 10A to 10C , if it is detected that the additional device is mounted, but the type of the mounted additional device cannot be detected, the robot teaching device determines the type of the additional device mounted by the user. A
구체적으로, 로봇 교시 장치는 사용자가 장착한 것으로 예상되는 부가 장치의 형상을 2차원 또는 3차원 이미지로 표시한다. 부가 장치와 관련된 영상이 3차원 이미지로 표시되는 경우, 로봇 교시 장치는 상기 3차원 이미지에 대한 터치 입력이 있는 경우, 다른 각도에서 바라본 이미지를 표시한다. 이를 통해, 본 발명은 사용자가 부가 장치의 명칭을 정확히 알지 못하더라도 부가 장치를 장착하여 사용할 수 있도록 한다.Specifically, the robot teaching device displays the shape of the additional device expected to be mounted by the user as a two-dimensional or three-dimensional image. When an image related to an additional device is displayed as a three-dimensional image, the robot teaching apparatus displays an image viewed from a different angle when there is a touch input for the three-dimensional image. Through this, the present invention allows the user to mount and use the additional device even if the user does not know the exact name of the additional device.
한편, 도시되지 않았지만, 상기 메시지(407)는 부가 장치의 리스트를 포함할 수 있다. 사용자는 사용자가 설치한 부가 장치를 상기 리스트에서 선택할 수 있다.Meanwhile, although not shown, the
한편, 로봇 교시 장치는 사용자가 소정 횟수 이내로 실행된 기능을 실행하는 경우, 메시지를 출력한다. 이때, 메시지는 사용자가 특정 기능이 실행된 상태에서 실행해야할 작업을 안내하는 메시지를 포함한다. 로봇 교시 장치는 사용자가 메시지를 통해 안내된 작업을 수행하는지 여부를 모니터링하고, 사용자가 해당 작업을 수행한 경우, 다음 작업을 유도하는 연관 메시지를 출력한다. On the other hand, the robot teaching device outputs a message when the user executes a function executed within a predetermined number of times. In this case, the message includes a message guiding a task to be executed in a state in which a specific function is executed by the user. The robot teaching device monitors whether the user performs the task guided through the message, and when the user performs the task, outputs a related message for inducing the next task.
예를 들어, 도 11을 참조하면, 사용자가 특정 기능을 처음 실행한 경우, 로봇 교시 장치는 해당 기능이 처음 실행되었음을 안내하고, 로봇 교시 장치를 특정 모드(예를 들어, 튜토리얼 모드)로 전환할 것을 선택받는 메시지(408)를 출력한다. 사용자가 특정 모드를 실행할 것을 선택한 경우, 로봇 교시 장치는 사용자가 최우선적으로 수행할 작업을 안내하는 연관 메시지를 출력한다. For example, referring to FIG. 11 , when a user executes a specific function for the first time, the robot teaching device notifies that the corresponding function is first executed, and switches the robot teaching device to a specific mode (eg, tutorial mode). A
상술한 바와 같이, 본 발명에 따르면 사용자와 로봇 교시 장치 간의 상호작용을 통하여 로봇 교시 작업의 각 단계에서 로봇에 대한 모니터링과 문제의 해소가 순차적으로 구현되기 때문에, 이를 통하여 초보자도 용이하게 로봇의 교시를 할 수 있게 된다.As described above, according to the present invention, since the monitoring of the robot and the resolution of the problem are sequentially implemented at each stage of the robot teaching task through the interaction between the user and the robot teaching device, through this, even beginners can easily teach the robot be able to do
또한, 본 발명에 따르면, 로봇 교시 장치는 사용자와의 상호작용을 통해 부가 장치 장착에 필요한 정보를 사용자에게 제공하고, 사용자로부터 부가 장치 설정에 필요한 정보를 수집하기 때문에, 사용자는 로봇에 장착하는 부가 장치에 대한 구체적인 지식이 없이도 쉽게 부가 장치를 로봇에 장착할 수 있게 된다.In addition, according to the present invention, since the robot teaching device provides the user with information necessary for mounting the additional device through interaction with the user, and collects the information required for setting the additional device from the user, the user can install the additional device mounted on the robot. Additional devices can be easily mounted on the robot without specific knowledge of the device.
작업 경고job warning
한편, 본 발명은 사용자가 로봇 교시 작업 중 빈번하게 하는 실수를 사전에 예측하고 예방할 수 있도록 하는 유저 인터페이스를 제공한다.Meanwhile, the present invention provides a user interface that enables a user to predict and prevent a mistake frequently made during a robot teaching task in advance.
도 12는 본 발명의 일 실시 예에 따라 사용자가 자주하는 실수를 예방하기 위해 메시지를 활용하는 일 실시 예를 나타내는 개념도이다.12 is a conceptual diagram illustrating an embodiment of using a message in order to prevent a mistake frequently made by a user according to an embodiment of the present invention.
본 발명에 따른 로봇 교시 장치는 사용자에게 작업 경고를 하기 위해 메시지를 출력한다. 구체적으로, 로봇 교시 장치는 빈번하게 실수가 발생하는 시점에 메시지를 출력한다. The robot teaching apparatus according to the present invention outputs a message to give a task warning to the user. Specifically, the robot teaching device frequently outputs a message at a point in time when a mistake occurs.
여기서, 메시지가 출력되는 조건은 로봇 교시 장치는 특정 조건을 만족하는 상태에서 사용자로부터 특정 기능에 대한 실행 요청을 수신하는 경우, 메시지를 출력한다. 여기서, 특정 조건이란 부가 장치가 장착된 후 부가 장치에 대한 설정을 하지 않았을 것, 특정 기능 실행 시 기설정된 횟 수 이상 오류가 발생되었을 것 중 적어도 하나를 포함할 수 있다. 이하, 상술한 조건과 관련된 실시 예들에 대하여, 상기 부가 장치가 로봇의 엔드 이펙터로 로봇의 암에 장착되는 툴(tool)인 경우를 예를 들어, 구체적으로 설명한다.Here, the message is output condition, when the robot teaching device receives a request for execution of a specific function from the user in a state where the specific condition is satisfied, the message is output. Here, the specific condition may include at least one of that an additional device is not set after the additional device is mounted, and that an error occurs more than a preset number of times when a specific function is executed. Hereinafter, with respect to the embodiments related to the above-described conditions, a case in which the additional device is a tool mounted on the arm of the robot as an end effector of the robot will be described in detail.
로봇에 부가 장치가 장착되는 경우, 로봇은 이와 관련된 데이터를 로봇 교시 장치로 전송한다. 로봇 교시 장치는 로봇에 부가 장치가 장착된 것을 감지할 수 있다.When the robot is equipped with an additional device, the robot transmits related data to the robot teaching device. The robot teaching device may detect that the robot is equipped with an additional device.
상기 부가 장치는 고유의 무게를 가지기 때문에, 상기 무게를 고려하여 제어 명령이 인가되어야 한다. 이를 위해, 부가 장치를 로봇에 장착한 후 사용자는 부가 장치와 관련된 설정값을 로봇 교시 장치에 입력하여 부가 장치와 관련된 설정을 해야한다. Since the attachment device has its own weight, a control command must be applied in consideration of the weight. To this end, after the additional device is mounted on the robot, the user must input the setting value related to the additional device into the robot teaching device to set the additional device related settings.
본 예시에서, 로봇 교시 시스템은 로봇에 툴이 연결되었음을 감지하고, 무게의 입력을 모니터링한다. 이 때에, 무게가 입력되지 않은 경우에 메시지가 출력될 수 있으며, 상기 메시지는 툴의 무게에 대한 입력을 수신하도록 형성될 수 있다.In this example, the robot teaching system detects that a tool is connected to the robot and monitors the input of weight. At this time, a message may be output when the weight is not input, and the message may be configured to receive an input for the weight of the tool.
보다 구체적으로, 상기 로봇 교시 장치는 새로운 툴이 감지된 상태에서 별도의 설정 없이 상기 로봇에 대한 구동 요청이 인가되는 경우, 또는 사용자로부터 입력 받은 값이 상기 툴과 관련된 추정 값과 기 설정된 수준 이상으로 차이가 있는 경우, 상기 메시지를 출력할 수 있다. 상기 메시지는 별도의 버튼을 포함할 수 있다. 로봇 교시 장치는 상기 버튼에 사용자 입력이 인가되는 경우, 상기 부가 장치와 관련된 설정값을 입력하는 입력창을 표시할 수 있다. More specifically, the robot teaching apparatus is configured to set a value higher than the estimated value related to the tool and a preset level when a driving request for the robot is applied without a separate setting in a state in which a new tool is detected, or a value input from the user If there is a difference, the message can be output. The message may include a separate button. When a user input is applied to the button, the robot teaching device may display an input window for inputting a setting value related to the additional device.
예를 들어, 도 12를 참조하면, 로봇에 부가 장치가 장착된 후 별도의 설정없이 로봇 관절 이동 요청이 인가되는 경우, 로봇 교시 장치는 부가 장치와 관련된 설정값을 입력할 것을 안내하는 메시지(400)를 출력한다. 상기 메시지(400)에 대한 터치 입력이 인가되거나, 상기 메시지(400)가 출력된 시점부터 별도의 사용자 입력 없이 기설정된 시간이 경과하는 경우, 로봇 교시 장치는 상기 부가 장치와 관련된 설정값을 입력하는 입력창(409)을 출력한다.For example, referring to FIG. 12 , when a request for movement of a robot joint is applied without a separate setting after the additional device is mounted on the robot, the robot teaching device provides a
또한, 상기 입력창(409)을 통하여 설정값으로서 무게의 입력이 완료되면 상기 메시지는 사리지며, 로봇이 동작을 수행하게 된다.In addition, when the input of the weight as a set value through the
상기에서 설명한 툴 연결 이슈를 모니터링하는 예시는 여러가지 형태로 확장되어 활용될 수 있다. 예를 들어, 툴을 연결한 후에, 상기 로봇 교시 시스템이 상기 로봇의 동작을 모니터링하고, 로봇의 비정상 동작을 감지할 수 있다. 이러한, 비정상 동작은, 예를 들어 비정상 가속도가 될 수 있다.The example of monitoring the tool connection issue described above can be extended and utilized in various forms. For example, after connecting the tool, the robot teaching system may monitor the operation of the robot and detect an abnormal operation of the robot. Such an abnormal operation may be, for example, an abnormal acceleration.
이와 같이, 비정상 동작이 감지되면, 상기 로봇의 구동을 정지하고 상기 메시지가 상기 로봇 교시 장치의 교시 인터페이스에 출력될 수 있다. 상기 메시지는 사용자가 로봇의 동작을 의도한 것인지 문의하며, 사용자의 응답을 수신하는 인터페이스가 될 수 있다. As such, when an abnormal operation is detected, the driving of the robot may be stopped and the message may be output to the teaching interface of the robot teaching apparatus. The message inquires whether the user intended the robot to operate, and may be an interface for receiving the user's response.
상기 메시지를 통하여, 사용자의 의도한 동작이라는 응답이 입력되면 상기 로봇의 구동이 계속될 수 있다. 반면에, 상기 메시지를 통하여 사용자의 의도한 동작이 아니라는 응답이 입력되면 상기 메시지 상에는 상기 툴의 무게를 입력하는 입력창이 출력될 수 있다.If a response indicating the user's intended operation is input through the message, the robot may be continuously driven. On the other hand, when a response indicating that the user's intended operation is not inputted through the message, an input window for inputting the weight of the tool may be output on the message.
나아가, 본 예시에서 상기 툴의 무게 입력은 자동으로 수행되는 것도 가능하다. 예를 들어, 상기 로봇 교시 시스템은 툴의 연결이 감지되면, 툴의 스펙이나 종류를 입력받고, 상기 툴의 스펙이나 종류를 이용하여 상기 툴의 무게를 산출한다. 상기 로봇 교시 장치는 산출된 무게를 제안값으로 상기 메시지에 출력하여, 자동으로 무게를 입력하는 제안을 수행할 수 있다.Furthermore, in this example, it is also possible that the input of the weight of the tool is performed automatically. For example, when the connection of the tool is detected, the robot teaching system receives the specification or type of the tool, and calculates the weight of the tool using the specification or type of the tool. The robot teaching device may output the calculated weight as a suggested value to the message, and perform a suggestion for automatically inputting the weight.
한편, 도시되지 않았지만, 특정 기능 실행시 기설정된 횟수 이상 오류가 발생되는 경우, 로봇 교시 장치는 상기 특정 기능 실행 요청이 인가될 때마다 빈번하게 오류가 발생된 기능임을 안내하는 메시지를 출력한다. 이때, 상기 메시지는 사용자가 오류 해결에 사용하였던 방법을 안내하는 텍스트 또는 이미지를 포함할 수 있다. Meanwhile, although not shown, when an error occurs more than a preset number of times when a specific function is executed, the robot teaching device frequently outputs a message guiding that the function has an error whenever the specific function execution request is applied. In this case, the message may include text or an image guiding the method used by the user to resolve the error.
상술한 바와 같이, 본 발명에 따르면, 사용자의 실수가 빈번하게 발생하는 작업 단계에 도달하였을 때 이를 사용자가 인지하도록 하고, 사용자가 최소한의 작업을 통해 실수를 예방할 수 있도록 하기 때문에, 로봇 에러 횟수가 최소화 되며 사용자의 작업 시간이 단축될 수 있다.As described above, according to the present invention, the number of robot errors is reduced because it allows the user to recognize when a user's error reaches a work stage in which frequent occurrence is reached, and allows the user to prevent a mistake through a minimum amount of work. It is minimized and the user's working time can be shortened.
로봇 에러robot error
한편, 본 발명은 사용자가 로봇의 구동 및 제어 시 발생되는 에러 상황에 대한 인지와 복구를 함께 할 수 있도록 하는 유저 인터페이스를 제공한다.On the other hand, the present invention provides a user interface that allows a user to recognize and recover an error situation that occurs when driving and controlling a robot.
도 13 내지 17은 본 발명의 일 실시 예에 따라 로봇 에러 복구에 메시지를 활용하는 일 실시 예를 나타내는 개념도들이다.13 to 17 are conceptual diagrams illustrating an embodiment of using a message for robot error recovery according to an embodiment of the present invention.
본 발명에 따른 로봇 교시 장치는 로봇 에러를 복구를 하기 위해 메시지를 출력한다. 구체적으로, 로봇 교시 장치는 로봇 에러가 발생하는 시점에 메시지를 출력한다. The robot teaching device according to the present invention outputs a message to recover the robot error. Specifically, the robot teaching device outputs a message at a time when a robot error occurs.
여기서, 메시지가 출력되는 조건은 로봇 교시 장치는 로봇이 인가된 제어명령대로 구동할 수 없을 것, 로봇의 현재 자세와 컴퓨터-생성 표현의 형상이 상이할 것, 사용자 입력을 인식할 수 없을 것 중 적어도 하나를 포함할 수 있다. 이하, 상술한 조건과 관련된 실시 예들에 대하여 구체적으로 설명한다.Here, the conditions for the message to be output are that the robot teaching device cannot operate the robot according to the applied control command, the current posture of the robot and the shape of the computer-generated expression are different, and the user input cannot be recognized It may include at least one. Hereinafter, embodiments related to the above-described conditions will be described in detail.
로봇 교시 장치는 사용자로부터 입력 받은 값에 기반하여 제어 명령을 형성하고 로봇으로 전송한다. 로봇은 수신된 제어 명령에 따라 구동한다. 로봇 교시 장치는 로봇으로 제어명령을 전송하고 로봇의 구동상태를 모니터링한다. 로봇이 제어 명령대로 구동하지 않는 것을 감지하는 경우, 로봇 교시 장치는 메시지를 출력한다.The robot teaching device forms a control command based on the value input by the user and transmits it to the robot. The robot is driven according to the received control command. The robot teaching device transmits a control command to the robot and monitors the driving state of the robot. When detecting that the robot does not operate according to the control command, the robot teaching device outputs a message.
이때, 메시지는 다양한 방식으로 출력될 수 있다. 구체적으로, 메시지는 사용자가 에러를 복구할 수 있는 방법을 안내하거나, 에러 복구와 관련된 아이콘을 포함할 수 있다. In this case, the message may be output in various ways. Specifically, the message may guide the user on how to recover an error, or include an icon related to error recovery.
나아가, 상기 에러가 기존에도 발생하였던 에러인 경우, 로봇 교시 장치는 사용자가 상기 에러 복구에 사용하였던 방법을 그대로 안내할 수 있다. 이때, 메시지는 사용자가 에러 복구에 사용한 방법을 안내하는 텍스트 및 이미지 중 적어도 하나를 포함할 수 있다.Furthermore, when the error is an error that has occurred before, the robot teaching apparatus may guide the method used by the user to recover the error as it is. In this case, the message may include at least one of text and an image guiding a method used by the user for error recovery.
일 실시 예에 있어서, 도 13을 참조하면, 로봇 교시 장치는 입력창(410)을 통해 사용자로부터 로봇 구동을 위한 값을 입력 받은 후 제어명령을 생성하여 로봇으로 전송한다. 로봇이 상기 제어명령대로 구동하지 않는 것을 감지하는 경우, 로봇 교시 장치는 메시지(400)을 출력한다. 이와 함께, 로봇 교시 장치는 디스플레이부의 일부 영역(411)을 강조표시하여 사용자가 로봇 에러가 발생하였음을 쉽게 알 수 있도록 한다.In one embodiment, referring to FIG. 13 , the robot teaching apparatus receives a value for driving the robot from the user through the
다른 일 실시 예에 있어서, 도 14를 참조하면, 로봇 교시 장치는 로봇 에러가 발생하는 경우 복구 버튼(413)을 포함하는 메시지(400)를 출력할 수 있다. 로봇 교시 장치는 상기 복구 버튼(413)에 사용자 입력이 인가될 경우, 로봇 에러를 복구한다. 이를 통해, 본 발명은 로봇 에러가 발생하였을 때 사용자가 별도의 조치를 취하지 않고도 로봇 에러를 복구할 수 있도록 한다.In another embodiment, referring to FIG. 14 , the robot teaching apparatus may output a
이와 달리, 본 발명은 로봇 에러가 발생한 경우, 에러가 발생된 위치를 명확하게 안내하고 사용자가 에러 복구 방식을 선택할 수 있도록 한다. 구체적으로, 로봇 교시 장치는 로봇 에러가 발생한 경우 컴퓨터-생성 표현의 전체 영역 중 에러가 발생된 위치에 대응하는 영역을 강조 표시한다. 에러가 발생된 위치가 복수인 경우 컴퓨터-생성 표현의 복수의 영역이 강조표시될 수 있다. 이후, 로봇 교시 장치는 강조 표시된 영역에 사용자 입력이 인가될 경우, 강조 표시된 영역에 대응하는 위치의 에러를 복구한다. On the contrary, in the case of a robot error, the present invention clearly guides the location of the error and allows the user to select an error recovery method. Specifically, when a robot error occurs, the robot teaching device highlights the area corresponding to the location where the error occurred among the entire area of the computer-generated representation. Multiple regions of the computer-generated representation may be highlighted if there are multiple locations where the error occurred. Thereafter, when a user input is applied to the highlighted area, the robot teaching apparatus recovers an error in a position corresponding to the highlighted area.
일 실시 예에 있어서, 도 15를 참조하면, 로봇 교시 장치는 로봇의 복수의 위치에서 에러가 발생된 경우, 컴퓨터-생성 표현(112’)의 복수의 영역을 강조 표시(414)한다. 이와 함께, 로봇 교시 장치는 에러가 발생되었음을 안내하고, 복구할 위치를 선택할 것을 안내하는 메시지(400)을 출력한다. In one embodiment, referring to FIG. 15 , the robot teaching apparatus highlights 414 a plurality of regions of the computer-generated
구체적으로, 로봇이 더 이상 움직일 수 없는 싱귤러리티 에러가 발생된 경우, 로봇 교시 장치는 구동이 불가능한 관절에 대응하는 컴퓨터-생성 표현(112’)의 일 영역을 강조 표시한다. 이후, 강조 표시된 일 영역에 사용자 입력이 인가되면, 로봇 교시 장치는 상기 일 영역에 대응하는 관절을 풀어 싱귤러리티 에러를 복구한다. 사용자가 선택한 영역에 대응하는 관절을 푸는 것 만으로 에러가 복구되지 않는 경우, 로봇 교시 장치는 연관 메시지(415)를 출력하여 사용자가 추가적인 관절을 선택할 수 있도록 유도한다. 이때, 로봇 교시 장치는 복구된 관절에 대응하는 컴퓨터-생성 표현(112’)의 일 영역의 색을 변경하여 일부분의 복구가 완료되었음을 안내한다.Specifically, when a singularity error occurs in which the robot is no longer able to move, the robot teaching device highlights an area of the computer-generated
한편, 본 발명은 로봇 구동 시 로봇의 일부분이 로봇의 다른 부위에 충돌하거나, 주변 물체에 충돌하는 것을 방지한다. 구체적으로, 로봇 교시 장치는 사용자로부터 로봇 구동 및 제어에 필요한 정보를 입력 받은 후 로봇의 동작을 시뮬레이션 한다. 시뮬레이션 결과, 로봇의 충돌이 예상되는 경우, 로봇 교시 장치는 로봇 교시 장치의 실행화면에 충돌과 관련된 메시지를 출력한다. 충돌과 관련된 메시지는 충돌과 관련된 다양한 정보를 포함할 수 있다. 예를 들어, 충돌과 관련된 메시지는 충돌이 예상되는 로봇의 관절 정보, 충돌이 예상되는 3차원 좌표 정보, 충돌이 예상되는 방향, 충돌이 예상되는 시간 정보 중 적어도 하나를 포함할 수 있다.On the other hand, the present invention prevents a part of the robot from colliding with other parts of the robot or from colliding with a surrounding object when the robot is driven. Specifically, the robot teaching device simulates the operation of the robot after receiving information necessary for driving and controlling the robot from the user. As a result of the simulation, when the collision of the robot is expected, the robot teaching device outputs a message related to the collision on the execution screen of the robot teaching device. The message related to the collision may include various information related to the collision. For example, the message related to a collision may include at least one of joint information of a robot in which a collision is expected, 3D coordinate information in which a collision is expected, a direction in which a collision is expected, and time information in which a collision is expected.
이 경우, 상기 메시지는 전술한 예시와 마찬가지로 핑퐁 메시지 형태로 출력될 수 있다.In this case, the message may be output in the form of a ping-pong message similar to the above-described example.
한편, 로봇의 충돌이 예상되는 경우, 컴퓨터 생성 표현에 포함된 로봇에 포함된 관절에 대응되는 이미지에 충돌을 안내하는 아이콘이 표시될 수 있다. 복수의 부위에 충격이 예상되는 경우, 복수의 위치에 아이콘이 표시될 수 있다. Meanwhile, when a collision of the robot is expected, an icon for guiding the collision may be displayed on an image corresponding to a joint included in the robot included in the computer-generated expression. When an impact to a plurality of parts is expected, icons may be displayed in a plurality of positions.
본 발명에 따른 로봇 교시 장치는 출력되는 메시지에 대한 사용자 입력을 통해 상술한 충돌 에러를 해소할 수 있도록 할 수 있다. 구체적으로, 상기 메시지에는 충돌이 발생된 부위 별로 복구 아이콘이 표시될 수 있다. 상기 복구 아이콘은 컴퓨터 생성 표현 중 충돌이 발생된 부위에 오버랩되어 표시될 수 있다. 충돌이 발생된 부위가 복수 개인 경우, 복수의 부위에 복구 아이콘이 표시될 수 있다.The robot teaching apparatus according to the present invention may be capable of resolving the above-described collision error through a user input to an output message. Specifically, in the message, a recovery icon may be displayed for each part in which a collision has occurred. The recovery icon may be displayed overlapping a portion where a collision occurred during the computer-generated expression. When there are a plurality of parts where the collision has occurred, a recovery icon may be displayed on the plurality of parts.
상기 복구 아이콘 중 어느 하나에 사용자 입력이 인가되는 경우, 로봇 교시 장치는 해당 부위의 충돌을 회피할 수 있는 설정값을 산출하고, 상기 산출된 값으로 로봇의 구동을 시뮬레이션 한다. 로봇 교시 장치는 상기 시뮬레이션 결과 상기 부위의 충돌이 해소될 때까지 해당 부위의 충돌을 회피할 수 있는 설정값을 재산출한다. 이를 통해, 본 발명은 사용자가 별도의 설정값을 입력할 필요 없이 충돌 에러를 해소할 수 있도록 한다.When a user input is applied to any one of the recovery icons, the robot teaching device calculates a setting value for avoiding collision of the corresponding part, and simulates the operation of the robot with the calculated value. The robot teaching device recalculates a set value capable of avoiding the collision of the corresponding part until the collision of the corresponding part is resolved as a result of the simulation. Through this, the present invention enables the user to resolve a collision error without the need to input a separate setting value.
이와 달리, 로봇 교시 장치는 충돌이 발생된 부위에 대응하는 설정값을 재입력 받아 충돌 에러가 해소될 수 있도록 한다. 구체적으로, 메시지에는 충돌 에러가 발생된 부위에 대응하는 입력 영역이 표시된다. 로봇 교시 장치는 상기 입력 영역을 통해 사용자로부터 설정값을 입력 받고, 입력 받은 설정값으로 로봇의 구동을 시뮬레이션 한다. 로봇 교시 장치는 상기 시뮬레이션 결과 상기 부위의 충돌이 해소될 때까지 해당 부위의 충돌을 회피할 수 있는 설정값을 재입력 받는다.On the other hand, the robot teaching apparatus receives a set value corresponding to the part where the collision has occurred again so that the collision error can be resolved. Specifically, in the message, an input area corresponding to a region in which a collision error occurs is displayed. The robot teaching device receives a set value input from the user through the input area, and simulates the operation of the robot with the input set value. The robot teaching device receives a set value for avoiding the collision of the corresponding part again until the collision of the corresponding part is resolved as a result of the simulation.
한편, 본 발명은 로봇의 특정 부위에 대한 충돌 민감도 재설정을 통해 충돌 에러가 해소될 수 있도록 한다. 구체적으로, 메시지에는 로봇의 각 부위에 대한 충돌 민감도가 표시될 수 있다. 상기 메시지에 대한 사용자 입력에 응답하여, 로봇 교시 장치는 특정 부위에 대한 충돌 민감도 값을 수정할 수 있다. 구체적으로, 사용자는 특정 부위에 대한 충돌 민감도 값을 낮춰 충돌 에러가 해소될 수 있도록 한다. 이때 충돌 에러는, 실제 로봇이 구동됨에 따라 발생된 에러일 수 있다.On the other hand, the present invention enables the collision error to be resolved by resetting the collision sensitivity for a specific part of the robot. Specifically, the message may indicate the collision sensitivity for each part of the robot. In response to a user input to the message, the robot teaching device may modify a collision sensitivity value for a specific part. Specifically, the user lowers the collision sensitivity value for a specific part so that the collision error can be resolved. In this case, the collision error may be an error generated as the robot is actually driven.
충돌 민감도 값이 낮게 설정됨에 따라, 특정 부위에 대한 충돌 에러가 해소되는 경우, 로봇 교시 장치는 충돌 에러가 해소되었음을 안내하는 메시지와 함께, 충돌 민감도 변경 히스토리를 포함하는 연관 메시지 표시할 수 있다. 상기 연관 메시지는 변경 전 충돌 민감도로 복구할 수 있는 아이콘을 포함할 수 있다. 상술한 바와 같이, 본 발명은 핑퐁 메시지를 통해 로봇의 특정 부위에 대한 충돌 민감도를 재설정할 수 있도록 함으로써, 불필요한 충돌 감지를 줄일 수 있게 된다.As the collision sensitivity value is set low, when the collision error for a specific part is resolved, the robot teaching apparatus may display a message guiding that the collision error is resolved and a related message including the collision sensitivity change history. The related message may include an icon that can be restored to the collision sensitivity before the change. As described above, the present invention can reduce unnecessary collision detection by resetting the collision sensitivity for a specific part of the robot through the ping-pong message.
일 실시 예에 있어서, 도 16을 참조하면, 로봇 교시 장치는 사용자로부터 입력받은 정보를 이용하여 로봇의 구동 및 시뮬레이션하고, 시뮬레이션 결과 특정 부위에 충돌이 감지되는 경우, 메시지(400)를 출력한다. 이때, 메시지(400)에 출력되는 정보는, 실제 로봇의 구동에 따른 충돌 정보를 포함할 수 있다.In one embodiment, referring to FIG. 16 , the robot teaching apparatus drives and simulates the robot using information input from the user, and outputs a
상기 메시지(400)는 로봇에 대한 시뮬레이션 영상(112)을 포함한다. 이렇나 시뮬레이션 영상(112)은 실제 로봇의 구동에 따른 정보일 수 있다. 상기 시뮬레이션 영상(112) 중 로봇의 관절 각각에 해당하는 영역에는 각 관절의 충돌 민감도 값(416)이 출력될 수 있다. 한편, 충돌이 예상 또는 충돌이 발생된 영역에는 충돌 민감도 값(416)과 함께 별도의 아이콘(416’)이 오버랩되어 표시될 수 있다. The
또한, 상기 메시지(400)에는 충돌이 발생된 관절에 대응하는 입력 영역(417)이 표시되며, 충돌 해소를 위한 추천 설정값이 함께 표시될 수 있다. 제1관절에 대응하는 입력 영역(417)에 터치 입력이 인가되면, 로봇 교시 장치는 제1관절에 대응하는 설정값을 변경하고, 로봇의 동작을 시뮬레이션 한다. 시뮬레이션 결과 제1관절에서의 충돌이 감지되지 않는 경우, 제1관절에 대응하는 충돌 아이콘(416’)이 사라진다(418).In addition, an
한편, 도 17을 참조하면, 제6관절에서 충돌이 발생하였음을 안내하는 아이콘(416’)에 터치가 인가되면, 로봇 교시 장치는 별도의 숫자 입력창을 표시할 수 있다. 상기 숫자 입력창을 통해 로봇 교시 장치는 사용자로부터 제6관절에 대한 충돌 민감도 값을 입력 받을 수 있다. 사용자로부터 입력 받은 충돌 민감도를 이용하여, 로봇의 동작을 시뮬레이션한 결과 충돌이 감지되지 않는 경우, 제6관절에 대응하는 충돌 아이콘(416’)이 사라진다(419). 또한, 시뮬레이션 영상 중 제6관절에 대응하는 영역에 변경된 충돌 민감도 값이 표시된다.Meanwhile, referring to FIG. 17 , when a touch is applied to the
상기에서는, 핑퐁 메시지를 이용하여 충돌 방지를 위한 제어 이득 튜닝을 간소화하는 방법에 대하여 설명하였으며, 이를 통하여 사용자가 세팅을 어려워하는 요소에 대한 가이드 수행이 보다 직관적으로 구현될 수 있다.In the above, a method of simplifying control gain tuning for collision avoidance using a ping-pong message has been described, and through this, guide performance for an element that is difficult for a user to set can be implemented more intuitively.
한편, 본 발명의 핑퐁 메시지는 또 다른 형태의 로봇 교시나 제어에 활용될 수 있다. 또한, 핑퐁 메시지를 통하여 교시와 관련되어 사용자가 인지하기 어려운 모니터링 이슈가 해결될 수 있다. 예를 들어, 로봇 교시 장치는 로봇의 초기 자세 세팅이 변경되는 경우, 사용자가 이를 복구할 수 있도록 한다.Meanwhile, the ping-pong message of the present invention may be utilized for teaching or controlling another type of robot. In addition, a monitoring issue that is difficult for a user to recognize in relation to teaching through the ping-pong message may be resolved. For example, the robot teaching device allows the user to restore the robot's initial posture setting when it is changed.
구체적으로, 로봇의 초기 자세는 기준값으로서 로봇 공장 출고 시 설정되는 값이다. 로봇 사용 중에는 로봇의 초기 자세에 오류가 발생하여, 상기 기준값에서의 로봇 자세가 초기 자세와 차이가 발생할 수 있다.Specifically, the initial posture of the robot is a reference value, which is a value set when the robot is shipped from the factory. An error may occur in the initial posture of the robot while the robot is in use, and the robot posture in the reference value may be different from the initial posture.
본 발명의 로봇 교시 장치는 상기 초기 자세 세팅 값이 로봇 사용 중 변경 되는 경우, 메시지를 출력할 수 있다. 이러한 메시지의 출력을 위하여 로봇의 초기 자세에 대한 오류가 모니터링될 수 있다.The robot teaching apparatus of the present invention may output a message when the initial posture setting value is changed while the robot is in use. In order to output such a message, an error in the initial posture of the robot may be monitored.
이 경우에, 상기 메시지는 초기 자세 세팅 값을 입력할 수 있는 입력 영역을 포함할 수 있다. 사용자는 상기 입력 영역에 초기 자세 세팅값을 입력하여 로봇 초기 자세를 재설정할 수 있다. 나아가, 상기 메시지에는 로봇 공장 출고 시 설정된 값이 표시될 수 있다. 사용자는 상기 초기 설정값을 참조하여 로봇 초기 자세를 재설정할 수 있다.In this case, the message may include an input area for inputting an initial posture setting value. The user may reset the initial robot posture by inputting an initial posture setting value in the input area. Furthermore, in the message, a value set at the time of factory shipment of the robot may be displayed. The user may reset the initial robot posture with reference to the initial setting value.
상술한 바와 같이, 본 발명에 따르면, 로봇 동작 및 제어 중 발생되는 에러 상황 및 에러 복구를 위한 인터페이스가 하나의 메시지에서 제공되기 때문에, 사용자는 에러를 인지하는 즉시 에러 복구를 위한 행동을 수행할 수 있게 된다.As described above, according to the present invention, since the interface for error condition and error recovery generated during robot operation and control is provided in one message, the user can immediately perform the action for error recovery upon recognizing the error. there will be
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. As mentioned above, although embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains know that the present invention may be embodied in other specific forms without changing the technical spirit or essential features thereof. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.
Claims (12)
상기 로봇의 동작을 교시하도록, 로봇 교시 장치에서 교시 인터페이스를 출력하는 단계;
상기 로봇과 로봇 교시 장치의 통신 정보, 상기 로봇의 구동 상태와 부가 장치의 장착 여부를 포함하는 상기 로봇의 상태 정보 및 상기 로봇 교시 장치에 대한 사용자로부터 입력 받은 값을 포함하는 상기 로봇 교시 장치의 상태 정보 중 적어도 하나를 모니터링하는 단계; 및
상기 모니터링 결과가 기 설정된 조건을 만족하는 경우, 상기 교시 인터페이스에 상기 모니터링 결과와 관련된 메시지를 출력하는 단계를 포함하고,
상기 메시지는,
상기 모니터링 결과를 근거로 상기 로봇 교시 장치에 대한 정보 입력 또는 상기 사용자의 특정 행동을 유도하는 텍스트 및 이미지 중 적어도 하나를 포함하고,
상기 기 설정된 조건은 상기 부가 장치가 상기 로봇에 장착된 것이 감지되는 것이고,
상기 메시지는 상기 사용자가 상기 로봇을 특정한 움직임으로 움직이도록 안내하는 텍스트 및 이미지 중 적어도 하나를 포함하며,
상기 로봇을 특정한 움직임으로 움직이도록 안내하는 상기 메시지가 출력된 상태에서 상기 로봇에 포함된 센서에서 센싱된 값을 모니터링하고,
상기 로봇 교시 장치가 상기 센싱된 값에 기반하여, 상기 부가 장치와 관련된 설정을 수행하며,
상기 로봇 교시 장치는, 상기 로봇 교시 장치를 통해 상기 사용자로부터 입력 받은 값에 기반하여 상기 로봇의 구동을 위한 제어 명령을 형성하고,
상기 로봇은,
상기 로봇 교시 장치로부터 수신된 상기 제어 명령에 따라 구동되며,
상기 메시지를 출력하는 단계에서는,
상기 제어 명령을 수신한 상기 로봇의 구동 상태를 모니터링 하여, 상기 로봇이 상기 제어 명령 대로 구동하지 않는 에러를 감지하는 경우, 상기 에러와 관련된 메시지를 출력하고,
상기 에러와 관련된 메시지는,
상기 에러가, 상기 에러가 발생하기 전에도 발생된 적이 있었던 에러인 경우, 상기 사용자가 상기 에러를 복구하기 위해 사용하였던 방법을 안내하는 텍스트 및 이미지 중 적어도 하나를 포함하는 것을 특징으로 하는 로봇 교시 방법.A method of teaching a robot for teaching a robot, the method comprising:
outputting a teaching interface from the robot teaching device to teach the operation of the robot;
Communication information between the robot and the robot teaching device, status information of the robot including the driving state of the robot and whether an additional device is installed, and the state of the robot teaching device including a value input by a user for the robot teaching device monitoring at least one of the information; and
When the monitoring result satisfies a preset condition, outputting a message related to the monitoring result to the teaching interface,
The message is
Based on the monitoring result, it includes at least one of a text and an image for inducing information input to the robot teaching device or a specific action of the user,
The preset condition is that it is detected that the attachment device is mounted on the robot,
The message includes at least one of a text and an image guiding the user to move the robot in a specific motion,
Monitoring the value sensed by the sensor included in the robot in a state in which the message guiding the robot to move in a specific motion is output,
The robot teaching device performs settings related to the additional device based on the sensed value,
The robot teaching device forms a control command for driving the robot based on a value input from the user through the robot teaching device,
The robot is
driven according to the control command received from the robot teaching device,
In the step of outputting the message,
monitoring the driving state of the robot that has received the control command, and when detecting an error that the robot does not operate according to the control command, outputs a message related to the error,
The message related to the error is:
When the error is an error that has occurred even before the error occurred, the method of teaching a robot comprising at least one of a text and an image guiding a method used by the user to recover the error.
상기 메시지를 출력하는 단계에서,
상기 메시지의 내용은 상기 정보 입력에 따라 변화하는 것을 특징으로 하는 로봇 교시 방법.According to claim 1,
In the step of outputting the message,
The robot teaching method, characterized in that the content of the message changes according to the input of the information.
상기 메시지는 상기 교시 인터페이스의 실행화면에 오버랩하여 출력되며,
상기 메시지의 내용이 변화하는 동안에 상기 교시 인터페이스의 실행화면은 유지되는 것을 특징으로 하는 로봇 교시 방법.3. The method of claim 2,
The message is output to overlap the execution screen of the teaching interface,
The method for teaching a robot, characterized in that while the content of the message is changed, the execution screen of the teaching interface is maintained.
상기 기 설정된 조건은 상기 로봇의 동작 및 제어 중 적어도 하나에 오류가 발생하였거나, 오류가 발생될 것으로 예상되는 것임을 특징으로 하는 로봇 교시 방법.According to claim 1,
The preset condition is a robot teaching method, characterized in that an error has occurred or an error is expected to occur in at least one of the operation and control of the robot.
상기 기 설정된 조건은 상기 로봇의 동작 및 제어 중 적어도 하나에 활용될 정보 입력이 필요한 상태임을 특징으로 하는 로봇 교시 방법.According to claim 1,
The preset condition is a robot teaching method, characterized in that the input of information to be used for at least one of the operation and control of the robot is required.
상기 로봇 교시 장치의 교시 인터페이스에 상기 로봇의 동작 정보를 포함하는 시뮬레이션 영역 및 상기 로봇의 제어와 관련된 입력을 수신하는 제어 영역을 표시하는 단계를 더 포함하고,
상기 메시지는,
상기 시뮬레이션 영역 및 상기 제어 영역 중 상기 기 설정된 조건과 관련된 영역과 연관되도록 표시되는 것을 특징으로 하는 로봇 교시 방법.According to claim 1,
Displaying a simulation area including motion information of the robot and a control area for receiving an input related to control of the robot on a teaching interface of the robot teaching device further comprising:
The message is
The method for teaching a robot, characterized in that it is displayed in association with an area related to the preset condition among the simulation area and the control area.
상기 메시지는,
상기 기 설정된 조건과 관련된 상기 로봇의 동작, 제어 및 설정 중 적어도 하나에 활용될 정보를 수신하는 입력 영역을 포함하는 것을 특징으로 하는 로봇 교시 방법.7. The method of claim 6,
The message is
Robot teaching method comprising an input area for receiving information to be utilized for at least one of operation, control, and setting of the robot related to the preset condition.
상기 로봇 교시 장치가 상기 입력 영역을 통해 사용자로부터 정보를 입력 받는 단계;
상기 로봇 교시 장치가 상기 입력 영역을 통해 입력 받은 정보를 활용하여 상기 로봇의 상태 및 상기 로봇 교시 장치의 상태 중 적어도 하나를 모니터링하는 단계; 및
상기 메시지가 출력된 후 수행된 모니터링 결과에 기반하여, 연관 메시지를 출력하는 단계를 더 포함하는 로봇 교시 방법.8. The method of claim 7,
receiving, by the robot teaching device, information from a user through the input area;
monitoring, by the robot teaching device, at least one of a status of the robot and a status of the robot teaching device using information received through the input area; and
Based on the monitoring result performed after the message is output, the robot teaching method further comprising the step of outputting a related message.
교시 인터페이스를 출력하는 디스플레이부;
로봇과 데이터를 송수신하도록 이루어지는 통신부; 및
상기 로봇과 로봇 교시 장치의 통신 정보, 상기 로봇의 구동 상태와 부가 장치의 장착 여부를 포함하는 상기 로봇의 상태 정보 및 상기 로봇 교시 장치에 대한 사용자 입력 값을 포함하는 상기 로봇 교시 장치의 상태 정보 중 적어도 하나를 모니터링하고,
상기 모니터링 결과가 기 설정된 조건을 만족하는 경우, 상기 교시 인터페이스에 상기 모니터링 결과와 관련된 메시지가 출력되도록 상기 디스플레이부를 제어하는 제어부를 포함하고,
상기 메시지는,
상기 모니터링 결과를 근거로 상기 로봇 교시 장치에 대한 정보 입력 또는 상기 사용자의 특정 행동을 유도하는 텍스트 및 이미지 중 적어도 하나를 포함하고,
상기 기 설정된 조건은 상기 부가 장치가 상기 로봇에 장착된 것이 감지되는 것이고,
상기 메시지는 상기 사용자가 상기 로봇을 특정한 움직임으로 움직이도록 안내하는 텍스트 및 이미지 중 적어도 하나를 포함하며,
상기 제어부는,
상기 로봇을 특정한 움직임으로 움직이도록 안내하는 메시지가 출력된 상태에서 상기 로봇에 포함된 센서에서 센싱된 값을 모니터링하고, 상기 센싱된 값에 기반하여, 상기 부가 장치와 관련된 설정을 수행하며,
상기 로봇 교시 장치를 통해 상기 사용자로부터 입력 받은 값에 기반하여 상기 로봇의 구동을 위한 제어 명령을 형성하고,
상기 로봇은, 상기 로봇 교시 장치로부터 수신된 상기 제어 명령에 따라 구동되며,
상기 제어부는,
상기 제어 명령을 수신한 상기 로봇의 구동 상태를 모니터링 하여, 상기 로봇이 상기 제어 명령 대로 구동하지 않는 에러를 감지하는 경우, 상기 에러와 관련된 메시지를 출력하고,
상기 에러와 관련된 메시지는,
상기 에러가, 상기 에러가 발생하기 전에도 발생된 적이 있었던 에러인 경우, 상기 사용자가 상기 에러를 복구하기 위해 사용하였던 방법을 안내하는 텍스트 및 이미지 중 적어도 하나를 포함하는 것을 특징으로 하는 로봇 교시 장치. A robot teaching apparatus for teaching a robot, comprising:
a display unit for outputting a teaching interface;
a communication unit configured to transmit and receive data to and from the robot; and
Among the communication information between the robot and the robot teaching device, the status information of the robot including the driving state of the robot and whether an additional device is installed, and the status information of the robot teaching device including a user input value for the robot teaching device monitor at least one;
a control unit controlling the display unit to output a message related to the monitoring result to the teaching interface when the monitoring result satisfies a preset condition;
The message is
Based on the monitoring result, it includes at least one of a text and an image for inducing information input to the robot teaching device or a specific action of the user,
The preset condition is that it is detected that the attachment device is mounted on the robot,
The message includes at least one of a text and an image guiding the user to move the robot in a specific motion,
The control unit is
In a state in which a message guiding the robot to move in a specific movement is output, a value sensed by a sensor included in the robot is monitored, and based on the sensed value, settings related to the additional device are performed,
Forming a control command for driving the robot based on the value input from the user through the robot teaching device,
The robot is driven according to the control command received from the robot teaching device,
The control unit is
monitoring the driving state of the robot that has received the control command, and when detecting an error that the robot does not operate according to the control command, outputs a message related to the error,
The message related to the error is:
When the error is an error that has occurred even before the error occurs, the robot teaching apparatus comprises at least one of a text and an image guiding a method used by the user to recover the error.
상기 로봇의 동작을 교시하는 로봇 교시 장치를 포함하고,
상기 로봇 및 로봇 교시 장치는 상기 로봇을 교시하는 로봇 교시 방법을 수행하며,
상기 로봇 교시 방법은,
상기 로봇의 동작을 교시하도록, 로봇 교시 장치에서 교시 인터페이스를 출력하는 단계;
상기 로봇과 로봇 교시 장치의 통신 정보, 상기 로봇의 구동 상태와 부가 장치의 장착 여부를 포함하는 상기 로봇의 상태 정보 및 상기 로봇 교시 장치에 대한 사용자로부터 입력 받은 값을 포함하는 상기 로봇 교시 장치의 상태 정보 중 적어도 하나를 모니터링하는 단계; 및
상기 모니터링 결과가 기 설정된 조건을 만족하는 경우, 상기 교시 인터페이스에 상기 모니터링 결과와 관련된 메시지를 출력하는 단계를 포함하고,
상기 메시지는,
상기 모니터링 결과를 근거로 상기 로봇 교시 장치에 대한 정보 입력 또는 상기 사용자의 특정 행동을 유도하는 텍스트 및 이미지 중 적어도 하나를 포함하고,
상기 기 설정된 조건은 상기 부가 장치가 상기 로봇에 장착된 것이 감지되는 것이고,
상기 메시지는 상기 사용자가 상기 로봇을 특정한 움직임으로 움직이도록 안내하는 텍스트 및 이미지 중 적어도 하나를 포함하며,
상기 로봇을 특정한 움직임으로 움직이도록 안내하는 상기 메시지가 출력된 상태에서 상기 로봇에 포함된 센서에서 센싱된 값을 모니터링하고,
상기 로봇 교시 장치가 상기 센싱된 값에 기반하여, 상기 부가 장치와 관련된 설정을 수행하며,
상기 로봇 교시 장치는, 상기 로봇 교시 장치를 통해 상기 사용자로부터 입력 받은 값에 기반하여 상기 로봇의 구동을 위한 제어 명령을 형성하고,
상기 로봇은,
상기 로봇 교시 장치로부터 수신된 상기 제어 명령에 따라 구동되며,
상기 메시지를 출력하는 단계에서는,
상기 제어 명령을 수신한 상기 로봇의 구동 상태를 모니터링 하여, 상기 로봇이 상기 제어 명령 대로 구동하지 않는 에러를 감지하는 경우, 상기 에러와 관련된 메시지를 출력하고,
상기 에러와 관련된 메시지는,
상기 에러가, 상기 에러가 발생하기 전에도 발생된 적이 있었던 에러인 경우, 상기 사용자가 상기 에러를 복구하기 위해 사용하였던 방법을 안내하는 텍스트 및 이미지 중 적어도 하나를 포함하는 것을 특징으로 하는 로봇 교시 시스템.robot; and
A robot teaching device for teaching the operation of the robot,
The robot and the robot teaching device perform a robot teaching method of teaching the robot,
The robot teaching method,
outputting a teaching interface from the robot teaching device to teach the operation of the robot;
Communication information between the robot and the robot teaching device, status information of the robot including the driving state of the robot and whether an additional device is installed, and the state of the robot teaching device including a value input by a user for the robot teaching device monitoring at least one of the information; and
When the monitoring result satisfies a preset condition, outputting a message related to the monitoring result to the teaching interface,
The message is
Based on the monitoring result, it includes at least one of a text and an image for inducing information input to the robot teaching device or a specific action of the user,
The preset condition is that it is detected that the attachment device is mounted on the robot,
The message includes at least one of a text and an image guiding the user to move the robot in a specific motion,
Monitoring the value sensed by the sensor included in the robot in a state in which the message guiding the robot to move in a specific motion is output,
The robot teaching device performs settings related to the additional device based on the sensed value,
The robot teaching device forms a control command for driving the robot based on a value input from the user through the robot teaching device,
The robot is
driven according to the control command received from the robot teaching device,
In the step of outputting the message,
monitoring the driving state of the robot that has received the control command, and when detecting an error that the robot does not operate according to the control command, outputs a message related to the error,
The message related to the error is:
and when the error is an error that has occurred before the error occurred, at least one of a text and an image guiding a method used by the user to recover from the error.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210078341A KR102403568B1 (en) | 2021-06-16 | 2021-06-16 | Robot teaching apparatus and method for teaching robot using the same |
KR1020220063536A KR102567361B1 (en) | 2021-06-16 | 2022-05-24 | Robot teaching apparatus and method for teaching robot using the same |
CN202210682428.3A CN115476365A (en) | 2021-06-16 | 2022-06-16 | Robot teaching device and robot teaching method using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210078341A KR102403568B1 (en) | 2021-06-16 | 2021-06-16 | Robot teaching apparatus and method for teaching robot using the same |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220063536A Division KR102567361B1 (en) | 2021-06-16 | 2022-05-24 | Robot teaching apparatus and method for teaching robot using the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102403568B1 true KR102403568B1 (en) | 2022-06-10 |
Family
ID=81986319
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210078341A KR102403568B1 (en) | 2021-06-16 | 2021-06-16 | Robot teaching apparatus and method for teaching robot using the same |
KR1020220063536A KR102567361B1 (en) | 2021-06-16 | 2022-05-24 | Robot teaching apparatus and method for teaching robot using the same |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220063536A KR102567361B1 (en) | 2021-06-16 | 2022-05-24 | Robot teaching apparatus and method for teaching robot using the same |
Country Status (2)
Country | Link |
---|---|
KR (2) | KR102403568B1 (en) |
CN (1) | CN115476365A (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06134684A (en) * | 1992-09-22 | 1994-05-17 | Nippon Telegr & Teleph Corp <Ntt> | Teaching method of robot track |
JP2019126895A (en) * | 2018-01-26 | 2019-08-01 | セイコーエプソン株式会社 | Robot control device and robot system |
JP2019152971A (en) * | 2018-03-01 | 2019-09-12 | オムロン株式会社 | Simulation device, simulation method and simulation program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6134684A (en) * | 1984-07-27 | 1986-02-18 | Matsushita Electric Ind Co Ltd | Binary information counting device |
-
2021
- 2021-06-16 KR KR1020210078341A patent/KR102403568B1/en active IP Right Grant
-
2022
- 2022-05-24 KR KR1020220063536A patent/KR102567361B1/en active IP Right Grant
- 2022-06-16 CN CN202210682428.3A patent/CN115476365A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06134684A (en) * | 1992-09-22 | 1994-05-17 | Nippon Telegr & Teleph Corp <Ntt> | Teaching method of robot track |
JP2019126895A (en) * | 2018-01-26 | 2019-08-01 | セイコーエプソン株式会社 | Robot control device and robot system |
JP2019152971A (en) * | 2018-03-01 | 2019-09-12 | オムロン株式会社 | Simulation device, simulation method and simulation program |
Also Published As
Publication number | Publication date |
---|---|
KR20220168552A (en) | 2022-12-23 |
KR102567361B1 (en) | 2023-08-16 |
CN115476365A (en) | 2022-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11220002B2 (en) | Robot simulation device | |
JP7419271B2 (en) | Visualizing and modifying operational boundary zones using augmented reality | |
US9387589B2 (en) | Visual debugging of robotic tasks | |
US10166673B2 (en) | Portable apparatus for controlling robot and method thereof | |
JP4680516B2 (en) | Method for fading in robot information to real-world images, and apparatus for visualizing robot information into real-world images | |
US10737396B2 (en) | Method and apparatus for robot path teaching | |
JP6886869B2 (en) | Motion prediction system and motion prediction method | |
US9958862B2 (en) | Intuitive motion coordinate system for controlling an industrial robot | |
JP3708083B2 (en) | Robot teaching device | |
Fang et al. | Novel AR-based interface for human-robot interaction and visualization | |
KR101876845B1 (en) | Robot control apparatus | |
EP3595850A1 (en) | Mixed reality assisted spatial programming of robotic systems | |
EP2055446A1 (en) | A portable robot control apparatus and a method for controlling a movement of a robot | |
WO2011039542A1 (en) | Method and system of programming a robot | |
JP2013136123A (en) | Assisting device and assisting method for teaching operation for robot | |
Andersen et al. | Intuitive task programming of stud welding robots for ship construction | |
WO2019046559A1 (en) | Using augmented reality for controlling intelligent devices | |
CN116802021A (en) | Object-based robot control | |
JP2021062436A (en) | Teaching method | |
KR102403021B1 (en) | Robot teaching apparatus and method for teaching robot using the same | |
Thoo et al. | Online and offline robot programming via augmented reality workspaces | |
KR102403568B1 (en) | Robot teaching apparatus and method for teaching robot using the same | |
US9415512B2 (en) | System and method for enhancing a visualization of coordinate points within a robots working envelope | |
KR101474778B1 (en) | Control device using motion recognition in artculated robot and method thereof | |
WO2023162248A1 (en) | Teaching operation panel and robot control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
GRNT | Written decision to grant |