KR102520214B1 - A method for driving a collaborative robot capable of preemptive response and a system therefor - Google Patents

A method for driving a collaborative robot capable of preemptive response and a system therefor Download PDF

Info

Publication number
KR102520214B1
KR102520214B1 KR1020220169877A KR20220169877A KR102520214B1 KR 102520214 B1 KR102520214 B1 KR 102520214B1 KR 1020220169877 A KR1020220169877 A KR 1020220169877A KR 20220169877 A KR20220169877 A KR 20220169877A KR 102520214 B1 KR102520214 B1 KR 102520214B1
Authority
KR
South Korea
Prior art keywords
robot
driving
cooperative
collaborative
cooperative robot
Prior art date
Application number
KR1020220169877A
Other languages
Korean (ko)
Inventor
임기웅
Original Assignee
주식회사 유에이로보틱스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유에이로보틱스 filed Critical 주식회사 유에이로보틱스
Priority to KR1020220169877A priority Critical patent/KR102520214B1/en
Application granted granted Critical
Publication of KR102520214B1 publication Critical patent/KR102520214B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • B25J19/061Safety devices with audible signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

The present invention relates to a method of driving a cooperative robot capable of preemptive response and a system therefor. In more detail, the present invention relates to the method of driving a cooperative robot capable of proactive response and the system therefor in which a collaborative robot performs fault diagnosis and operation correction before performing work, and also can be driven to avoid surrounding movements during driving. The method of driving a cooperative robot includes a step of identifying a positional accuracy of the collaborative robot in real time by a first position detection sensor when the collaborative robot is driven to diagnose a failure.

Description

선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템{A METHOD FOR DRIVING A COLLABORATIVE ROBOT CAPABLE OF PREEMPTIVE RESPONSE AND A SYSTEM THEREFOR}A method for driving a collaborative robot capable of preemptive response and a system therefor

본 발명은 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 관한 것이다. 보다 자세하게는 협동 로봇이 작업을 실시하기 이전에 고장 진단 및 구동 보정을 하고, 또한 구동 시에는 협동 로봇이 주변 움직임을 피하여 구동될 수 있도록 한 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 관한 것이다. The present invention relates to a method for driving a collaborative robot capable of preemptively responding and a system therefor. More specifically, a method and system for driving a collaborative robot capable of preemptively responding by diagnosing faults and correcting the operation before the cooperative robot performs work, and avoiding the movement of the surroundings during driving, so that the cooperative robot can be driven. it's about

많은 전문가들은 4차 산업 혁명과 첨단 기술의 발달로 인간과 로봇(Robot)이 공존하는 사회가 도래할 것이라고 전망하였다.Many experts have predicted that a society where humans and robots coexist will come with the 4th industrial revolution and the development of advanced technology.

현재의 로봇 기술은 사람들이 할 수 있는 작업을 그대로 모방하거나 들어 올리고 옮기는 작업과 같은 단순 노동을 수행할 수 있음은 물론 공업, 농업, 서비스업 등과 같이 정밀함과 정확함을 요구하는 작업들을 수행할 수 있을 정도로 발전하였다.Current robot technology is capable of performing tasks that require precision and accuracy, such as in industry, agriculture, and service industries, as well as performing simple labor such as imitating tasks that people can do or lifting and moving. developed.

로봇이 앞서 언급한 역할들을 수행할 수 있었던 것은 노동을 하게 되면 체력이 고갈되는 인간과 달리 입력된 데이터와 공급 에너지(예. 전기 에너지)만 있으면 구동 제어가 있을 때까지 주어진 작업을 완수하는 로봇의 특징 때문일 것이다.Unlike humans, whose physical strength is depleted during labor, robots were able to perform the roles mentioned above because of the robot's ability to complete given tasks until there is drive control with only input data and supplied energy (e.g., electrical energy). Maybe it's because of the features.

또한, 로봇은 사소한 감정 또는 심리 상태에 의하여 작업 중에 실수를 할 수 있는 인간과 달리 입력된 데이터를 기반으로 구동을 실시하기 때문에 작업 중에 실수를 할 일이 없고, 최근에는 로봇에 인공지능 AI 기술이 탑재되어 입력된 구동 데이터들을 스스로 학습하거나 주변 객체들을 식별할 수 있게 되어 보다 정밀하고 정확한 작업을 수행할 수 있게 되었다.In addition, unlike humans who can make mistakes during work due to trivial emotions or psychological states, robots do not make mistakes during work because they are driven based on input data. It is possible to perform more precise and accurate work by learning the input driving data by itself or identifying surrounding objects.

다만, 로봇은 인간과 달리 감각 기능을 갖고 있지 않으며 예방 가능한 상황에 대한 선제적 대응이 불가능하다. 구체적인 예로, 로봇은 인간과 달리 작업을 시작하기 전에 본체가 작업에 대하여 준비가 되었는지 또는 현재 로봇의 상태가 불편한 점이 없는지 자체적으로 판단하거나 불편한 부분을 자체적으로 해결하기 어려우며, 작업 중에 발생되는 예방 가능한 돌발 상황(예. 다음 작업 공간에 누군가 방해 중인 상황)을 대처하기에는 어려움이 있었다.However, unlike humans, robots do not have sensory functions and cannot preemptively respond to preventable situations. As a specific example, unlike humans, robots have difficulty self-determining whether the main body is ready for work or whether there are any inconveniences in the current state of the robot before starting work, or it is difficult to resolve uncomfortable parts on its own, and it is difficult to prevent unexpected accidents that occur during work. It was difficult to deal with situations (eg someone in the next workspace being disturbed).

본 발명은 이와 같은 문제점에 착안하여 도출된 것으로, 이상에서 살핀 기술적 문제점을 해소시킬 수 있음은 물론, 본 기술분야에서 통상의 지식을 가진 자가 용이하게 고안할 수 없는 추가적인 기술요소들을 제공하기 위해 발명되었다.The present invention was derived in view of the above problems, and it is possible to solve the above technical problems, as well as to provide additional technical elements that cannot be easily devised by those skilled in the art. It became.

본 발명은 협동 로봇이 특정 작업을 실시하기 이전에 협동 로봇이 고장 났는지에 대하여 또는 특정 작업을 실시하기 위한 구동의 오차가 없는지에 대하여 판단하여, 고장 났거나 구동의 오차가 있는 경우 이를 보정하여 상기 특정 작업을 실시하도록 하는 방법 및 이를 위한 시스템을 제공하는 것을 목적한다.According to the present invention, before the collaborative robot performs a specific task, it is determined whether the collaborative robot is out of order or whether there is an error in driving to perform the specific task, and if it is out of order or there is an error in driving, it is corrected to perform the above task. It is an object to provide a method for performing a specific task and a system therefor.

또한, 본 발명은 협동 로봇이 특정 작업에 대하여 순차적으로 제1 구동과제2 구동을 실시할 때에 제2 구동을 실시하기 이전에, 제2 구동을 실시하기 위하여 이동해야 하는 경로 또는 제2 구동을 실시할 때의 협동 로봇의 움직임 반경에 장애물이 있는지 먼저 파악하여 선제적 대응 실시하는 방법 및 이를 위한 시스템을 제공하는 것을 목적으로 한다.In addition, when the cooperative robot sequentially performs the first driving and the second driving for a specific task, the present invention implements a path or a second driving that must be moved to perform the second driving before performing the second driving. An object of the present invention is to provide a method and a system for performing a preemptive response by first identifying whether there is an obstacle in the movement radius of a collaborative robot when performing a collaborative robot.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.

위와 같은 문제점을 해결하기 위하여, 본 발명에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 (a) 협동 로봇이 고장 진단을 위한 구동을 실시할 때, 제1 위치 감지 센서가 실시간으로 상기 협동 로봇의 위치 정확도를 파악하는 단계, (b) 상기 협동 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당하지 않을 경우, 상기 협동 로봇이 작업을 위한 제1 구동을 실시하도록 하는 단계, (c) 상기 협동 로봇이 작업을 위한 제2 구동을 실시하기 이전에, 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 주변 움직임을 감지하는 단계 및 (d) 상기 제2 위치 감지 센서에 의해 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임이 감지되지 않은 경우, 상기 협동 로봇이 제2 구동을 실시하는 단계를 포함할 수 있다. In order to solve the above problems, a method for driving a cooperative robot capable of preemptively responding according to the present invention (a) when the cooperative robot is driven for fault diagnosis, the first position sensor detects the motion of the cooperative robot in real time. Step of determining the positional accuracy; (b) if the positional accuracy of the collaborative robot does not fall within a preset error range, allowing the collaborative robot to perform a first drive for work; (c) the cooperative robot Before performing the second drive for work, detecting, by a second position sensor, a motion around the collaborative robot movement path corresponding to the second drive; and The method may include performing a second drive by the collaborative robot when no movement is detected in the movement path of the collaborative robot corresponding to the second driving.

또한, 상기 위치 정확도는 상기 협동 로봇이 작업을 수행할 때에 위치해야 하는 표준의 위치와 상기 협동 로봇이 고장 진단을 위한 구동을 실시할 때의 협동 로봇의 위치를 비교 분석하여 유사도를 산출한 것임을 특징으로 할 수 있다.In addition, the location accuracy is characterized in that the degree of similarity is calculated by comparing and analyzing the standard position to be located when the collaborative robot is performing a task and the position of the cooperative robot when the cooperative robot is driven for fault diagnosis. can be done with

또한, 상기 제1 위치 감지 센서는 상기 협동 로봇에 인접한 위치에 배치되는 것으로, 상기 협동 로봇에 부착된 적어도 하나 이상의 IR 마커를 인식하여 상기 협동 로봇의 움직임 및 위치를 감지하는 카메라인 것을 특징으로 할 수 있다.In addition, the first position detection sensor is disposed adjacent to the cooperative robot and is a camera that detects the movement and position of the cooperative robot by recognizing at least one IR marker attached to the cooperative robot. can

또한, 상기 제2 위치 감지 센서는 3차원 Lidar 또는 Depth 카메라를 적어도 하나 이상 포함하는 장치로서, 상기 협동 로봇에 인접한 위치 또는 상기 협동 로봇에 배치되어, 실시간으로 움직이는 물체의 움직임 또는 위치를 검출하는 카메라인 것을 특징으로 할 수 있다.In addition, the second position detection sensor is a device including at least one 3D lidar or depth camera, and is disposed adjacent to the cooperative robot or on the cooperative robot to detect the movement or position of a moving object in real time. It can be characterized as being.

또한, 상기 (a) 단계 이후에, (a-1) 상기 협동 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당하는 경우, 상기 로봇 서버에 고장 정보- 상기 고장 정보는, 상기 협동 로봇의 식별 코드, 또는 오차 범위를 적어도 하나 이상 포함하는 정보임-를 송신하여 구동 보정을 요청하는 단계 및 상기 협동 로봇이 상기 로봇 서버로부터 구동 보정 정보를 수신한 경우, 상기 협동 로봇이 고장 진단을 위한 구동을 재실시하도록 하는 단계를 더 포함할 수 있다.In addition, after the step (a), (a-1) if the positional accuracy of the collaborative robot falls within a preset error range, failure information to the robot server-the failure information includes an identification code of the collaborative robot, or information including at least one error range - requesting driving correction by transmitting and, when the cooperative robot receives driving correction information from the robot server, the cooperative robot re-executes driving for fault diagnosis It may further include steps to do so.

또한, 상기 (c) 단계 이후에, (c-1) 상기 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임을 감지한 경우, 상기 협동 로봇의 음성 발화부가 경고 음성을 출력하도록 하는 단계를 더 포함할 수 있다.In addition, after step (c), (c-1) when the second position detection sensor detects a movement around the cooperative robot in the movement path corresponding to the second drive, the voice generator of the cooperative robot warns. A step of outputting a voice may be further included.

또한, 상기 (c) 단계 이후에, (c-1′) 상기 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임을 감지한 경우, 상기 협동 로봇이 축 변경이 가능한 협동 로봇인지에 대한 여부를 판단하는 단계. (c-2′) 상기 협동 로봇이 축 변경이 가능한 협동 로봇이라 판단한 경우, 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동이 가능한지에 대한 여부를 판단 하는 단계 및 (c-3′) 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동이 가능하다고 판단한 경우, 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동을 실시하도록 하는 단계를 더 포함할 수 있다.In addition, after the step (c), (c-1′), when the second position detection sensor detects a peripheral movement in the movement path of the collaborative robot corresponding to the second drive, the cooperative robot changes its axis. A step of determining whether or not a collaborative robot is possible. (c-2′) if it is determined that the collaborative robot is capable of axis change, determining whether or not the cooperative robot can drive to avoid the surrounding movement; and (c-3′) the cooperative robot When it is determined that the avoidance driving for the surrounding movement is possible, the method may further include allowing the collaborative robot to perform avoidance driving for the surrounding movement.

한편, 위와 같은 문제점을 해결하기 위하여, 본 발명에 따른 협동 로봇 구동 시스템은 로봇 서버와 데이터 교환이 가능하여 상기 로봇 서버에 고장 정보를 전송하는 통신부; 상기 협동 로봇의 위치 및 움직임을 감지하거나 상기 협동 로봇의 주변 물체를 감지하여 센싱정보를 생성하는 센서부; 상기 센서부로부터 생성된 센싱정보를 기반으로 물체 또는 사람을 인식하는 장애물 인식부; 상기 협동 로봇이 작업을 수행할 때에 필요한 상기 협동 로봇의 이동경로를 생성하는 경로 생성부; 상기 협동 로봇 또는 상기 협동 로봇에 구비된 로봇팔의 구동을 제어하는 구동 제어부; 및 경고 음성을 출력하는 음성 발화부; 를 포함하고, 외면에 적어도 하나 이상의 IR 마커가 부착된 협동 로봇, 상기 협동 로봇에 인접한 위치 또는 상기 협동 로봇에 배치되어, 상기 협동 로봇에 부착된 적어도 하나 이상의 IR 마커를 인식하여 상기 협동 로봇의 움직임 및 위치를 감지하는 제1 위치 감지 센서, 상기 협동 로봇에 인접한 위치 또는 상기 협동 로봇에 배치되어, 실시간으로 움직이는 물체의 움직임 또는 위치를 검출하는 제2 위치 감지 센서 및 상기 협동 로봇으로부터 상기 고장 정보를 수신하면, 상기 고장 정보를 분석하여 구동 보정 정보를 생성하고 상기 구동 보정 정보를 상기 협동 로봇에 전송하는 로봇 서버를 포함할 수 있다.Meanwhile, in order to solve the above problems, the cooperative robot driving system according to the present invention includes a communication unit capable of exchanging data with a robot server and transmitting failure information to the robot server; a sensor unit generating sensing information by detecting a position and movement of the collaborative robot or sensing an object around the cooperative robot; an obstacle recognizing unit recognizing an object or a person based on the sensing information generated by the sensor unit; a path creation unit generating a movement path of the collaborative robot necessary when the collaborative robot performs a task; a driving control unit that controls driving of the cooperative robot or a robot arm provided in the cooperative robot; and a voice ignition unit outputting a warning voice. Including, a cooperative robot having at least one IR marker attached to its outer surface, a location adjacent to the collaborative robot or disposed on the cooperative robot, and recognizing at least one IR marker attached to the cooperative robot to move the cooperative robot. and a first position detection sensor for detecting a position, a position adjacent to or disposed on the cooperative robot, and a second position detection sensor for detecting the movement or position of a moving object in real time and the failure information from the cooperative robot. Upon reception, it may include a robot server that analyzes the failure information to generate drive correction information and transmits the drive correction information to the cooperative robot.

상기와 같은 본 발명에 따르면, 협동 로봇이 특정 작업을 실시하기 이전에 협동 로봇이 고장 진단 구동 실시하여 고장이 났거나 구동의 오차가 있는 것을 사전에 파악함으로써, 작업의 완성도를 향상시켜 양질의 작업 결과물을 만들어 낼 수 있는 효과가 있다.According to the present invention as described above, the cooperative robot performs fault diagnosis and operation before performing a specific task, thereby identifying in advance a failure or an error in driving, thereby improving the completeness of the work and providing high-quality work. There is an effect that can produce a result.

또한, 협동 로봇이 제1 구동 이후 제2 구동을 실시하기 이전에 제2 구동을 실시하기 위하여 이동하는 경로 또는 제2 구동을 실시할 때의 협동 로봇의 움직임 반경에 장애물이 있는지 먼저 파악하고 이에 대한 선제적 대응을 실시함으로써, 작업 중에 발생될 수 있는 문제점(예. 사고, 고장, 결함)들을 사전에 방지할 수 있는 효과가 있으며, 나아가 협동 로봇과 사용자 간의 협동 작업을 수행할 수 있도록 하는 효과가 있다.In addition, before performing the second driving after the first driving, it is first determined whether there is an obstacle in the path along which the collaborative robot moves to perform the second driving or the movement radius of the cooperative robot when performing the second driving, and By implementing a preemptive response, there is an effect of preventing problems that may occur during work (e.g., accidents, failures, defects) in advance, and furthermore, an effect of enabling cooperative work between the collaborative robot and the user there is.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도1은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템을 개념적으로 이해하기 위하여 나타낸 도면이다.
도2는 본 발명에서 말하는 고장 정보 및 구동 보정 정보를 개념적으로 이해하기 위하여 나타낸 도면이다.
도3은 본 발명의 제1 실시 예에 따른 협동 로봇이 선제적 대응을 통하여 구동을 실시하는 과정을 나타낸 도면이다.
도4는 본 발명의 제1 실시 예 따른 협동 로봇을 사시도로 나타낸 도면이다.
도5는 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템의 전체 구성을 간단한 모식도로 나타낸 도면이다.
도6은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
도7은 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
도8은 본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
1 is a diagram for conceptually understanding a cooperative robot driving system capable of preemptively responding according to a first embodiment of the present invention.
2 is a diagram for conceptually understanding failure information and driving correction information according to the present invention.
FIG. 3 is a diagram illustrating a process in which the collaborative robot according to the first embodiment of the present invention drives through a preemptive response.
4 is a perspective view showing a collaborative robot according to a first embodiment of the present invention.
Fig. 5 is a simple schematic diagram showing the overall configuration of a cooperative robot driving system capable of preemptively responding according to the first embodiment of the present invention.
6 is a diagram specifically showing a method for driving a collaborative robot capable of preemptively responding according to the first embodiment of the present invention.
7 is a diagram specifically illustrating a method for driving a cooperative robot capable of preemptively responding according to a second embodiment of the present invention.
8 is a diagram specifically showing a method for driving a collaborative robot capable of preemptively responding according to a third embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and methods for achieving them, will become clear with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention belongs. It is provided to fully inform the holder of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numbers designate like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used in a meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined. Terms used in this specification are for describing embodiments and are not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as "first" and "second" are used to distinguish one component from another, and the scope of rights should not be limited by these terms. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element.

본 명세서에서 사용되는 "포함한다 (Comprises)" 및/또는 "포함하는 (Comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.As used herein, "comprises" and/or "comprising" means that a stated component, step, operation, and/or element is one or more other components, steps, operations, and/or elements. Existence or additions are not excluded.

<제1 실시 예><First Embodiment>

도1은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템을 개념적으로 이해하기 위하여 나타낸 도면이다.1 is a diagram for conceptually understanding a cooperative robot driving system capable of preemptively responding according to a first embodiment of the present invention.

도1을 참고하면, 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템(이하 협동 로봇 구동 시스템(10)이라 약칭함)은 협동 로봇(100)이 작업을 실시하기 이전에 고장 진단을 위한 구동을 실시하면(①), 협동 로봇(100)과 인접한 위치에 배치된 제1 위치 감지 센서(300)가 협동 로봇(100)의 위치 정확도를 파악하고(②), 협동 로봇(100)의 위치 정확도가 기 설정된 오차 범위 내에 해당하지 않을 경우 협동 로봇(100)이 상기 작업을 실시할 수 있는 제1 구동을 실시할 수 있도록 하며, 협동 로봇(100)의 위치 정확도가 기 설정된 오차 범위 내에 해당할 경우 로봇 서버(200)가 상기 오차 범위에 대한 구동을 보정할 수 있는 구동 보정 정보를 생성하여 협동 로봇(100)에 전송하고(③), 협동 로봇(100)이 보정된 구동을 실시하도록 하여(④) 협동 로봇(100)이 정확하고 정밀한 작업을 실시할 수 있도록 하는 시스템에 관한 것이다.Referring to FIG. 1 , the cooperative robot driving system capable of preemptively responding according to the first embodiment of the present invention (hereinafter referred to as the cooperative robot driving system 10) When driving for fault diagnosis is performed (①), the first position detection sensor 300 disposed adjacent to the cooperative robot 100 determines the positional accuracy of the cooperative robot 100 (②), and the cooperative robot ( When the positional accuracy of 100) does not fall within a preset error range, the first drive capable of performing the above task is performed by the collaborative robot 100, and the positional accuracy of the collaborative robot 100 is within the preset error range. If it falls within the range, the robot server 200 generates driving correction information capable of correcting the driving within the error range and transmits it to the cooperative robot 100 (③), and the cooperative robot 100 performs the corrected driving. It relates to a system that allows the collaborative robot 100 to perform accurate and precise work by (④).

참고로, 본 발명에서 말하는 ‘선제적 대응’ 이란 본 발명의 협동 로봇(100)이 어느 특정 작업을 수행하고자 할 때에 구동의 오차 또는 장애물에 의한 문제적 상황 봉착에 따라 잘못된 구동이 실시될 것을 사전에 파악하거나 예측하여, 파악된 데이터를 기반으로 협동 로봇(100)의 구동을 보정함으로써 보다 정확하고 정밀할 구동을 실시할 수 있도록 하는 것을 말할 수 있다. 구체적으로, 특정 작업을 수행하는 종래의 로봇들은 사람이 할 수 없었던 정밀하고 정확한 구동으로 사용자들에게 편리함을 가져다 주었지만, 이러한 로봇들이 수행하는 구동은 사용자들이 입력한 데이터를 기반으로만 작동하였기 때문에 작업을 실시할 때에 발생하는 예기치 않은 문제(장애물 접촉, 구동 오차 발생 등)에 일일이 대처하기 어려웠으며, 예방 가능한 문제에 대한 선제적 대응을 하기에는 어려움이 있고, 상기 문제가 발생한 이후에 구동이 보정되는 작업이 일률적으로 이루어지지 않아 종래의 로봇들은 매우 수동적인 작업에만 활용되거나 사용자들과 협동을 통하여 이루어지는 작업을 제대로 수행하지 못하였기에, 본 발명은 이러한 종래의 로봇의 문제점을 해결하고자 협동 로봇(100)이 어느 한 특정 작업을 실시하고자 할 때에 발생하는 고장, 오류, 장애물에 의한 문제적 상황 봉착 등의 이벤트들을 선제적으로 대응할 수 있도록 하여 협동 로봇(100)이 보다 능동적으로 작업을 수행하거나 사용자들과 작업을 협동하여 실시할 수 있도록 한다.For reference, the term 'preemptive response' in the present invention means that when the collaborative robot 100 of the present invention tries to perform a certain task, an error in driving or a problem situation due to an obstacle is encountered, in advance that erroneous driving will be performed. It can be said that it is possible to perform more accurate and precise driving by grasping or predicting and correcting the driving of the collaborative robot 100 based on the identified data. Specifically, conventional robots that perform specific tasks have brought convenience to users with precise and accurate driving that humans could not do, but the driving performed by these robots operated only based on data input by users. It was difficult to deal with unexpected problems (contact with obstacles, driving errors, etc.) that occurred during work, and it was difficult to preemptively respond to preventable problems, and the drive was corrected after the problems occurred. Because the work is not done uniformly, the conventional robots are used only for very passive tasks or do not properly perform tasks performed through cooperation with users, so the present invention is a cooperative robot 100 By enabling the cooperative robot 100 to perform tasks more actively or interact with users by preemptively responding to events such as failures, errors, and encountering problematic situations due to obstacles that occur when a specific task is to be performed. To enable work to be done collaboratively.

이러한 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법과 이를 위한 시스템을 구체적으로 살펴보기 이전에 본 발명에서 자주 언급되는 용어들에 대하여 먼저 간략히 살펴보도록 한다.Prior to examining in detail the method for driving a cooperative robot capable of preemptively responding and the system therefor according to the first embodiment of the present invention, terms frequently mentioned in the present invention will be briefly reviewed first.

도2는 본 발명에서 말하는 고장 정보 및 구동 보정 정보를 개념적으로 이해하기 위하여 나타낸 도면이다.2 is a diagram for conceptually understanding failure information and driving correction information according to the present invention.

본 발명의 제1 실시 예에 따른 협동 로봇 시스템(10)은 협동 로봇(100)이 어느 특정한 작업을 실시하기 이전에 상기 작업을 제대로 수행할 수 있는지에 대하여 점검하거나 협동 로봇(100)이 고장 나지 않았는지 진단하기 위하여 협동 로봇(100)이 고장 진단 구동을 실시 하도록 한다. 여기서 말하는 고장 진단 구동이란 실제 작업을 실시하기 이전에 협동 로봇(100) 작업을 수행하기 위한 구동을 미리 실시해보도록 하는 시뮬레이션 구동을 말할 수 있다.The cooperative robot system 10 according to the first embodiment of the present invention checks whether or not the cooperative robot 100 can properly perform the specific job before executing the specific job, or the cooperative robot 100 does not break down. In order to diagnose whether or not the problem occurred, the collaborative robot 100 performs a fault diagnosis drive. The failure diagnosis drive referred to herein may refer to a simulation drive in which a drive for performing a task of the collaborative robot 100 is previously performed before an actual task is performed.

도2를 참고하면, 협동 로봇(100)이 고장 진단 구동을 실시하면, 협동 로봇(100)에 인접한 위치에 배치된 제1 위치 감지 센서(300)는 협동 로봇(100) 외면에 부착된 IR 마커(103)를 인식하여 협동 로봇(100)의 모션 또는 자세를 감지함으로써 협동 로봇(100)의 위치 정확도를 파악하고, 이를 기반으로 고장 정보를 생성한다. 구체적으로, 협동 로봇(100)이 컵을 들어올리는 작업을 수행하기 위해서는 표준의 구동인 ‘A’ 구동을 수행해야 한다고 가정하였을 때에 협동 로봇(100)이 고장 진단 구동에 의하여 ‘B’ 구동을 실시하였다면, 제1 위치 감지 센서(300)가 협동 로봇(100)의 ‘B’ 구동을 인식할 뿐만 아니라 ‘B’구동과 상기 표준의 ‘A’구동을 비교 분석하여 고장 진단 구동에 대한 위치 정확도를 파악한다(①). 이 때, 제1 위치 감지 센서(300)가 협동 로봇(100) 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당한다고 판단한 경우 고장 정보를 생성한다.Referring to FIG. 2 , when the cooperative robot 100 performs a fault diagnosis drive, the first position detection sensor 300 disposed adjacent to the cooperative robot 100 is an IR marker attached to the outer surface of the cooperative robot 100. By recognizing 103 and detecting the motion or posture of the cooperative robot 100, the positional accuracy of the cooperative robot 100 is identified, and failure information is generated based on this. Specifically, when it is assumed that the standard driving 'A' drive must be performed in order for the collaborative robot 100 to perform the task of lifting the cup, the cooperative robot 100 performs the 'B' driving by fault diagnosis driving. If so, the first position detection sensor 300 not only recognizes the 'B' drive of the collaborative robot 100, but also compares and analyzes the 'B' drive and the standard 'A' drive to determine the positional accuracy for the fault diagnosis drive. Find out (①). At this time, when the first position detection sensor 300 determines that the positional accuracy of the cooperative robot 100 falls within a preset error range, fault information is generated.

여기서 말하는 위치 정확도란 협동 로봇(100)이 작업을 수행할 때에 위치해야 하는 표준의 위치 또는 자세(A)와 협동 로봇(100)이 고장 진단을 위한 구동을 실시할 때의 협동 로봇(100)의 위치 또는 자세(B)를 비교 분석하여 유사도를 산출한 것을 말할 수 있다. The positional accuracy referred to herein is the difference between the standard position or posture (A) that the collaborative robot 100 should be positioned at when performing work and the cooperative robot 100 when the cooperative robot 100 drives for fault diagnosis. It can be said that the degree of similarity was calculated by comparing and analyzing the position or posture (B).

한편, 여기서 말하는 고장 정보란 협동 로봇의 식별 코드(UUID), 오차 범위를 적어도 하나 이상 포함하는 정보를 말할 수 있다. 이러한 고장 정보에 협동 로봇(100)의 식별 코드(UUID)가 포함되어 있는 이유는 로봇 서버(200)가 해당 협동 로봇(100)의 고장을 신속히 진단할 수 있도록 하기 위함이다. 구체적으로, 복수 개의 협동 로봇(100) 각각에는 특정 작업을 수행하기 위한 구동 데이터가 입력되어 있거나 학습되어 있을 것이며, 로봇 서버(200)가 해당 협동 로봇(100)의 고장을 진단할 때에 복수 개의 협동 로봇(100)의 구동 데이터를 일일이 식별하는 것보다 협동 로봇(100) 그 자체를 식별하는 것이 해당 협동 로봇(100)의 고장을 신속히 진단할 수 있기 때문이다. Meanwhile, the failure information referred to herein may refer to information including at least one identification code (UUID) of the cooperative robot and an error range. The reason why the identification code (UUID) of the collaborative robot 100 is included in the failure information is to allow the robot server 200 to quickly diagnose a failure of the corresponding collaborative robot 100 . Specifically, driving data for performing a specific task may be input or learned in each of the plurality of collaborative robots 100, and when the robot server 200 diagnoses a failure of the corresponding collaborative robot 100, the plurality of collaborative robots 100 This is because identifying the cooperative robot 100 itself rather than individually identifying drive data of the robot 100 can quickly diagnose a failure of the cooperative robot 100 .

다시 도2를 참고하면, 고장 정보가 생성된 이후에, 제1 위치 감지 센서(300) 또는 제1 위치 감지 센서(300)로부터 생성된 고장 정보를 수신한 협동 로봇(100)은 고장 정보를 로봇 서버(200)에 전송하고, 로봇 서버(200)는 수신한 고장 정보를 토대로 구동 보정 정보를 생성하여 협동 로봇(100)에 전송한다(③).Referring back to FIG. 2 , after the failure information is generated, the first position detection sensor 300 or the collaborative robot 100 receiving the failure information generated from the first position detection sensor 300 transmits the failure information to the robot. It is transmitted to the server 200, and the robot server 200 generates drive correction information based on the received failure information and transmits it to the cooperative robot 100 (③).

여기서 말하는 구동 보정 정보란 로봇 서버(100)가 제1 감지 센서(300) 또는 협동 로봇(100)으로부터 고장 정보를 수신하였을 때, 로봇 서버(100)가 고장 정보를 분석하고 현재 협동 로봇(100)이 고장 난 이유(예. 전력 부족, 협동 로봇의 부품 결함 등)를 도출하여 고장 난 이유를 해결하기 위하여 생성한 정보 또는 구동 오차를 해결할 수 있는 정보를 말할 수 있다. 구체적인 예를 위해 도2를 참고하면, 컵을 옮기는 작업을 수행하는 협동 로봇(100)이 컵을 들어올리기 위해서는 ‘A’구동을 실시해야 하지만 고장 진단 구동에서 컵을 들어올리지 못하는 ‘B’구동을 실시하였다고 가정하였을 때, 로봇 서버(200)는 상기 ‘B’ 구동에 대한 고장 정보를 수신하여 협동 로봇(100)이 ‘A’ 구동을 실시할 수 있도록 ‘A’구동과 ‘B’ 구동의 오차 또는 협동 로봇(100)의 구성(로봇팔(102: 도4 참고), 축(101: 도4 참고) 등)의 문제점을 분석하여, ‘로봇팔(102)이 θ1 각도로 보정되어야 한다는 구동 보정 정보’ 또는 ‘협동 로봇(100)의 n번째 축(101)이 θ2 각도로 보정되어야 한다는 구동 보정 정보’등을 생성할 수 있다.The drive correction information referred to herein is when the robot server 100 receives failure information from the first detection sensor 300 or the collaborative robot 100, the robot server 100 analyzes the failure information, and the current cooperative robot 100 Information generated to solve the reason for the failure by deriving the reason for the failure (eg, power shortage, defective part of the collaborative robot, etc.) or information that can solve the driving error can be referred to. Referring to FIG. 2 for a specific example, the collaborative robot 100 carrying out the task of moving the cup needs to perform 'A' drive to lift the cup, but 'B' drive that cannot lift the cup in the fault diagnosis drive. When it is assumed that it is executed, the robot server 200 receives the failure information for the 'B' drive so that the collaborative robot 100 can perform the 'A' drive, the error between the 'A' drive and the 'B' drive. Alternatively, by analyzing problems in the configuration of the collaborative robot 100 (robot arm 102: see Fig. 4, axis 101: see Fig. 4, etc.), 'drive correction that the robot arm 102 must be calibrated at the θ1 angle' Information' or 'drive correction information indicating that the n-th axis 101 of the collaborative robot 100 should be corrected at the θ2 angle' may be generated.

도3은 본 발명의 제1 실시 예에 따른 협동 로봇(100)이 선제적 대응을 통하여 구동을 실시하는 과정을 나타낸 도면이다.FIG. 3 is a diagram showing a process of driving the collaborative robot 100 according to the first embodiment of the present invention through a preemptive response.

본 발명의 제1 실시 예에 따른 협동 로봇 구동 시스템(10)은 협동 로봇(100)이 선제적 대응을 할 수 있도록 협동 로봇(100)이 특정한 작업을 실시할 때의 예상 작업 경로에 주변 움직임(예. 장애물의 움직임)이 감지되면 경고 음성을 출력할 수 있도록 한다.The cooperative robot driving system 10 according to the first embodiment of the present invention provides a peripheral movement ( Ex. movement of an obstacle) is detected so that a warning voice can be output.

도3을 참고하면, A 사이트에 있는 컵을 들어올리는 ‘제1 구동’과 들어올린 컵을 B사이트로 옮겨야 하는 ‘제2 구동’을 순차적으로 실시해야 하는 협동 로봇(100)이 ‘제1 구동’을 실시하였다고 가정하였을 때(①), 협동 로봇(100)과 연계된 제2 위치 감지부(400)가 ‘제2 구동'에 대응되는 협동 로봇(100) 이동경로에 주변 움직임(예. 사용자 신체)을 감지한 경우(②), 감지된 정보를 협동 로봇(100)에 전송하여 협동 로봇(100)이 "조심하세요"와 같은 경고 음성 출력할 수 있도록 한다(③).Referring to FIG. 3, the collaborative robot 100, which sequentially performs the 'first drive' of lifting the cup at site A and the 'second drive' of moving the lifted cup to site B, is the 'first drive'. ' (①), the second position detector 400 associated with the collaborative robot 100 moves around the moving path of the collaborative robot 100 corresponding to the 'second drive' (eg, user body) is detected (②), the detected information is transmitted to the collaborative robot 100 so that the collaborative robot 100 can output a warning voice such as "be careful" (③).

이상 본 발명에서 자주 언급되는 용어들에 대하여 먼저 간략히 살펴보았다.Above, terms frequently mentioned in the present invention were first briefly reviewed.

다음으로, 본 발명의 제1 실시 예에 따른 협동 로봇(100)의 개략적인 외관과 협동 로봇(100)에 포함된 전체 구성요소들에 대하여 살펴보도록 한다.Next, a schematic appearance of the collaborative robot 100 according to the first embodiment of the present invention and all components included in the cooperative robot 100 will be described.

도4는 본 발명의 제1 실시 예 따른 협동 로봇(100)을 사시도로 나타낸 도면이다.4 is a perspective view showing the collaborative robot 100 according to the first embodiment of the present invention.

도 4를 참고하면, 본 발명의 제1 실시 예에 따른 협동 로봇(100)은 특정한 작업을 정밀하고 정확하게 수행하거나, 사용자와 협동하여 작업을 수행할 수 있도록 설계된 로봇이다. Referring to FIG. 4 , the collaborative robot 100 according to the first embodiment of the present invention is a robot designed to precisely and accurately perform a specific task or to perform a task in cooperation with a user.

협동 로봇(100)은 상기 역할들을 수행하기 위하여, 적어도 하나 이상의 축(101), 로봇팔(102) 및 IR 마커(103)를 포함할 수 있다.The collaborative robot 100 may include at least one axis 101, a robot arm 102, and an IR marker 103 in order to perform the above roles.

축(101)은 복수 개로 마련되어 있으며, 이 복수 개의 축(101)이 서로 다른 구동(상/하/좌/우 구동, 회전 구동)이 가능하여, 협동 로봇(100)이 6자유도 운동(Six degrees of freedom, 6DOF)에 대한 구동을 실시할 수 있도록 한다.A plurality of axes 101 are provided, and the plurality of axes 101 are capable of different driving (up/down/left/right driving, rotational driving), so that the collaborative robot 100 can move in six degrees of freedom (Six Degrees of Freedom). degrees of freedom (6DOF).

또한, 종래 로봇암(미도시)의 축이 최대 6개로 구성되어 있는 것과 달리 본 발명의 협동 로봇(100)의 축(101)이 7개 이상으로 구성되어 있어 타겟이 된 위치에 보다 세밀하고 정교한 각도로 진입할 수 있도록 하며, 협동 로봇(100)이 장애물 회피 구동, 특정 포즈 취하기 등과 같은 보다 자유도 높은 구동을 할 수 있도록 한다.In addition, unlike the conventional robot arm (not shown) composed of up to six axes, the axis 101 of the cooperative robot 100 of the present invention is composed of seven or more axes, so that the target position is more detailed and precise. It allows entry at an angle, and enables the collaborative robot 100 to perform driving with a higher degree of freedom, such as obstacle avoidance driving and taking a specific pose.

로봇핸드(102)는 사용자 손과 비슷한 역할을 수행하는 구성요소이다. 구체적으로, 로봇핸드(102)는 물체를 그립(Grip)하거나, 당기거나 운반하는 구동을 실시할 수 있어 사용자 손과 비슷한 역할을 수행하여 사용자와 같이 협동의 작업을 수행 할 수도 있다.The robot hand 102 is a component that performs a role similar to that of a user's hand. Specifically, the robot hand 102 can grip, pull, or carry an object, and thus perform a role similar to that of a user's hand, thereby performing cooperative tasks like the user.

로봇핸드(102)는 사용자와 협동하여 정밀함을 요하는 어려운 작업을 수행할 수 있다. 구체적으로, 로봇핸드(102)는 의료 시술, 조리, 조립 또는 가공과 같은 정밀함을 요하는 작업을 수행할 수 있어 이러한 작업을 사용자와 협동하여 실시할 수 있다. The robot hand 102 can perform difficult tasks requiring precision in cooperation with the user. Specifically, the robot hand 102 can perform tasks requiring precision, such as medical procedures, cooking, assembly, or processing, and can perform these tasks in cooperation with a user.

로봇핸드(102)는 상기 작업들을 수행하기 위하여 수행하고자 하는 작업의 목적에 맞는 형상을 가질 수 있다. 예를 들면, 로봇핸드(102)가 의료 시술을 진행할 때에는 사용자의 손 형상이 아닌 절삭 가능한 수술도구, 생검 도구, 스크류 드라이버 등과 같은 의료기구 형상을 나타낼 수 있다.The robot hand 102 may have a shape suitable for the purpose of the work to be performed in order to perform the above tasks. For example, when the robot hand 102 performs a medical procedure, it may represent a shape of a medical instrument such as a cutable surgical tool, a biopsy tool, or a screwdriver, rather than the shape of a user's hand.

IR 마커(103)는 내부에 포함되거나 외면에 부착된 반사체에 의하여 제1 위치 감지 센서(300)를 통하여 인식된다.The IR marker 103 is recognized through the first position detection sensor 300 by a reflector included inside or attached to the outer surface.

반사체는 특수한 파장의 빛이 조사되었을 때 특정 장치에 의해 인식 가능한 빛을 반사하는 성질을 가지고 있어 IR 마커(103)가 제1 위치 감지 센서(300)에 의하여 촬영될 때에 조사되는 빛을 반사하여 IR 마커(103)의 위치가 인식되도록 한다.The reflector has a property of reflecting light recognizable by a specific device when light of a special wavelength is irradiated, so that when the IR marker 103 is photographed by the first position detection sensor 300, it reflects the light irradiated and IR The position of the marker 103 is recognized.

반사체는 IR 마커(103) 내부에 포함되는 구성으로 마련될 수 있지만, 사용자에 의하여 표면에 탈부착 가능하도록 구현될 수도 있다. 이 때, 사용자는 임의로 IR 마커(103) 표면에서의 반사체의 위치를 탈부착하여 조정할 수 있다.The reflector may be provided in a configuration included inside the IR marker 103, but may also be implemented to be detachable from the surface by the user. At this time, the user can arbitrarily adjust the position of the reflector on the surface of the IR marker 103 by attaching or detaching it.

도5는 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템(10)의 전체 구성을 간단한 모식도로 나타낸 도면이다.Fig. 5 is a simple schematic diagram showing the overall configuration of the collaborative robot driving system 10 capable of preemptively responding according to the first embodiment of the present invention.

도5를 참고하면, 본 발명의 협동 구동 시스템(10)은 협동 로봇(100), 로봇 서버(200), 제1 위치 감지 센서(300) 및 제2 위치 감지 센서(400)를 포함할 수 있다.Referring to FIG. 5 , the cooperative driving system 10 of the present invention may include a cooperative robot 100, a robot server 200, a first position detection sensor 300 and a second position detection sensor 400. .

협동 로봇(100)은 전술한 축(101), 로봇핸드(102) 및 IR 마커(103)를 포함할 뿐만 아니라 본 발명의 목적인 ‘선제적 대응 구동’을 실시하기 위하여 통신부(110), 센서부(120), 장애물 인식부(130), 경로 생성부(140), 구동 제어부(150) 및 음성 발화부(160)를 더 포함할 수 있다.The collaborative robot 100 not only includes the above-described axis 101, robot hand 102, and IR marker 103, but also includes a communication unit 110 and a sensor unit in order to perform 'preemptive response driving', which is the purpose of the present invention. 120, an obstacle recognizing unit 130, a path generating unit 140, a drive control unit 150, and a voice ignition unit 160 may be further included.

통신부(110)는 협동 로봇(100)이 사용자 단말(예. 사용자의 스마트폰, 데스크탑 등), 로봇 서버(200), 제1 위치 감지 센서(300) 또는 제2 위치 감지 센서(00)와 데이터 교환이 가능하도록 마련된 구성요소이다. 구체적으로, 통신부(110)는 사용자 단말(200)로부터 협동 로봇(100)이 특정한 구동을 실시할 수 있도록 하는 구동 데이터에 대한 정보를 수신하거나, 전원 On/Off와 같은 제어 정보를 수신할 수 있으며, 로봇 서버(200)로부터 고장 정보를 송신하거나 구동 보정 정보를 수신할 수 있고, 제1 및 제2 위치 감지 센서(300, 400)로부터 감지된 정보들을 수신할 수 있다. The communication unit 110 allows the collaborative robot 100 to connect the user terminal (eg, the user's smartphone, desktop, etc.), the robot server 200, the first position detection sensor 300 or the second position detection sensor 00 and data. It is a component designed to be interchangeable. Specifically, the communication unit 110 may receive information on drive data for enabling the collaborative robot 100 to perform a specific drive from the user terminal 200 or receive control information such as power on/off. , Failure information may be transmitted or driving correction information may be received from the robot server 200, and information detected by the first and second position detection sensors 300 and 400 may be received.

센서부(120)는 전술한 제1 및 제2 위치 감지 센서(300, 400)와 마찬가지로 협동 로봇(100)의 위치 및 움직임을 감지하거나, 협동 로봇의 주변 물체를 감지하여 센싱정보를 생성하는 구성요소이다. 쉽게 말해, 제1 및 제2 위치 감지 센서(300, 400)가 협동 로봇(100)의 인접한 위치에 설치되는 것이 아니라 협동 로봇(100)의 하나의 구성으로서 마련될 수 있다.Like the first and second position detection sensors 300 and 400 described above, the sensor unit 120 detects the position and movement of the cooperative robot 100 or detects objects around the cooperative robot to generate sensing information. is an element In other words, the first and second position detection sensors 300 and 400 may be provided as one component of the cooperative robot 100, rather than being installed adjacent to the cooperative robot 100.

장애물 인식부(130)는 협동 로봇(100)이 작업에 대한 구동을 실시할 때에 즉각적으로 출현/발생하는 장애물을 인식하여 장애물과의 충돌을 방지해주는 구성요소이다. The obstacle recognizing unit 130 is a component that recognizes obstacles that appear/occur immediately when the collaborative robot 100 drives for work, and prevents collision with the obstacles.

장애물 인식부(130)는 AI 객체 식별 알고리즘을 활용하여 장애물을 인식한다. 여기서, AI 객체 식별 알고리즘이란, 학습된 이미지 데이터들을 기반으로 객체를 구분 및 식별하여 식별한 객체가 장애물인지 아닌지 인식할 수 있는 알고리즘을 말할 수 있다. 쉬운 예로, 협동 로봇(100)이 컵을 들어올리는 구동을 실시해야 한다고 가정 하였을 때에 AI 객체 식별 알고리즘은 컵과 사용자의 신체(예. 손) 이미지 데이터에 대하여 학습하고, 구동 중에 컵과 사용자의 신체가 포착된다면 각각 작업 대상물과 장애물로서 구분하여 식별할 수 있다.The obstacle recognizing unit 130 recognizes an obstacle by utilizing an AI object identification algorithm. Here, the AI object identification algorithm may refer to an algorithm capable of recognizing whether an object identified by classifying and identifying an object based on learned image data is an obstacle. As an easy example, when it is assumed that the collaborative robot 100 needs to drive to lift a cup, the AI object identification algorithm learns about the image data of the cup and the user's body (eg, hand), and during driving, the cup and the user's body If is captured, it can be identified separately as a work object and an obstacle, respectively.

본 발명의 협동 구동 시스템(10)은 선제적 대응을 통하여 고장 또는 장애물 충돌을 사전에 예측하거나 방지할 수 있었다면, 협동 로봇(100)의 장애물 인식부(130)를 통하여 즉각적인 상황에 대한 장애물과의 충돌을 방지할 수 있다.If the cooperative driving system 10 of the present invention can predict or prevent a failure or collision with an obstacle in advance through preemptive response, through the obstacle recognition unit 130 of the cooperative robot 100, collision can be prevented.

경로 생성부(140)는 센서부(120) 또는 협동 로봇(100)과 연계된 제2 위치 감지 센서(400)의 Lidar기술을 활용하여 현재 협동 로봇(100)의 위치, 자세에 대한 정보를 수신하고, 수신한 데이터를 기반으로 협동 로봇(100)이 특정한 작업을 수행하기 위하여 이동되어야 할 경로를 생성해주는 구성요소이다.The path generator 140 receives information about the current position and attitude of the collaborative robot 100 by utilizing the Lidar technology of the sensor unit 120 or the second position detection sensor 400 associated with the collaborative robot 100. And, based on the received data, it is a component that creates a path along which the collaborative robot 100 should move to perform a specific task.

참고로, 경로 생성부(140)로부터 생성된 경로는 협동 로봇(100)이 로봇 서버(200)로부터 구동 보정 정보를 수신한 경우 실시간으로 갱신 및 업데이트될 수 있다.For reference, the path generated by the path generator 140 may be updated and updated in real time when the collaborative robot 100 receives driving correction information from the robot server 200 .

구동 제어부(150)는 협동 로봇(100)이 특정한 작업을 수행하는 구동을 실시하기 위하여 학습된 구동 데이터 또는 로봇 서버(200)로부터 수신한 보정 구동 정보를 토대로 협동 로봇(100)의 구동을 제어하는 구성요소이다.The driving control unit 150 controls the driving of the collaborative robot 100 based on the learned driving data or the corrected driving information received from the robot server 200 in order to drive the cooperative robot 100 to perform a specific task. is a component

음성 발화부(160)는 TTS(Text to Speech: 음성합성)기술이 활용되는 구성요소이며, 특정 상황이 감지되면 특정 상황에 매칭된 텍스트 데이터를 음성 데이터로 변환하여 변환한 음성 데이터를 출력할 수 있다. 예를 들어, 협동 로봇(100)이 구동을 실시할 때에 제1 및 제2 위치 감지 센서(300, 400)가 구동 중 주변 움직임을 감지하면, 음성 발화부(160)는 해당 상황과 매칭되는 텍스트 데이터를 음성 데이터로 변환하여 “조심하세요”라는 내용의 음성을 출력할 수 있다.The voice utterance unit 160 is a component that utilizes text to speech (TTS) technology, and when a specific situation is detected, it can convert text data matched to the specific situation into voice data and output the converted voice data. there is. For example, when the first and second position detection sensors 300 and 400 detect surrounding movement while the collaborative robot 100 is driving, the voice generator 160 sends text matching the situation. By converting the data into voice data, it is possible to output a voice saying “Be careful”.

로봇 서버(200)는 식별 가능한 적어도 하나 이상의 협동 로봇(100)을 총괄적으로 관제할 수 있는 서버이다. The robot server 200 is a server that can collectively control at least one or more identifiable cooperative robots 100 .

로봇 서버(200)는 협동 로봇(100)이 특정 작업에 대한 구동을 실시할 때에 오차에 해당하는 구동을 실시하거나 구동 자체가 불완전할 때에 이러한 협동 로봇(100)의 구동을 보정하기 위한 정보를 협동 로봇(100)에 전송할 수 있다. 다시 말해, 로봇 서버(200)는 협동 로봇(100) 또는 제1 위치 감지 센서(300)로부터 고장 정보를 수신하면 상기 고장 정보를 기반으로 협동 로봇(100)의 구동을 보정하기 위한 구동 보정 정보를 생성하여 협동 로봇(100)에 전송할 수 있다.The robot server 200 cooperates with information for correcting the driving of the collaborative robot 100 when the cooperative robot 100 drives for a specific task, or when the driving itself is incomplete. It can be transmitted to the robot 100. In other words, when receiving failure information from the collaborative robot 100 or the first position detection sensor 300, the robot server 200 generates drive correction information for correcting the driving of the collaborative robot 100 based on the failure information. It can be created and transmitted to the collaborative robot 100.

제1 위치 감지 센서(300)는 협동 로봇(100)에 인접한 위치에 배치되어, 협동 로봇(100)의 모션 또는 위치를 실시간으로 감지할 수 있는 센서이다.The first position detection sensor 300 is a sensor that is disposed adjacent to the cooperative robot 100 and can sense the motion or position of the cooperative robot 100 in real time.

제1 위치 감지 센서(300)는 협동 로봇(100)의 모션 또는 위치를 감지하기 위하여 피사체의 이미지를 촬영하는 카메라, 협동 로봇(100) 외면에 부착된 IR 마커(103)를 감지할 수 있는 IR 카메라 및 협동 로봇(100) 자체의 모션을 감지할 수 있는 모션 트래킹 카메라를 포함할 수 있다.The first position detection sensor 300 includes a camera for capturing an image of a subject in order to detect the motion or position of the collaborative robot 100, and an IR capable of detecting the IR marker 103 attached to the outer surface of the cooperative robot 100. A camera and a motion tracking camera capable of detecting the motion of the collaborative robot 100 itself may be included.

제2 위치 감지 센서(400)는 협동 로봇(100)에 인접한 위치에 배치되어, 협동 로봇(100)이 특정 작업에 대한 구동을 실시할 때에 실시간으로 움직이는 사용자의 신체 또는 물체와 같은 장애물들을 감지하는 센서이다.The second position detection sensor 400 is disposed adjacent to the collaborative robot 100 and detects obstacles such as a moving user's body or an object in real time when the cooperative robot 100 drives for a specific task. It is a sensor.

제2 위치 감지 센서(400)는 실시간으로 움직이는 장애물을 감지하기 위하여 3차원 공간 내의 객체의 움직임 또는 위치를 감지하는3차원 Lidar 센서 및/또는 Depth 카메라를 포함할 수 있다.The second position detection sensor 400 may include a 3D lidar sensor and/or a depth camera for detecting a motion or position of an object in a 3D space in order to detect a moving obstacle in real time.

참고로, 제2 위치 감지 센서(400)는 단순히 협동 로봇(100)의 주변 장애물을 감지하는 것이 아니라 감지된 객체가 협동 로봇(100)인지, 장애물인지 또는 장애물 대상이 아닌 피사체(예. 사용자)인지에 대하여 식별하여 주변 움직임을 감지할 수 있다.For reference, the second position detection sensor 400 does not simply detect obstacles around the collaborative robot 100, but whether the detected object is the cooperative robot 100, an obstacle, or a subject that is not an obstacle target (eg, a user). Perception can be identified to detect surrounding movement.

이상 본 발명의 제1 실시 예에 따른 협동 로봇(100)의 개략적인 외관과 협동 로봇(100)에 포함된 전체 구성요소들에 대하여 살펴보았다.So far, the schematic appearance of the collaborative robot 100 according to the first embodiment of the present invention and the entire components included in the cooperative robot 100 have been reviewed.

다음으로, 본 발명의 제1 내지 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 살펴보도록 한다.Next, the method for driving a cooperative robot capable of preemptively responding according to the first to third embodiments of the present invention will be examined in detail.

도6은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.6 is a diagram specifically showing a method for driving a collaborative robot capable of preemptively responding according to the first embodiment of the present invention.

도6을 참고하면, 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동하는 방법은 먼저 협동 로봇(100)이 고장 진단 구동을 실시하면, 제1 위치 감지 센서(300)가 협동 로봇의 위치 정확도를 파악하는 단계에서 시작한다(S101). 여기서, 위치 정확도란 협동 로봇(100)이 작업을 수행할 때에 위치해야 하는 표준의 위치 또는 자세와 협동 로봇(100)이 고장 진단을 위한 구동을 실시할 때의 협동 로봇(100)의 위치 또는 자세를 비교 분석하여 유사도를 산출한 것을 말할 수 있다.Referring to FIG. 6 , in the method for driving a cooperative robot capable of preemptively responding according to the first embodiment of the present invention, when the cooperative robot 100 first performs a fault diagnosis drive, the first position sensor 300 cooperates It starts at the step of determining the positional accuracy of the robot (S101). Here, the positional accuracy refers to the standard position or posture that the collaborative robot 100 should be positioned in when performing work and the position or posture of the cooperative robot 100 when the cooperative robot 100 is driven for fault diagnosis. It can be said that the degree of similarity was calculated by comparative analysis.

이후에, 협동 로봇(100)의 위치 정확도가 기 설정된 오차 범위 내에 해당하지 않을 경우, 협동 로봇이 작업을 위한 제1 구동을 실시하도록 한다(S102). 여기서 오차 범위란 협동 로봇(100)이 어느 한 구동을 실시함에 있어서 상기 구동을 제대로 실시하지 못할 것 같거나 전체적인 작업 절차에 불안정을 주는 구동 범위를 말할 수 있으며, 기 설정된 오차 범위란 사용자(사용자) 본인 판단 하에 직접 설정한 오차범위이거나 또는 로봇 서버(100)가 AI 학습 알고리즘을 통하여 분석한 오차범위를 말할 수 있다.Subsequently, when the positional accuracy of the collaborative robot 100 does not fall within a preset error range, the cooperative robot performs a first drive for work (S102). Here, the error range may refer to a driving range in which the cooperative robot 100 is unlikely to perform the driving properly or causes instability to the overall work procedure when the collaborative robot 100 performs any driving, and the preset error range is the user (user) It may refer to the error range set directly under the person's judgment or the error range analyzed by the robot server 100 through the AI learning algorithm.

S101 단계 및 S102 단계는 협동 로봇(100)이 실제로 작업을 실시하기 이전에 고장 진단 구동을 실시하도록 하여 실제 작업을 제대로 완수하고, 고장, 결함 또는 구동 오차에 대한 문제점을 사전에 방지해줄 수 있는 ‘제1 선제적 대응’ 단계라고 볼 수 있다.Steps S101 and S102 allow the collaborative robot 100 to perform a fault diagnosis drive before actually performing the work, so that the actual work is properly completed and problems with failures, defects, or driving errors can be prevented in advance. It can be seen as the first preemptive response' step.

다음으로, 협동 로봇(100)이 제2 구동을 실시하기 이전에, 제2 위치 감지 센서(400)가 제2 구동에 대응되는 이동경로에 주변 움직임을 감지한다(S103). 여기서 제2 구동이란 특정한 작업을 완료하기 위한 협동 로봇(100)이 전체 구동 중에서 S102 단계의 제1 구동 이후에 실시되는 구동을 말할 수 있다. Next, before the collaborative robot 100 performs the second drive, the second position detection sensor 400 detects movement around the moving path corresponding to the second drive (S103). Here, the second drive may refer to a drive performed after the first drive of step S102 among all drives of the collaborative robot 100 for completing a specific task.

이후에, 제2 위치 감지 센서(400)에 의해 제2 구동에 대응되는 협동 로봇(100) 이동경로 상에서 주변 움직임이 감지되지 않은 경우, 협동 로봇이 제2 구동을 실시한다(S104).Thereafter, when a peripheral motion is not detected on the movement path of the cooperative robot 100 corresponding to the second driving by the second position sensor 400, the cooperative robot performs the second driving (S104).

S103 단계 및 S104 단계는 협동 로봇(100)이 제1 구동을 실시한 이후에 순차적으로 제2 구동을 실시하기 이전에 협동 로봇(100)이 제2 구동을 하기 위하여 진입해야 하는 이동경로 또는 제2 구동을 실시할 때의 움직임 반경에 주변 움직임을 감지하여 제2 구동을 제대로 완수하고, 제2 구동이 실시될 때 또는 제2 구동이 실시되기 전 이동 상황에서 장애물과 충돌하지 않도록 사전에 방지해줄 수 있는‘제2 선제적 대응’ 단계라고 볼 수 있다.Steps S103 and S104 are the moving path or the second drive that the collaborative robot 100 must enter to perform the second drive after the first drive and before the second drive is sequentially performed. The second drive is properly completed by detecting the surrounding movement in the movement radius at the time of performing, and preventing collision with an obstacle in advance when the second drive is performed or in a moving situation before the second drive is performed It can be seen as the 'second preemptive response' stage.

<제2 실시 예><Second Embodiment>

도7은 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.7 is a diagram specifically illustrating a method for driving a cooperative robot capable of preemptively responding according to a second embodiment of the present invention.

전술한 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법이 협동 로봇 구동 시스템(10)을 주체로 설명한 선제적 대응이 가능한 협동 로봇 구동 방법이라면, 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 보다 확장된 범위로 본 발명의 선제적 대응이 가능한 협동 로봇 구동 방법을 설명하기 위하여 협동 로봇 구동 시스템(10) 내의 구성들을 또 다른 주체로 설명한 선제적 대응이 가능한 협동 로봇 구동 방법이다. If the aforementioned cooperative robot driving method capable of preemptively responding according to the first embodiment of the present invention described above is the cooperative robot driving method capable of preemptively responding mainly to the cooperative robot driving system 10, the second embodiment of the present invention In order to explain the method for driving a cooperative robot capable of preemptively responding according to the present invention in a more expanded range, the components in the cooperative robot driving system 10 are described as another subject. It is a cooperative robot driving method that can respond.

도7을 참고하면, 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 먼저, 협동 로봇(100)이 고장 진단 구동을 실시하고(S201) 제1 위치 감지 센서(300)가 고장 진단 구동을 실시하는 협동 로봇(100)의 위치 정확도를 파악하는 단계(S202)에서 시작한다.Referring to FIG. 7 , in the method for driving a collaborative robot capable of preemptively responding according to the second embodiment of the present invention, first, the cooperative robot 100 performs a fault diagnosis operation (S201), and then the first position sensor 300 [0081] The step S202 of determining the positional accuracy of the collaborative robot 100 that performs the fault diagnosis operation begins.

S202 단계에서 제1 위치 감지 센서(300)는 모션 트래킹 카메라를 통하여 협동 로봇(100)의 움직임을 감지하거나, IR 카메라를 통하여 협동 로봇(100)에 부착된 IR 마커(103)를 인식하여 협동 로봇(100)의 움직임, 위치를 감지함으로써 협동 로봇(100)의 위치 정확도를 파악할 수 있다.In step S202, the first position detection sensor 300 detects the movement of the cooperative robot 100 through a motion tracking camera or recognizes the IR marker 103 attached to the cooperative robot 100 through an IR camera to recognize the cooperative robot 100. The positional accuracy of the collaborative robot 100 can be grasped by detecting the motion and position of the robot 100 .

이후에, 협동 로봇(100)은 제1 위치 감지 센서(300)가 파악한 위치 정확도가 기 설정된 오차 범위에 포함되는지에 대하여 판단하고(S203), 위치 정확도가 기 설정된 오차 범위에 포함되지 않으면 제1 구동을 실시한다(S204).Thereafter, the collaborative robot 100 determines whether the position accuracy determined by the first position detection sensor 300 is included in a preset error range (S203), and if the position accuracy is not included in the preset error range, the first position accuracy is not included in the preset error range. Driving is performed (S204).

한편, 협동 로봇(100)이 제1 위치 감지 센서(300)가 파악한 위치 정확도가 기 설정된 오차 범위에 포함되는 지에 대하여 판단하였을 때(S203), 위치 정확도가 기 설정된 오차 범위에 포함되면, 협동 로봇(100)은 고장 정보를 생성하여 로봇 서버(200)에 전송하며(S203-1), 로봇 서버(200)는 수신한 고장 정보를 기반으로 구동 보정 정보를 생성하여(S203-2) 협동 로봇(100)이 보정된 구동을 실시 할 수 있도록 구동 보정 정보를 협동 로봇(100)에 전송한다(S203-3). On the other hand, when the collaborative robot 100 determines whether the positional accuracy identified by the first position sensor 300 is within the preset error range (S203), if the positional accuracy is within the preset error range, the collaborative robot (100) generates failure information and transmits it to the robot server 200 (S203-1), and the robot server 200 generates driving correction information based on the received failure information (S203-2) and the cooperative robot ( 100) transmits the driving correction information to the cooperative robot 100 so that the corrected driving can be performed (S203-3).

S204 단계 이후에, 제2 위치 감지 센서(400)는 제1 구동 이후에 실시되는 제2 구동에 대응되는 이동경로에 주변 움직임을 감지되는지에 대하여 모니터링한다(S205).After step S204, the second position detection sensor 400 monitors whether or not movement around the moving path corresponding to the second driving performed after the first driving is detected (S205).

다음으로 협동 로봇(100)은 제2 위치 감지 센서(400)로부터 주변 움직임이 감지되었는지에 대하여 판단한다(S206).Next, the collaborative robot 100 determines whether or not motion of the surroundings is sensed from the second position detection sensor 400 (S206).

이후에, 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임을 감지하였다는 사실을 수신하지 않은 경우, 제2 구동을 실시한다(S207).Thereafter, when the collaborative robot 100 does not receive the fact that the surrounding movement has been detected from the second position detection sensor 400, a second drive is performed (S207).

한편, 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임을 감지하였다는 사실을 수신한 경우, 협동 로봇(100)은 경고 음성을 출력하여(S206-1) 협동 로봇(100)이 주변 움직임(예. 장애물)과 충돌하지 못하도록 방지하고, 이후에 제2 위치 감지 센서(400) 다시 S205 단계로 회귀하여 제2 구동에 대응되는 이동경로에 주변 움직임이 감지되는지에 대하여 모니터링한다.On the other hand, when the fact that the collaborative robot 100 has detected the surrounding movement is received from the second position detection sensor 400, the cooperative robot 100 outputs a warning voice (S206-1) and the cooperative robot 100 It is prevented from colliding with the surrounding motion (eg, an obstacle), and thereafter, the second position sensor 400 returns to step S205 and monitors whether the surrounding motion is detected in the movement path corresponding to the second drive.

<제3 실시 예><Third Embodiment>

도8은 본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.8 is a diagram specifically showing a method for driving a collaborative robot capable of preemptively responding according to a third embodiment of the present invention.

본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 전술한 S205 단계 이후에 제2 위치 감지 센서(400)가 제2 구동에 대응되는 이동경로에 주변 움직임을 감지하였을 때, 협동 로봇(100)이 경고 음성을 출력하여 주변 움직임과의 충돌을 방지하는 방법과 더불어 협동 로봇(100)이 특정 조건이 갖추어져 있다면 협동 로봇(100)이 회피 구동을 실시하여 주변 움직임과의 충돌을 방지할 수 있도록 하는 방법에 관한 것이다.In the method for driving a collaborative robot capable of preemptively responding according to the third embodiment of the present invention, when the second position detection sensor 400 detects movement around the movement path corresponding to the second driving after step S205 described above, In addition to the method in which the collaborative robot 100 outputs a warning voice to prevent collision with surrounding movements, if the collaborative robot 100 meets certain conditions, the collaborative robot 100 performs avoidance driving to prevent collision with surrounding movements. It's about how to prevent it.

도8을 참고하면, 본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 S205 단계 이후에 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임이 감지되었는지에 대하여 판단하는 단계(S301)에서 시작한다.Referring to FIG. 8 , in the method for driving a cooperative robot capable of preemptively responding according to the third embodiment of the present invention, after step S205, the cooperative robot 100 determines whether the second position sensor 400 detects the surrounding movement. It starts with the step of determining about (S301).

다음으로, 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임을 감지하였다는 사실이 수신되지 않은 경우에는 제2 구동을 실시하지만(S304), 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임을 감지하였다는 사실을 수신한 경우에는 협동 로봇(100)은 자체적으로 축(101) 변경이 가능한지 판단한다(S302). Next, if the fact that the collaborative robot 100 has detected the surrounding movement is not received from the second position sensor 400, the second drive is performed (S304), but the cooperative robot 100 moves to the second position. When receiving the fact that the surrounding movement has been detected from the sensor 400, the cooperative robot 100 determines whether the axis 101 can be changed by itself (S302).

S302 단계는 협동 로봇(100)이 감지된 장애물에 대한 회피 구동을 실시 할 수 있는 지 판단하는 첫 번째 단계로서, 협동 로봇(100)이 자체적으로 축(101) 변경이 가능한 로봇인지 판단하는 단계이거나 로봇 서버(200)가 협동 로봇(100)으로부터 식별 번호(UUID)를 수신하여 해당 협동 로봇(100)의 축(101)이 변경 가능한지를 판단하는 단계일 수도 있다.Step S302 is the first step of determining whether the collaborative robot 100 can perform an avoidance drive for the detected obstacle, and is a step of determining whether the collaborative robot 100 is a robot capable of changing the axis 101 by itself, or The robot server 200 may receive an identification number (UUID) from the cooperative robot 100 and determine whether the axis 101 of the corresponding cooperative robot 100 can be changed.

S302 단계 이후에, 협동 로봇(100) 자체가 축(101) 변경이 가능한 로봇이라면, 협동 로봇(100)이 축(101) 변경을 통하여 회피 구동이 가능한지 에 대한 판단하고(S303), 협동 로봇(100) 자체가 축(101) 변경이 불가능한 로봇이라면, 경고 음성을 출력한다(S302-1).After step S302, if the cooperative robot 100 itself is a robot capable of changing the axis 101, it is determined whether the cooperative robot 100 can perform avoidance driving through the change of the axis 101 (S303), and the cooperative robot ( 100) If the robot itself cannot change the axis 101, a warning voice is output (S302-1).

S303 단계는 협동 로봇(100)이 감지된 장애물에 대한 회피 구동을 실시 할 수 있는 지 판단하는 두 번째 단계로서, 협동 로봇(100)이 축(101)을 변경할 수 있는 로봇이라도 특정 상황(협소한 공간)때문에 회피 구동을 실시할 수 없을 것을 고려하여 실시되는 단계이다. 아울러 S303 단계는 S302 단계와 마찬가지로 협동 로봇(100)이 자체적으로 현재 회피 구동이 가능한지 판단하는 단계이거나 로봇 서버(200)가 협동 로봇(100)으로부터 식별 번호(UUID)를 수신하여 해당 협동 로봇(100)이 현재 회피 구동이 가능한지에 대하여 판단하는 단계일 수도 있다.Step S303 is the second step of determining whether the collaborative robot 100 can perform an avoidance drive for the detected obstacle. This step is performed considering that avoidance driving cannot be performed due to space). In addition, in step S303, as in step S302, the cooperative robot 100 determines whether current avoidance driving is possible by itself, or the robot server 200 receives an identification number (UUID) from the cooperative robot 100, and the corresponding cooperative robot 100 ) may be a step of determining whether avoidance driving is currently possible.

S303 단계 이후에, 협동 로봇(100)은 현재 회피 구동이 가능하다면 제2 구동을 실시하고(S304), 협동 로봇(100)은 현재 회피 구동이 불가능하다면 경고 음성을 출력한다(S302-1).After step S303, the collaborative robot 100 performs a second driving if avoidance driving is currently possible (S304), and if avoidance driving is currently impossible, the cooperative robot 100 outputs a warning voice (S302-1).

이상 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 대한 실시 예를 모두 살펴보았다. All of the embodiments of the cooperative robot driving method capable of preemptive response and the system therefor have been reviewed.

본 발명은 상술한 특정의 실시예 및 응용예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 구별되어 이해되어서는 안 될 것이다.The present invention is not limited to the specific embodiments and application examples described above, and various modifications can be made by those skilled in the art without departing from the gist of the present invention claimed in the claims. Of course, these modified implementations should not be understood separately from the technical spirit or perspective of the present invention.

10: 협동 로봇 구동 시스템
100: 협동 로봇
101: 축
102: 로봇핸드
103: IR 마커
110: 통신부
120: 센서부
130: 장애물 인식부
140: 경로 생성부
150: 구동 제어부
160: 음성 발화부
200: 로봇 서버
300: 제1 위치 감지 센서
400: 제2 위치 감지 센서
10: cooperative robot drive system
100: collaborative robot
101 axis
102: robot hand
103: IR marker
110: communication department
120: sensor unit
130: obstacle recognition unit
140: path generation unit
150: drive control unit
160: voice ignition unit
200: robot server
300: first position detection sensor
400: second position detection sensor

Claims (8)

협동 로봇 구동 시스템이 선제적 대응이 가능한 협동 로봇을 구동하는 방법에 있어서,
(a) 협동 로봇이 고장 진단을 위한 구동을 실시할 때, 제1 위치 감지 센서가 실시간으로 상기 협동 로봇의 위치 정확도 - 상기 위치 정확도는, 상기 협동 로봇이 작업을 수행할 때에 위치해야 하는 표준의 위치와 상기 협동 로봇이 고장 진단을 위한 구동을 실시할 때의 협동 로봇의 위치를 비교 분석하여 유사도를 산출한 것임 - 를 파악하는 단계;
(a-1) 상기 협동 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당하는 경우, 로봇 서버에 고장 정보 - 상기 고장 정보는, 상기 협동 로봇의 식별 코드(UUID) 및 오차 범위를 포함하는 정보임 - 를 송신하여 구동 보정을 요청하는 단계;
(a-2) 상기 협동 로봇이 상기 로봇 서버로부터 구동 보정 정보를 수신한 경우, 상기 협동 로봇이 고장 진단을 위한 구동을 재실시하도록 하는 단계;
(b) 고장 진단을 위한 구동을 재실시한 결과 상기 협동 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당하지 않을 경우, 상기 협동 로봇이 작업을 위한 제1 구동을 실시하도록 하는 단계;
(c) 상기 협동 로봇이 작업을 위한 제2 구동을 실시하기 이전에, 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 주변 움직임을 감지하는 단계;
(c-1′) 상기 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임을 감지한 경우, 상기 협동 로봇이 축 변경이 가능한 협동 로봇인지에 대한 여부를 판단하는 단계;
(c-2′) 상기 협동 로봇이 축 변경이 가능한 협동 로봇이라 판단한 경우, 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동이 가능한지에 대한 여부를 판단하는 단계;
(c-3′) 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동이 가능하다고 판단한 경우, 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동을 실시하도록 하는 단계;
(d) 회피 구동을 실시한 이후, 상기 제2 위치 감지 센서에 의해 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임이 감지되지 않은 경우, 상기 협동 로봇이 제2 구동을 실시하는 단계;를 포함하고,
상기 제1 위치 감지 센서는, 상기 협동 로봇에 인접한 위치에 배치되는 것으로, 상기 협동 로봇에 부착된 적어도 복수 개의 IR 마커 - 상기 IR 마커는 외면에 반사체가 부착된 것으로서, 상기 반사체는 상기 제1 위치 감지 센서에 의해 조사된 특정 파장의 빛을 반사시켜 상기 제1 위치 감지 센서에 의해 인식되는 것임 - 들을 인식하여 상기 협동 로봇의 움직임 및 위치를 감지하는 카메라이고,
상기 제2 위치 감지 센서는, 상기 협동 로봇에 인접한 위치에 배치되는 것으로, 실시간으로 움직이는 물체의 움직임 또는 위치를 검출하는 Lidar 센서이고,
상기 제2 구동에 대응되는 협동 로봇 이동경로는, 현재 협동 로봇의 위치 및 자세 정보를 기반으로 생성된 것으로서, 상기 로봇 서버로부터 수신된 구동 보정 정보에 따라 실시간으로 갱신되는 것을 특징으로 하는,
선제적 대응이 가능한 협동 로봇 구동 방법.
A method for driving a collaborative robot capable of preemptive response by a cooperative robot driving system,
(a) When the cooperative robot drives for fault diagnosis, the first position sensor detects the positional accuracy of the cooperative robot in real time - the positional accuracy is the standard for the cooperative robot to be positioned when performing work. Comparing and analyzing the position of the cooperative robot and the position of the cooperative robot when driving for fault diagnosis, and calculating a degree of similarity - figuring out;
(a-1) If the positional accuracy of the collaborative robot falls within a preset error range, failure information to the robot server - The failure information is information including the identification code (UUID) and error range of the collaborative robot - requesting driving correction by sending a;
(a-2) when the cooperative robot receives driving correction information from the robot server, causing the cooperative robot to re-execute driving for fault diagnosis;
(b) if the location accuracy of the cooperative robot does not fall within a preset error range as a result of re-executing the driving for fault diagnosis, allowing the cooperative robot to perform a first driving for work;
(c) before the collaborative robot performs the second driving for work, detecting, by a second position sensor, a movement around the collaborative robot movement path corresponding to the second driving;
(c-1′) determining whether the collaborative robot is a cooperative robot capable of axis change when the second position detection sensor detects a peripheral movement in the movement path of the cooperative robot corresponding to the second drive step;
(c-2') if it is determined that the cooperative robot is capable of axis change, determining whether the cooperative robot can drive avoidance of the surrounding movement;
(c-3') if the collaborative robot determines that avoidance driving for the surrounding movement is possible, allowing the cooperative robot to perform avoidance driving for the surrounding movement;
(d) performing a second drive by the collaborative robot when, after performing the avoidance driving, a peripheral movement is not detected in the movement path of the cooperative robot corresponding to the second driving by the second position sensor; including,
The first position detection sensor is disposed adjacent to the collaborative robot, and includes at least a plurality of IR markers attached to the collaborative robot - the IR markers have a reflector attached to an outer surface, and the reflector is attached to the first position. A camera that detects the motion and position of the collaborative robot by recognizing the light of a specific wavelength irradiated by the detection sensor and recognized by the first position detection sensor,
The second position detection sensor is disposed adjacent to the collaborative robot and is a Lidar sensor that detects the movement or position of a moving object in real time,
Characterized in that the moving path of the collaborative robot corresponding to the second drive is generated based on information on the position and posture of the current cooperative robot, and is updated in real time according to driving correction information received from the robot server.
A method for driving a collaborative robot capable of preemptive response.
삭제delete 삭제delete 삭제delete 삭제delete 제1 항에 있어서,
상기 (c) 단계 이후에,
(c-1) 상기 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임을 감지한 경우, 상기 협동 로봇의 음성 발화부가 경고 음성을 출력하도록 하는 단계;
를 더 포함하는,
선제적 대응이 가능한 협동 로봇 구동 방법.
According to claim 1,
After step (c),
(c-1) outputting a warning sound from a voice generator of the cooperative robot when the second position detection sensor detects a peripheral movement in the movement path of the cooperative robot corresponding to the second drive;
Including more,
A method for driving a collaborative robot capable of preemptive response.
삭제delete 제1항의 선제적 대응이 가능한 협동 로봇 구동 방법을 실행하는 협동 로봇 구동 시스템.
A cooperative robot driving system that executes the cooperative robot driving method capable of preemptively responding to claim 1.
KR1020220169877A 2022-12-07 2022-12-07 A method for driving a collaborative robot capable of preemptive response and a system therefor KR102520214B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220169877A KR102520214B1 (en) 2022-12-07 2022-12-07 A method for driving a collaborative robot capable of preemptive response and a system therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220169877A KR102520214B1 (en) 2022-12-07 2022-12-07 A method for driving a collaborative robot capable of preemptive response and a system therefor

Publications (1)

Publication Number Publication Date
KR102520214B1 true KR102520214B1 (en) 2023-04-11

Family

ID=85976671

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220169877A KR102520214B1 (en) 2022-12-07 2022-12-07 A method for driving a collaborative robot capable of preemptive response and a system therefor

Country Status (1)

Country Link
KR (1) KR102520214B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03228589A (en) * 1990-02-01 1991-10-09 Kawasaki Heavy Ind Ltd Positioning method for work
JP2004050356A (en) * 2002-07-19 2004-02-19 Kawasaki Heavy Ind Ltd Position and attitude sensor of movable structure
JP2012086333A (en) * 2010-10-22 2012-05-10 Canon Inc Robot cell
JP2017071033A (en) * 2015-10-09 2017-04-13 キヤノン株式会社 Working reference object, working reference object manufacturing method, robot arm adjusting method, vision system, robot apparatus, and indicator member
JP2020511325A (en) * 2017-02-07 2020-04-16 ヴェオ ロボティクス, インコーポレイテッド Workspace safety monitoring and equipment control
KR20210064041A (en) * 2019-11-25 2021-06-02 재단법인대구경북과학기술원 Robot system and calibration method of the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03228589A (en) * 1990-02-01 1991-10-09 Kawasaki Heavy Ind Ltd Positioning method for work
JP2004050356A (en) * 2002-07-19 2004-02-19 Kawasaki Heavy Ind Ltd Position and attitude sensor of movable structure
JP2012086333A (en) * 2010-10-22 2012-05-10 Canon Inc Robot cell
JP2017071033A (en) * 2015-10-09 2017-04-13 キヤノン株式会社 Working reference object, working reference object manufacturing method, robot arm adjusting method, vision system, robot apparatus, and indicator member
JP2020511325A (en) * 2017-02-07 2020-04-16 ヴェオ ロボティクス, インコーポレイテッド Workspace safety monitoring and equipment control
KR20210064041A (en) * 2019-11-25 2021-06-02 재단법인대구경북과학기술원 Robot system and calibration method of the same

Similar Documents

Publication Publication Date Title
US10108829B2 (en) Human-centric robot with noncontact measurement device
US11039895B2 (en) Industrial remote control robot system
JP7076184B2 (en) Using a human motion sensor to detect movement when near a hydraulic robot
US20190321977A1 (en) Architecture and methods for robotic mobile manipluation system
JPWO2008047872A1 (en) manipulator
JP6816070B2 (en) Interference avoidance device and robot system
Kirschner et al. YuMi, come and play with Me! A collaborative robot for piecing together a tangram puzzle
Burrell et al. Towards a cooperative robotic system for autonomous pipe cutting in nuclear decommissioning
JP4572497B2 (en) Robot controller
WO2023037634A1 (en) Command value generating device, method, and program
KR102520214B1 (en) A method for driving a collaborative robot capable of preemptive response and a system therefor
Rasch et al. Tidy up my room: Multi-agent cooperation for service tasks in smart environments
US10007837B2 (en) Determining the robot axis angle and selection of a robot with the aid of a camera
US11478932B2 (en) Handling assembly comprising a handling device for carrying out at least one work step, method, and computer program
Zhang et al. QR code-based self-calibration for a fault-tolerant industrial robot arm
Nigro et al. Assembly task execution using visual 3D surface reconstruction: An integrated approach to parts mating
CN114536402B (en) Robot system fault detection processing method based on association identification and robot system
CN114347037B (en) Robot system fault detection processing method based on composite identification and robot system
Miura et al. Development of a personal service robot with user-friendly interfaces
JP2020163511A (en) Work support system and work support method of remote control robot
Antonelli et al. FREE: flexible and safe interactive human-robot environment for small batch exacting applications
US20220203531A1 (en) Robot, transmission method, and transmission estimation method
CN111399518A (en) Multi-sensor-based cooperative robot obstacle avoidance system and control method thereof
US20230330847A1 (en) Method and System for Training a Robot
CN115797878B (en) Equipment operation safety detection method and system based on image processing and related equipment

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant