KR102520214B1 - A method for driving a collaborative robot capable of preemptive response and a system therefor - Google Patents
A method for driving a collaborative robot capable of preemptive response and a system therefor Download PDFInfo
- Publication number
- KR102520214B1 KR102520214B1 KR1020220169877A KR20220169877A KR102520214B1 KR 102520214 B1 KR102520214 B1 KR 102520214B1 KR 1020220169877 A KR1020220169877 A KR 1020220169877A KR 20220169877 A KR20220169877 A KR 20220169877A KR 102520214 B1 KR102520214 B1 KR 102520214B1
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- driving
- cooperative
- collaborative
- cooperative robot
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000004044 response Effects 0.000 title claims abstract description 16
- 238000001514 detection method Methods 0.000 claims abstract description 47
- 238000003745 diagnosis Methods 0.000 claims abstract description 22
- 238000012937 correction Methods 0.000 claims abstract description 20
- 230000002093 peripheral effect Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 238000007519 figuring Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 14
- 239000003550 marker Substances 0.000 description 14
- 238000004891 communication Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000037152 sensory function Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1669—Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
- B25J19/061—Safety devices with audible signals
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
Description
본 발명은 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 관한 것이다. 보다 자세하게는 협동 로봇이 작업을 실시하기 이전에 고장 진단 및 구동 보정을 하고, 또한 구동 시에는 협동 로봇이 주변 움직임을 피하여 구동될 수 있도록 한 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 관한 것이다. The present invention relates to a method for driving a collaborative robot capable of preemptively responding and a system therefor. More specifically, a method and system for driving a collaborative robot capable of preemptively responding by diagnosing faults and correcting the operation before the cooperative robot performs work, and avoiding the movement of the surroundings during driving, so that the cooperative robot can be driven. it's about
많은 전문가들은 4차 산업 혁명과 첨단 기술의 발달로 인간과 로봇(Robot)이 공존하는 사회가 도래할 것이라고 전망하였다.Many experts have predicted that a society where humans and robots coexist will come with the 4th industrial revolution and the development of advanced technology.
현재의 로봇 기술은 사람들이 할 수 있는 작업을 그대로 모방하거나 들어 올리고 옮기는 작업과 같은 단순 노동을 수행할 수 있음은 물론 공업, 농업, 서비스업 등과 같이 정밀함과 정확함을 요구하는 작업들을 수행할 수 있을 정도로 발전하였다.Current robot technology is capable of performing tasks that require precision and accuracy, such as in industry, agriculture, and service industries, as well as performing simple labor such as imitating tasks that people can do or lifting and moving. developed.
로봇이 앞서 언급한 역할들을 수행할 수 있었던 것은 노동을 하게 되면 체력이 고갈되는 인간과 달리 입력된 데이터와 공급 에너지(예. 전기 에너지)만 있으면 구동 제어가 있을 때까지 주어진 작업을 완수하는 로봇의 특징 때문일 것이다.Unlike humans, whose physical strength is depleted during labor, robots were able to perform the roles mentioned above because of the robot's ability to complete given tasks until there is drive control with only input data and supplied energy (e.g., electrical energy). Maybe it's because of the features.
또한, 로봇은 사소한 감정 또는 심리 상태에 의하여 작업 중에 실수를 할 수 있는 인간과 달리 입력된 데이터를 기반으로 구동을 실시하기 때문에 작업 중에 실수를 할 일이 없고, 최근에는 로봇에 인공지능 AI 기술이 탑재되어 입력된 구동 데이터들을 스스로 학습하거나 주변 객체들을 식별할 수 있게 되어 보다 정밀하고 정확한 작업을 수행할 수 있게 되었다.In addition, unlike humans who can make mistakes during work due to trivial emotions or psychological states, robots do not make mistakes during work because they are driven based on input data. It is possible to perform more precise and accurate work by learning the input driving data by itself or identifying surrounding objects.
다만, 로봇은 인간과 달리 감각 기능을 갖고 있지 않으며 예방 가능한 상황에 대한 선제적 대응이 불가능하다. 구체적인 예로, 로봇은 인간과 달리 작업을 시작하기 전에 본체가 작업에 대하여 준비가 되었는지 또는 현재 로봇의 상태가 불편한 점이 없는지 자체적으로 판단하거나 불편한 부분을 자체적으로 해결하기 어려우며, 작업 중에 발생되는 예방 가능한 돌발 상황(예. 다음 작업 공간에 누군가 방해 중인 상황)을 대처하기에는 어려움이 있었다.However, unlike humans, robots do not have sensory functions and cannot preemptively respond to preventable situations. As a specific example, unlike humans, robots have difficulty self-determining whether the main body is ready for work or whether there are any inconveniences in the current state of the robot before starting work, or it is difficult to resolve uncomfortable parts on its own, and it is difficult to prevent unexpected accidents that occur during work. It was difficult to deal with situations (eg someone in the next workspace being disturbed).
본 발명은 이와 같은 문제점에 착안하여 도출된 것으로, 이상에서 살핀 기술적 문제점을 해소시킬 수 있음은 물론, 본 기술분야에서 통상의 지식을 가진 자가 용이하게 고안할 수 없는 추가적인 기술요소들을 제공하기 위해 발명되었다.The present invention was derived in view of the above problems, and it is possible to solve the above technical problems, as well as to provide additional technical elements that cannot be easily devised by those skilled in the art. It became.
본 발명은 협동 로봇이 특정 작업을 실시하기 이전에 협동 로봇이 고장 났는지에 대하여 또는 특정 작업을 실시하기 위한 구동의 오차가 없는지에 대하여 판단하여, 고장 났거나 구동의 오차가 있는 경우 이를 보정하여 상기 특정 작업을 실시하도록 하는 방법 및 이를 위한 시스템을 제공하는 것을 목적한다.According to the present invention, before the collaborative robot performs a specific task, it is determined whether the collaborative robot is out of order or whether there is an error in driving to perform the specific task, and if it is out of order or there is an error in driving, it is corrected to perform the above task. It is an object to provide a method for performing a specific task and a system therefor.
또한, 본 발명은 협동 로봇이 특정 작업에 대하여 순차적으로 제1 구동과제2 구동을 실시할 때에 제2 구동을 실시하기 이전에, 제2 구동을 실시하기 위하여 이동해야 하는 경로 또는 제2 구동을 실시할 때의 협동 로봇의 움직임 반경에 장애물이 있는지 먼저 파악하여 선제적 대응 실시하는 방법 및 이를 위한 시스템을 제공하는 것을 목적으로 한다.In addition, when the cooperative robot sequentially performs the first driving and the second driving for a specific task, the present invention implements a path or a second driving that must be moved to perform the second driving before performing the second driving. An object of the present invention is to provide a method and a system for performing a preemptive response by first identifying whether there is an obstacle in the movement radius of a collaborative robot when performing a collaborative robot.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.
위와 같은 문제점을 해결하기 위하여, 본 발명에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 (a) 협동 로봇이 고장 진단을 위한 구동을 실시할 때, 제1 위치 감지 센서가 실시간으로 상기 협동 로봇의 위치 정확도를 파악하는 단계, (b) 상기 협동 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당하지 않을 경우, 상기 협동 로봇이 작업을 위한 제1 구동을 실시하도록 하는 단계, (c) 상기 협동 로봇이 작업을 위한 제2 구동을 실시하기 이전에, 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 주변 움직임을 감지하는 단계 및 (d) 상기 제2 위치 감지 센서에 의해 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임이 감지되지 않은 경우, 상기 협동 로봇이 제2 구동을 실시하는 단계를 포함할 수 있다. In order to solve the above problems, a method for driving a cooperative robot capable of preemptively responding according to the present invention (a) when the cooperative robot is driven for fault diagnosis, the first position sensor detects the motion of the cooperative robot in real time. Step of determining the positional accuracy; (b) if the positional accuracy of the collaborative robot does not fall within a preset error range, allowing the collaborative robot to perform a first drive for work; (c) the cooperative robot Before performing the second drive for work, detecting, by a second position sensor, a motion around the collaborative robot movement path corresponding to the second drive; and The method may include performing a second drive by the collaborative robot when no movement is detected in the movement path of the collaborative robot corresponding to the second driving.
또한, 상기 위치 정확도는 상기 협동 로봇이 작업을 수행할 때에 위치해야 하는 표준의 위치와 상기 협동 로봇이 고장 진단을 위한 구동을 실시할 때의 협동 로봇의 위치를 비교 분석하여 유사도를 산출한 것임을 특징으로 할 수 있다.In addition, the location accuracy is characterized in that the degree of similarity is calculated by comparing and analyzing the standard position to be located when the collaborative robot is performing a task and the position of the cooperative robot when the cooperative robot is driven for fault diagnosis. can be done with
또한, 상기 제1 위치 감지 센서는 상기 협동 로봇에 인접한 위치에 배치되는 것으로, 상기 협동 로봇에 부착된 적어도 하나 이상의 IR 마커를 인식하여 상기 협동 로봇의 움직임 및 위치를 감지하는 카메라인 것을 특징으로 할 수 있다.In addition, the first position detection sensor is disposed adjacent to the cooperative robot and is a camera that detects the movement and position of the cooperative robot by recognizing at least one IR marker attached to the cooperative robot. can
또한, 상기 제2 위치 감지 센서는 3차원 Lidar 또는 Depth 카메라를 적어도 하나 이상 포함하는 장치로서, 상기 협동 로봇에 인접한 위치 또는 상기 협동 로봇에 배치되어, 실시간으로 움직이는 물체의 움직임 또는 위치를 검출하는 카메라인 것을 특징으로 할 수 있다.In addition, the second position detection sensor is a device including at least one 3D lidar or depth camera, and is disposed adjacent to the cooperative robot or on the cooperative robot to detect the movement or position of a moving object in real time. It can be characterized as being.
또한, 상기 (a) 단계 이후에, (a-1) 상기 협동 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당하는 경우, 상기 로봇 서버에 고장 정보- 상기 고장 정보는, 상기 협동 로봇의 식별 코드, 또는 오차 범위를 적어도 하나 이상 포함하는 정보임-를 송신하여 구동 보정을 요청하는 단계 및 상기 협동 로봇이 상기 로봇 서버로부터 구동 보정 정보를 수신한 경우, 상기 협동 로봇이 고장 진단을 위한 구동을 재실시하도록 하는 단계를 더 포함할 수 있다.In addition, after the step (a), (a-1) if the positional accuracy of the collaborative robot falls within a preset error range, failure information to the robot server-the failure information includes an identification code of the collaborative robot, or information including at least one error range - requesting driving correction by transmitting and, when the cooperative robot receives driving correction information from the robot server, the cooperative robot re-executes driving for fault diagnosis It may further include steps to do so.
또한, 상기 (c) 단계 이후에, (c-1) 상기 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임을 감지한 경우, 상기 협동 로봇의 음성 발화부가 경고 음성을 출력하도록 하는 단계를 더 포함할 수 있다.In addition, after step (c), (c-1) when the second position detection sensor detects a movement around the cooperative robot in the movement path corresponding to the second drive, the voice generator of the cooperative robot warns. A step of outputting a voice may be further included.
또한, 상기 (c) 단계 이후에, (c-1′) 상기 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임을 감지한 경우, 상기 협동 로봇이 축 변경이 가능한 협동 로봇인지에 대한 여부를 판단하는 단계. (c-2′) 상기 협동 로봇이 축 변경이 가능한 협동 로봇이라 판단한 경우, 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동이 가능한지에 대한 여부를 판단 하는 단계 및 (c-3′) 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동이 가능하다고 판단한 경우, 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동을 실시하도록 하는 단계를 더 포함할 수 있다.In addition, after the step (c), (c-1′), when the second position detection sensor detects a peripheral movement in the movement path of the collaborative robot corresponding to the second drive, the cooperative robot changes its axis. A step of determining whether or not a collaborative robot is possible. (c-2′) if it is determined that the collaborative robot is capable of axis change, determining whether or not the cooperative robot can drive to avoid the surrounding movement; and (c-3′) the cooperative robot When it is determined that the avoidance driving for the surrounding movement is possible, the method may further include allowing the collaborative robot to perform avoidance driving for the surrounding movement.
한편, 위와 같은 문제점을 해결하기 위하여, 본 발명에 따른 협동 로봇 구동 시스템은 로봇 서버와 데이터 교환이 가능하여 상기 로봇 서버에 고장 정보를 전송하는 통신부; 상기 협동 로봇의 위치 및 움직임을 감지하거나 상기 협동 로봇의 주변 물체를 감지하여 센싱정보를 생성하는 센서부; 상기 센서부로부터 생성된 센싱정보를 기반으로 물체 또는 사람을 인식하는 장애물 인식부; 상기 협동 로봇이 작업을 수행할 때에 필요한 상기 협동 로봇의 이동경로를 생성하는 경로 생성부; 상기 협동 로봇 또는 상기 협동 로봇에 구비된 로봇팔의 구동을 제어하는 구동 제어부; 및 경고 음성을 출력하는 음성 발화부; 를 포함하고, 외면에 적어도 하나 이상의 IR 마커가 부착된 협동 로봇, 상기 협동 로봇에 인접한 위치 또는 상기 협동 로봇에 배치되어, 상기 협동 로봇에 부착된 적어도 하나 이상의 IR 마커를 인식하여 상기 협동 로봇의 움직임 및 위치를 감지하는 제1 위치 감지 센서, 상기 협동 로봇에 인접한 위치 또는 상기 협동 로봇에 배치되어, 실시간으로 움직이는 물체의 움직임 또는 위치를 검출하는 제2 위치 감지 센서 및 상기 협동 로봇으로부터 상기 고장 정보를 수신하면, 상기 고장 정보를 분석하여 구동 보정 정보를 생성하고 상기 구동 보정 정보를 상기 협동 로봇에 전송하는 로봇 서버를 포함할 수 있다.Meanwhile, in order to solve the above problems, the cooperative robot driving system according to the present invention includes a communication unit capable of exchanging data with a robot server and transmitting failure information to the robot server; a sensor unit generating sensing information by detecting a position and movement of the collaborative robot or sensing an object around the cooperative robot; an obstacle recognizing unit recognizing an object or a person based on the sensing information generated by the sensor unit; a path creation unit generating a movement path of the collaborative robot necessary when the collaborative robot performs a task; a driving control unit that controls driving of the cooperative robot or a robot arm provided in the cooperative robot; and a voice ignition unit outputting a warning voice. Including, a cooperative robot having at least one IR marker attached to its outer surface, a location adjacent to the collaborative robot or disposed on the cooperative robot, and recognizing at least one IR marker attached to the cooperative robot to move the cooperative robot. and a first position detection sensor for detecting a position, a position adjacent to or disposed on the cooperative robot, and a second position detection sensor for detecting the movement or position of a moving object in real time and the failure information from the cooperative robot. Upon reception, it may include a robot server that analyzes the failure information to generate drive correction information and transmits the drive correction information to the cooperative robot.
상기와 같은 본 발명에 따르면, 협동 로봇이 특정 작업을 실시하기 이전에 협동 로봇이 고장 진단 구동 실시하여 고장이 났거나 구동의 오차가 있는 것을 사전에 파악함으로써, 작업의 완성도를 향상시켜 양질의 작업 결과물을 만들어 낼 수 있는 효과가 있다.According to the present invention as described above, the cooperative robot performs fault diagnosis and operation before performing a specific task, thereby identifying in advance a failure or an error in driving, thereby improving the completeness of the work and providing high-quality work. There is an effect that can produce a result.
또한, 협동 로봇이 제1 구동 이후 제2 구동을 실시하기 이전에 제2 구동을 실시하기 위하여 이동하는 경로 또는 제2 구동을 실시할 때의 협동 로봇의 움직임 반경에 장애물이 있는지 먼저 파악하고 이에 대한 선제적 대응을 실시함으로써, 작업 중에 발생될 수 있는 문제점(예. 사고, 고장, 결함)들을 사전에 방지할 수 있는 효과가 있으며, 나아가 협동 로봇과 사용자 간의 협동 작업을 수행할 수 있도록 하는 효과가 있다.In addition, before performing the second driving after the first driving, it is first determined whether there is an obstacle in the path along which the collaborative robot moves to perform the second driving or the movement radius of the cooperative robot when performing the second driving, and By implementing a preemptive response, there is an effect of preventing problems that may occur during work (e.g., accidents, failures, defects) in advance, and furthermore, an effect of enabling cooperative work between the collaborative robot and the user there is.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.
도1은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템을 개념적으로 이해하기 위하여 나타낸 도면이다.
도2는 본 발명에서 말하는 고장 정보 및 구동 보정 정보를 개념적으로 이해하기 위하여 나타낸 도면이다.
도3은 본 발명의 제1 실시 예에 따른 협동 로봇이 선제적 대응을 통하여 구동을 실시하는 과정을 나타낸 도면이다.
도4는 본 발명의 제1 실시 예 따른 협동 로봇을 사시도로 나타낸 도면이다.
도5는 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템의 전체 구성을 간단한 모식도로 나타낸 도면이다.
도6은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
도7은 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
도8은 본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.1 is a diagram for conceptually understanding a cooperative robot driving system capable of preemptively responding according to a first embodiment of the present invention.
2 is a diagram for conceptually understanding failure information and driving correction information according to the present invention.
FIG. 3 is a diagram illustrating a process in which the collaborative robot according to the first embodiment of the present invention drives through a preemptive response.
4 is a perspective view showing a collaborative robot according to a first embodiment of the present invention.
Fig. 5 is a simple schematic diagram showing the overall configuration of a cooperative robot driving system capable of preemptively responding according to the first embodiment of the present invention.
6 is a diagram specifically showing a method for driving a collaborative robot capable of preemptively responding according to the first embodiment of the present invention.
7 is a diagram specifically illustrating a method for driving a cooperative robot capable of preemptively responding according to a second embodiment of the present invention.
8 is a diagram specifically showing a method for driving a collaborative robot capable of preemptively responding according to a third embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and methods for achieving them, will become clear with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention belongs. It is provided to fully inform the holder of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numbers designate like elements throughout the specification.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used in a meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined. Terms used in this specification are for describing embodiments and are not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as "first" and "second" are used to distinguish one component from another, and the scope of rights should not be limited by these terms. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element.
본 명세서에서 사용되는 "포함한다 (Comprises)" 및/또는 "포함하는 (Comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.As used herein, "comprises" and/or "comprising" means that a stated component, step, operation, and/or element is one or more other components, steps, operations, and/or elements. Existence or additions are not excluded.
<제1 실시 예><First Embodiment>
도1은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템을 개념적으로 이해하기 위하여 나타낸 도면이다.1 is a diagram for conceptually understanding a cooperative robot driving system capable of preemptively responding according to a first embodiment of the present invention.
도1을 참고하면, 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템(이하 협동 로봇 구동 시스템(10)이라 약칭함)은 협동 로봇(100)이 작업을 실시하기 이전에 고장 진단을 위한 구동을 실시하면(①), 협동 로봇(100)과 인접한 위치에 배치된 제1 위치 감지 센서(300)가 협동 로봇(100)의 위치 정확도를 파악하고(②), 협동 로봇(100)의 위치 정확도가 기 설정된 오차 범위 내에 해당하지 않을 경우 협동 로봇(100)이 상기 작업을 실시할 수 있는 제1 구동을 실시할 수 있도록 하며, 협동 로봇(100)의 위치 정확도가 기 설정된 오차 범위 내에 해당할 경우 로봇 서버(200)가 상기 오차 범위에 대한 구동을 보정할 수 있는 구동 보정 정보를 생성하여 협동 로봇(100)에 전송하고(③), 협동 로봇(100)이 보정된 구동을 실시하도록 하여(④) 협동 로봇(100)이 정확하고 정밀한 작업을 실시할 수 있도록 하는 시스템에 관한 것이다.Referring to FIG. 1 , the cooperative robot driving system capable of preemptively responding according to the first embodiment of the present invention (hereinafter referred to as the cooperative robot driving system 10) When driving for fault diagnosis is performed (①), the first
참고로, 본 발명에서 말하는 ‘선제적 대응’ 이란 본 발명의 협동 로봇(100)이 어느 특정 작업을 수행하고자 할 때에 구동의 오차 또는 장애물에 의한 문제적 상황 봉착에 따라 잘못된 구동이 실시될 것을 사전에 파악하거나 예측하여, 파악된 데이터를 기반으로 협동 로봇(100)의 구동을 보정함으로써 보다 정확하고 정밀할 구동을 실시할 수 있도록 하는 것을 말할 수 있다. 구체적으로, 특정 작업을 수행하는 종래의 로봇들은 사람이 할 수 없었던 정밀하고 정확한 구동으로 사용자들에게 편리함을 가져다 주었지만, 이러한 로봇들이 수행하는 구동은 사용자들이 입력한 데이터를 기반으로만 작동하였기 때문에 작업을 실시할 때에 발생하는 예기치 않은 문제(장애물 접촉, 구동 오차 발생 등)에 일일이 대처하기 어려웠으며, 예방 가능한 문제에 대한 선제적 대응을 하기에는 어려움이 있고, 상기 문제가 발생한 이후에 구동이 보정되는 작업이 일률적으로 이루어지지 않아 종래의 로봇들은 매우 수동적인 작업에만 활용되거나 사용자들과 협동을 통하여 이루어지는 작업을 제대로 수행하지 못하였기에, 본 발명은 이러한 종래의 로봇의 문제점을 해결하고자 협동 로봇(100)이 어느 한 특정 작업을 실시하고자 할 때에 발생하는 고장, 오류, 장애물에 의한 문제적 상황 봉착 등의 이벤트들을 선제적으로 대응할 수 있도록 하여 협동 로봇(100)이 보다 능동적으로 작업을 수행하거나 사용자들과 작업을 협동하여 실시할 수 있도록 한다.For reference, the term 'preemptive response' in the present invention means that when the
이러한 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법과 이를 위한 시스템을 구체적으로 살펴보기 이전에 본 발명에서 자주 언급되는 용어들에 대하여 먼저 간략히 살펴보도록 한다.Prior to examining in detail the method for driving a cooperative robot capable of preemptively responding and the system therefor according to the first embodiment of the present invention, terms frequently mentioned in the present invention will be briefly reviewed first.
도2는 본 발명에서 말하는 고장 정보 및 구동 보정 정보를 개념적으로 이해하기 위하여 나타낸 도면이다.2 is a diagram for conceptually understanding failure information and driving correction information according to the present invention.
본 발명의 제1 실시 예에 따른 협동 로봇 시스템(10)은 협동 로봇(100)이 어느 특정한 작업을 실시하기 이전에 상기 작업을 제대로 수행할 수 있는지에 대하여 점검하거나 협동 로봇(100)이 고장 나지 않았는지 진단하기 위하여 협동 로봇(100)이 고장 진단 구동을 실시 하도록 한다. 여기서 말하는 고장 진단 구동이란 실제 작업을 실시하기 이전에 협동 로봇(100) 작업을 수행하기 위한 구동을 미리 실시해보도록 하는 시뮬레이션 구동을 말할 수 있다.The
도2를 참고하면, 협동 로봇(100)이 고장 진단 구동을 실시하면, 협동 로봇(100)에 인접한 위치에 배치된 제1 위치 감지 센서(300)는 협동 로봇(100) 외면에 부착된 IR 마커(103)를 인식하여 협동 로봇(100)의 모션 또는 자세를 감지함으로써 협동 로봇(100)의 위치 정확도를 파악하고, 이를 기반으로 고장 정보를 생성한다. 구체적으로, 협동 로봇(100)이 컵을 들어올리는 작업을 수행하기 위해서는 표준의 구동인 ‘A’ 구동을 수행해야 한다고 가정하였을 때에 협동 로봇(100)이 고장 진단 구동에 의하여 ‘B’ 구동을 실시하였다면, 제1 위치 감지 센서(300)가 협동 로봇(100)의 ‘B’ 구동을 인식할 뿐만 아니라 ‘B’구동과 상기 표준의 ‘A’구동을 비교 분석하여 고장 진단 구동에 대한 위치 정확도를 파악한다(①). 이 때, 제1 위치 감지 센서(300)가 협동 로봇(100) 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당한다고 판단한 경우 고장 정보를 생성한다.Referring to FIG. 2 , when the
여기서 말하는 위치 정확도란 협동 로봇(100)이 작업을 수행할 때에 위치해야 하는 표준의 위치 또는 자세(A)와 협동 로봇(100)이 고장 진단을 위한 구동을 실시할 때의 협동 로봇(100)의 위치 또는 자세(B)를 비교 분석하여 유사도를 산출한 것을 말할 수 있다. The positional accuracy referred to herein is the difference between the standard position or posture (A) that the
한편, 여기서 말하는 고장 정보란 협동 로봇의 식별 코드(UUID), 오차 범위를 적어도 하나 이상 포함하는 정보를 말할 수 있다. 이러한 고장 정보에 협동 로봇(100)의 식별 코드(UUID)가 포함되어 있는 이유는 로봇 서버(200)가 해당 협동 로봇(100)의 고장을 신속히 진단할 수 있도록 하기 위함이다. 구체적으로, 복수 개의 협동 로봇(100) 각각에는 특정 작업을 수행하기 위한 구동 데이터가 입력되어 있거나 학습되어 있을 것이며, 로봇 서버(200)가 해당 협동 로봇(100)의 고장을 진단할 때에 복수 개의 협동 로봇(100)의 구동 데이터를 일일이 식별하는 것보다 협동 로봇(100) 그 자체를 식별하는 것이 해당 협동 로봇(100)의 고장을 신속히 진단할 수 있기 때문이다. Meanwhile, the failure information referred to herein may refer to information including at least one identification code (UUID) of the cooperative robot and an error range. The reason why the identification code (UUID) of the
다시 도2를 참고하면, 고장 정보가 생성된 이후에, 제1 위치 감지 센서(300) 또는 제1 위치 감지 센서(300)로부터 생성된 고장 정보를 수신한 협동 로봇(100)은 고장 정보를 로봇 서버(200)에 전송하고, 로봇 서버(200)는 수신한 고장 정보를 토대로 구동 보정 정보를 생성하여 협동 로봇(100)에 전송한다(③).Referring back to FIG. 2 , after the failure information is generated, the first
여기서 말하는 구동 보정 정보란 로봇 서버(100)가 제1 감지 센서(300) 또는 협동 로봇(100)으로부터 고장 정보를 수신하였을 때, 로봇 서버(100)가 고장 정보를 분석하고 현재 협동 로봇(100)이 고장 난 이유(예. 전력 부족, 협동 로봇의 부품 결함 등)를 도출하여 고장 난 이유를 해결하기 위하여 생성한 정보 또는 구동 오차를 해결할 수 있는 정보를 말할 수 있다. 구체적인 예를 위해 도2를 참고하면, 컵을 옮기는 작업을 수행하는 협동 로봇(100)이 컵을 들어올리기 위해서는 ‘A’구동을 실시해야 하지만 고장 진단 구동에서 컵을 들어올리지 못하는 ‘B’구동을 실시하였다고 가정하였을 때, 로봇 서버(200)는 상기 ‘B’ 구동에 대한 고장 정보를 수신하여 협동 로봇(100)이 ‘A’ 구동을 실시할 수 있도록 ‘A’구동과 ‘B’ 구동의 오차 또는 협동 로봇(100)의 구성(로봇팔(102: 도4 참고), 축(101: 도4 참고) 등)의 문제점을 분석하여, ‘로봇팔(102)이 θ1 각도로 보정되어야 한다는 구동 보정 정보’ 또는 ‘협동 로봇(100)의 n번째 축(101)이 θ2 각도로 보정되어야 한다는 구동 보정 정보’등을 생성할 수 있다.The drive correction information referred to herein is when the
도3은 본 발명의 제1 실시 예에 따른 협동 로봇(100)이 선제적 대응을 통하여 구동을 실시하는 과정을 나타낸 도면이다.FIG. 3 is a diagram showing a process of driving the
본 발명의 제1 실시 예에 따른 협동 로봇 구동 시스템(10)은 협동 로봇(100)이 선제적 대응을 할 수 있도록 협동 로봇(100)이 특정한 작업을 실시할 때의 예상 작업 경로에 주변 움직임(예. 장애물의 움직임)이 감지되면 경고 음성을 출력할 수 있도록 한다.The cooperative
도3을 참고하면, A 사이트에 있는 컵을 들어올리는 ‘제1 구동’과 들어올린 컵을 B사이트로 옮겨야 하는 ‘제2 구동’을 순차적으로 실시해야 하는 협동 로봇(100)이 ‘제1 구동’을 실시하였다고 가정하였을 때(①), 협동 로봇(100)과 연계된 제2 위치 감지부(400)가 ‘제2 구동'에 대응되는 협동 로봇(100) 이동경로에 주변 움직임(예. 사용자 신체)을 감지한 경우(②), 감지된 정보를 협동 로봇(100)에 전송하여 협동 로봇(100)이 "조심하세요"와 같은 경고 음성 출력할 수 있도록 한다(③).Referring to FIG. 3, the
이상 본 발명에서 자주 언급되는 용어들에 대하여 먼저 간략히 살펴보았다.Above, terms frequently mentioned in the present invention were first briefly reviewed.
다음으로, 본 발명의 제1 실시 예에 따른 협동 로봇(100)의 개략적인 외관과 협동 로봇(100)에 포함된 전체 구성요소들에 대하여 살펴보도록 한다.Next, a schematic appearance of the
도4는 본 발명의 제1 실시 예 따른 협동 로봇(100)을 사시도로 나타낸 도면이다.4 is a perspective view showing the
도 4를 참고하면, 본 발명의 제1 실시 예에 따른 협동 로봇(100)은 특정한 작업을 정밀하고 정확하게 수행하거나, 사용자와 협동하여 작업을 수행할 수 있도록 설계된 로봇이다. Referring to FIG. 4 , the
협동 로봇(100)은 상기 역할들을 수행하기 위하여, 적어도 하나 이상의 축(101), 로봇팔(102) 및 IR 마커(103)를 포함할 수 있다.The
축(101)은 복수 개로 마련되어 있으며, 이 복수 개의 축(101)이 서로 다른 구동(상/하/좌/우 구동, 회전 구동)이 가능하여, 협동 로봇(100)이 6자유도 운동(Six degrees of freedom, 6DOF)에 대한 구동을 실시할 수 있도록 한다.A plurality of
또한, 종래 로봇암(미도시)의 축이 최대 6개로 구성되어 있는 것과 달리 본 발명의 협동 로봇(100)의 축(101)이 7개 이상으로 구성되어 있어 타겟이 된 위치에 보다 세밀하고 정교한 각도로 진입할 수 있도록 하며, 협동 로봇(100)이 장애물 회피 구동, 특정 포즈 취하기 등과 같은 보다 자유도 높은 구동을 할 수 있도록 한다.In addition, unlike the conventional robot arm (not shown) composed of up to six axes, the
로봇핸드(102)는 사용자 손과 비슷한 역할을 수행하는 구성요소이다. 구체적으로, 로봇핸드(102)는 물체를 그립(Grip)하거나, 당기거나 운반하는 구동을 실시할 수 있어 사용자 손과 비슷한 역할을 수행하여 사용자와 같이 협동의 작업을 수행 할 수도 있다.The
로봇핸드(102)는 사용자와 협동하여 정밀함을 요하는 어려운 작업을 수행할 수 있다. 구체적으로, 로봇핸드(102)는 의료 시술, 조리, 조립 또는 가공과 같은 정밀함을 요하는 작업을 수행할 수 있어 이러한 작업을 사용자와 협동하여 실시할 수 있다. The
로봇핸드(102)는 상기 작업들을 수행하기 위하여 수행하고자 하는 작업의 목적에 맞는 형상을 가질 수 있다. 예를 들면, 로봇핸드(102)가 의료 시술을 진행할 때에는 사용자의 손 형상이 아닌 절삭 가능한 수술도구, 생검 도구, 스크류 드라이버 등과 같은 의료기구 형상을 나타낼 수 있다.The
IR 마커(103)는 내부에 포함되거나 외면에 부착된 반사체에 의하여 제1 위치 감지 센서(300)를 통하여 인식된다.The
반사체는 특수한 파장의 빛이 조사되었을 때 특정 장치에 의해 인식 가능한 빛을 반사하는 성질을 가지고 있어 IR 마커(103)가 제1 위치 감지 센서(300)에 의하여 촬영될 때에 조사되는 빛을 반사하여 IR 마커(103)의 위치가 인식되도록 한다.The reflector has a property of reflecting light recognizable by a specific device when light of a special wavelength is irradiated, so that when the
반사체는 IR 마커(103) 내부에 포함되는 구성으로 마련될 수 있지만, 사용자에 의하여 표면에 탈부착 가능하도록 구현될 수도 있다. 이 때, 사용자는 임의로 IR 마커(103) 표면에서의 반사체의 위치를 탈부착하여 조정할 수 있다.The reflector may be provided in a configuration included inside the
도5는 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템(10)의 전체 구성을 간단한 모식도로 나타낸 도면이다.Fig. 5 is a simple schematic diagram showing the overall configuration of the collaborative
도5를 참고하면, 본 발명의 협동 구동 시스템(10)은 협동 로봇(100), 로봇 서버(200), 제1 위치 감지 센서(300) 및 제2 위치 감지 센서(400)를 포함할 수 있다.Referring to FIG. 5 , the
협동 로봇(100)은 전술한 축(101), 로봇핸드(102) 및 IR 마커(103)를 포함할 뿐만 아니라 본 발명의 목적인 ‘선제적 대응 구동’을 실시하기 위하여 통신부(110), 센서부(120), 장애물 인식부(130), 경로 생성부(140), 구동 제어부(150) 및 음성 발화부(160)를 더 포함할 수 있다.The
통신부(110)는 협동 로봇(100)이 사용자 단말(예. 사용자의 스마트폰, 데스크탑 등), 로봇 서버(200), 제1 위치 감지 센서(300) 또는 제2 위치 감지 센서(00)와 데이터 교환이 가능하도록 마련된 구성요소이다. 구체적으로, 통신부(110)는 사용자 단말(200)로부터 협동 로봇(100)이 특정한 구동을 실시할 수 있도록 하는 구동 데이터에 대한 정보를 수신하거나, 전원 On/Off와 같은 제어 정보를 수신할 수 있으며, 로봇 서버(200)로부터 고장 정보를 송신하거나 구동 보정 정보를 수신할 수 있고, 제1 및 제2 위치 감지 센서(300, 400)로부터 감지된 정보들을 수신할 수 있다. The communication unit 110 allows the
센서부(120)는 전술한 제1 및 제2 위치 감지 센서(300, 400)와 마찬가지로 협동 로봇(100)의 위치 및 움직임을 감지하거나, 협동 로봇의 주변 물체를 감지하여 센싱정보를 생성하는 구성요소이다. 쉽게 말해, 제1 및 제2 위치 감지 센서(300, 400)가 협동 로봇(100)의 인접한 위치에 설치되는 것이 아니라 협동 로봇(100)의 하나의 구성으로서 마련될 수 있다.Like the first and second
장애물 인식부(130)는 협동 로봇(100)이 작업에 대한 구동을 실시할 때에 즉각적으로 출현/발생하는 장애물을 인식하여 장애물과의 충돌을 방지해주는 구성요소이다. The obstacle recognizing unit 130 is a component that recognizes obstacles that appear/occur immediately when the
장애물 인식부(130)는 AI 객체 식별 알고리즘을 활용하여 장애물을 인식한다. 여기서, AI 객체 식별 알고리즘이란, 학습된 이미지 데이터들을 기반으로 객체를 구분 및 식별하여 식별한 객체가 장애물인지 아닌지 인식할 수 있는 알고리즘을 말할 수 있다. 쉬운 예로, 협동 로봇(100)이 컵을 들어올리는 구동을 실시해야 한다고 가정 하였을 때에 AI 객체 식별 알고리즘은 컵과 사용자의 신체(예. 손) 이미지 데이터에 대하여 학습하고, 구동 중에 컵과 사용자의 신체가 포착된다면 각각 작업 대상물과 장애물로서 구분하여 식별할 수 있다.The obstacle recognizing unit 130 recognizes an obstacle by utilizing an AI object identification algorithm. Here, the AI object identification algorithm may refer to an algorithm capable of recognizing whether an object identified by classifying and identifying an object based on learned image data is an obstacle. As an easy example, when it is assumed that the
본 발명의 협동 구동 시스템(10)은 선제적 대응을 통하여 고장 또는 장애물 충돌을 사전에 예측하거나 방지할 수 있었다면, 협동 로봇(100)의 장애물 인식부(130)를 통하여 즉각적인 상황에 대한 장애물과의 충돌을 방지할 수 있다.If the
경로 생성부(140)는 센서부(120) 또는 협동 로봇(100)과 연계된 제2 위치 감지 센서(400)의 Lidar기술을 활용하여 현재 협동 로봇(100)의 위치, 자세에 대한 정보를 수신하고, 수신한 데이터를 기반으로 협동 로봇(100)이 특정한 작업을 수행하기 위하여 이동되어야 할 경로를 생성해주는 구성요소이다.The path generator 140 receives information about the current position and attitude of the
참고로, 경로 생성부(140)로부터 생성된 경로는 협동 로봇(100)이 로봇 서버(200)로부터 구동 보정 정보를 수신한 경우 실시간으로 갱신 및 업데이트될 수 있다.For reference, the path generated by the path generator 140 may be updated and updated in real time when the
구동 제어부(150)는 협동 로봇(100)이 특정한 작업을 수행하는 구동을 실시하기 위하여 학습된 구동 데이터 또는 로봇 서버(200)로부터 수신한 보정 구동 정보를 토대로 협동 로봇(100)의 구동을 제어하는 구성요소이다.The driving control unit 150 controls the driving of the
음성 발화부(160)는 TTS(Text to Speech: 음성합성)기술이 활용되는 구성요소이며, 특정 상황이 감지되면 특정 상황에 매칭된 텍스트 데이터를 음성 데이터로 변환하여 변환한 음성 데이터를 출력할 수 있다. 예를 들어, 협동 로봇(100)이 구동을 실시할 때에 제1 및 제2 위치 감지 센서(300, 400)가 구동 중 주변 움직임을 감지하면, 음성 발화부(160)는 해당 상황과 매칭되는 텍스트 데이터를 음성 데이터로 변환하여 “조심하세요”라는 내용의 음성을 출력할 수 있다.The voice utterance unit 160 is a component that utilizes text to speech (TTS) technology, and when a specific situation is detected, it can convert text data matched to the specific situation into voice data and output the converted voice data. there is. For example, when the first and second
로봇 서버(200)는 식별 가능한 적어도 하나 이상의 협동 로봇(100)을 총괄적으로 관제할 수 있는 서버이다. The robot server 200 is a server that can collectively control at least one or more identifiable
로봇 서버(200)는 협동 로봇(100)이 특정 작업에 대한 구동을 실시할 때에 오차에 해당하는 구동을 실시하거나 구동 자체가 불완전할 때에 이러한 협동 로봇(100)의 구동을 보정하기 위한 정보를 협동 로봇(100)에 전송할 수 있다. 다시 말해, 로봇 서버(200)는 협동 로봇(100) 또는 제1 위치 감지 센서(300)로부터 고장 정보를 수신하면 상기 고장 정보를 기반으로 협동 로봇(100)의 구동을 보정하기 위한 구동 보정 정보를 생성하여 협동 로봇(100)에 전송할 수 있다.The robot server 200 cooperates with information for correcting the driving of the
제1 위치 감지 센서(300)는 협동 로봇(100)에 인접한 위치에 배치되어, 협동 로봇(100)의 모션 또는 위치를 실시간으로 감지할 수 있는 센서이다.The first
제1 위치 감지 센서(300)는 협동 로봇(100)의 모션 또는 위치를 감지하기 위하여 피사체의 이미지를 촬영하는 카메라, 협동 로봇(100) 외면에 부착된 IR 마커(103)를 감지할 수 있는 IR 카메라 및 협동 로봇(100) 자체의 모션을 감지할 수 있는 모션 트래킹 카메라를 포함할 수 있다.The first
제2 위치 감지 센서(400)는 협동 로봇(100)에 인접한 위치에 배치되어, 협동 로봇(100)이 특정 작업에 대한 구동을 실시할 때에 실시간으로 움직이는 사용자의 신체 또는 물체와 같은 장애물들을 감지하는 센서이다.The second
제2 위치 감지 센서(400)는 실시간으로 움직이는 장애물을 감지하기 위하여 3차원 공간 내의 객체의 움직임 또는 위치를 감지하는3차원 Lidar 센서 및/또는 Depth 카메라를 포함할 수 있다.The second
참고로, 제2 위치 감지 센서(400)는 단순히 협동 로봇(100)의 주변 장애물을 감지하는 것이 아니라 감지된 객체가 협동 로봇(100)인지, 장애물인지 또는 장애물 대상이 아닌 피사체(예. 사용자)인지에 대하여 식별하여 주변 움직임을 감지할 수 있다.For reference, the second
이상 본 발명의 제1 실시 예에 따른 협동 로봇(100)의 개략적인 외관과 협동 로봇(100)에 포함된 전체 구성요소들에 대하여 살펴보았다.So far, the schematic appearance of the
다음으로, 본 발명의 제1 내지 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 살펴보도록 한다.Next, the method for driving a cooperative robot capable of preemptively responding according to the first to third embodiments of the present invention will be examined in detail.
도6은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.6 is a diagram specifically showing a method for driving a collaborative robot capable of preemptively responding according to the first embodiment of the present invention.
도6을 참고하면, 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동하는 방법은 먼저 협동 로봇(100)이 고장 진단 구동을 실시하면, 제1 위치 감지 센서(300)가 협동 로봇의 위치 정확도를 파악하는 단계에서 시작한다(S101). 여기서, 위치 정확도란 협동 로봇(100)이 작업을 수행할 때에 위치해야 하는 표준의 위치 또는 자세와 협동 로봇(100)이 고장 진단을 위한 구동을 실시할 때의 협동 로봇(100)의 위치 또는 자세를 비교 분석하여 유사도를 산출한 것을 말할 수 있다.Referring to FIG. 6 , in the method for driving a cooperative robot capable of preemptively responding according to the first embodiment of the present invention, when the
이후에, 협동 로봇(100)의 위치 정확도가 기 설정된 오차 범위 내에 해당하지 않을 경우, 협동 로봇이 작업을 위한 제1 구동을 실시하도록 한다(S102). 여기서 오차 범위란 협동 로봇(100)이 어느 한 구동을 실시함에 있어서 상기 구동을 제대로 실시하지 못할 것 같거나 전체적인 작업 절차에 불안정을 주는 구동 범위를 말할 수 있으며, 기 설정된 오차 범위란 사용자(사용자) 본인 판단 하에 직접 설정한 오차범위이거나 또는 로봇 서버(100)가 AI 학습 알고리즘을 통하여 분석한 오차범위를 말할 수 있다.Subsequently, when the positional accuracy of the
S101 단계 및 S102 단계는 협동 로봇(100)이 실제로 작업을 실시하기 이전에 고장 진단 구동을 실시하도록 하여 실제 작업을 제대로 완수하고, 고장, 결함 또는 구동 오차에 대한 문제점을 사전에 방지해줄 수 있는 ‘제1 선제적 대응’ 단계라고 볼 수 있다.Steps S101 and S102 allow the
다음으로, 협동 로봇(100)이 제2 구동을 실시하기 이전에, 제2 위치 감지 센서(400)가 제2 구동에 대응되는 이동경로에 주변 움직임을 감지한다(S103). 여기서 제2 구동이란 특정한 작업을 완료하기 위한 협동 로봇(100)이 전체 구동 중에서 S102 단계의 제1 구동 이후에 실시되는 구동을 말할 수 있다. Next, before the
이후에, 제2 위치 감지 센서(400)에 의해 제2 구동에 대응되는 협동 로봇(100) 이동경로 상에서 주변 움직임이 감지되지 않은 경우, 협동 로봇이 제2 구동을 실시한다(S104).Thereafter, when a peripheral motion is not detected on the movement path of the
S103 단계 및 S104 단계는 협동 로봇(100)이 제1 구동을 실시한 이후에 순차적으로 제2 구동을 실시하기 이전에 협동 로봇(100)이 제2 구동을 하기 위하여 진입해야 하는 이동경로 또는 제2 구동을 실시할 때의 움직임 반경에 주변 움직임을 감지하여 제2 구동을 제대로 완수하고, 제2 구동이 실시될 때 또는 제2 구동이 실시되기 전 이동 상황에서 장애물과 충돌하지 않도록 사전에 방지해줄 수 있는‘제2 선제적 대응’ 단계라고 볼 수 있다.Steps S103 and S104 are the moving path or the second drive that the
<제2 실시 예><Second Embodiment>
도7은 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.7 is a diagram specifically illustrating a method for driving a cooperative robot capable of preemptively responding according to a second embodiment of the present invention.
전술한 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법이 협동 로봇 구동 시스템(10)을 주체로 설명한 선제적 대응이 가능한 협동 로봇 구동 방법이라면, 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 보다 확장된 범위로 본 발명의 선제적 대응이 가능한 협동 로봇 구동 방법을 설명하기 위하여 협동 로봇 구동 시스템(10) 내의 구성들을 또 다른 주체로 설명한 선제적 대응이 가능한 협동 로봇 구동 방법이다. If the aforementioned cooperative robot driving method capable of preemptively responding according to the first embodiment of the present invention described above is the cooperative robot driving method capable of preemptively responding mainly to the cooperative
도7을 참고하면, 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 먼저, 협동 로봇(100)이 고장 진단 구동을 실시하고(S201) 제1 위치 감지 센서(300)가 고장 진단 구동을 실시하는 협동 로봇(100)의 위치 정확도를 파악하는 단계(S202)에서 시작한다.Referring to FIG. 7 , in the method for driving a collaborative robot capable of preemptively responding according to the second embodiment of the present invention, first, the
S202 단계에서 제1 위치 감지 센서(300)는 모션 트래킹 카메라를 통하여 협동 로봇(100)의 움직임을 감지하거나, IR 카메라를 통하여 협동 로봇(100)에 부착된 IR 마커(103)를 인식하여 협동 로봇(100)의 움직임, 위치를 감지함으로써 협동 로봇(100)의 위치 정확도를 파악할 수 있다.In step S202, the first
이후에, 협동 로봇(100)은 제1 위치 감지 센서(300)가 파악한 위치 정확도가 기 설정된 오차 범위에 포함되는지에 대하여 판단하고(S203), 위치 정확도가 기 설정된 오차 범위에 포함되지 않으면 제1 구동을 실시한다(S204).Thereafter, the
한편, 협동 로봇(100)이 제1 위치 감지 센서(300)가 파악한 위치 정확도가 기 설정된 오차 범위에 포함되는 지에 대하여 판단하였을 때(S203), 위치 정확도가 기 설정된 오차 범위에 포함되면, 협동 로봇(100)은 고장 정보를 생성하여 로봇 서버(200)에 전송하며(S203-1), 로봇 서버(200)는 수신한 고장 정보를 기반으로 구동 보정 정보를 생성하여(S203-2) 협동 로봇(100)이 보정된 구동을 실시 할 수 있도록 구동 보정 정보를 협동 로봇(100)에 전송한다(S203-3). On the other hand, when the
S204 단계 이후에, 제2 위치 감지 센서(400)는 제1 구동 이후에 실시되는 제2 구동에 대응되는 이동경로에 주변 움직임을 감지되는지에 대하여 모니터링한다(S205).After step S204, the second
다음으로 협동 로봇(100)은 제2 위치 감지 센서(400)로부터 주변 움직임이 감지되었는지에 대하여 판단한다(S206).Next, the
이후에, 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임을 감지하였다는 사실을 수신하지 않은 경우, 제2 구동을 실시한다(S207).Thereafter, when the
한편, 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임을 감지하였다는 사실을 수신한 경우, 협동 로봇(100)은 경고 음성을 출력하여(S206-1) 협동 로봇(100)이 주변 움직임(예. 장애물)과 충돌하지 못하도록 방지하고, 이후에 제2 위치 감지 센서(400) 다시 S205 단계로 회귀하여 제2 구동에 대응되는 이동경로에 주변 움직임이 감지되는지에 대하여 모니터링한다.On the other hand, when the fact that the
<제3 실시 예><Third Embodiment>
도8은 본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.8 is a diagram specifically showing a method for driving a collaborative robot capable of preemptively responding according to a third embodiment of the present invention.
본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 전술한 S205 단계 이후에 제2 위치 감지 센서(400)가 제2 구동에 대응되는 이동경로에 주변 움직임을 감지하였을 때, 협동 로봇(100)이 경고 음성을 출력하여 주변 움직임과의 충돌을 방지하는 방법과 더불어 협동 로봇(100)이 특정 조건이 갖추어져 있다면 협동 로봇(100)이 회피 구동을 실시하여 주변 움직임과의 충돌을 방지할 수 있도록 하는 방법에 관한 것이다.In the method for driving a collaborative robot capable of preemptively responding according to the third embodiment of the present invention, when the second
도8을 참고하면, 본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 S205 단계 이후에 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임이 감지되었는지에 대하여 판단하는 단계(S301)에서 시작한다.Referring to FIG. 8 , in the method for driving a cooperative robot capable of preemptively responding according to the third embodiment of the present invention, after step S205, the
다음으로, 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임을 감지하였다는 사실이 수신되지 않은 경우에는 제2 구동을 실시하지만(S304), 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임을 감지하였다는 사실을 수신한 경우에는 협동 로봇(100)은 자체적으로 축(101) 변경이 가능한지 판단한다(S302). Next, if the fact that the
S302 단계는 협동 로봇(100)이 감지된 장애물에 대한 회피 구동을 실시 할 수 있는 지 판단하는 첫 번째 단계로서, 협동 로봇(100)이 자체적으로 축(101) 변경이 가능한 로봇인지 판단하는 단계이거나 로봇 서버(200)가 협동 로봇(100)으로부터 식별 번호(UUID)를 수신하여 해당 협동 로봇(100)의 축(101)이 변경 가능한지를 판단하는 단계일 수도 있다.Step S302 is the first step of determining whether the
S302 단계 이후에, 협동 로봇(100) 자체가 축(101) 변경이 가능한 로봇이라면, 협동 로봇(100)이 축(101) 변경을 통하여 회피 구동이 가능한지 에 대한 판단하고(S303), 협동 로봇(100) 자체가 축(101) 변경이 불가능한 로봇이라면, 경고 음성을 출력한다(S302-1).After step S302, if the
S303 단계는 협동 로봇(100)이 감지된 장애물에 대한 회피 구동을 실시 할 수 있는 지 판단하는 두 번째 단계로서, 협동 로봇(100)이 축(101)을 변경할 수 있는 로봇이라도 특정 상황(협소한 공간)때문에 회피 구동을 실시할 수 없을 것을 고려하여 실시되는 단계이다. 아울러 S303 단계는 S302 단계와 마찬가지로 협동 로봇(100)이 자체적으로 현재 회피 구동이 가능한지 판단하는 단계이거나 로봇 서버(200)가 협동 로봇(100)으로부터 식별 번호(UUID)를 수신하여 해당 협동 로봇(100)이 현재 회피 구동이 가능한지에 대하여 판단하는 단계일 수도 있다.Step S303 is the second step of determining whether the
S303 단계 이후에, 협동 로봇(100)은 현재 회피 구동이 가능하다면 제2 구동을 실시하고(S304), 협동 로봇(100)은 현재 회피 구동이 불가능하다면 경고 음성을 출력한다(S302-1).After step S303, the
이상 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 대한 실시 예를 모두 살펴보았다. All of the embodiments of the cooperative robot driving method capable of preemptive response and the system therefor have been reviewed.
본 발명은 상술한 특정의 실시예 및 응용예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 구별되어 이해되어서는 안 될 것이다.The present invention is not limited to the specific embodiments and application examples described above, and various modifications can be made by those skilled in the art without departing from the gist of the present invention claimed in the claims. Of course, these modified implementations should not be understood separately from the technical spirit or perspective of the present invention.
10: 협동 로봇 구동 시스템
100: 협동 로봇
101: 축
102: 로봇핸드
103: IR 마커
110: 통신부
120: 센서부
130: 장애물 인식부
140: 경로 생성부
150: 구동 제어부
160: 음성 발화부
200: 로봇 서버
300: 제1 위치 감지 센서
400: 제2 위치 감지 센서10: cooperative robot drive system
100: collaborative robot
101 axis
102: robot hand
103: IR marker
110: communication department
120: sensor unit
130: obstacle recognition unit
140: path generation unit
150: drive control unit
160: voice ignition unit
200: robot server
300: first position detection sensor
400: second position detection sensor
Claims (8)
(a) 협동 로봇이 고장 진단을 위한 구동을 실시할 때, 제1 위치 감지 센서가 실시간으로 상기 협동 로봇의 위치 정확도 - 상기 위치 정확도는, 상기 협동 로봇이 작업을 수행할 때에 위치해야 하는 표준의 위치와 상기 협동 로봇이 고장 진단을 위한 구동을 실시할 때의 협동 로봇의 위치를 비교 분석하여 유사도를 산출한 것임 - 를 파악하는 단계;
(a-1) 상기 협동 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당하는 경우, 로봇 서버에 고장 정보 - 상기 고장 정보는, 상기 협동 로봇의 식별 코드(UUID) 및 오차 범위를 포함하는 정보임 - 를 송신하여 구동 보정을 요청하는 단계;
(a-2) 상기 협동 로봇이 상기 로봇 서버로부터 구동 보정 정보를 수신한 경우, 상기 협동 로봇이 고장 진단을 위한 구동을 재실시하도록 하는 단계;
(b) 고장 진단을 위한 구동을 재실시한 결과 상기 협동 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당하지 않을 경우, 상기 협동 로봇이 작업을 위한 제1 구동을 실시하도록 하는 단계;
(c) 상기 협동 로봇이 작업을 위한 제2 구동을 실시하기 이전에, 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 주변 움직임을 감지하는 단계;
(c-1′) 상기 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임을 감지한 경우, 상기 협동 로봇이 축 변경이 가능한 협동 로봇인지에 대한 여부를 판단하는 단계;
(c-2′) 상기 협동 로봇이 축 변경이 가능한 협동 로봇이라 판단한 경우, 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동이 가능한지에 대한 여부를 판단하는 단계;
(c-3′) 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동이 가능하다고 판단한 경우, 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동을 실시하도록 하는 단계;
(d) 회피 구동을 실시한 이후, 상기 제2 위치 감지 센서에 의해 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임이 감지되지 않은 경우, 상기 협동 로봇이 제2 구동을 실시하는 단계;를 포함하고,
상기 제1 위치 감지 센서는, 상기 협동 로봇에 인접한 위치에 배치되는 것으로, 상기 협동 로봇에 부착된 적어도 복수 개의 IR 마커 - 상기 IR 마커는 외면에 반사체가 부착된 것으로서, 상기 반사체는 상기 제1 위치 감지 센서에 의해 조사된 특정 파장의 빛을 반사시켜 상기 제1 위치 감지 센서에 의해 인식되는 것임 - 들을 인식하여 상기 협동 로봇의 움직임 및 위치를 감지하는 카메라이고,
상기 제2 위치 감지 센서는, 상기 협동 로봇에 인접한 위치에 배치되는 것으로, 실시간으로 움직이는 물체의 움직임 또는 위치를 검출하는 Lidar 센서이고,
상기 제2 구동에 대응되는 협동 로봇 이동경로는, 현재 협동 로봇의 위치 및 자세 정보를 기반으로 생성된 것으로서, 상기 로봇 서버로부터 수신된 구동 보정 정보에 따라 실시간으로 갱신되는 것을 특징으로 하는,
선제적 대응이 가능한 협동 로봇 구동 방법.
A method for driving a collaborative robot capable of preemptive response by a cooperative robot driving system,
(a) When the cooperative robot drives for fault diagnosis, the first position sensor detects the positional accuracy of the cooperative robot in real time - the positional accuracy is the standard for the cooperative robot to be positioned when performing work. Comparing and analyzing the position of the cooperative robot and the position of the cooperative robot when driving for fault diagnosis, and calculating a degree of similarity - figuring out;
(a-1) If the positional accuracy of the collaborative robot falls within a preset error range, failure information to the robot server - The failure information is information including the identification code (UUID) and error range of the collaborative robot - requesting driving correction by sending a;
(a-2) when the cooperative robot receives driving correction information from the robot server, causing the cooperative robot to re-execute driving for fault diagnosis;
(b) if the location accuracy of the cooperative robot does not fall within a preset error range as a result of re-executing the driving for fault diagnosis, allowing the cooperative robot to perform a first driving for work;
(c) before the collaborative robot performs the second driving for work, detecting, by a second position sensor, a movement around the collaborative robot movement path corresponding to the second driving;
(c-1′) determining whether the collaborative robot is a cooperative robot capable of axis change when the second position detection sensor detects a peripheral movement in the movement path of the cooperative robot corresponding to the second drive step;
(c-2') if it is determined that the cooperative robot is capable of axis change, determining whether the cooperative robot can drive avoidance of the surrounding movement;
(c-3') if the collaborative robot determines that avoidance driving for the surrounding movement is possible, allowing the cooperative robot to perform avoidance driving for the surrounding movement;
(d) performing a second drive by the collaborative robot when, after performing the avoidance driving, a peripheral movement is not detected in the movement path of the cooperative robot corresponding to the second driving by the second position sensor; including,
The first position detection sensor is disposed adjacent to the collaborative robot, and includes at least a plurality of IR markers attached to the collaborative robot - the IR markers have a reflector attached to an outer surface, and the reflector is attached to the first position. A camera that detects the motion and position of the collaborative robot by recognizing the light of a specific wavelength irradiated by the detection sensor and recognized by the first position detection sensor,
The second position detection sensor is disposed adjacent to the collaborative robot and is a Lidar sensor that detects the movement or position of a moving object in real time,
Characterized in that the moving path of the collaborative robot corresponding to the second drive is generated based on information on the position and posture of the current cooperative robot, and is updated in real time according to driving correction information received from the robot server.
A method for driving a collaborative robot capable of preemptive response.
상기 (c) 단계 이후에,
(c-1) 상기 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임을 감지한 경우, 상기 협동 로봇의 음성 발화부가 경고 음성을 출력하도록 하는 단계;
를 더 포함하는,
선제적 대응이 가능한 협동 로봇 구동 방법.
According to claim 1,
After step (c),
(c-1) outputting a warning sound from a voice generator of the cooperative robot when the second position detection sensor detects a peripheral movement in the movement path of the cooperative robot corresponding to the second drive;
Including more,
A method for driving a collaborative robot capable of preemptive response.
A cooperative robot driving system that executes the cooperative robot driving method capable of preemptively responding to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220169877A KR102520214B1 (en) | 2022-12-07 | 2022-12-07 | A method for driving a collaborative robot capable of preemptive response and a system therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220169877A KR102520214B1 (en) | 2022-12-07 | 2022-12-07 | A method for driving a collaborative robot capable of preemptive response and a system therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102520214B1 true KR102520214B1 (en) | 2023-04-11 |
Family
ID=85976671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220169877A KR102520214B1 (en) | 2022-12-07 | 2022-12-07 | A method for driving a collaborative robot capable of preemptive response and a system therefor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102520214B1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03228589A (en) * | 1990-02-01 | 1991-10-09 | Kawasaki Heavy Ind Ltd | Positioning method for work |
JP2004050356A (en) * | 2002-07-19 | 2004-02-19 | Kawasaki Heavy Ind Ltd | Position and attitude sensor of movable structure |
JP2012086333A (en) * | 2010-10-22 | 2012-05-10 | Canon Inc | Robot cell |
JP2017071033A (en) * | 2015-10-09 | 2017-04-13 | キヤノン株式会社 | Working reference object, working reference object manufacturing method, robot arm adjusting method, vision system, robot apparatus, and indicator member |
JP2020511325A (en) * | 2017-02-07 | 2020-04-16 | ヴェオ ロボティクス, インコーポレイテッド | Workspace safety monitoring and equipment control |
KR20210064041A (en) * | 2019-11-25 | 2021-06-02 | 재단법인대구경북과학기술원 | Robot system and calibration method of the same |
-
2022
- 2022-12-07 KR KR1020220169877A patent/KR102520214B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03228589A (en) * | 1990-02-01 | 1991-10-09 | Kawasaki Heavy Ind Ltd | Positioning method for work |
JP2004050356A (en) * | 2002-07-19 | 2004-02-19 | Kawasaki Heavy Ind Ltd | Position and attitude sensor of movable structure |
JP2012086333A (en) * | 2010-10-22 | 2012-05-10 | Canon Inc | Robot cell |
JP2017071033A (en) * | 2015-10-09 | 2017-04-13 | キヤノン株式会社 | Working reference object, working reference object manufacturing method, robot arm adjusting method, vision system, robot apparatus, and indicator member |
JP2020511325A (en) * | 2017-02-07 | 2020-04-16 | ヴェオ ロボティクス, インコーポレイテッド | Workspace safety monitoring and equipment control |
KR20210064041A (en) * | 2019-11-25 | 2021-06-02 | 재단법인대구경북과학기술원 | Robot system and calibration method of the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10108829B2 (en) | Human-centric robot with noncontact measurement device | |
US11039895B2 (en) | Industrial remote control robot system | |
JP7076184B2 (en) | Using a human motion sensor to detect movement when near a hydraulic robot | |
US20190321977A1 (en) | Architecture and methods for robotic mobile manipluation system | |
JPWO2008047872A1 (en) | manipulator | |
JP6816070B2 (en) | Interference avoidance device and robot system | |
Kirschner et al. | YuMi, come and play with Me! A collaborative robot for piecing together a tangram puzzle | |
Burrell et al. | Towards a cooperative robotic system for autonomous pipe cutting in nuclear decommissioning | |
JP4572497B2 (en) | Robot controller | |
WO2023037634A1 (en) | Command value generating device, method, and program | |
KR102520214B1 (en) | A method for driving a collaborative robot capable of preemptive response and a system therefor | |
Rasch et al. | Tidy up my room: Multi-agent cooperation for service tasks in smart environments | |
US10007837B2 (en) | Determining the robot axis angle and selection of a robot with the aid of a camera | |
US11478932B2 (en) | Handling assembly comprising a handling device for carrying out at least one work step, method, and computer program | |
Zhang et al. | QR code-based self-calibration for a fault-tolerant industrial robot arm | |
Nigro et al. | Assembly task execution using visual 3D surface reconstruction: An integrated approach to parts mating | |
CN114536402B (en) | Robot system fault detection processing method based on association identification and robot system | |
CN114347037B (en) | Robot system fault detection processing method based on composite identification and robot system | |
Miura et al. | Development of a personal service robot with user-friendly interfaces | |
JP2020163511A (en) | Work support system and work support method of remote control robot | |
Antonelli et al. | FREE: flexible and safe interactive human-robot environment for small batch exacting applications | |
US20220203531A1 (en) | Robot, transmission method, and transmission estimation method | |
CN111399518A (en) | Multi-sensor-based cooperative robot obstacle avoidance system and control method thereof | |
US20230330847A1 (en) | Method and System for Training a Robot | |
CN115797878B (en) | Equipment operation safety detection method and system based on image processing and related equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |