KR20120053274A - 로봇 제어방법 - Google Patents
로봇 제어방법 Download PDFInfo
- Publication number
- KR20120053274A KR20120053274A KR1020100114461A KR20100114461A KR20120053274A KR 20120053274 A KR20120053274 A KR 20120053274A KR 1020100114461 A KR1020100114461 A KR 1020100114461A KR 20100114461 A KR20100114461 A KR 20100114461A KR 20120053274 A KR20120053274 A KR 20120053274A
- Authority
- KR
- South Korea
- Prior art keywords
- contact
- holding
- sensor
- finger
- user
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
- B25J13/084—Tactile sensors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39484—Locate, reach and grasp, visual guided grasping
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39532—Gripping force sensor build into finger
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
본 발명은 로봇 핸드에 장착된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서 에 의한 정보와 로봇의 시각 센서에 의한 물체 정보를 바탕으로 오차를 추정하고 이를 보상하여 반복 작업 없이 한 번에 물체를 파지하는 로봇 제어방법을 제공한다.
이를 위해, 로봇 제어방법은 로봇의 시각 센서를 통해 파지 대상 물체의 정보를 측정하거나 사용자에 의해 입력되는 물체의 정보를 산정하고, 물체의 정보에 따라 로봇 핸드를 물체로 이동시키고, 로봇 핸드의 손가락을 물체의 정보에 따라 물체에 접촉시키고, 손가락에 구비된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서를 통해 손가락이 물체에 전부 접촉했는지 판단하며, 물체에 대한 손가락의 전부 접촉 여부에 따라 물체를 파지한다.
이를 통해, 로봇의 시각 센서의 오차나 예측하지 못한 물체의 움직임 등으로 발생한 물체의 자세 오차를, 로봇 핸드에 구비된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서를 활용하여 보상하고 파지 성공률을 높일 수 있다.
이를 위해, 로봇 제어방법은 로봇의 시각 센서를 통해 파지 대상 물체의 정보를 측정하거나 사용자에 의해 입력되는 물체의 정보를 산정하고, 물체의 정보에 따라 로봇 핸드를 물체로 이동시키고, 로봇 핸드의 손가락을 물체의 정보에 따라 물체에 접촉시키고, 손가락에 구비된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서를 통해 손가락이 물체에 전부 접촉했는지 판단하며, 물체에 대한 손가락의 전부 접촉 여부에 따라 물체를 파지한다.
이를 통해, 로봇의 시각 센서의 오차나 예측하지 못한 물체의 움직임 등으로 발생한 물체의 자세 오차를, 로봇 핸드에 구비된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서를 활용하여 보상하고 파지 성공률을 높일 수 있다.
Description
본 발명은 물체의 위치 정보 오차를 파악하고 오차에 대응하여 물체를 파지하는 로봇 제어방법에 관한 것이다.
산업용 로봇이나 지능형 서비스 로봇 분야에서는 manipulator와 end-effector 등을 이용하여 물체를 파지한다. 물체를 파지하고자 할 때, 시각 정보 오차 또는 물체의 갑작스러운 이동 등으로 인해 로봇이 알고 있는 물체의 위치와 실제 위치가 달라지게 되어 안정적인 파지가 실패할 가능성이 커지게 된다.
종래에는 안정적인 파지를 위해서, 플랫폼인 매니퓰레이터(Manipulator)의 끝 단에 힘/토크(Force/Torque) 센서(이하 F/T 센서)를 장착하고, 두 개 이상의 손가락으로 구성된 로봇 핸드의 각 손가락에 힘이나 촉각을 감지할 수 있는 센서를 장착하였다. 종래에는 이와 같은 센서 정보들을 활용하여 위치 오차를 감지하고 이에 대응하는 방안을 개시하였다,
이러한 종래 기술은 특정 조건이 만족될 때까지 작업을 반복 수행해야한다. 그 과정에서 손바닥과 손가락의 반복적인 움직임이 일어나며, 파지에 걸리는 시간이 증가한다. 즉, 위치 및 방향 오차를 극복하기 위한 과정에 걸리는 시간을 무시할 수 없다는 문제점이 있다.
본 발명의 일 측면에 따르면, 로봇 핸드에 장착된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서 촉각 센서에 의한 정보와 로봇의 시각 센서에 의한 물체 정보를 바탕으로 오차를 추정하고 이를 보상하여 반복 작업 없이 한 번에 물체를 파지하도록 한다.
본 발명의 일 실시예에 의한 로봇 제어방법은, 로봇의 시각 센서를 통해 파지 대상 물체의 정보를 측정하거나 사용자에 의해 입력되는 물체의 정보를 산정하고; 물체의 정보에 따라 로봇 핸드를 물체로 이동시키고; 로봇 핸드의 손가락을 물체의 정보에 따라 물체에 접촉시키고; 손가락에 구비된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서를 통해 손가락이 물체에 전부 접촉했는지 판단하며; 물체에 대한 손가락의 전부 접촉 여부에 따라 물체를 파지한다.
또한, 손가락은 하나 이상의 마디를 포함하고; 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서는 하나 이상의 마디 중 손가락 끝 마디에 구비된다.
또한, 물체에 대한 손가락의 전부 접촉 여부에 따라 물체를 파지하는 것은, 물체에 대한 하나 이상의 마디 중 끝 마디의 전부 접촉 여부에 따라 손가락 끝 마디의 각을 조절하여 물체를 파지한다.
또한, 손가락의 접촉 여부에 따라 물체를 파지하는 것은, 손가락이 물체에 전부 접촉한 경우에는 물체에 손가락의 압력을 가하여 물체를 파지한다.
또한, 손가락의 접촉 여부에 따라 물체를 파지하는 것은, 손가락이 물체에 전부 접촉하지 않은 경우에는 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지한다.
또한, 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지하는 것은, 사용자에 의해 입력되는 최적 파지 신호가 있다면, 시각 센서에 의해 측정되거나 사용자에 의해 입력되는 물체의 정보와 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 정보를 통해 최적 파지 자세를 구하고, 구해진 최적 파지 자세에 따라 물체를 파지한다.
또한, 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지하는 것은, 사용자에 의해 입력되는 최적 파지 신호가 없다면, 시각 센서에 의해 측정되거나 사용자에 의해 입력되는 물체의 정보와 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 정보를 통해 자세 오차를 추정하고, 자세 오차의 보상 여부를 판단하여 물체를 파지한다.
또한, 추정된 자세 오차의 보상 여부를 판단하여 물체를 파지하는 것은, 추정된 자세 오차가 소정의 값보다 작은 경우에는 추정된 자세 오차를 보상하지 않고 물체에 손가락의 압력을 가하여 물체를 파지한다.
또한, 추정된 자세 오차의 보상 여부를 판단하여 파지하는 것은, 추정된 자세 오차가 소정의 값보다 큰 경우에는, 시각 센서에 의해 측정되거나 사용자에 의해 입력되는 물체의 정보와 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 정보를 통해 최적 파지 자세를 구하고, 구해진 최적 파지 자세에 따라 물체를 파지한다.
또한, 최적 파지 자세에 따라 물체를 파지하는 것은, 최적 파지 자세에 따라 로봇 핸드를 이동시키고, 물체에 접촉한 손가락이 접촉력을 유지하면서, 물체와 접촉하지 않은 다른 손가락이 물체와 접촉할 때까지 기다린 후, 손가락이 물체와 전부 접촉이 이루어지면, 물체에 손가락의 압력을 가하여 물체를 파지한다.
또한, 파지 대상 물체의 정보는 물체의 위치 또는 크기, 형상을 포함한다.
본 발명의 다른 실시예에 의한 로봇 제어방법은, 로봇의 핸드는 손바닥과 손가락을 포함하고; 손가락은 하나 이상의 마디를 포함하고; 로봇의 시각 센서를 통해 파지 대상 물체의 위치 또는 크기, 형상을 측정하거나 사용자에 의해 입력되는 파지 대상 물체의 위치 또는 크기, 형상을 산정하고; 물체의 위치에 따라 로봇 핸드를 물체로 이동시키고; 손바닥과 마디가 형성하는 원의 크기를 물체의 크기에 상응하도록 줄이면서 물체를 감싸고; 로봇 핸드의 손바닥과 마디에 구비된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서를 통해 손바닥과 마디가 물체에 전부 접촉했는지 판단하며; 물체에 대한 손바닥과 마디의 전부 접촉 여부에 따라 물체를 파지한다.
또한, 물체에 대한 손바닥과 마디의 접촉 여부에 따라 물체를 파지하는 것은, 물체에 손바닥과 마디가 물체에 전부 접촉한 경우에는, 물체에 손가락의 압력을 가하여 물체를 파지한다.
또한, 물체에 대한 손바닥과 마디의 접촉 여부에 따라 물체를 파지하는 것은, 물체에 손바닥과 마디가 물체에 전부 접촉하지 않는 경우에는, 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지한다.
또한, 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지하는 것은, 사용자에 의해 입력되는 최적 파지 신호가 있다면, 시각 센서에 의해 측정되거나 사용자에 의해 입력되는 물체의 위치 또는 크기, 형상과 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 위치 또는 크기, 형상을 통해 최적 파지 자세를 구하고, 구해진 최적 파지 자세에 따라 물체를 파지한다.
또한, 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지하는 것은, 사용자에 의해 입력되는 최적 파지 신호가 없다면, 시각 센서에 의해 측정되거나 사용자에 의해 입력되는 물체의 위치 또는 크기, 형상과 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 위치 또는 크기, 형상을 통해 자세 오차를 추정하고, 자세 오차의 보상 여부를 판단하여 물체를 파지한다.
또한, 추정된 자세 오차의 보상 여부를 판단하여 물체를 파지하는 것은,상기 추정된 자세 오차가 소정의 값보다 작은 경우에는 추정된 자세 오차를 보상하지 않고 물체에 손가락의 압력을 가하여 물체를 파지한다.
또한, 추정된 자세 오차의 보상 여부를 판단하여 파지하는 것은, 추정된 자세 오차가 소정의 값보다 큰 경우에는, 시각 센서에 의해 측정되거나 사용자에 의해 입력되는 물체의 위치 또는 크기, 형상과 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 위치 또는 크기, 형상을 통해 최적 파지 자세를 구하고, 구해진 최적 파지 자세에 따라 물체를 파지한다.
또한, 최적 파지 자세에 따라 물체를 파지하는 것은, 최적 파지 자세에 따라 로봇 핸드를 이동시키고, 물체에 접촉한 마디의 접촉력을 유지하면서, 물체와 접촉하지 않은 다른 마디가 물체와 접촉할 때까지 기다린 후, 마디가 물체와 전부 접촉이 되면, 물체에 손가락의 압력을 가하여 물체를 파지한다.
또한, 자세 오차를 추정하는 것은, 접촉된 손바닥과 마디 중 일부에 의해 형성되는 원의 크기와 시각 센서에 의해 측정되거나 사용자에 의해 입력되는 물체의 크기를 통해 자세 오차를 추정한다.
개시된 로봇 제어방법에 의하면, 로봇의 시각 센서의 오차나 예측하지 못한 물체의 움직임 등으로 발생한 물체의 자세 오차를 로봇 핸드에 구비된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서를 활용하여 보상하여 파지 성공률을 높일 수 있다.
도 1은 본 발명의 일 실시예에 의한 물체를 잡기 전의 로봇 핸드의 준비 자세를 도시한 개략도이다.
도 2는 본 발명의 일 실시예에 의한 로봇 제어과정에서 자세 오차가 발생한 경우 이를 보상하는 모습의 로봇 핸드를 도시한 개략도이다.
도 3은 본 발명의 다른 실시예에 의한 물체를 잡기 전의 로봇 핸드의 준비 자세를 도시한 개략도이다.
도 4는 본 발명의 다른 실시예에 의한 로봇 제어과정에서 자세 오차가 발생한 경우 이를 보상하는 모습의 로봇 핸드를 도시한 개략도이다.
도 5는 본 발명의 일 실시예에 의한 로봇 제어과정을 도시한 순서도이다.
도 6은 본 발명의 일 실시예에 의한 로봇 제어과정 중에서 로봇 핸드로 파지 대상 물체를 서서히 감싸 쥐는 과정을 도시한 순서도이다.
도 2는 본 발명의 일 실시예에 의한 로봇 제어과정에서 자세 오차가 발생한 경우 이를 보상하는 모습의 로봇 핸드를 도시한 개략도이다.
도 3은 본 발명의 다른 실시예에 의한 물체를 잡기 전의 로봇 핸드의 준비 자세를 도시한 개략도이다.
도 4는 본 발명의 다른 실시예에 의한 로봇 제어과정에서 자세 오차가 발생한 경우 이를 보상하는 모습의 로봇 핸드를 도시한 개략도이다.
도 5는 본 발명의 일 실시예에 의한 로봇 제어과정을 도시한 순서도이다.
도 6은 본 발명의 일 실시예에 의한 로봇 제어과정 중에서 로봇 핸드로 파지 대상 물체를 서서히 감싸 쥐는 과정을 도시한 순서도이다.
이하, 본 발명의 일 실시예를 첨부된 도면을 참조하여 상세히 설명한다.
도 1은 본 발명의 일 실시예에 의한 물체를 손가락 끝을 이용하여 잡기 전의 로봇 핸드의 준비 자세를 도시한 개략도이다.
본 발명의 일 실시예에 의한 로봇 제어방법은 손가락 끝을 이용하여 물체를 파지하는 방법으로, 로봇 핸드(1)의 엄지(Thumb)와 다른 손가락들(Fingers)이 대항하여 위치시켜 물체(5)를 파지한다. 이를 핀칭(Pinching)이라고 한다.
핀칭(Pinching)은 먼저 로봇 핸드를 움직여 준비 자세(Preshape)를 잡는다. PIP마디(23)와 DIP마디(25)의 각은 일정 각으로 유지한 채, MPP마디(21) 각을 조절하여 준비 자세(Preshape)를 잡는다.
그리고, 엄지와 각 손가락 사이의 거리가 핀칭으로 파지 가능한 물체의 최대 크기(W_max)보다 크도록 그리고 벌어진 거리가 대칭에 가깝도록 준비 자세를 잡는다.
다음으로 로봇 핸드(1)로 물체(5)를 서서히 감싸 쥔다(Enclosing motion). 엄지와 다른 손가락들이 맞닿는 위치를 각 손가락(20. 30)의 '목표 도달점'으로 설정하여, 준비 자세로부터 Cartesian level trajectory를 생성하여 움직인다.
이때, 접촉 감지(contact sensing)를 적용하여 엄지나 다른 손가락(20, 30)에서 접촉이 감지되면, 그 자리에서 멈추고 기다리도록 한다.
여기서 접촉 감지(contact sensing)는 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서 를 이용하여 물체에 손가락(20, 30)이 접촉했는지 여부를 판단하거나 또는 모터의 구동 전류 피드백(feedback) 정보를 활용하여 손가락(20, 30)과 물체(5)의 접촉으로 인해 발생한 외력을 추정하여 접촉 여부를 판단한다.
도 2는 본 발명의 일 실시예에 의한 로봇 제어과정에서 자세 오차가 발생한 경우 이를 보상하는 모습의 로봇 핸드를 도시한 개략도이다.
엄지와 다른 손가락(20, 30)이 모두 물체와 접촉 상태가 되지 않고, 엄지만 물체에 닿았거나, 다른 손가락(20, 30)들만 물체에 닿았다면, 손바닥 길이 방향의 오차가 발생한 것이다. 이 때, 로봇의 시각 센서를 통해 측정된 물체(10)의 크기를 통해 물체(10)의 실제 위치를 파악할 수 있다.
물체(10)와 접촉한 손끝의 위치(hFinger)와 물체(10)의 크기를 통해 추정된 물체(10)의 위치(hobj)는 다음 수학식에 의한다.
hobj=hFinger-(w/2)
여기서 w는 물체(10)의 너비를 나타낸다.
또한, 물체(10)의 위치 오차(errorHand)는 다음 수학식에 의한다.
errorHand=hobj-hobj.desired
여기서 hobj . desired는 로봇의 시각 센서를 통해 로봇이 인식한 물체(5)의 원래 중심점 위치(3)를 나타낸다.
또한, 물체(10)의 위치 오차(errorHand)에 대응하기 위해 로봇 핸드(1)를 이동시켜야 하는 거리(d)는 위에서 구한 위치 오차(errorHand)와 같다.
도 3은 본 발명의 다른 실시예에 의한 물체를 잡기 전의 로봇 핸드의 준비 자세를 도시한 개략도이다.
본 발명의 다른 실시예에 의한 로봇 제어방법은 손가락(20, 30)의 안쪽 패드(Pad)와 손바닥 면을 이용하여 물체(7)를 감싸면서 파지하는 방법으로, 이를 파워 그래스핑(Power grasping)이라고 한다.
파워 그래스핑(Power grasping)은 먼저 로봇 핸드를 움직여 준비 자세(Preshape)를 잡는다. 즉, 로봇의 시각 센서를 통해 측정된 물체(7)의 반지름에 따른 손가락(20, 30)의 마디를 이용하여, 파지 가능한 물체(7)의 최대 반지름(R_max)에 해당하는 형상이 되도록 준비 자세를 잡는다.
다음으로 로봇 핸드(1)로 물체(5)를 서서히 감싸 쥔다(Enclosing motion). 이 경우 손바닥과 손가락(20, 30)의 각 마디의 안쪽 면으로 물체(7)를 감싸 쥐는 형상을 고려하여 물체(7)의 크기인 반지름과 각 손가락(20, 30) 마디 사이의 관계를 설정한다.
즉, 파지 대상 물체(7)의 반지름을 고려하여 이보다 큰 반지름을 갖는 원이 손바닥과 손가락(20, 30)의 각 마디의 안쪽 면에 접하도록 한다.
준비 자세의 형상으로부터 Power grasping 방법으로 파지 가능한 물체(7)의 최소 반지름(R_min)까지 이르도록 로봇 핸드(1)의 반지름 궤적(trajectory)을 생성한다. 즉, 손바닥의 접촉점과 손가락(20, 30) 각 마디들이 이루는 원의 반지름을 점점 줄여나가는 모양으로 물체를 감싸 쥐도록 한다.
이 경우, 물체의 반지름(Robj)를 이용한 다음 두 수학식을 통해 로봇 핸드에 의해 형성되는 원의 반지름(R)과 손가락(20, 30) 마디의 각도를 설정할 수 있다.
R=f(Tcurrent, Tduration, Robj, 5*Robj)
f(R)=[θmpp, θpip]
첫 번째 식에서, Tcurrent는 현재의 시간이고, Tduration는 손바닥의 접촉점과 손가락(20, 30) 각 마디들이 이루는 원의 반지름을 점점 줄여 나가는 시간이다. 5*Robj는 물체(7)의 반지름의 다섯 배에 해당하는 반지름을 나타내는데 파지 대상 물체(7)의 반지름(Robj)에 따라 다른 배율로 정해질 수 있다. 즉, 줄여 나가는 반지름(R)은 원의 반지름을 줄여 나가는 시간(Tduration) 동안, 물체(7)의 반지름(Robj) 보다 큰 반지름으로 시작해서 물체(7)의 반지름(Robj)에 가까워지는 궤적으로 형성된다.
두 번째 식에서, θpip와 θdip는 θpip=3θ, θdip=2θ의 관계에 있고, 위 첫 번째식에서 결정된 궤적의 반지름(R)에 의해 로봇 핸드(1)의 각 마디가 이루는 각이 결정된다.
이때, pinching의 경우와 마찬가지로 Contact sensing을 통해 손가락(20, 30) 마디에서 물체와의 접촉이 감지되면, 정지하고 기다리도록 한다.
도 4는 본 발명의 다른 실시예에 의한 로봇 제어과정에서 자세 오차가 발생한 경우 이를 보상하는 모습의 로봇 핸드를 도시한 개략도이다.
엄지와 다른 손가락(20, 30)이 모두 물체와 접촉 상태가 되지 않고, 엄지만 물체에 닿았거나, 다른 손가락(20, 30)들만 물체에 닿았다면, 손바닥 길이 방향의 오차가 발생한 것이다.
자세 오차가 발생하지 않는 경우에는, Enclosing motion을 통해서 손바닥(10)과 손가락(20, 30) 마디에 의해 형성되는 반지름(R)을 R_max부터 R_min까지 변화시키면, 엄지와 다른 손가락(20, 30)들 모두 물체의 반지름 부근에서 (R ~= R_obj) 물체와 접촉하여 각 마디에서 저항 토크가 발생하게 된다.
그러나 엄지나 다른 손가락(20, 30)들 중 한 쪽만 물체와 접촉상태가 된다면, 손바닥 길이 방향의 오차가 발생한 것이다. 해당하는 로봇 핸드(1)가 형성한 반지름(R)은 물체의 반지름보다 큰 값에서 (R >> Robj) Enclosing motion을 끝내게 되고, 해당하는 손가락(20, 30)의 MPP관절(21)에만 저항 토크가 발생한다.
이처럼, 위치 오차 또는 자세 오차로 인해 MPP관절(21)이 먼저 저항을 받게 되고, 그로 인해 반지름(R)이 달라짐을 역으로 이용하여 로봇의 시각 센서를 통해 측정한 물체(7)의 크기를 통해 물체(7)의 실제 위치를 파악하고, 자세 오차를 추정한다.
위에서 MPP마디(21)의 각과 반지름(R) 그리고 손바닥(10)의 접촉점 위치(l0 ), 첫 번째 관절 길이(l1 )의 관계를 나타난 다음의 식을 활용한다.
실제 물체(7) 위치가 달라짐으로서 변경되는 부분은 손바닥(10)의 접촉점 위치(l0)라고 할 수 있으므로, 물체의 실제 반지름을 R에 대입하고, 현재 접촉상태인 MPP마디(21)의 각을 대입하여, l0 , measured 를 얻는다.
자세하게는 l0 , measured를 다음 수학식들을 얻는다.
π-Ψmpp=tan-1(R/l0 , measured)+tan-1(R/(l1/2))
(R/l0 , measured)=tan[π-Ψmpp-tan-1(R/(l1/2)]
=(R/(tan[π-Ψmpp-tan-1(R/(l1/2))]))
즉, 실제 측정된 로봇 핸드 손바닥(10)의 위치가 목표하는 물체(7)의 위치에서 얼마나 벗어났는지 l0 , measured를 구함으로써 알 수 있다. l0 , measured는 손가락이 물체(7)에 전부 접촉하지 않을 때 발생한다. l0 , measured는 물체(7)가 손가락 마디(21)에 접촉했을 때 형성되는 각도(Ψmpp)와 반지름(R)을 통해 구해질 수 있다.
그리고, l0와 l0 , measured의 차이를 자세 오차량(errorHand)으로 추정하여, 그 만큼 손바닥(10)을 이동시켜서 물체(7)를 파지한다.
즉, 자세 오차량(errorHand)은 다음 수학식에 따른다.
errorHand=d=hobj-hobj . desired= l0- l0 , measured
앞에서 설명한 것과 같이 엄지나 다른 손가락(20, 30) 중 한 쪽만 물체(7)와 접촉상태에 이르면 시각 센서를 통해 측정한 물체(7)의 위치(3)와 실제 물체 위치 사이에 오차가 있다고 판단할 수 있다. 그리고, 추정된 위치 오차를 보상하며 파지하기 위해 계산된 d만큼 손바닥(10)을 이동시킨다.
이와 동시에 손가락(20)도 Enclosing motion을 계속한다. 손바닥(10)이 이동함에 따라 이미 물체(7)와 접촉한 마디(21)도 물체(7)와의 접촉이 떨어지게 되므로, Enclosing motion 단계에서 생성된 궤적 및 손바닥(10)의 움직임과 맞추어 현재 위치에서 이어서 손끝을 이동시킨다.
이를 통해 이미 물체(7)와 접촉한 마디(21)는 손바닥(10)의 움직임에도 물체(10)와의 접촉상태를 잃지 않는다. 물체(7)와 접촉하지 않은 손가락(30)도 Enclosing motion 단계에서 생성된 궤적을 이으면서 손끝을 이동시킴으로서 손바닥(10)의 움직임이 끝날 때, 물체(7)와 접촉상태에 이를 수 있도록 한다.
이와 같은 위치 오차 보상과정은 손바닥(10)의 움직임과 양쪽 손가락(20, 30)의 움직임이 동시에 일어나므로, 위치 오차가 발생한 경우의 파지에도 파지 시간이 크게 증가하지 않는다.
도 5는 본 발명의 일 실시예에 의한 로봇 제어과정을 도시한 순서도이다.
먼저, 로봇의 시각 센서를 통해 파지 대상 물체(5)의 정보를 측정한다. 여기서 측정된 물체(5) 정보는 물체(5)의 위치, 크기(형상)를 포함한다. 측정된 물체(5) 위치, 크기(형상)는 로봇 핸드(1)를 이용하여 물체(5)를 파지하는데 있어서 기준이 된다(100).
다음으로 측정된 물체(5) 정보(특히, 물체의 위치)에 기초해서 로봇 핸드(1)를 물체(5)에 접근시킨다(110). 로봇 핸드(1)의 손바닥(10)을 물체(5) 정보에 기초해서 이동시키고 손가락(20, 30)은 준비 자세를 취한다. 여기서 준비 자세는 물체(5)를 파지하기 전에 하는 예비 동작으로서 파지 대상 물체(5)를 손상시키지 않으면서 파지를 안정적으로 하기 위한 단계이다(120).
이어서 로봇 핸드(1)를 제어하여 파지 대상 물체(5)를 서서히 감싸 쥔다. 이는 로봇의 시각 센서에 의해 측정된 물체(5) 정보의 오차 및 물체(5)가 급격히 이동하는 등의 원인으로 인하여, 로봇의 시각 센서에 의해 측정된 물체 정보와 파지 시점에서의 실제 물체의 정보가 차이가 나는데(자세 오차 발생), 이를 반영하여 로봇 핸드(1)의 움직임을 제어하는 과정이다. 즉, 자세 오차를 무시하고 파지하는 경우에 조심스럽게 잡아야 할 물체를 파지 도중에 쓰러뜨리거나 물체를 파손시키거나, 물체를 파지하더라도 불안정하여 떨어뜨리는 등의 문제에 대비하는 과정이다(130).
이후 물체(5)에 손가락(20, 30)의 압력을 가해서 물체(5)를 꽉 쥔다(Secure 단계). 이는 안정적으로 물체(5)를 파지하는 과정이다(140).
물체(5)를 꽉 쥔 상태에서 물체(5)를 살짝 든다(150). 꽉 쥔 물체(5)가 떨어지는지를 판단한다(160). 만약 물체(5)가 떨어지지 않는다면 파지 과정을 종료하고, 물체(5)가 떨어진다면 다시 물체(5)에 손가락(20, 30)의 압력을 가해 물체(5)를 안정적으로 파지하도록 꽉 쥔다(140 단계).
도 6은 본 발명의 일 실시예에 의한 로봇 제어과정 중에서 로봇 핸드로 파지 대상 물체를 서서히 감싸 쥐는 과정을 도시한 순서도이다.
도 6은 도 5에 도시된 로봇 핸드(1)로 물체(5)를 서서히 감싸 쥐는 130 단계의 세부 동작 과정을 도시한다.
먼저, 로봇 핸드(1)의 손가락(20, 30)이 물체(5)에 전부 접촉하는지 여부를 판단한다(131). 만약 손가락(20, 30)이 물체(5)에 전부 접촉한다면, 도 5에 도시된 물체(5)에 손가락(20, 30)의 압력을 가해서 물체(5)를 꽉 쥐는 140 단계에 따르게 된다.
만약 손가락(20, 30)이 물체(5)에 전부 접촉하지 않는다면 사용자에 의한 최적 파지 신호 입력이 있는지를 판단한다. 이는 물체(5)를 파지할 때 미세한 자세 오차가 있더라도 바로 파지할 것인지(예를 들어, 부정확하나 파지 시간을 단축하고자 할 때), 아니면 미세한 자세 오차를 보상하여 최적의 파지를 할 것인지를 결정하는 것이다(132).
최적 파지 신호 입력이 없다면 로봇의 시각 센서를 통해 측정한 물체(5) 정보와 로봇 핸드(1)의 손가락(20, 30)에 구비된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서 를 통해 측정한 물체(5) 정보를 기초로 자세 오차를 추정한다. 로봇의 시각 센서를 통해 측정한 물체(5) 정보는 로봇 핸드(1)가 목표하는 물체(5)의 위치와 크기(형상)을 포함한다. 로봇 핸드(1)의 손가락(20, 30)에 구비된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서 를 통해 측정한 물체(5) 정보는 물체(5)의 실제 위치와 크기(형상)을 포함한다. 즉, 시각 센서의 오차 또는 다른 외부 환경 요인에 의해 실제 물체(5)의 위치나 크기에 차이가 생기는데 이 차이가 자세 오차이다(133).
추정된 자세 오차가 소정의 값보다 큰지를 판단한다. 추정된 자세 오차가 물체(5)를 파지할 수 있을 정도의 것이라면 이를 무시하고 파지할 수 있다. 즉, 파지에 걸리는 시간이나 파지 대상 물체(5)의 성질을 고려하여 자세 오차를 무시할 수 있는지를 결정할 수 있다(134).
만약 추정된 자세 오차가 소정의 값보다 크다면, 도 5에 도시된 140 단계에 따르게 된다. 또한, 추정된 자세 오차가 소정의 값보다 크지 않다면, 추정된 자세 오차를 기초로 최적 파지 자세를 산정한다(135).
예를 들어 자세 오차가 2cm 보다 크지 않다면, 물체(5)를 파지하는데 장애가 없다고 판단하고 자세 오차를 무시하고 파지 과정을 진행한다. 자세 오차가 2cm 보다 크면, 물체(5)를 파지하는데 장애가 있다고 판단하고 자세 오차를 보상하여 파지하는 단계로 넘어간다.
산정된 최적 파지 자세에 따라 로봇 핸드(1)를 이동시킨다. 로봇의 시각 센서에 의해 측정된 물체(5)의 위치, 크기가 접촉 센서에 의해 측정된 실제 물체의 위치, 크기와 차이가 있으므로, 실제의 물체(5)의 위치, 크기에 맞게 로봇 핸드(1)를 이동시킨다(136).
로봇 핸드(1)의 이동에도 불구하고 이미 접촉한 손가락(20)의 접촉력은 유지시킨다. 로봇 핸드(1)의 이동은 자세하게는 핸드(1)의 손바닥(10)의 이동이다. 손바닥(10)의 이동으로 손가락(20, 30)도 이동하게 되는데 이 경우 이미 물체(5)에 접촉한 손가락(20)은 정확한 위치에서 물체(5)와 접촉하고 있는 것이므로 접촉을 유지하도록 한다. 접촉하지 않은 손가락(30)은 최적의 파지를 위해서 위에서 산정된 최적 파지 자세에 따라 이동한다(137).
물체(5)와 접촉하지 않은 다른 손가락(30)이 물체(5)와 접촉하도록 한다. 로봇 핸드(1)의 손바닥 이동으로 물체(5)에 접촉하지 않은 손가락(30)도 이동하게 되는데, 손가락(30)이 이동하다가 물체(5)하게 되면 로봇 핸드(1)의 이동이 멈춘다(138).
이에 따라 손가락(20, 30)이 전부 물체(5)에 접촉한 것이므로 이후 도 5에 도시된 140 단계에 따르게 된다.
위에서 살펴본 136, 137, 138 단계는 동시에 행하여 진다. 즉, 자세 오차에 기초해서 최적 파지 자세를 산정하고 산정된 최적 파지 자세에 따라 로봇 핸드(1)의 손바닥(10)을 움직이면서 동시에 비접촉한 손가락(30)을 물체(10)에 접촉시킨다.
1 : 로봇 핸드 5, 7 : 파지 대상 물체
10 : 손바닥 20, 30 : 손가락
21, 31 : MPP마디 23, 33 : PIP마디
25, 35 : DIP마디
50 : 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서
10 : 손바닥 20, 30 : 손가락
21, 31 : MPP마디 23, 33 : PIP마디
25, 35 : DIP마디
50 : 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서
Claims (20)
- 로봇의 시각 센서를 통해 파지 대상 물체의 정보를 측정하거나 사용자에 의해 입력되는 상기 물체의 정보를 산정하고;
상기 물체의 정보에 따라 로봇 핸드를 상기 물체로 이동시키고;
상기 로봇 핸드의 손가락을 상기 물체의 정보에 따라 물체에 접촉시키고;
상기 손가락에 구비된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서를 통해 상기 손가락이 상기 물체에 전부 접촉했는지 판단하며;
상기 물체에 대한 상기 손가락의 전부 접촉 여부에 따라 물체를 파지하는 로봇 제어방법. - 제1항에 있어서,
상기 손가락은 하나 이상의 마디를 포함하고;
상기 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서는 상기 하나 이상의 마디 중 손가락 끝 마디에 구비되는 로봇 제어방법. - 제2항에 있어서,
상기 물체에 대한 상기 손가락의 전부 접촉 여부에 따라 물체를 파지하는 것은,
상기 물체에 대한 상기 하나 이상의 마디 중 끝 마디의 전부 접촉 여부에 따라 상기 손가락 끝 마디의 각을 조절하여 상기 물체를 파지하는 로봇 제어방법. - 제1항에 있어서,
상기 손가락의 접촉 여부에 따라 물체를 파지하는 것은,
상기 손가락이 상기 물체에 전부 접촉한 경우에는 상기 물체에 상기 손가락의 압력을 가하여 물체를 파지하는 로봇 제어방법. - 제1항에 있어서,
상기 손가락의 접촉 여부에 따라 물체를 파지하는 것은,
상기 손가락이 상기 물체에 전부 접촉하지 않은 경우에는 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지하는 로봇 제어방법. - 제5항에 있어서,
상기 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지하는 것은,
상기 사용자에 의해 입력되는 최적 파지 신호가 있다면, 상기 시각 센서에 의해 측정되거나 상기 사용자에 의해 입력되는 물체의 정보와 상기 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 정보를 통해 최적 파지 자세를 구하고, 구해진 최적 파지 자세에 따라 물체를 파지하는 로봇 제어방법. - 제5항에 있어서,
상기 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지하는 것은,
상기 사용자에 의해 입력되는 최적 파지 신호가 없다면, 상기 시각 센서에 의해 측정되거나 상기 사용자에 의해 입력되는 물체의 정보와 상기 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 정보를 통해 자세 오차를 추정하고, 상기 자세 오차의 보상 여부를 판단하여 물체를 파지하는 로봇 제어방법. - 제7항에 있어서,
상기 추정된 자세 오차의 보상 여부를 판단하여 물체를 파지하는 것은,
상기 추정된 자세 오차가 소정의 값보다 작은 경우에는 상기 추정된 자세 오차를 보상하지 않고 상기 물체에 손가락의 압력을 가하여 물체를 파지하는 로봇 제어방법. - 제7항에 있어서,
상기 추정된 자세 오차의 보상 여부를 판단하여 파지하는 것은,
상기 추정된 자세 오차가 소정의 값보다 큰 경우에는, 상기 시각 센서에 의해 측정되거나 상기 사용자에 의해 입력되는 물체의 정보와 상기 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 정보를 통해 최적 파지 자세를 구하고, 구해진 최적 파지 자세에 따라 물체를 파지하는 로봇 제어방법. - 제6항 또는 제9항에 있어서,
상기 최적 파지 자세에 따라 물체를 파지하는 것은,
상기 최적 파지 자세에 따라 상기 로봇 핸드를 이동시키고, 상기 물체에 접촉한 상기 손가락이 접촉력을 유지하면서, 물체와 접촉하지 않은 다른 손가락이 물체와 접촉할 때까지 기다린 후, 상기 손가락이 상기 물체와 전부 접촉이 이루어지면, 상기 물체에 상기 손가락의 압력을 가하여 물체를 파지하는 로봇 제어방법. - 제1항에 있어서,
상기 파지 대상 물체의 정보는 물체의 위치 또는 크기, 형상을 포함하는 로봇 제어방법. - 로봇의 핸드는 손바닥과 손가락을 포함하고;
상기 손가락은 하나 이상의 마디를 포함하고;
상기 로봇의 시각 센서를 통해 파지 대상 물체의 위치 또는 크기, 형상을 측정하거나 사용자에 의해 입력되는 파지 대상 물체의 위치 또는 크기, 형상을 산정하고;
상기 물체의 위치에 따라 로봇 핸드를 상기 물체로 이동시키고;
상기 손바닥과 상기 마디가 형성하는 원의 크기를 상기 물체의 크기에 상응하도록 줄이면서 상기 물체를 감싸고;
상기 로봇 핸드의 손바닥과 상기 마디에 구비된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서를 통해 상기 손바닥과 상기 마디가 상기 물체에 전부 접촉했는지 판단하며;
상기 물체에 대한 상기 손바닥과 상기 마디의 전부 접촉 여부에 따라 물체를 파지하는 로봇 제어방법. - 제12항에 있어서,
상기 물체에 대한 상기 손바닥과 상기 마디의 접촉 여부에 따라 물체를 파지하는 것은,
상기 물체에 상기 손바닥과 상기 마디가 상기 물체에 전부 접촉한 경우에는, 상기 물체에 상기 손가락의 압력을 가하여 물체를 파지하는 로봇 제어방법. - 제12항에 있어서,
상기 물체에 대한 상기 손바닥과 상기 마디의 접촉 여부에 따라 물체를 파지하는 것은,
상기 물체에 상기 손바닥과 상기 마디가 상기 물체에 전부 접촉하지 않는 경우에는, 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지하는 로봇 제어방법. - 제14항에 있어서,
상기 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지하는 것은,
상기 사용자에 의해 입력되는 최적 파지 신호가 있다면, 상기 시각 센서에 의해 측정되거나 상기 사용자에 의해 입력되는 물체의 위치 또는 크기, 형상과 상기 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 위치 또는 크기, 형상을 통해 최적 파지 자세를 구하고, 구해진 최적 파지 자세에 따라 물체를 파지하는 로봇 제어방법. - 제14항에 있어서,
상기 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지하는 것은,
상기 사용자에 의해 입력되는 최적 파지 신호가 없다면, 상기 시각 센서에 의해 측정되거나 상기 사용자에 의해 입력되는 물체의 위치 또는 크기, 형상과 상기 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 위치 또는 크기, 형상을 통해 자세 오차를 추정하고, 상기 자세 오차의 보상 여부를 판단하여 물체를 파지하는 로봇 제어방법. - 제16항에 있어서,
상기 추정된 자세 오차의 보상 여부를 판단하여 물체를 파지하는 것은,
상기 추정된 자세 오차가 소정의 값보다 작은 경우에는 상기 추정된 자세 오차를 보상하지 않고 상기 물체에 손가락의 압력을 가하여 물체를 파지하는 로봇 제어방법. - 제16항에 있어서,
상기 추정된 자세 오차의 보상 여부를 판단하여 파지하는 것은,
상기 추정된 자세 오차가 소정의 값보다 큰 경우에는, 상기 시각 센서에 의해 측정되거나 상기 사용자에 의해 입력되는 물체의 위치 또는 크기, 형상과 상기 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 위치 또는 크기, 형상을 통해 최적 파지 자세를 구하고, 구해진 최적 파지 자세에 따라 물체를 파지하는 로봇 제어방법. - 제15항 또는 제18항에 있어서,
상기 최적 파지 자세에 따라 물체를 파지하는 것은,
상기 최적 파지 자세에 따라 상기 로봇 핸드를 이동시키고, 상기 물체에 접촉한 상기 마디의 접촉력을 유지하면서, 물체와 접촉하지 않은 다른 마디가 물체와 접촉할 때까지 기다린 후, 상기 마디가 상기 물체와 전부 접촉이 되면, 상기 물체에 상기 손가락의 압력을 가하여 물체를 파지하는 로봇 제어방법. - 제16항에 있어서,
상기 자세 오차를 추정하는 것은,
상기 접촉된 손바닥과 상기 마디 중 일부에 의해 형성되는 원의 크기와 상기 시각 센서에 의해 측정되거나 상기 사용자에 의해 입력되는 물체의 크기를 통해 상기 자세 오차를 추정하는 로봇 제어방법.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100114461A KR101308373B1 (ko) | 2010-11-17 | 2010-11-17 | 로봇 제어방법 |
US13/275,856 US9333648B2 (en) | 2010-11-17 | 2011-10-18 | Control of robot hand to contact an object |
EP11185766.0A EP2455198B1 (en) | 2010-11-17 | 2011-10-19 | Control of robot hand to contact an object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100114461A KR101308373B1 (ko) | 2010-11-17 | 2010-11-17 | 로봇 제어방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120053274A true KR20120053274A (ko) | 2012-05-25 |
KR101308373B1 KR101308373B1 (ko) | 2013-09-16 |
Family
ID=44993483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100114461A KR101308373B1 (ko) | 2010-11-17 | 2010-11-17 | 로봇 제어방법 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9333648B2 (ko) |
EP (1) | EP2455198B1 (ko) |
KR (1) | KR101308373B1 (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101408075B1 (ko) * | 2013-07-09 | 2014-06-18 | 국방과학연구소 | 다중 로봇 시스템 및 다중 로봇 시스템 제어 방법 |
CN110116424A (zh) * | 2018-02-06 | 2019-08-13 | 丰田自动车株式会社 | 机器人 |
KR102265155B1 (ko) * | 2020-03-02 | 2021-06-14 | 한양대학교 에리카산학협력단 | 센싱 그리퍼 및 그 제조방법 |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101896473B1 (ko) * | 2012-01-04 | 2018-10-24 | 삼성전자주식회사 | 로봇 핸드의 제어 방법 |
WO2014129110A1 (ja) * | 2013-02-25 | 2014-08-28 | パナソニック株式会社 | ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム |
US10112303B2 (en) * | 2013-10-25 | 2018-10-30 | Aleksandar Vakanski | Image-based trajectory robot programming planning approach |
JP6454960B2 (ja) * | 2013-10-31 | 2019-01-23 | セイコーエプソン株式会社 | ロボット、ロボットシステム、ロボット制御装置 |
JP6140114B2 (ja) * | 2014-07-31 | 2017-05-31 | ファナック株式会社 | 移動式人協調型ロボット |
US9694494B1 (en) | 2015-12-11 | 2017-07-04 | Amazon Technologies, Inc. | Feature identification and extrapolation for robotic item grasping |
JP6514156B2 (ja) * | 2016-08-17 | 2019-05-15 | ファナック株式会社 | ロボット制御装置 |
CN106726058A (zh) * | 2016-12-12 | 2017-05-31 | 成都育芽科技有限公司 | 一种医疗机器人控制系统 |
JP6902208B2 (ja) * | 2017-11-14 | 2021-07-14 | オムロン株式会社 | 把持方法、把持システム及びプログラム |
JP7069512B2 (ja) * | 2017-11-15 | 2022-05-18 | Thk株式会社 | 把持システムおよびその制御方法 |
US10792809B2 (en) * | 2017-12-12 | 2020-10-06 | X Development Llc | Robot grip detection using non-contact sensors |
CN109571477B (zh) * | 2018-12-17 | 2020-09-22 | 西安工程大学 | 一种改进的机器人视觉与传送带综合标定方法 |
US20220032462A1 (en) * | 2019-03-22 | 2022-02-03 | Omron Corporation | Robot Hand, Robot Hand Control Method, and Program |
US20220314439A1 (en) * | 2019-06-11 | 2022-10-06 | Magna International Inc. | System and method for object shape identification and pose measurement using multi-fingered hand |
CN110605717A (zh) * | 2019-09-18 | 2019-12-24 | 北京三快在线科技有限公司 | 一种机械手臂、无人机自动换电系统和机械手臂控制方法 |
US11389968B2 (en) * | 2019-10-02 | 2022-07-19 | Toyota Research Institute, Inc. | Systems and methods for determining pose of objects held by flexible end effectors |
US20210125052A1 (en) * | 2019-10-24 | 2021-04-29 | Nvidia Corporation | Reinforcement learning of tactile grasp policies |
CN111055279B (zh) * | 2019-12-17 | 2022-02-15 | 清华大学深圳国际研究生院 | 基于触觉与视觉结合的多模态物体抓取方法与系统 |
CN111136656B (zh) * | 2019-12-24 | 2020-12-08 | 上海智殷自动化科技有限公司 | 一种用于机器人三维不规则物体自动识别及抓取的方法 |
US11584026B2 (en) | 2020-02-17 | 2023-02-21 | Toyota Research Institute, Inc. | Robot arm assemblies including fingers having deformable sensors |
CN112388655B (zh) * | 2020-12-04 | 2021-06-04 | 齐鲁工业大学 | 一种基于触觉振动信号与视觉图像融合的抓取物识别方法 |
JP2023109575A (ja) * | 2022-01-27 | 2023-08-08 | ミネベアミツミ株式会社 | 把持装置、把持システム及び把持装置の制御方法 |
CN116028841B (zh) * | 2022-09-01 | 2023-08-15 | 贵州大学 | 通过触觉感知识别物品类别的工作系统和方法 |
US20240181647A1 (en) * | 2022-12-06 | 2024-06-06 | Sanctuary Cognitive Systems Corporation | Systems, methods, and control modules for controlling end effectors of robot systems |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1992455B1 (en) | 2006-02-02 | 2012-04-11 | Kabushiki Kaisha Yaskawa Denki | Robot system |
KR100824780B1 (ko) * | 2006-11-21 | 2008-04-24 | 주식회사은강테크 | 지능형 유연 핸드장치 |
JP4481291B2 (ja) * | 2006-12-01 | 2010-06-16 | 本田技研工業株式会社 | ロボット、ならびにその制御方法および制御プログラム |
JP4316630B2 (ja) * | 2007-03-29 | 2009-08-19 | 本田技研工業株式会社 | ロボット、ロボットの制御方法およびロボットの制御プログラム |
KR101479232B1 (ko) * | 2008-05-13 | 2015-01-06 | 삼성전자 주식회사 | 로봇과 로봇 핸드, 로봇 핸드의 제어 방법 |
KR101549818B1 (ko) * | 2008-12-02 | 2015-09-07 | 삼성전자 주식회사 | 로봇 핸드 및 그 제어방법 |
JP5281377B2 (ja) * | 2008-12-04 | 2013-09-04 | トヨタ自動車株式会社 | ロボット装置 |
JP5267213B2 (ja) | 2009-03-02 | 2013-08-21 | 株式会社安川電機 | 多指ハンドおよびロボット |
-
2010
- 2010-11-17 KR KR1020100114461A patent/KR101308373B1/ko active IP Right Grant
-
2011
- 2011-10-18 US US13/275,856 patent/US9333648B2/en active Active
- 2011-10-19 EP EP11185766.0A patent/EP2455198B1/en active Active
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101408075B1 (ko) * | 2013-07-09 | 2014-06-18 | 국방과학연구소 | 다중 로봇 시스템 및 다중 로봇 시스템 제어 방법 |
CN110116424A (zh) * | 2018-02-06 | 2019-08-13 | 丰田自动车株式会社 | 机器人 |
CN110116424B (zh) * | 2018-02-06 | 2022-04-19 | 丰田自动车株式会社 | 机器人 |
KR102265155B1 (ko) * | 2020-03-02 | 2021-06-14 | 한양대학교 에리카산학협력단 | 센싱 그리퍼 및 그 제조방법 |
Also Published As
Publication number | Publication date |
---|---|
KR101308373B1 (ko) | 2013-09-16 |
US20120123589A1 (en) | 2012-05-17 |
EP2455198A1 (en) | 2012-05-23 |
US9333648B2 (en) | 2016-05-10 |
EP2455198B1 (en) | 2015-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101308373B1 (ko) | 로봇 제어방법 | |
KR101549818B1 (ko) | 로봇 핸드 및 그 제어방법 | |
JP6454960B2 (ja) | ロボット、ロボットシステム、ロボット制御装置 | |
EP3656514B1 (en) | Work robot and method for controlling work robot | |
JP7225563B2 (ja) | ロボット、制御装置およびロボットの制御方法 | |
JP5924107B2 (ja) | ロボットハンド、およびロボット | |
Kazemi et al. | Human-inspired force compliant grasping primitives | |
JP2009269127A (ja) | 把持装置及びその制御方法 | |
JPH08323678A (ja) | 柔軟物体把持装置 | |
JP4211701B2 (ja) | ロボットハンドの把持制御装置 | |
JP2024015086A (ja) | ロボットシステム、制御方法、物品の製造方法、制御プログラム、記録媒体 | |
JP2023086924A (ja) | 制御方法、制御システム及びプログラム | |
JP4600445B2 (ja) | ロボットハンド装置 | |
CN111975764A (zh) | 机器人装置和握持方法 | |
WO2020066061A1 (ja) | エンドエフェクタおよびエンドエフェクタ装置 | |
JP2005144573A (ja) | ロボットハンドの把持力制御方法 | |
JPH10100089A (ja) | 多関節多指ハンドの把持制御方法及び物体把持方法 | |
JP2022120550A5 (ko) | ||
JP4055703B2 (ja) | ロボットハンド装置 | |
JPH0469184A (ja) | ロボットハンドの把持制御方法 | |
JP4012996B2 (ja) | マニピュレータの制御装置 | |
JPH05123987A (ja) | 把持装置 | |
JP2007007859A (ja) | 多関節多指ハンドの物体把持方法 | |
JP4577619B2 (ja) | 多関節多指ハンドの物体把持方法 | |
JPH0482683A (ja) | ロボットハンドの握り込み制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160817 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170818 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20190820 Year of fee payment: 7 |