KR20120053274A - 로봇 제어방법 - Google Patents

로봇 제어방법 Download PDF

Info

Publication number
KR20120053274A
KR20120053274A KR1020100114461A KR20100114461A KR20120053274A KR 20120053274 A KR20120053274 A KR 20120053274A KR 1020100114461 A KR1020100114461 A KR 1020100114461A KR 20100114461 A KR20100114461 A KR 20100114461A KR 20120053274 A KR20120053274 A KR 20120053274A
Authority
KR
South Korea
Prior art keywords
contact
holding
sensor
finger
user
Prior art date
Application number
KR1020100114461A
Other languages
English (en)
Other versions
KR101308373B1 (ko
Inventor
김지영
김용재
노경식
심영보
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020100114461A priority Critical patent/KR101308373B1/ko
Priority to US13/275,856 priority patent/US9333648B2/en
Priority to EP11185766.0A priority patent/EP2455198B1/en
Publication of KR20120053274A publication Critical patent/KR20120053274A/ko
Application granted granted Critical
Publication of KR101308373B1 publication Critical patent/KR101308373B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/084Tactile sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39484Locate, reach and grasp, visual guided grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39532Gripping force sensor build into finger

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 로봇 핸드에 장착된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서 에 의한 정보와 로봇의 시각 센서에 의한 물체 정보를 바탕으로 오차를 추정하고 이를 보상하여 반복 작업 없이 한 번에 물체를 파지하는 로봇 제어방법을 제공한다.
이를 위해, 로봇 제어방법은 로봇의 시각 센서를 통해 파지 대상 물체의 정보를 측정하거나 사용자에 의해 입력되는 물체의 정보를 산정하고, 물체의 정보에 따라 로봇 핸드를 물체로 이동시키고, 로봇 핸드의 손가락을 물체의 정보에 따라 물체에 접촉시키고, 손가락에 구비된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서를 통해 손가락이 물체에 전부 접촉했는지 판단하며, 물체에 대한 손가락의 전부 접촉 여부에 따라 물체를 파지한다.
이를 통해, 로봇의 시각 센서의 오차나 예측하지 못한 물체의 움직임 등으로 발생한 물체의 자세 오차를, 로봇 핸드에 구비된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서를 활용하여 보상하고 파지 성공률을 높일 수 있다.

Description

로봇 제어방법{METHOD OF CONTROLLING ROBOT}
본 발명은 물체의 위치 정보 오차를 파악하고 오차에 대응하여 물체를 파지하는 로봇 제어방법에 관한 것이다.
산업용 로봇이나 지능형 서비스 로봇 분야에서는 manipulator와 end-effector 등을 이용하여 물체를 파지한다. 물체를 파지하고자 할 때, 시각 정보 오차 또는 물체의 갑작스러운 이동 등으로 인해 로봇이 알고 있는 물체의 위치와 실제 위치가 달라지게 되어 안정적인 파지가 실패할 가능성이 커지게 된다.
종래에는 안정적인 파지를 위해서, 플랫폼인 매니퓰레이터(Manipulator)의 끝 단에 힘/토크(Force/Torque) 센서(이하 F/T 센서)를 장착하고, 두 개 이상의 손가락으로 구성된 로봇 핸드의 각 손가락에 힘이나 촉각을 감지할 수 있는 센서를 장착하였다. 종래에는 이와 같은 센서 정보들을 활용하여 위치 오차를 감지하고 이에 대응하는 방안을 개시하였다,
이러한 종래 기술은 특정 조건이 만족될 때까지 작업을 반복 수행해야한다. 그 과정에서 손바닥과 손가락의 반복적인 움직임이 일어나며, 파지에 걸리는 시간이 증가한다. 즉, 위치 및 방향 오차를 극복하기 위한 과정에 걸리는 시간을 무시할 수 없다는 문제점이 있다.
본 발명의 일 측면에 따르면, 로봇 핸드에 장착된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서 촉각 센서에 의한 정보와 로봇의 시각 센서에 의한 물체 정보를 바탕으로 오차를 추정하고 이를 보상하여 반복 작업 없이 한 번에 물체를 파지하도록 한다.
본 발명의 일 실시예에 의한 로봇 제어방법은, 로봇의 시각 센서를 통해 파지 대상 물체의 정보를 측정하거나 사용자에 의해 입력되는 물체의 정보를 산정하고; 물체의 정보에 따라 로봇 핸드를 물체로 이동시키고; 로봇 핸드의 손가락을 물체의 정보에 따라 물체에 접촉시키고; 손가락에 구비된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서를 통해 손가락이 물체에 전부 접촉했는지 판단하며; 물체에 대한 손가락의 전부 접촉 여부에 따라 물체를 파지한다.
또한, 손가락은 하나 이상의 마디를 포함하고; 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서는 하나 이상의 마디 중 손가락 끝 마디에 구비된다.
또한, 물체에 대한 손가락의 전부 접촉 여부에 따라 물체를 파지하는 것은, 물체에 대한 하나 이상의 마디 중 끝 마디의 전부 접촉 여부에 따라 손가락 끝 마디의 각을 조절하여 물체를 파지한다.
또한, 손가락의 접촉 여부에 따라 물체를 파지하는 것은, 손가락이 물체에 전부 접촉한 경우에는 물체에 손가락의 압력을 가하여 물체를 파지한다.
또한, 손가락의 접촉 여부에 따라 물체를 파지하는 것은, 손가락이 물체에 전부 접촉하지 않은 경우에는 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지한다.
또한, 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지하는 것은, 사용자에 의해 입력되는 최적 파지 신호가 있다면, 시각 센서에 의해 측정되거나 사용자에 의해 입력되는 물체의 정보와 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 정보를 통해 최적 파지 자세를 구하고, 구해진 최적 파지 자세에 따라 물체를 파지한다.
또한, 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지하는 것은, 사용자에 의해 입력되는 최적 파지 신호가 없다면, 시각 센서에 의해 측정되거나 사용자에 의해 입력되는 물체의 정보와 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 정보를 통해 자세 오차를 추정하고, 자세 오차의 보상 여부를 판단하여 물체를 파지한다.
또한, 추정된 자세 오차의 보상 여부를 판단하여 물체를 파지하는 것은, 추정된 자세 오차가 소정의 값보다 작은 경우에는 추정된 자세 오차를 보상하지 않고 물체에 손가락의 압력을 가하여 물체를 파지한다.
또한, 추정된 자세 오차의 보상 여부를 판단하여 파지하는 것은, 추정된 자세 오차가 소정의 값보다 큰 경우에는, 시각 센서에 의해 측정되거나 사용자에 의해 입력되는 물체의 정보와 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 정보를 통해 최적 파지 자세를 구하고, 구해진 최적 파지 자세에 따라 물체를 파지한다.
또한, 최적 파지 자세에 따라 물체를 파지하는 것은, 최적 파지 자세에 따라 로봇 핸드를 이동시키고, 물체에 접촉한 손가락이 접촉력을 유지하면서, 물체와 접촉하지 않은 다른 손가락이 물체와 접촉할 때까지 기다린 후, 손가락이 물체와 전부 접촉이 이루어지면, 물체에 손가락의 압력을 가하여 물체를 파지한다.
또한, 파지 대상 물체의 정보는 물체의 위치 또는 크기, 형상을 포함한다.
본 발명의 다른 실시예에 의한 로봇 제어방법은, 로봇의 핸드는 손바닥과 손가락을 포함하고; 손가락은 하나 이상의 마디를 포함하고; 로봇의 시각 센서를 통해 파지 대상 물체의 위치 또는 크기, 형상을 측정하거나 사용자에 의해 입력되는 파지 대상 물체의 위치 또는 크기, 형상을 산정하고; 물체의 위치에 따라 로봇 핸드를 물체로 이동시키고; 손바닥과 마디가 형성하는 원의 크기를 물체의 크기에 상응하도록 줄이면서 물체를 감싸고; 로봇 핸드의 손바닥과 마디에 구비된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서를 통해 손바닥과 마디가 물체에 전부 접촉했는지 판단하며; 물체에 대한 손바닥과 마디의 전부 접촉 여부에 따라 물체를 파지한다.
또한, 물체에 대한 손바닥과 마디의 접촉 여부에 따라 물체를 파지하는 것은, 물체에 손바닥과 마디가 물체에 전부 접촉한 경우에는, 물체에 손가락의 압력을 가하여 물체를 파지한다.
또한, 물체에 대한 손바닥과 마디의 접촉 여부에 따라 물체를 파지하는 것은, 물체에 손바닥과 마디가 물체에 전부 접촉하지 않는 경우에는, 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지한다.
또한, 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지하는 것은, 사용자에 의해 입력되는 최적 파지 신호가 있다면, 시각 센서에 의해 측정되거나 사용자에 의해 입력되는 물체의 위치 또는 크기, 형상과 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 위치 또는 크기, 형상을 통해 최적 파지 자세를 구하고, 구해진 최적 파지 자세에 따라 물체를 파지한다.
또한, 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지하는 것은, 사용자에 의해 입력되는 최적 파지 신호가 없다면, 시각 센서에 의해 측정되거나 사용자에 의해 입력되는 물체의 위치 또는 크기, 형상과 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 위치 또는 크기, 형상을 통해 자세 오차를 추정하고, 자세 오차의 보상 여부를 판단하여 물체를 파지한다.
또한, 추정된 자세 오차의 보상 여부를 판단하여 물체를 파지하는 것은,상기 추정된 자세 오차가 소정의 값보다 작은 경우에는 추정된 자세 오차를 보상하지 않고 물체에 손가락의 압력을 가하여 물체를 파지한다.
또한, 추정된 자세 오차의 보상 여부를 판단하여 파지하는 것은, 추정된 자세 오차가 소정의 값보다 큰 경우에는, 시각 센서에 의해 측정되거나 사용자에 의해 입력되는 물체의 위치 또는 크기, 형상과 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 위치 또는 크기, 형상을 통해 최적 파지 자세를 구하고, 구해진 최적 파지 자세에 따라 물체를 파지한다.
또한, 최적 파지 자세에 따라 물체를 파지하는 것은, 최적 파지 자세에 따라 로봇 핸드를 이동시키고, 물체에 접촉한 마디의 접촉력을 유지하면서, 물체와 접촉하지 않은 다른 마디가 물체와 접촉할 때까지 기다린 후, 마디가 물체와 전부 접촉이 되면, 물체에 손가락의 압력을 가하여 물체를 파지한다.
또한, 자세 오차를 추정하는 것은, 접촉된 손바닥과 마디 중 일부에 의해 형성되는 원의 크기와 시각 센서에 의해 측정되거나 사용자에 의해 입력되는 물체의 크기를 통해 자세 오차를 추정한다.
개시된 로봇 제어방법에 의하면, 로봇의 시각 센서의 오차나 예측하지 못한 물체의 움직임 등으로 발생한 물체의 자세 오차를 로봇 핸드에 구비된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서를 활용하여 보상하여 파지 성공률을 높일 수 있다.
도 1은 본 발명의 일 실시예에 의한 물체를 잡기 전의 로봇 핸드의 준비 자세를 도시한 개략도이다.
도 2는 본 발명의 일 실시예에 의한 로봇 제어과정에서 자세 오차가 발생한 경우 이를 보상하는 모습의 로봇 핸드를 도시한 개략도이다.
도 3은 본 발명의 다른 실시예에 의한 물체를 잡기 전의 로봇 핸드의 준비 자세를 도시한 개략도이다.
도 4는 본 발명의 다른 실시예에 의한 로봇 제어과정에서 자세 오차가 발생한 경우 이를 보상하는 모습의 로봇 핸드를 도시한 개략도이다.
도 5는 본 발명의 일 실시예에 의한 로봇 제어과정을 도시한 순서도이다.
도 6은 본 발명의 일 실시예에 의한 로봇 제어과정 중에서 로봇 핸드로 파지 대상 물체를 서서히 감싸 쥐는 과정을 도시한 순서도이다.
이하, 본 발명의 일 실시예를 첨부된 도면을 참조하여 상세히 설명한다.
도 1은 본 발명의 일 실시예에 의한 물체를 손가락 끝을 이용하여 잡기 전의 로봇 핸드의 준비 자세를 도시한 개략도이다.
본 발명의 일 실시예에 의한 로봇 제어방법은 손가락 끝을 이용하여 물체를 파지하는 방법으로, 로봇 핸드(1)의 엄지(Thumb)와 다른 손가락들(Fingers)이 대항하여 위치시켜 물체(5)를 파지한다. 이를 핀칭(Pinching)이라고 한다.
핀칭(Pinching)은 먼저 로봇 핸드를 움직여 준비 자세(Preshape)를 잡는다. PIP마디(23)와 DIP마디(25)의 각은 일정 각으로 유지한 채, MPP마디(21) 각을 조절하여 준비 자세(Preshape)를 잡는다.
그리고, 엄지와 각 손가락 사이의 거리가 핀칭으로 파지 가능한 물체의 최대 크기(W_max)보다 크도록 그리고 벌어진 거리가 대칭에 가깝도록 준비 자세를 잡는다.
다음으로 로봇 핸드(1)로 물체(5)를 서서히 감싸 쥔다(Enclosing motion). 엄지와 다른 손가락들이 맞닿는 위치를 각 손가락(20. 30)의 '목표 도달점'으로 설정하여, 준비 자세로부터 Cartesian level trajectory를 생성하여 움직인다.
이때, 접촉 감지(contact sensing)를 적용하여 엄지나 다른 손가락(20, 30)에서 접촉이 감지되면, 그 자리에서 멈추고 기다리도록 한다.
여기서 접촉 감지(contact sensing)는 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서 를 이용하여 물체에 손가락(20, 30)이 접촉했는지 여부를 판단하거나 또는 모터의 구동 전류 피드백(feedback) 정보를 활용하여 손가락(20, 30)과 물체(5)의 접촉으로 인해 발생한 외력을 추정하여 접촉 여부를 판단한다.
도 2는 본 발명의 일 실시예에 의한 로봇 제어과정에서 자세 오차가 발생한 경우 이를 보상하는 모습의 로봇 핸드를 도시한 개략도이다.
엄지와 다른 손가락(20, 30)이 모두 물체와 접촉 상태가 되지 않고, 엄지만 물체에 닿았거나, 다른 손가락(20, 30)들만 물체에 닿았다면, 손바닥 길이 방향의 오차가 발생한 것이다. 이 때, 로봇의 시각 센서를 통해 측정된 물체(10)의 크기를 통해 물체(10)의 실제 위치를 파악할 수 있다.
물체(10)와 접촉한 손끝의 위치(hFinger)와 물체(10)의 크기를 통해 추정된 물체(10)의 위치(hobj)는 다음 수학식에 의한다.
hobj=hFinger-(w/2)
여기서 w는 물체(10)의 너비를 나타낸다.
또한, 물체(10)의 위치 오차(errorHand)는 다음 수학식에 의한다.
errorHand=hobj-hobj.desired
여기서 hobj . desired는 로봇의 시각 센서를 통해 로봇이 인식한 물체(5)의 원래 중심점 위치(3)를 나타낸다.
또한, 물체(10)의 위치 오차(errorHand)에 대응하기 위해 로봇 핸드(1)를 이동시켜야 하는 거리(d)는 위에서 구한 위치 오차(errorHand)와 같다.
도 3은 본 발명의 다른 실시예에 의한 물체를 잡기 전의 로봇 핸드의 준비 자세를 도시한 개략도이다.
본 발명의 다른 실시예에 의한 로봇 제어방법은 손가락(20, 30)의 안쪽 패드(Pad)와 손바닥 면을 이용하여 물체(7)를 감싸면서 파지하는 방법으로, 이를 파워 그래스핑(Power grasping)이라고 한다.
파워 그래스핑(Power grasping)은 먼저 로봇 핸드를 움직여 준비 자세(Preshape)를 잡는다. 즉, 로봇의 시각 센서를 통해 측정된 물체(7)의 반지름에 따른 손가락(20, 30)의 마디를 이용하여, 파지 가능한 물체(7)의 최대 반지름(R_max)에 해당하는 형상이 되도록 준비 자세를 잡는다.
다음으로 로봇 핸드(1)로 물체(5)를 서서히 감싸 쥔다(Enclosing motion). 이 경우 손바닥과 손가락(20, 30)의 각 마디의 안쪽 면으로 물체(7)를 감싸 쥐는 형상을 고려하여 물체(7)의 크기인 반지름과 각 손가락(20, 30) 마디 사이의 관계를 설정한다.
즉, 파지 대상 물체(7)의 반지름을 고려하여 이보다 큰 반지름을 갖는 원이 손바닥과 손가락(20, 30)의 각 마디의 안쪽 면에 접하도록 한다.
준비 자세의 형상으로부터 Power grasping 방법으로 파지 가능한 물체(7)의 최소 반지름(R_min)까지 이르도록 로봇 핸드(1)의 반지름 궤적(trajectory)을 생성한다. 즉, 손바닥의 접촉점과 손가락(20, 30) 각 마디들이 이루는 원의 반지름을 점점 줄여나가는 모양으로 물체를 감싸 쥐도록 한다.
이 경우, 물체의 반지름(Robj)를 이용한 다음 두 수학식을 통해 로봇 핸드에 의해 형성되는 원의 반지름(R)과 손가락(20, 30) 마디의 각도를 설정할 수 있다.
R=f(Tcurrent, Tduration, Robj, 5*Robj)
f(R)=[θmpp, θpip]
첫 번째 식에서, Tcurrent는 현재의 시간이고, Tduration는 손바닥의 접촉점과 손가락(20, 30) 각 마디들이 이루는 원의 반지름을 점점 줄여 나가는 시간이다. 5*Robj는 물체(7)의 반지름의 다섯 배에 해당하는 반지름을 나타내는데 파지 대상 물체(7)의 반지름(Robj)에 따라 다른 배율로 정해질 수 있다. 즉, 줄여 나가는 반지름(R)은 원의 반지름을 줄여 나가는 시간(Tduration) 동안, 물체(7)의 반지름(Robj) 보다 큰 반지름으로 시작해서 물체(7)의 반지름(Robj)에 가까워지는 궤적으로 형성된다.
두 번째 식에서, θpip와 θdip는 θpip=3θ, θdip=2θ의 관계에 있고, 위 첫 번째식에서 결정된 궤적의 반지름(R)에 의해 로봇 핸드(1)의 각 마디가 이루는 각이 결정된다.
이때, pinching의 경우와 마찬가지로 Contact sensing을 통해 손가락(20, 30) 마디에서 물체와의 접촉이 감지되면, 정지하고 기다리도록 한다.
도 4는 본 발명의 다른 실시예에 의한 로봇 제어과정에서 자세 오차가 발생한 경우 이를 보상하는 모습의 로봇 핸드를 도시한 개략도이다.
엄지와 다른 손가락(20, 30)이 모두 물체와 접촉 상태가 되지 않고, 엄지만 물체에 닿았거나, 다른 손가락(20, 30)들만 물체에 닿았다면, 손바닥 길이 방향의 오차가 발생한 것이다.
자세 오차가 발생하지 않는 경우에는, Enclosing motion을 통해서 손바닥(10)과 손가락(20, 30) 마디에 의해 형성되는 반지름(R)을 R_max부터 R_min까지 변화시키면, 엄지와 다른 손가락(20, 30)들 모두 물체의 반지름 부근에서 (R ~= R_obj) 물체와 접촉하여 각 마디에서 저항 토크가 발생하게 된다.
그러나 엄지나 다른 손가락(20, 30)들 중 한 쪽만 물체와 접촉상태가 된다면, 손바닥 길이 방향의 오차가 발생한 것이다. 해당하는 로봇 핸드(1)가 형성한 반지름(R)은 물체의 반지름보다 큰 값에서 (R >> Robj) Enclosing motion을 끝내게 되고, 해당하는 손가락(20, 30)의 MPP관절(21)에만 저항 토크가 발생한다.
이처럼, 위치 오차 또는 자세 오차로 인해 MPP관절(21)이 먼저 저항을 받게 되고, 그로 인해 반지름(R)이 달라짐을 역으로 이용하여 로봇의 시각 센서를 통해 측정한 물체(7)의 크기를 통해 물체(7)의 실제 위치를 파악하고, 자세 오차를 추정한다.
위에서 MPP마디(21)의 각과 반지름(R) 그리고 손바닥(10)의 접촉점 위치(l0 ), 첫 번째 관절 길이(l1 )의 관계를 나타난 다음의 식을 활용한다.
Figure pat00001

실제 물체(7) 위치가 달라짐으로서 변경되는 부분은 손바닥(10)의 접촉점 위치(l0)라고 할 수 있으므로, 물체의 실제 반지름을 R에 대입하고, 현재 접촉상태인 MPP마디(21)의 각을 대입하여, l0 , measured 를 얻는다.
자세하게는 l0 , measured를 다음 수학식들을 얻는다.
π-Ψmpp=tan-1(R/l0 , measured)+tan-1(R/(l1/2))
(R/l0 , measured)=tan[π-Ψmpp-tan-1(R/(l1/2)]
=(R/(tan[π-Ψmpp-tan-1(R/(l1/2))]))
즉, 실제 측정된 로봇 핸드 손바닥(10)의 위치가 목표하는 물체(7)의 위치에서 얼마나 벗어났는지 l0 , measured를 구함으로써 알 수 있다. l0 , measured는 손가락이 물체(7)에 전부 접촉하지 않을 때 발생한다. l0 , measured는 물체(7)가 손가락 마디(21)에 접촉했을 때 형성되는 각도(Ψmpp)와 반지름(R)을 통해 구해질 수 있다.
그리고, l0와 l0 , measured의 차이를 자세 오차량(errorHand)으로 추정하여, 그 만큼 손바닥(10)을 이동시켜서 물체(7)를 파지한다.
즉, 자세 오차량(errorHand)은 다음 수학식에 따른다.
errorHand=d=hobj-hobj . desired= l0- l0 , measured
앞에서 설명한 것과 같이 엄지나 다른 손가락(20, 30) 중 한 쪽만 물체(7)와 접촉상태에 이르면 시각 센서를 통해 측정한 물체(7)의 위치(3)와 실제 물체 위치 사이에 오차가 있다고 판단할 수 있다. 그리고, 추정된 위치 오차를 보상하며 파지하기 위해 계산된 d만큼 손바닥(10)을 이동시킨다.
이와 동시에 손가락(20)도 Enclosing motion을 계속한다. 손바닥(10)이 이동함에 따라 이미 물체(7)와 접촉한 마디(21)도 물체(7)와의 접촉이 떨어지게 되므로, Enclosing motion 단계에서 생성된 궤적 및 손바닥(10)의 움직임과 맞추어 현재 위치에서 이어서 손끝을 이동시킨다.
이를 통해 이미 물체(7)와 접촉한 마디(21)는 손바닥(10)의 움직임에도 물체(10)와의 접촉상태를 잃지 않는다. 물체(7)와 접촉하지 않은 손가락(30)도 Enclosing motion 단계에서 생성된 궤적을 이으면서 손끝을 이동시킴으로서 손바닥(10)의 움직임이 끝날 때, 물체(7)와 접촉상태에 이를 수 있도록 한다.
이와 같은 위치 오차 보상과정은 손바닥(10)의 움직임과 양쪽 손가락(20, 30)의 움직임이 동시에 일어나므로, 위치 오차가 발생한 경우의 파지에도 파지 시간이 크게 증가하지 않는다.
도 5는 본 발명의 일 실시예에 의한 로봇 제어과정을 도시한 순서도이다.
먼저, 로봇의 시각 센서를 통해 파지 대상 물체(5)의 정보를 측정한다. 여기서 측정된 물체(5) 정보는 물체(5)의 위치, 크기(형상)를 포함한다. 측정된 물체(5) 위치, 크기(형상)는 로봇 핸드(1)를 이용하여 물체(5)를 파지하는데 있어서 기준이 된다(100).
다음으로 측정된 물체(5) 정보(특히, 물체의 위치)에 기초해서 로봇 핸드(1)를 물체(5)에 접근시킨다(110). 로봇 핸드(1)의 손바닥(10)을 물체(5) 정보에 기초해서 이동시키고 손가락(20, 30)은 준비 자세를 취한다. 여기서 준비 자세는 물체(5)를 파지하기 전에 하는 예비 동작으로서 파지 대상 물체(5)를 손상시키지 않으면서 파지를 안정적으로 하기 위한 단계이다(120).
이어서 로봇 핸드(1)를 제어하여 파지 대상 물체(5)를 서서히 감싸 쥔다. 이는 로봇의 시각 센서에 의해 측정된 물체(5) 정보의 오차 및 물체(5)가 급격히 이동하는 등의 원인으로 인하여, 로봇의 시각 센서에 의해 측정된 물체 정보와 파지 시점에서의 실제 물체의 정보가 차이가 나는데(자세 오차 발생), 이를 반영하여 로봇 핸드(1)의 움직임을 제어하는 과정이다. 즉, 자세 오차를 무시하고 파지하는 경우에 조심스럽게 잡아야 할 물체를 파지 도중에 쓰러뜨리거나 물체를 파손시키거나, 물체를 파지하더라도 불안정하여 떨어뜨리는 등의 문제에 대비하는 과정이다(130).
이후 물체(5)에 손가락(20, 30)의 압력을 가해서 물체(5)를 꽉 쥔다(Secure 단계). 이는 안정적으로 물체(5)를 파지하는 과정이다(140).
물체(5)를 꽉 쥔 상태에서 물체(5)를 살짝 든다(150). 꽉 쥔 물체(5)가 떨어지는지를 판단한다(160). 만약 물체(5)가 떨어지지 않는다면 파지 과정을 종료하고, 물체(5)가 떨어진다면 다시 물체(5)에 손가락(20, 30)의 압력을 가해 물체(5)를 안정적으로 파지하도록 꽉 쥔다(140 단계).
도 6은 본 발명의 일 실시예에 의한 로봇 제어과정 중에서 로봇 핸드로 파지 대상 물체를 서서히 감싸 쥐는 과정을 도시한 순서도이다.
도 6은 도 5에 도시된 로봇 핸드(1)로 물체(5)를 서서히 감싸 쥐는 130 단계의 세부 동작 과정을 도시한다.
먼저, 로봇 핸드(1)의 손가락(20, 30)이 물체(5)에 전부 접촉하는지 여부를 판단한다(131). 만약 손가락(20, 30)이 물체(5)에 전부 접촉한다면, 도 5에 도시된 물체(5)에 손가락(20, 30)의 압력을 가해서 물체(5)를 꽉 쥐는 140 단계에 따르게 된다.
만약 손가락(20, 30)이 물체(5)에 전부 접촉하지 않는다면 사용자에 의한 최적 파지 신호 입력이 있는지를 판단한다. 이는 물체(5)를 파지할 때 미세한 자세 오차가 있더라도 바로 파지할 것인지(예를 들어, 부정확하나 파지 시간을 단축하고자 할 때), 아니면 미세한 자세 오차를 보상하여 최적의 파지를 할 것인지를 결정하는 것이다(132).
최적 파지 신호 입력이 없다면 로봇의 시각 센서를 통해 측정한 물체(5) 정보와 로봇 핸드(1)의 손가락(20, 30)에 구비된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서 를 통해 측정한 물체(5) 정보를 기초로 자세 오차를 추정한다. 로봇의 시각 센서를 통해 측정한 물체(5) 정보는 로봇 핸드(1)가 목표하는 물체(5)의 위치와 크기(형상)을 포함한다. 로봇 핸드(1)의 손가락(20, 30)에 구비된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서 를 통해 측정한 물체(5) 정보는 물체(5)의 실제 위치와 크기(형상)을 포함한다. 즉, 시각 센서의 오차 또는 다른 외부 환경 요인에 의해 실제 물체(5)의 위치나 크기에 차이가 생기는데 이 차이가 자세 오차이다(133).
추정된 자세 오차가 소정의 값보다 큰지를 판단한다. 추정된 자세 오차가 물체(5)를 파지할 수 있을 정도의 것이라면 이를 무시하고 파지할 수 있다. 즉, 파지에 걸리는 시간이나 파지 대상 물체(5)의 성질을 고려하여 자세 오차를 무시할 수 있는지를 결정할 수 있다(134).
만약 추정된 자세 오차가 소정의 값보다 크다면, 도 5에 도시된 140 단계에 따르게 된다. 또한, 추정된 자세 오차가 소정의 값보다 크지 않다면, 추정된 자세 오차를 기초로 최적 파지 자세를 산정한다(135).
예를 들어 자세 오차가 2cm 보다 크지 않다면, 물체(5)를 파지하는데 장애가 없다고 판단하고 자세 오차를 무시하고 파지 과정을 진행한다. 자세 오차가 2cm 보다 크면, 물체(5)를 파지하는데 장애가 있다고 판단하고 자세 오차를 보상하여 파지하는 단계로 넘어간다.
산정된 최적 파지 자세에 따라 로봇 핸드(1)를 이동시킨다. 로봇의 시각 센서에 의해 측정된 물체(5)의 위치, 크기가 접촉 센서에 의해 측정된 실제 물체의 위치, 크기와 차이가 있으므로, 실제의 물체(5)의 위치, 크기에 맞게 로봇 핸드(1)를 이동시킨다(136).
로봇 핸드(1)의 이동에도 불구하고 이미 접촉한 손가락(20)의 접촉력은 유지시킨다. 로봇 핸드(1)의 이동은 자세하게는 핸드(1)의 손바닥(10)의 이동이다. 손바닥(10)의 이동으로 손가락(20, 30)도 이동하게 되는데 이 경우 이미 물체(5)에 접촉한 손가락(20)은 정확한 위치에서 물체(5)와 접촉하고 있는 것이므로 접촉을 유지하도록 한다. 접촉하지 않은 손가락(30)은 최적의 파지를 위해서 위에서 산정된 최적 파지 자세에 따라 이동한다(137).
물체(5)와 접촉하지 않은 다른 손가락(30)이 물체(5)와 접촉하도록 한다. 로봇 핸드(1)의 손바닥 이동으로 물체(5)에 접촉하지 않은 손가락(30)도 이동하게 되는데, 손가락(30)이 이동하다가 물체(5)하게 되면 로봇 핸드(1)의 이동이 멈춘다(138).
이에 따라 손가락(20, 30)이 전부 물체(5)에 접촉한 것이므로 이후 도 5에 도시된 140 단계에 따르게 된다.
위에서 살펴본 136, 137, 138 단계는 동시에 행하여 진다. 즉, 자세 오차에 기초해서 최적 파지 자세를 산정하고 산정된 최적 파지 자세에 따라 로봇 핸드(1)의 손바닥(10)을 움직이면서 동시에 비접촉한 손가락(30)을 물체(10)에 접촉시킨다.
1 : 로봇 핸드 5, 7 : 파지 대상 물체
10 : 손바닥 20, 30 : 손가락
21, 31 : MPP마디 23, 33 : PIP마디
25, 35 : DIP마디
50 : 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서

Claims (20)

  1. 로봇의 시각 센서를 통해 파지 대상 물체의 정보를 측정하거나 사용자에 의해 입력되는 상기 물체의 정보를 산정하고;
    상기 물체의 정보에 따라 로봇 핸드를 상기 물체로 이동시키고;
    상기 로봇 핸드의 손가락을 상기 물체의 정보에 따라 물체에 접촉시키고;
    상기 손가락에 구비된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서를 통해 상기 손가락이 상기 물체에 전부 접촉했는지 판단하며;
    상기 물체에 대한 상기 손가락의 전부 접촉 여부에 따라 물체를 파지하는 로봇 제어방법.
  2. 제1항에 있어서,
    상기 손가락은 하나 이상의 마디를 포함하고;
    상기 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서는 상기 하나 이상의 마디 중 손가락 끝 마디에 구비되는 로봇 제어방법.
  3. 제2항에 있어서,
    상기 물체에 대한 상기 손가락의 전부 접촉 여부에 따라 물체를 파지하는 것은,
    상기 물체에 대한 상기 하나 이상의 마디 중 끝 마디의 전부 접촉 여부에 따라 상기 손가락 끝 마디의 각을 조절하여 상기 물체를 파지하는 로봇 제어방법.
  4. 제1항에 있어서,
    상기 손가락의 접촉 여부에 따라 물체를 파지하는 것은,
    상기 손가락이 상기 물체에 전부 접촉한 경우에는 상기 물체에 상기 손가락의 압력을 가하여 물체를 파지하는 로봇 제어방법.
  5. 제1항에 있어서,
    상기 손가락의 접촉 여부에 따라 물체를 파지하는 것은,
    상기 손가락이 상기 물체에 전부 접촉하지 않은 경우에는 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지하는 로봇 제어방법.
  6. 제5항에 있어서,
    상기 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지하는 것은,
    상기 사용자에 의해 입력되는 최적 파지 신호가 있다면, 상기 시각 센서에 의해 측정되거나 상기 사용자에 의해 입력되는 물체의 정보와 상기 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 정보를 통해 최적 파지 자세를 구하고, 구해진 최적 파지 자세에 따라 물체를 파지하는 로봇 제어방법.
  7. 제5항에 있어서,
    상기 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지하는 것은,
    상기 사용자에 의해 입력되는 최적 파지 신호가 없다면, 상기 시각 센서에 의해 측정되거나 상기 사용자에 의해 입력되는 물체의 정보와 상기 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 정보를 통해 자세 오차를 추정하고, 상기 자세 오차의 보상 여부를 판단하여 물체를 파지하는 로봇 제어방법.
  8. 제7항에 있어서,
    상기 추정된 자세 오차의 보상 여부를 판단하여 물체를 파지하는 것은,
    상기 추정된 자세 오차가 소정의 값보다 작은 경우에는 상기 추정된 자세 오차를 보상하지 않고 상기 물체에 손가락의 압력을 가하여 물체를 파지하는 로봇 제어방법.
  9. 제7항에 있어서,
    상기 추정된 자세 오차의 보상 여부를 판단하여 파지하는 것은,
    상기 추정된 자세 오차가 소정의 값보다 큰 경우에는, 상기 시각 센서에 의해 측정되거나 상기 사용자에 의해 입력되는 물체의 정보와 상기 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 정보를 통해 최적 파지 자세를 구하고, 구해진 최적 파지 자세에 따라 물체를 파지하는 로봇 제어방법.
  10. 제6항 또는 제9항에 있어서,
    상기 최적 파지 자세에 따라 물체를 파지하는 것은,
    상기 최적 파지 자세에 따라 상기 로봇 핸드를 이동시키고, 상기 물체에 접촉한 상기 손가락이 접촉력을 유지하면서, 물체와 접촉하지 않은 다른 손가락이 물체와 접촉할 때까지 기다린 후, 상기 손가락이 상기 물체와 전부 접촉이 이루어지면, 상기 물체에 상기 손가락의 압력을 가하여 물체를 파지하는 로봇 제어방법.
  11. 제1항에 있어서,
    상기 파지 대상 물체의 정보는 물체의 위치 또는 크기, 형상을 포함하는 로봇 제어방법.
  12. 로봇의 핸드는 손바닥과 손가락을 포함하고;
    상기 손가락은 하나 이상의 마디를 포함하고;
    상기 로봇의 시각 센서를 통해 파지 대상 물체의 위치 또는 크기, 형상을 측정하거나 사용자에 의해 입력되는 파지 대상 물체의 위치 또는 크기, 형상을 산정하고;
    상기 물체의 위치에 따라 로봇 핸드를 상기 물체로 이동시키고;
    상기 손바닥과 상기 마디가 형성하는 원의 크기를 상기 물체의 크기에 상응하도록 줄이면서 상기 물체를 감싸고;
    상기 로봇 핸드의 손바닥과 상기 마디에 구비된 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서를 통해 상기 손바닥과 상기 마디가 상기 물체에 전부 접촉했는지 판단하며;
    상기 물체에 대한 상기 손바닥과 상기 마디의 전부 접촉 여부에 따라 물체를 파지하는 로봇 제어방법.
  13. 제12항에 있어서,
    상기 물체에 대한 상기 손바닥과 상기 마디의 접촉 여부에 따라 물체를 파지하는 것은,
    상기 물체에 상기 손바닥과 상기 마디가 상기 물체에 전부 접촉한 경우에는, 상기 물체에 상기 손가락의 압력을 가하여 물체를 파지하는 로봇 제어방법.
  14. 제12항에 있어서,
    상기 물체에 대한 상기 손바닥과 상기 마디의 접촉 여부에 따라 물체를 파지하는 것은,
    상기 물체에 상기 손바닥과 상기 마디가 상기 물체에 전부 접촉하지 않는 경우에는, 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지하는 로봇 제어방법.
  15. 제14항에 있어서,
    상기 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지하는 것은,
    상기 사용자에 의해 입력되는 최적 파지 신호가 있다면, 상기 시각 센서에 의해 측정되거나 상기 사용자에 의해 입력되는 물체의 위치 또는 크기, 형상과 상기 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 위치 또는 크기, 형상을 통해 최적 파지 자세를 구하고, 구해진 최적 파지 자세에 따라 물체를 파지하는 로봇 제어방법.
  16. 제14항에 있어서,
    상기 사용자에 의해 입력되는 최적 파지 신호 여부에 따라 물체를 파지하는 것은,
    상기 사용자에 의해 입력되는 최적 파지 신호가 없다면, 상기 시각 센서에 의해 측정되거나 상기 사용자에 의해 입력되는 물체의 위치 또는 크기, 형상과 상기 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 위치 또는 크기, 형상을 통해 자세 오차를 추정하고, 상기 자세 오차의 보상 여부를 판단하여 물체를 파지하는 로봇 제어방법.
  17. 제16항에 있어서,
    상기 추정된 자세 오차의 보상 여부를 판단하여 물체를 파지하는 것은,
    상기 추정된 자세 오차가 소정의 값보다 작은 경우에는 상기 추정된 자세 오차를 보상하지 않고 상기 물체에 손가락의 압력을 가하여 물체를 파지하는 로봇 제어방법.
  18. 제16항에 있어서,
    상기 추정된 자세 오차의 보상 여부를 판단하여 파지하는 것은,
    상기 추정된 자세 오차가 소정의 값보다 큰 경우에는, 상기 시각 센서에 의해 측정되거나 상기 사용자에 의해 입력되는 물체의 위치 또는 크기, 형상과 상기 모터 구동 전류 센서 또는 힘 센서 또는 촉각 센서에 의해 측정된 물체의 위치 또는 크기, 형상을 통해 최적 파지 자세를 구하고, 구해진 최적 파지 자세에 따라 물체를 파지하는 로봇 제어방법.
  19. 제15항 또는 제18항에 있어서,
    상기 최적 파지 자세에 따라 물체를 파지하는 것은,
    상기 최적 파지 자세에 따라 상기 로봇 핸드를 이동시키고, 상기 물체에 접촉한 상기 마디의 접촉력을 유지하면서, 물체와 접촉하지 않은 다른 마디가 물체와 접촉할 때까지 기다린 후, 상기 마디가 상기 물체와 전부 접촉이 되면, 상기 물체에 상기 손가락의 압력을 가하여 물체를 파지하는 로봇 제어방법.
  20. 제16항에 있어서,
    상기 자세 오차를 추정하는 것은,
    상기 접촉된 손바닥과 상기 마디 중 일부에 의해 형성되는 원의 크기와 상기 시각 센서에 의해 측정되거나 상기 사용자에 의해 입력되는 물체의 크기를 통해 상기 자세 오차를 추정하는 로봇 제어방법.
KR1020100114461A 2010-11-17 2010-11-17 로봇 제어방법 KR101308373B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020100114461A KR101308373B1 (ko) 2010-11-17 2010-11-17 로봇 제어방법
US13/275,856 US9333648B2 (en) 2010-11-17 2011-10-18 Control of robot hand to contact an object
EP11185766.0A EP2455198B1 (en) 2010-11-17 2011-10-19 Control of robot hand to contact an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100114461A KR101308373B1 (ko) 2010-11-17 2010-11-17 로봇 제어방법

Publications (2)

Publication Number Publication Date
KR20120053274A true KR20120053274A (ko) 2012-05-25
KR101308373B1 KR101308373B1 (ko) 2013-09-16

Family

ID=44993483

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100114461A KR101308373B1 (ko) 2010-11-17 2010-11-17 로봇 제어방법

Country Status (3)

Country Link
US (1) US9333648B2 (ko)
EP (1) EP2455198B1 (ko)
KR (1) KR101308373B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101408075B1 (ko) * 2013-07-09 2014-06-18 국방과학연구소 다중 로봇 시스템 및 다중 로봇 시스템 제어 방법
CN110116424A (zh) * 2018-02-06 2019-08-13 丰田自动车株式会社 机器人
KR102265155B1 (ko) * 2020-03-02 2021-06-14 한양대학교 에리카산학협력단 센싱 그리퍼 및 그 제조방법

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101896473B1 (ko) * 2012-01-04 2018-10-24 삼성전자주식회사 로봇 핸드의 제어 방법
WO2014129110A1 (ja) * 2013-02-25 2014-08-28 パナソニック株式会社 ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム
US10112303B2 (en) * 2013-10-25 2018-10-30 Aleksandar Vakanski Image-based trajectory robot programming planning approach
JP6454960B2 (ja) * 2013-10-31 2019-01-23 セイコーエプソン株式会社 ロボット、ロボットシステム、ロボット制御装置
JP6140114B2 (ja) * 2014-07-31 2017-05-31 ファナック株式会社 移動式人協調型ロボット
US9694494B1 (en) 2015-12-11 2017-07-04 Amazon Technologies, Inc. Feature identification and extrapolation for robotic item grasping
JP6514156B2 (ja) * 2016-08-17 2019-05-15 ファナック株式会社 ロボット制御装置
CN106726058A (zh) * 2016-12-12 2017-05-31 成都育芽科技有限公司 一种医疗机器人控制系统
JP6902208B2 (ja) * 2017-11-14 2021-07-14 オムロン株式会社 把持方法、把持システム及びプログラム
JP7069512B2 (ja) * 2017-11-15 2022-05-18 Thk株式会社 把持システムおよびその制御方法
US10792809B2 (en) * 2017-12-12 2020-10-06 X Development Llc Robot grip detection using non-contact sensors
CN109571477B (zh) * 2018-12-17 2020-09-22 西安工程大学 一种改进的机器人视觉与传送带综合标定方法
US20220032462A1 (en) * 2019-03-22 2022-02-03 Omron Corporation Robot Hand, Robot Hand Control Method, and Program
US20220314439A1 (en) * 2019-06-11 2022-10-06 Magna International Inc. System and method for object shape identification and pose measurement using multi-fingered hand
CN110605717A (zh) * 2019-09-18 2019-12-24 北京三快在线科技有限公司 一种机械手臂、无人机自动换电系统和机械手臂控制方法
US11389968B2 (en) * 2019-10-02 2022-07-19 Toyota Research Institute, Inc. Systems and methods for determining pose of objects held by flexible end effectors
US20210125052A1 (en) * 2019-10-24 2021-04-29 Nvidia Corporation Reinforcement learning of tactile grasp policies
CN111055279B (zh) * 2019-12-17 2022-02-15 清华大学深圳国际研究生院 基于触觉与视觉结合的多模态物体抓取方法与系统
CN111136656B (zh) * 2019-12-24 2020-12-08 上海智殷自动化科技有限公司 一种用于机器人三维不规则物体自动识别及抓取的方法
US11584026B2 (en) 2020-02-17 2023-02-21 Toyota Research Institute, Inc. Robot arm assemblies including fingers having deformable sensors
CN112388655B (zh) * 2020-12-04 2021-06-04 齐鲁工业大学 一种基于触觉振动信号与视觉图像融合的抓取物识别方法
JP2023109575A (ja) * 2022-01-27 2023-08-08 ミネベアミツミ株式会社 把持装置、把持システム及び把持装置の制御方法
CN116028841B (zh) * 2022-09-01 2023-08-15 贵州大学 通过触觉感知识别物品类别的工作系统和方法
US20240181647A1 (en) * 2022-12-06 2024-06-06 Sanctuary Cognitive Systems Corporation Systems, methods, and control modules for controlling end effectors of robot systems

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1992455B1 (en) 2006-02-02 2012-04-11 Kabushiki Kaisha Yaskawa Denki Robot system
KR100824780B1 (ko) * 2006-11-21 2008-04-24 주식회사은강테크 지능형 유연 핸드장치
JP4481291B2 (ja) * 2006-12-01 2010-06-16 本田技研工業株式会社 ロボット、ならびにその制御方法および制御プログラム
JP4316630B2 (ja) * 2007-03-29 2009-08-19 本田技研工業株式会社 ロボット、ロボットの制御方法およびロボットの制御プログラム
KR101479232B1 (ko) * 2008-05-13 2015-01-06 삼성전자 주식회사 로봇과 로봇 핸드, 로봇 핸드의 제어 방법
KR101549818B1 (ko) * 2008-12-02 2015-09-07 삼성전자 주식회사 로봇 핸드 및 그 제어방법
JP5281377B2 (ja) * 2008-12-04 2013-09-04 トヨタ自動車株式会社 ロボット装置
JP5267213B2 (ja) 2009-03-02 2013-08-21 株式会社安川電機 多指ハンドおよびロボット

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101408075B1 (ko) * 2013-07-09 2014-06-18 국방과학연구소 다중 로봇 시스템 및 다중 로봇 시스템 제어 방법
CN110116424A (zh) * 2018-02-06 2019-08-13 丰田自动车株式会社 机器人
CN110116424B (zh) * 2018-02-06 2022-04-19 丰田自动车株式会社 机器人
KR102265155B1 (ko) * 2020-03-02 2021-06-14 한양대학교 에리카산학협력단 센싱 그리퍼 및 그 제조방법

Also Published As

Publication number Publication date
KR101308373B1 (ko) 2013-09-16
US20120123589A1 (en) 2012-05-17
EP2455198A1 (en) 2012-05-23
US9333648B2 (en) 2016-05-10
EP2455198B1 (en) 2015-05-27

Similar Documents

Publication Publication Date Title
KR101308373B1 (ko) 로봇 제어방법
KR101549818B1 (ko) 로봇 핸드 및 그 제어방법
JP6454960B2 (ja) ロボット、ロボットシステム、ロボット制御装置
EP3656514B1 (en) Work robot and method for controlling work robot
JP7225563B2 (ja) ロボット、制御装置およびロボットの制御方法
JP5924107B2 (ja) ロボットハンド、およびロボット
Kazemi et al. Human-inspired force compliant grasping primitives
JP2009269127A (ja) 把持装置及びその制御方法
JPH08323678A (ja) 柔軟物体把持装置
JP4211701B2 (ja) ロボットハンドの把持制御装置
JP2024015086A (ja) ロボットシステム、制御方法、物品の製造方法、制御プログラム、記録媒体
JP2023086924A (ja) 制御方法、制御システム及びプログラム
JP4600445B2 (ja) ロボットハンド装置
CN111975764A (zh) 机器人装置和握持方法
WO2020066061A1 (ja) エンドエフェクタおよびエンドエフェクタ装置
JP2005144573A (ja) ロボットハンドの把持力制御方法
JPH10100089A (ja) 多関節多指ハンドの把持制御方法及び物体把持方法
JP2022120550A5 (ko)
JP4055703B2 (ja) ロボットハンド装置
JPH0469184A (ja) ロボットハンドの把持制御方法
JP4012996B2 (ja) マニピュレータの制御装置
JPH05123987A (ja) 把持装置
JP2007007859A (ja) 多関節多指ハンドの物体把持方法
JP4577619B2 (ja) 多関節多指ハンドの物体把持方法
JPH0482683A (ja) ロボットハンドの握り込み制御方法

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160817

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170818

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190820

Year of fee payment: 7