KR20100077232A - 로봇 핸드의 물체 접근 방법 - Google Patents

로봇 핸드의 물체 접근 방법 Download PDF

Info

Publication number
KR20100077232A
KR20100077232A KR1020080135126A KR20080135126A KR20100077232A KR 20100077232 A KR20100077232 A KR 20100077232A KR 1020080135126 A KR1020080135126 A KR 1020080135126A KR 20080135126 A KR20080135126 A KR 20080135126A KR 20100077232 A KR20100077232 A KR 20100077232A
Authority
KR
South Korea
Prior art keywords
distance sensor
robot hand
distance
sensor
point
Prior art date
Application number
KR1020080135126A
Other languages
English (en)
Other versions
KR101013540B1 (ko
Inventor
최무성
양광웅
신은철
손웅희
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020080135126A priority Critical patent/KR101013540B1/ko
Publication of KR20100077232A publication Critical patent/KR20100077232A/ko
Application granted granted Critical
Publication of KR101013540B1 publication Critical patent/KR101013540B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0095Gripping heads and other end effectors with an external support, i.e. a support which does not belong to the manipulator or the object to be gripped, e.g. for maintaining the gripping head in an accurate position, guiding it or preventing vibrations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/19Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by positioning or contouring control systems, e.g. to control position from one programmed point to another or to control movement along a programmed continuous path
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37425Distance, range
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39487Parallel jaws, two fingered hand
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39527Workpiece detector, sensor mounted in, near hand, gripper
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 로봇 핸드가 물체를 정확하게 파지할 수 있도록 로봇 핸드를 물체가 접근시키는 방법에 관한 것이다.
본 발명에 따른 로봇 핸드를 물체에 접근시키는 방법은, 상기 로봇 핸드의 양측부에 각각 제1 거리센서 및 제2 거리센서를, 상기 로봇 핸드의 중앙부에 제3 거리센서를 장착하는 단계, 상기 제1 거리센서 또는 상기 제2 거리센서만이 상기 물체를 감지한 경우, 상기 물체를 감지한 상기 제1 거리센서 또는 상기 제2 거리센서와 상기 물체의 센싱 포인트가 형성하는 제1 라인과, 상기 로봇 핸드의 중앙부와 상기 센싱 포인트가 형성하는 제2 라인이 이루는 각도만큼 상기 제3 거리센서가 상기 센싱 포인트를 향하도록 상기 로봇 핸드를 회전시켜 주는 단계를 포함하며, 상기 물체를 감지한 상기 제1 또는 제2 거리센서와 상기 센싱 포인트 간의 수평거리를 d, 상기 제1 또는 제2 거리센서와 상기 제3 거리센서 간의 수직거리를 h2, 상기 제1 또는 제2 거리센서와 상기 제3 거리센서 간의 수평거리를 h1, 상기 로봇 핸드의 회전 각도를 a 라 할 때,
a = tan-1(h2/(h1+d))
인 것을 특징으로 한다.

Description

로봇 핸드의 물체 접근 방법 {Robot hand process for approaching an object}
본 발명은 로봇 핸드가 물체를 정확하게 파지할 수 있도록 로봇 핸드를 물체가 접근시키는 방법에 관한 것이다.
최근 들어, 컴퓨터를 비롯한 관련 기술의 급격한 발전과 산업의 발달에 따라 로봇에 대한 수요 및 활용도는 급격한 증가 추세에 있다.
또한, 사용자의 요청에 따라 물건을 파지하여 원하는 곳으로 이동시켜줄 수 있는 로봇 시스템이 개발되고 있다.
일반적으로 산업용 로봇의 핸드를 그리퍼(gripper) 또는 엔드 이펙터(end effector)라고 하는데, 통상 그리퍼는 손가락 또는 손 전체로 물체를 잡는 집게 모양의 로봇 핸드를 가리키고, 엔드 이펙터는 각종 공구를 로봇 핸드에 부착하여 핸드 대신에 사용할 때 지칭되는 용어이다.
그런데 이러한 로봇 핸드를 이용하여 물체를 파지할 때 카메라 등의 물체 인식 시스템에서의 위치 오차와, 로봇 팔의 기구학적 오차 등이 발생할 수 있는데, 이러한 위치 오차 및 기구학적 오차는 로봇 핸드가 물체를 성공적으로 파지하는데 큰 영향을 미친다.
종래에는 로봇 핸드에 카메라를 장착하여 오차를 줄여보려는 시도가 있었다. 그런데 로봇 핸드에 카메라를 위치시키는 경우는 최소의 카메라 수로 최대의 작업 영역을 얻을 수 있으나, 파지를 위해 목표물에 접근함에 따라 카메라 초점이 맞지 않아 카메라의 블러링 효과가 발생하며 이를 방지하기 위해 자동초점 카메라가 필요하였다. 그러나 자동초점을 사용할 경우 로봇 핸드에 장착하기 위한 부피 상의 문제와 온라인 카메라 보정을 해야 하는 문제가 있었다.
또한, 카메라의 특성상 조명의 영향으로 인한 오차가 문제되고, 또한 카메라에 의해 획득된 영상 처리가 부담으로 작용하는 문제점이 있었다.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 카메라를 사용하지 않고 저렴한 거리 센서를 사용하여 효과적으로 로봇 핸드의 방향을 조정하여 물체를 파지할 수 있는 방법을 제공하는 것을 목적으로 한다.
상기의 목적을 달성하기 위하여, 본 발명에 따른 로봇 핸드를 물체에 접근시키는 방법은, 상기 로봇 핸드의 양측부에 각각 제1 거리센서 및 제2 거리센서를, 상기 로봇 핸드의 중앙부에 제3 거리센서를 장착하는 단계, 상기 제1 거리센서 또는 상기 제2 거리센서만이 상기 물체를 감지한 경우, 상기 물체를 감지한 상기 제1 거리센서 또는 상기 제2 거리센서와 상기 물체의 센싱 포인트가 형성하는 제1 라인 과, 상기 로봇 핸드의 중앙부와 상기 센싱 포인트가 형성하는 제2 라인이 이루는 각도만큼 상기 제3 거리센서가 상기 센싱 포인트를 향하도록 상기 로봇 핸드를 회전시켜 주는 단계를 포함하며, 상기 물체를 감지한 상기 제1 또는 제2 거리센서와 상기 센싱 포인트 간의 수평거리를 d, 상기 제1 또는 제2 거리센서와 상기 제3 거리센서 간의 수직거리를 h2, 상기 제1 또는 제2 거리센서와 상기 제3 거리센서 간의 수평거리를 h1, 상기 로봇 핸드의 회전 각도를 a 라 할 때,
a = tan-1(h2/(h1+d))
인 것을 특징으로 한다.
또한, 본 발명에 따른 로봇 핸드를 물체에 접근시키는 방법은, 상기 로봇 핸드의 양측부에 각각 제1 거리센서 및 제2 거리센서를, 상기 로봇 핸드의 중앙부에 제3 거리센서를 장착하는 단계, 상기 제1 거리센서 또는 상기 제2 거리센서와, 상기 제3 거리센서가 상기 물체를 감지한 경우, 상기 물체를 감지한 상기 제1 거리센서 또는 상기 제2 거리센서와 상기 물체의 제1 센싱 포인트가 형성하는 제1 라인과, 상기 로봇 핸드의 중앙부와 상기 제3 거리센서의 지향 포인트가 형성하는 제2 라인이 이루는 각도만큼 상기 제3 거리센서가 상기 지향 포인트를 향하도록 상기 로봇 핸드를 회전시켜 주는 단계를 포함하며, 상기 제1 또는 제2 거리센서와 상기 제1 센싱 포인트 간의 수평거리를 d1, 상기 제1 또는 제2 거리센서와, 상기 제3 거리센서가 감지한 상기 물체의 제2 센싱 포인트 간의 수평거리를 d2, 상기 제1 또는 제2 거리센서와 상기 지향 포인트 간의 수평거리를 d, 상기 제1 또는 제2 거리센서와 상기 제3 거리센서 간의 수직거리를 h2, 상기 제1 또는 제2 거리센서와 상기 제3 거리센서 간의 수평거리를 h1, 상기 로봇 핸드의 회전 각도를 b, 상기 지향포인트와 상기 제3 거리센서 간의 수직거리를 h2/2, 그리고 d=(d1+d2)/2 라 할 때,
b = tan-1(h2/(d1+d2+2h1))
인 것을 특징으로 한다.
또한, 본 발명에 따른 로봇 핸드를 물체에 접근시키는 방법은, 상기 로봇 핸드를 회전시킨 후, 상기 제1 및 제2 거리센서가 상기 물체를 감지하지 못하고 상기 제3 거리센서만 상기 물체를 감지하는 경우, 상기 로봇 핸드를 회전시키지 않고 그대로 직진시키는 단계를 더 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 로봇 핸드를 물체에 접근시키는 방법은, 상기 로봇 핸드를 회전시킨 후, 상기 제1 및 제2 거리센서가 상기 물체를 동시에 감지하는 경우, 상기 로봇 핸드가 상기 물체를 파지할 수 없다고 판단하는 단계를 더 포함하는 것을 특징으로 한다.
본 발명에 따르면, 본 발명은 물체 파지를 위해 로봇 핸드의 접근 조절 시에, 종래와 방법에서와 같이 조명의 영향 및 영상 처리의 부담이 있는 카메라를 사용하는 대신에, 상대적으로 저렴한 비용의 거리 센서를 사용하여 각각의 거리 센서 의 감지 유무, 측정 거리에 따라 로봇 핸드의 방향을 변경함으로써 물체 파지를 위한 로봇 핸드의 접근을 효율적으로 조절할 수 있다.
또한, 카메라 등의 물체 인식 시스템을 사용하는 종래의 로봇 핸드 접근 방법에서의 위치 오차로 인한 문제점을 개선할 수 있다.
이하에서는 도면을 참조하여 본 발명에 따른 실시예에 대하여 상세히 설명한다.
본 발명에 따른 로봇 핸드를 물체에 접근시키는 방법은, 먼저 로봇 핸드의 양측부에 각각 제1 거리센서(1) 및 제2 거리센서(2)를 장착하고, 로봇 핸드의 중앙부에는 제3 거리센서(3)를 장착한다.
그리고 도 1에 도시된 바와 같이, 제1 내지 제3 거리센서(1,2,3) 중에서 제1 거리센서(1) 또는 제2 거리센서(2) 하나만이 물체(m)를 감지한 경우에는, 예컨대, 도 1(a)에 도시된 바와 같이, 제1 거리센서(1)가 물체(m)를 감지한 경우에는, 제1 거리센서(1)와 물체(m)의 센싱 포인트(s)가 형성하는 제1 라인(l1)과, 로봇 핸드의 중앙부와 센싱 포인트(s)가 형성하는 제2 라인(l2)이 이루는 각도(a)만큼 제3 거리센서(3)가 센싱 포인트(s)를 향하도록 로봇 핸드를 반시계 방향으로 회전시켜 준다.
마찬가지로, 도 1(b)에 도시된 바와 같이, 제2 거리센서(2)가 물체(m)를 감지한 경우에는, 제2 거리센서(1)와 물체(m)의 센싱 포인트(s)가 형성하는 제1 라 인(l1)과, 로봇 핸드의 중앙부와 센싱 포인트(s)가 형성하는 제2 라인(l2)이 이루는 각도(a)만큼 제3 거리센서(3)가 센싱 포인트(s)를 향하도록 로봇 핸드를 시계 방향으로 회전시켜 준다.
여기서, 제1 또는 제2 거리센서(1,2)와 센싱 포인트(s) 간의 수평거리를 d, 제1 또는 제2 거리센서(1,2)와 제3 거리센서(3) 간의 수직거리를 h2, 제1 또는 제2 거리센서(1,2)와 제3 거리센서(3) 간의 수평거리를 h1, 로봇 핸드의 회전 각도를 a 라 할 때,
[수학식 1] a = tan-1(h2/(h1+d))
이다.
그리고 로봇 핸드를 회전시킨 후 제1 내지 제3 거리센서(1,2,3)로 물체(m)를 센싱할 때, 도 4에 도시된 바와 같이, 제1 및 제2 거리센서(1,2)에 물체(m)가 센싱되지 않고, 제3 거리센서(3)에만 물체(m)가 센싱되는 경우, 로봇 핸드를 회전시키지 않고 그대로 직진시키는 단계를 더 포함한다.
만일, 로봇 핸드를 회전시킨 후 제1 내지 제3 거리센서(1,2,3)로 물체(m)를 센싱할 때, 도 3에 도시된 바와 같이, 제1 및 제2 거리센서(1,2)에 물체(m)가 동시에 센싱되는 경우에는, 물체(m)를 파지할 수 없다고 판단하는 단계를 더 포함한다.
또한, 도 2(a)에 도시된 바와 같이, 제1 거리센서(1)와 제3 거리센서(3)가 물체(m)를 감지한 경우, 제1 거리센서(1)와 물체(m)의 제1 센싱 포인트(s1)가 형성하는 제1 라인(l1)과, 로봇 핸드의 중앙부와 제3 거리센서(3)의 지향 포인트(t)가 형성하는 제2 라인(l2)이 이루는 각도(b)만큼 제3 거리센서(3)가 지향 포인트(t)를 향하도록 로봇 핸드를 반시계 방향으로 회전시켜 준다.
마찬가지로, 도 2(b)에 도시된 바와 같이, 제2 거리센서(2)와 제3 거리센서(3)가 물체(m)를 감지한 경우, 제2 거리센서(2)와 물체(m)의 제1 센싱 포인트(s1)가 형성하는 제1 라인(l1)과, 로봇 핸드의 중앙부와 제3 거리센서(3)의 지향 포인트(t)가 형성하는 제2 라인(l2)이 이루는 각도(b)만큼 제3 거리센서(3)가 지향 포인트(t)를 향하도록 로봇 핸드를 시계 방향으로 회전시켜 준다.
여기서, 제1 또는 제2 거리센서(1,2)와 제1 센싱 포인트(s1) 간의 수평거리를 d1, 제1 또는 제2 거리센서(1,2)와, 제3 거리센서(3)와 물체(m)의 제2 센싱 포인트(s2) 간의 수평거리를 d2, 제1 또는 제2 거리센서(1,2)와 지향 포인트(t) 간의 수평거리를 d, 제1 또는 제2 거리센서(1,2)와 제3 거리센서(3) 간의 수직거리를 h2, 제1 또는 제2 거리센서(1,2)와 제3 거리센서(3) 간의 수평거리를 h1, 로봇 핸드의 회전 각도를 a, 상기 지향포인트(t)와 제3 거리센서(3) 간의 수직거리를 h2/2, 그리 고 d=(d1+d2)/2 라 할 때,
[수학식 2] b = tan-1(h2/(d1+d2+2h1))
이다.
한편 본 발명에서는, 지향포인트(t)와 제3 거리센서(3) 간의 수직거리를 h2/2, 그리고 제1 또는 제2 거리센서(1,2)와 지향 포인트(t) 간의 수평거리를 (d1+d2)/2 로 가정하여 계산함으로써, 로봇 핸드의 회전 각도를 산출하기 위한 계산 과정을 단순화할 수 있고, 이로 인하여 종래 기술에 있어 카메라를 사용하여 복잡한 영상 처리 과정이 요구되는 문제점을 해결할 수 있다.
마찬가지로, 로봇 핸드를 회전시킨 후 제1 내지 제3 거리센서(1,2,3)로 물체(m)를 센싱할 때, 도 4에 도시된 바와 같이, 제1 및 제2 거리센서(1,2)에 물체(m)가 센싱되지 않고, 제3 거리센서(3)에만 물체(m)가 센싱되는 경우, 로봇 핸드를 회전시키지 않고 그대로 직진시키는 단계를 더 포함한다.
만일, 로봇 핸드를 회전시킨 후 제1 내지 제3 거리센서(1,2,3)로 물체(m)를 센싱할 때, 도 3에 도시된 바와 같이, 제1 및 제2 거리센서(1,2)에 물체(m)가 동시에 센싱되는 경우에는, 물체(m)를 파지할 수 없다고 판단하는 단계를 더 포함한다.
이상과 같이, 본 발명은 조명의 영향을 많이 받고, 또한 영상 처리의 부담이 있는 카메라를 사용하는 대신에, 상대적으로 저렴한 거리 센서(예컨대, 적외선 센서)를 사용하여 각각의 거리 센서의 감지 유무, 측정 거리에 따라 로봇 핸드의 방향을 변경함으로써 물체 파지를 위한 로봇 핸드의 접근을 효율적으로 조절할 수 있다.
한편, 본 발명에서는 로봇 핸드에 3개의 거리센서가 장착되어 있는 경우를 예로 들어 설명하고 있으나, 이러한 본 발명의 개념은 다른 복수 개의 거리센서가 장착되어 있는 로봇 핸드에도 적용 가능할 것이다.
이상에서는 본 발명의 바람직한 실시예를 설명하였으나, 본 발명의 범위는 이 같은 특정 실시예에만 한정되지 않으며, 해당분야에서 통상의 지식을 가진 자라면 본 발명의 특허청구범위 내에 기재된 범주 내에서 적절하게 변경이 가능할 것이다.
도 1은 본 발명에 따른 로봇 파지 방법에서 제1 거리센서만 물체를 감지한 경우를 설명하기 위한 도면이다.
도 2는 본 발명에 따른 로봇 파지 방법에서 제1 거리센서 또는 제2 거리센서와, 제3 거리센서가 물체를 감지한 경우를 설명하기 위한 도면이다.
도 3은 본 발명에 따른 로봇 파지 방법에서 제1 거리센서 및 제2 거리센서가 물체를 감지한 경우를 설명하기 위한 도면이다.
도 4는 본 발명에 따른 로봇 파지 방법에서 제3 거리센서만 물체를 감지한 경우를 설명하기 위한 도면이다.

Claims (4)

  1. 로봇 핸드를 물체에 접근시키는 방법에 있어서,
    상기 로봇 핸드의 양측부에 각각 제1 거리센서 및 제2 거리센서를, 상기 로봇 핸드의 중앙부에 제3 거리센서를 장착하는 단계,
    상기 제1 거리센서 또는 상기 제2 거리센서만이 상기 물체를 감지한 경우, 상기 물체를 감지한 상기 제1 거리센서 또는 상기 제2 거리센서와 상기 물체의 센싱 포인트가 형성하는 제1 라인과, 상기 로봇 핸드의 중앙부와 상기 센싱 포인트가 형성하는 제2 라인이 이루는 각도만큼 상기 제3 거리센서가 상기 센싱 포인트를 향하도록 상기 로봇 핸드를 회전시켜 주는 단계
    를 포함하며,
    상기 물체를 감지한 상기 제1 또는 제2 거리센서와 상기 센싱 포인트 간의 수평거리를 d, 상기 제1 또는 제2 거리센서와 상기 제3 거리센서 간의 수직거리를 h2, 상기 제1 또는 제2 거리센서와 상기 제3 거리센서 간의 수평거리를 h1, 상기 로봇 핸드의 회전 각도를 a 라 할 때,
    a = tan-1(h2/(h1+d))
    인 것을 특징으로 하는 로봇 핸드 접근 방법.
  2. 로봇 핸드를 물체에 접근시키는 방법에 있어서,
    상기 로봇 핸드의 양측부에 각각 제1 거리센서 및 제2 거리센서를, 상기 로봇 핸드의 중앙부에 제3 거리센서를 장착하는 단계,
    상기 제1 거리센서 또는 상기 제2 거리센서와, 상기 제3 거리센서가 상기 물체를 감지한 경우, 상기 물체를 감지한 상기 제1 거리센서 또는 상기 제2 거리센서와 상기 물체의 제1 센싱 포인트가 형성하는 제1 라인과, 상기 로봇 핸드의 중앙부와 상기 제3 거리센서의 지향 포인트가 형성하는 제2 라인이 이루는 각도만큼 상기 제3 거리센서가 상기 지향 포인트를 향하도록 상기 로봇 핸드를 회전시켜 주는 단계
    를 포함하며,
    상기 제1 또는 제2 거리센서와 상기 제1 센싱 포인트 간의 수평거리를 d1, 상기 제1 또는 제2 거리센서와, 상기 제3 거리센서가 감지한 상기 물체의 제2 센싱 포인트 간의 수평거리를 d2, 상기 제1 또는 제2 거리센서와 상기 지향 포인트 간의 수평거리를 d, 상기 제1 또는 제2 거리센서와 상기 제3 거리센서 간의 수직거리를 h2, 상기 제1 또는 제2 거리센서와 상기 제3 거리센서 간의 수평거리를 h1, 상기 로봇 핸드의 회전 각도를 b, 상기 지향포인트와 상기 제3 거리센서 간의 수직거리를 h2/2, 그리고 d=(d1+d2)/2 라 할 때,
    b = tan-1(h2/(d1+d2+2h1))
    인 것을 특징으로 하는 로봇 핸드 접근 방법.
  3. 제1항 또는 제2항에서,
    상기 로봇 핸드를 회전시킨 후, 상기 제1 및 제2 거리센서가 상기 물체를 감지하지 못하고 상기 제3 거리센서만 상기 물체를 감지하는 경우, 상기 로봇 핸드를 회전시키지 않고 그대로 직진시키는 단계를 더 포함하는 것을 특징으로 하는 로봇 핸드 접근 방법.
  4. 제1항 또는 제2항에서,
    상기 로봇 핸드를 회전시킨 후, 상기 제1 및 제2 거리센서가 상기 물체를 동시에 감지하는 경우, 상기 로봇 핸드가 상기 물체를 파지할 수 없다고 판단하는 단계를 더 포함하는 것을 특징으로 하는 로봇 핸드 접근 방법.
KR1020080135126A 2008-12-29 2008-12-29 로봇 핸드의 물체 접근 방법 KR101013540B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080135126A KR101013540B1 (ko) 2008-12-29 2008-12-29 로봇 핸드의 물체 접근 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080135126A KR101013540B1 (ko) 2008-12-29 2008-12-29 로봇 핸드의 물체 접근 방법

Publications (2)

Publication Number Publication Date
KR20100077232A true KR20100077232A (ko) 2010-07-08
KR101013540B1 KR101013540B1 (ko) 2011-02-14

Family

ID=42638612

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080135126A KR101013540B1 (ko) 2008-12-29 2008-12-29 로봇 핸드의 물체 접근 방법

Country Status (1)

Country Link
KR (1) KR101013540B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020049565A (ja) * 2018-09-25 2020-04-02 オムロン株式会社 エンドエフェクタおよびエンドエフェクタ装置
CN112223339A (zh) * 2020-10-16 2021-01-15 国网江苏省电力有限公司盐城供电分公司 一种自动夹取的机械手及其控制方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3277529B2 (ja) * 1991-12-18 2002-04-22 井関農機株式会社 果実収穫ロボット
JPH07246015A (ja) * 1994-03-08 1995-09-26 Yanmar Agricult Equip Co Ltd 果菜類の収穫用マニピュレータ装置
JPH11163093A (ja) 1997-11-28 1999-06-18 Nissin Electric Co Ltd 基板搬送ロボット
JP2004284001A (ja) 2003-01-27 2004-10-14 Sharp Corp ロボットハンド

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020049565A (ja) * 2018-09-25 2020-04-02 オムロン株式会社 エンドエフェクタおよびエンドエフェクタ装置
CN112223339A (zh) * 2020-10-16 2021-01-15 国网江苏省电力有限公司盐城供电分公司 一种自动夹取的机械手及其控制方法

Also Published As

Publication number Publication date
KR101013540B1 (ko) 2011-02-14

Similar Documents

Publication Publication Date Title
US11046530B2 (en) Article transfer apparatus, robot system, and article transfer method
JP6484213B2 (ja) 複数のロボットを含むロボットシステム、ロボット制御装置、及びロボット制御方法
JP6707713B2 (ja) ロボットで折り曲げ位置を自動的に探す方法
US8326460B2 (en) Robot system comprising visual sensor
JP4001105B2 (ja) ロボットによる任意形状物体の把持方法
JP5533727B2 (ja) ワークピッキングシステム
JP2011115877A (ja) 双腕ロボット
KR102220304B1 (ko) 로봇 제어 장치 및 로봇 제어 방법
JP2010064155A (ja) 把持装置
CN111037553B (zh) 控制装置
US20190321990A1 (en) Device, method and program for estimating weight and position of gravity center of load by using robot
KR102308091B1 (ko) 기판 반송 장치 및 기판 반송 로봇과 기판 재치부의 위치 관계를 구하는 방법
JP4211701B2 (ja) ロボットハンドの把持制御装置
KR101013540B1 (ko) 로봇 핸드의 물체 접근 방법
CN111721391A (zh) 用机器人推定负荷的重量及重心位置的装置、方法及程序
CN109983299A (zh) 工业机器人的测量系统和方法
JP2013013987A5 (ja) ロボットシステム及び部品の製造方法
JPWO2019065427A1 (ja) ロボットハンドシステム制御方法およびロボットハンドシステム
JP4137601B2 (ja) ロボットハンドの制御方法、ロボットハンド
JPS643661Y2 (ko)
JP7213010B2 (ja) ロボットシステム及び搬送されているワークに対して作業を行う方法
JP2013129005A (ja) 把持ロボット装置、把持動作制御方法、および、把持動作制御装置
KR20120097930A (ko) 로봇의 작업물 위치 추적방법
JP3904039B2 (ja) ロボットの制御方法
WO2024023934A1 (ja) ワーク取出し装置、ワーク取出し方法及び制御装置

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140703

Year of fee payment: 4