KR20100077232A - 로봇 핸드의 물체 접근 방법 - Google Patents
로봇 핸드의 물체 접근 방법 Download PDFInfo
- Publication number
- KR20100077232A KR20100077232A KR1020080135126A KR20080135126A KR20100077232A KR 20100077232 A KR20100077232 A KR 20100077232A KR 1020080135126 A KR1020080135126 A KR 1020080135126A KR 20080135126 A KR20080135126 A KR 20080135126A KR 20100077232 A KR20100077232 A KR 20100077232A
- Authority
- KR
- South Korea
- Prior art keywords
- distance sensor
- robot hand
- distance
- sensor
- point
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000013459 approach Methods 0.000 claims abstract description 9
- 238000012545 processing Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 2
- 239000012636 effector Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/0095—Gripping heads and other end effectors with an external support, i.e. a support which does not belong to the manipulator or the object to be gripped, e.g. for maintaining the gripping head in an accurate position, guiding it or preventing vibrations
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/19—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by positioning or contouring control systems, e.g. to control position from one programmed point to another or to control movement along a programmed continuous path
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37425—Distance, range
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39487—Parallel jaws, two fingered hand
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39527—Workpiece detector, sensor mounted in, near hand, gripper
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39543—Recognize object and plan hand shapes in grasping movements
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Manufacturing & Machinery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Manipulator (AREA)
Abstract
본 발명은 로봇 핸드가 물체를 정확하게 파지할 수 있도록 로봇 핸드를 물체가 접근시키는 방법에 관한 것이다.
본 발명에 따른 로봇 핸드를 물체에 접근시키는 방법은, 상기 로봇 핸드의 양측부에 각각 제1 거리센서 및 제2 거리센서를, 상기 로봇 핸드의 중앙부에 제3 거리센서를 장착하는 단계, 상기 제1 거리센서 또는 상기 제2 거리센서만이 상기 물체를 감지한 경우, 상기 물체를 감지한 상기 제1 거리센서 또는 상기 제2 거리센서와 상기 물체의 센싱 포인트가 형성하는 제1 라인과, 상기 로봇 핸드의 중앙부와 상기 센싱 포인트가 형성하는 제2 라인이 이루는 각도만큼 상기 제3 거리센서가 상기 센싱 포인트를 향하도록 상기 로봇 핸드를 회전시켜 주는 단계를 포함하며, 상기 물체를 감지한 상기 제1 또는 제2 거리센서와 상기 센싱 포인트 간의 수평거리를 d, 상기 제1 또는 제2 거리센서와 상기 제3 거리센서 간의 수직거리를 h2, 상기 제1 또는 제2 거리센서와 상기 제3 거리센서 간의 수평거리를 h1, 상기 로봇 핸드의 회전 각도를 a 라 할 때,
a = tan-1(h2/(h1+d))
인 것을 특징으로 한다.
Description
본 발명은 로봇 핸드가 물체를 정확하게 파지할 수 있도록 로봇 핸드를 물체가 접근시키는 방법에 관한 것이다.
최근 들어, 컴퓨터를 비롯한 관련 기술의 급격한 발전과 산업의 발달에 따라 로봇에 대한 수요 및 활용도는 급격한 증가 추세에 있다.
또한, 사용자의 요청에 따라 물건을 파지하여 원하는 곳으로 이동시켜줄 수 있는 로봇 시스템이 개발되고 있다.
일반적으로 산업용 로봇의 핸드를 그리퍼(gripper) 또는 엔드 이펙터(end effector)라고 하는데, 통상 그리퍼는 손가락 또는 손 전체로 물체를 잡는 집게 모양의 로봇 핸드를 가리키고, 엔드 이펙터는 각종 공구를 로봇 핸드에 부착하여 핸드 대신에 사용할 때 지칭되는 용어이다.
그런데 이러한 로봇 핸드를 이용하여 물체를 파지할 때 카메라 등의 물체 인식 시스템에서의 위치 오차와, 로봇 팔의 기구학적 오차 등이 발생할 수 있는데, 이러한 위치 오차 및 기구학적 오차는 로봇 핸드가 물체를 성공적으로 파지하는데 큰 영향을 미친다.
종래에는 로봇 핸드에 카메라를 장착하여 오차를 줄여보려는 시도가 있었다. 그런데 로봇 핸드에 카메라를 위치시키는 경우는 최소의 카메라 수로 최대의 작업 영역을 얻을 수 있으나, 파지를 위해 목표물에 접근함에 따라 카메라 초점이 맞지 않아 카메라의 블러링 효과가 발생하며 이를 방지하기 위해 자동초점 카메라가 필요하였다. 그러나 자동초점을 사용할 경우 로봇 핸드에 장착하기 위한 부피 상의 문제와 온라인 카메라 보정을 해야 하는 문제가 있었다.
또한, 카메라의 특성상 조명의 영향으로 인한 오차가 문제되고, 또한 카메라에 의해 획득된 영상 처리가 부담으로 작용하는 문제점이 있었다.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 카메라를 사용하지 않고 저렴한 거리 센서를 사용하여 효과적으로 로봇 핸드의 방향을 조정하여 물체를 파지할 수 있는 방법을 제공하는 것을 목적으로 한다.
상기의 목적을 달성하기 위하여, 본 발명에 따른 로봇 핸드를 물체에 접근시키는 방법은, 상기 로봇 핸드의 양측부에 각각 제1 거리센서 및 제2 거리센서를, 상기 로봇 핸드의 중앙부에 제3 거리센서를 장착하는 단계, 상기 제1 거리센서 또는 상기 제2 거리센서만이 상기 물체를 감지한 경우, 상기 물체를 감지한 상기 제1 거리센서 또는 상기 제2 거리센서와 상기 물체의 센싱 포인트가 형성하는 제1 라인 과, 상기 로봇 핸드의 중앙부와 상기 센싱 포인트가 형성하는 제2 라인이 이루는 각도만큼 상기 제3 거리센서가 상기 센싱 포인트를 향하도록 상기 로봇 핸드를 회전시켜 주는 단계를 포함하며, 상기 물체를 감지한 상기 제1 또는 제2 거리센서와 상기 센싱 포인트 간의 수평거리를 d, 상기 제1 또는 제2 거리센서와 상기 제3 거리센서 간의 수직거리를 h2, 상기 제1 또는 제2 거리센서와 상기 제3 거리센서 간의 수평거리를 h1, 상기 로봇 핸드의 회전 각도를 a 라 할 때,
a = tan-1(h2/(h1+d))
인 것을 특징으로 한다.
또한, 본 발명에 따른 로봇 핸드를 물체에 접근시키는 방법은, 상기 로봇 핸드의 양측부에 각각 제1 거리센서 및 제2 거리센서를, 상기 로봇 핸드의 중앙부에 제3 거리센서를 장착하는 단계, 상기 제1 거리센서 또는 상기 제2 거리센서와, 상기 제3 거리센서가 상기 물체를 감지한 경우, 상기 물체를 감지한 상기 제1 거리센서 또는 상기 제2 거리센서와 상기 물체의 제1 센싱 포인트가 형성하는 제1 라인과, 상기 로봇 핸드의 중앙부와 상기 제3 거리센서의 지향 포인트가 형성하는 제2 라인이 이루는 각도만큼 상기 제3 거리센서가 상기 지향 포인트를 향하도록 상기 로봇 핸드를 회전시켜 주는 단계를 포함하며, 상기 제1 또는 제2 거리센서와 상기 제1 센싱 포인트 간의 수평거리를 d1, 상기 제1 또는 제2 거리센서와, 상기 제3 거리센서가 감지한 상기 물체의 제2 센싱 포인트 간의 수평거리를 d2, 상기 제1 또는 제2 거리센서와 상기 지향 포인트 간의 수평거리를 d, 상기 제1 또는 제2 거리센서와 상기 제3 거리센서 간의 수직거리를 h2, 상기 제1 또는 제2 거리센서와 상기 제3 거리센서 간의 수평거리를 h1, 상기 로봇 핸드의 회전 각도를 b, 상기 지향포인트와 상기 제3 거리센서 간의 수직거리를 h2/2, 그리고 d=(d1+d2)/2 라 할 때,
b = tan-1(h2/(d1+d2+2h1))
인 것을 특징으로 한다.
또한, 본 발명에 따른 로봇 핸드를 물체에 접근시키는 방법은, 상기 로봇 핸드를 회전시킨 후, 상기 제1 및 제2 거리센서가 상기 물체를 감지하지 못하고 상기 제3 거리센서만 상기 물체를 감지하는 경우, 상기 로봇 핸드를 회전시키지 않고 그대로 직진시키는 단계를 더 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 로봇 핸드를 물체에 접근시키는 방법은, 상기 로봇 핸드를 회전시킨 후, 상기 제1 및 제2 거리센서가 상기 물체를 동시에 감지하는 경우, 상기 로봇 핸드가 상기 물체를 파지할 수 없다고 판단하는 단계를 더 포함하는 것을 특징으로 한다.
본 발명에 따르면, 본 발명은 물체 파지를 위해 로봇 핸드의 접근 조절 시에, 종래와 방법에서와 같이 조명의 영향 및 영상 처리의 부담이 있는 카메라를 사용하는 대신에, 상대적으로 저렴한 비용의 거리 센서를 사용하여 각각의 거리 센서 의 감지 유무, 측정 거리에 따라 로봇 핸드의 방향을 변경함으로써 물체 파지를 위한 로봇 핸드의 접근을 효율적으로 조절할 수 있다.
또한, 카메라 등의 물체 인식 시스템을 사용하는 종래의 로봇 핸드 접근 방법에서의 위치 오차로 인한 문제점을 개선할 수 있다.
이하에서는 도면을 참조하여 본 발명에 따른 실시예에 대하여 상세히 설명한다.
본 발명에 따른 로봇 핸드를 물체에 접근시키는 방법은, 먼저 로봇 핸드의 양측부에 각각 제1 거리센서(1) 및 제2 거리센서(2)를 장착하고, 로봇 핸드의 중앙부에는 제3 거리센서(3)를 장착한다.
그리고 도 1에 도시된 바와 같이, 제1 내지 제3 거리센서(1,2,3) 중에서 제1 거리센서(1) 또는 제2 거리센서(2) 하나만이 물체(m)를 감지한 경우에는, 예컨대, 도 1(a)에 도시된 바와 같이, 제1 거리센서(1)가 물체(m)를 감지한 경우에는, 제1 거리센서(1)와 물체(m)의 센싱 포인트(s)가 형성하는 제1 라인(l1)과, 로봇 핸드의 중앙부와 센싱 포인트(s)가 형성하는 제2 라인(l2)이 이루는 각도(a)만큼 제3 거리센서(3)가 센싱 포인트(s)를 향하도록 로봇 핸드를 반시계 방향으로 회전시켜 준다.
마찬가지로, 도 1(b)에 도시된 바와 같이, 제2 거리센서(2)가 물체(m)를 감지한 경우에는, 제2 거리센서(1)와 물체(m)의 센싱 포인트(s)가 형성하는 제1 라 인(l1)과, 로봇 핸드의 중앙부와 센싱 포인트(s)가 형성하는 제2 라인(l2)이 이루는 각도(a)만큼 제3 거리센서(3)가 센싱 포인트(s)를 향하도록 로봇 핸드를 시계 방향으로 회전시켜 준다.
여기서, 제1 또는 제2 거리센서(1,2)와 센싱 포인트(s) 간의 수평거리를 d, 제1 또는 제2 거리센서(1,2)와 제3 거리센서(3) 간의 수직거리를 h2, 제1 또는 제2 거리센서(1,2)와 제3 거리센서(3) 간의 수평거리를 h1, 로봇 핸드의 회전 각도를 a 라 할 때,
[수학식 1] a = tan-1(h2/(h1+d))
이다.
그리고 로봇 핸드를 회전시킨 후 제1 내지 제3 거리센서(1,2,3)로 물체(m)를 센싱할 때, 도 4에 도시된 바와 같이, 제1 및 제2 거리센서(1,2)에 물체(m)가 센싱되지 않고, 제3 거리센서(3)에만 물체(m)가 센싱되는 경우, 로봇 핸드를 회전시키지 않고 그대로 직진시키는 단계를 더 포함한다.
만일, 로봇 핸드를 회전시킨 후 제1 내지 제3 거리센서(1,2,3)로 물체(m)를 센싱할 때, 도 3에 도시된 바와 같이, 제1 및 제2 거리센서(1,2)에 물체(m)가 동시에 센싱되는 경우에는, 물체(m)를 파지할 수 없다고 판단하는 단계를 더 포함한다.
또한, 도 2(a)에 도시된 바와 같이, 제1 거리센서(1)와 제3 거리센서(3)가 물체(m)를 감지한 경우, 제1 거리센서(1)와 물체(m)의 제1 센싱 포인트(s1)가 형성하는 제1 라인(l1)과, 로봇 핸드의 중앙부와 제3 거리센서(3)의 지향 포인트(t)가 형성하는 제2 라인(l2)이 이루는 각도(b)만큼 제3 거리센서(3)가 지향 포인트(t)를 향하도록 로봇 핸드를 반시계 방향으로 회전시켜 준다.
마찬가지로, 도 2(b)에 도시된 바와 같이, 제2 거리센서(2)와 제3 거리센서(3)가 물체(m)를 감지한 경우, 제2 거리센서(2)와 물체(m)의 제1 센싱 포인트(s1)가 형성하는 제1 라인(l1)과, 로봇 핸드의 중앙부와 제3 거리센서(3)의 지향 포인트(t)가 형성하는 제2 라인(l2)이 이루는 각도(b)만큼 제3 거리센서(3)가 지향 포인트(t)를 향하도록 로봇 핸드를 시계 방향으로 회전시켜 준다.
여기서, 제1 또는 제2 거리센서(1,2)와 제1 센싱 포인트(s1) 간의 수평거리를 d1, 제1 또는 제2 거리센서(1,2)와, 제3 거리센서(3)와 물체(m)의 제2 센싱 포인트(s2) 간의 수평거리를 d2, 제1 또는 제2 거리센서(1,2)와 지향 포인트(t) 간의 수평거리를 d, 제1 또는 제2 거리센서(1,2)와 제3 거리센서(3) 간의 수직거리를 h2, 제1 또는 제2 거리센서(1,2)와 제3 거리센서(3) 간의 수평거리를 h1, 로봇 핸드의 회전 각도를 a, 상기 지향포인트(t)와 제3 거리센서(3) 간의 수직거리를 h2/2, 그리 고 d=(d1+d2)/2 라 할 때,
[수학식 2] b = tan-1(h2/(d1+d2+2h1))
이다.
한편 본 발명에서는, 지향포인트(t)와 제3 거리센서(3) 간의 수직거리를 h2/2, 그리고 제1 또는 제2 거리센서(1,2)와 지향 포인트(t) 간의 수평거리를 (d1+d2)/2 로 가정하여 계산함으로써, 로봇 핸드의 회전 각도를 산출하기 위한 계산 과정을 단순화할 수 있고, 이로 인하여 종래 기술에 있어 카메라를 사용하여 복잡한 영상 처리 과정이 요구되는 문제점을 해결할 수 있다.
마찬가지로, 로봇 핸드를 회전시킨 후 제1 내지 제3 거리센서(1,2,3)로 물체(m)를 센싱할 때, 도 4에 도시된 바와 같이, 제1 및 제2 거리센서(1,2)에 물체(m)가 센싱되지 않고, 제3 거리센서(3)에만 물체(m)가 센싱되는 경우, 로봇 핸드를 회전시키지 않고 그대로 직진시키는 단계를 더 포함한다.
만일, 로봇 핸드를 회전시킨 후 제1 내지 제3 거리센서(1,2,3)로 물체(m)를 센싱할 때, 도 3에 도시된 바와 같이, 제1 및 제2 거리센서(1,2)에 물체(m)가 동시에 센싱되는 경우에는, 물체(m)를 파지할 수 없다고 판단하는 단계를 더 포함한다.
이상과 같이, 본 발명은 조명의 영향을 많이 받고, 또한 영상 처리의 부담이 있는 카메라를 사용하는 대신에, 상대적으로 저렴한 거리 센서(예컨대, 적외선 센서)를 사용하여 각각의 거리 센서의 감지 유무, 측정 거리에 따라 로봇 핸드의 방향을 변경함으로써 물체 파지를 위한 로봇 핸드의 접근을 효율적으로 조절할 수 있다.
한편, 본 발명에서는 로봇 핸드에 3개의 거리센서가 장착되어 있는 경우를 예로 들어 설명하고 있으나, 이러한 본 발명의 개념은 다른 복수 개의 거리센서가 장착되어 있는 로봇 핸드에도 적용 가능할 것이다.
이상에서는 본 발명의 바람직한 실시예를 설명하였으나, 본 발명의 범위는 이 같은 특정 실시예에만 한정되지 않으며, 해당분야에서 통상의 지식을 가진 자라면 본 발명의 특허청구범위 내에 기재된 범주 내에서 적절하게 변경이 가능할 것이다.
도 1은 본 발명에 따른 로봇 파지 방법에서 제1 거리센서만 물체를 감지한 경우를 설명하기 위한 도면이다.
도 2는 본 발명에 따른 로봇 파지 방법에서 제1 거리센서 또는 제2 거리센서와, 제3 거리센서가 물체를 감지한 경우를 설명하기 위한 도면이다.
도 3은 본 발명에 따른 로봇 파지 방법에서 제1 거리센서 및 제2 거리센서가 물체를 감지한 경우를 설명하기 위한 도면이다.
도 4는 본 발명에 따른 로봇 파지 방법에서 제3 거리센서만 물체를 감지한 경우를 설명하기 위한 도면이다.
Claims (4)
- 로봇 핸드를 물체에 접근시키는 방법에 있어서,상기 로봇 핸드의 양측부에 각각 제1 거리센서 및 제2 거리센서를, 상기 로봇 핸드의 중앙부에 제3 거리센서를 장착하는 단계,상기 제1 거리센서 또는 상기 제2 거리센서만이 상기 물체를 감지한 경우, 상기 물체를 감지한 상기 제1 거리센서 또는 상기 제2 거리센서와 상기 물체의 센싱 포인트가 형성하는 제1 라인과, 상기 로봇 핸드의 중앙부와 상기 센싱 포인트가 형성하는 제2 라인이 이루는 각도만큼 상기 제3 거리센서가 상기 센싱 포인트를 향하도록 상기 로봇 핸드를 회전시켜 주는 단계를 포함하며,상기 물체를 감지한 상기 제1 또는 제2 거리센서와 상기 센싱 포인트 간의 수평거리를 d, 상기 제1 또는 제2 거리센서와 상기 제3 거리센서 간의 수직거리를 h2, 상기 제1 또는 제2 거리센서와 상기 제3 거리센서 간의 수평거리를 h1, 상기 로봇 핸드의 회전 각도를 a 라 할 때,a = tan-1(h2/(h1+d))인 것을 특징으로 하는 로봇 핸드 접근 방법.
- 로봇 핸드를 물체에 접근시키는 방법에 있어서,상기 로봇 핸드의 양측부에 각각 제1 거리센서 및 제2 거리센서를, 상기 로봇 핸드의 중앙부에 제3 거리센서를 장착하는 단계,상기 제1 거리센서 또는 상기 제2 거리센서와, 상기 제3 거리센서가 상기 물체를 감지한 경우, 상기 물체를 감지한 상기 제1 거리센서 또는 상기 제2 거리센서와 상기 물체의 제1 센싱 포인트가 형성하는 제1 라인과, 상기 로봇 핸드의 중앙부와 상기 제3 거리센서의 지향 포인트가 형성하는 제2 라인이 이루는 각도만큼 상기 제3 거리센서가 상기 지향 포인트를 향하도록 상기 로봇 핸드를 회전시켜 주는 단계를 포함하며,상기 제1 또는 제2 거리센서와 상기 제1 센싱 포인트 간의 수평거리를 d1, 상기 제1 또는 제2 거리센서와, 상기 제3 거리센서가 감지한 상기 물체의 제2 센싱 포인트 간의 수평거리를 d2, 상기 제1 또는 제2 거리센서와 상기 지향 포인트 간의 수평거리를 d, 상기 제1 또는 제2 거리센서와 상기 제3 거리센서 간의 수직거리를 h2, 상기 제1 또는 제2 거리센서와 상기 제3 거리센서 간의 수평거리를 h1, 상기 로봇 핸드의 회전 각도를 b, 상기 지향포인트와 상기 제3 거리센서 간의 수직거리를 h2/2, 그리고 d=(d1+d2)/2 라 할 때,b = tan-1(h2/(d1+d2+2h1))인 것을 특징으로 하는 로봇 핸드 접근 방법.
- 제1항 또는 제2항에서,상기 로봇 핸드를 회전시킨 후, 상기 제1 및 제2 거리센서가 상기 물체를 감지하지 못하고 상기 제3 거리센서만 상기 물체를 감지하는 경우, 상기 로봇 핸드를 회전시키지 않고 그대로 직진시키는 단계를 더 포함하는 것을 특징으로 하는 로봇 핸드 접근 방법.
- 제1항 또는 제2항에서,상기 로봇 핸드를 회전시킨 후, 상기 제1 및 제2 거리센서가 상기 물체를 동시에 감지하는 경우, 상기 로봇 핸드가 상기 물체를 파지할 수 없다고 판단하는 단계를 더 포함하는 것을 특징으로 하는 로봇 핸드 접근 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080135126A KR101013540B1 (ko) | 2008-12-29 | 2008-12-29 | 로봇 핸드의 물체 접근 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080135126A KR101013540B1 (ko) | 2008-12-29 | 2008-12-29 | 로봇 핸드의 물체 접근 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100077232A true KR20100077232A (ko) | 2010-07-08 |
KR101013540B1 KR101013540B1 (ko) | 2011-02-14 |
Family
ID=42638612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080135126A KR101013540B1 (ko) | 2008-12-29 | 2008-12-29 | 로봇 핸드의 물체 접근 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101013540B1 (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020049565A (ja) * | 2018-09-25 | 2020-04-02 | オムロン株式会社 | エンドエフェクタおよびエンドエフェクタ装置 |
CN112223339A (zh) * | 2020-10-16 | 2021-01-15 | 国网江苏省电力有限公司盐城供电分公司 | 一种自动夹取的机械手及其控制方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3277529B2 (ja) * | 1991-12-18 | 2002-04-22 | 井関農機株式会社 | 果実収穫ロボット |
JPH07246015A (ja) * | 1994-03-08 | 1995-09-26 | Yanmar Agricult Equip Co Ltd | 果菜類の収穫用マニピュレータ装置 |
JPH11163093A (ja) | 1997-11-28 | 1999-06-18 | Nissin Electric Co Ltd | 基板搬送ロボット |
JP2004284001A (ja) | 2003-01-27 | 2004-10-14 | Sharp Corp | ロボットハンド |
-
2008
- 2008-12-29 KR KR1020080135126A patent/KR101013540B1/ko active IP Right Grant
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020049565A (ja) * | 2018-09-25 | 2020-04-02 | オムロン株式会社 | エンドエフェクタおよびエンドエフェクタ装置 |
CN112223339A (zh) * | 2020-10-16 | 2021-01-15 | 国网江苏省电力有限公司盐城供电分公司 | 一种自动夹取的机械手及其控制方法 |
Also Published As
Publication number | Publication date |
---|---|
KR101013540B1 (ko) | 2011-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11046530B2 (en) | Article transfer apparatus, robot system, and article transfer method | |
JP6484213B2 (ja) | 複数のロボットを含むロボットシステム、ロボット制御装置、及びロボット制御方法 | |
JP6707713B2 (ja) | ロボットで折り曲げ位置を自動的に探す方法 | |
US8326460B2 (en) | Robot system comprising visual sensor | |
JP4001105B2 (ja) | ロボットによる任意形状物体の把持方法 | |
JP5533727B2 (ja) | ワークピッキングシステム | |
JP2011115877A (ja) | 双腕ロボット | |
KR102220304B1 (ko) | 로봇 제어 장치 및 로봇 제어 방법 | |
JP2010064155A (ja) | 把持装置 | |
CN111037553B (zh) | 控制装置 | |
US20190321990A1 (en) | Device, method and program for estimating weight and position of gravity center of load by using robot | |
KR102308091B1 (ko) | 기판 반송 장치 및 기판 반송 로봇과 기판 재치부의 위치 관계를 구하는 방법 | |
JP4211701B2 (ja) | ロボットハンドの把持制御装置 | |
KR101013540B1 (ko) | 로봇 핸드의 물체 접근 방법 | |
CN111721391A (zh) | 用机器人推定负荷的重量及重心位置的装置、方法及程序 | |
CN109983299A (zh) | 工业机器人的测量系统和方法 | |
JP2013013987A5 (ja) | ロボットシステム及び部品の製造方法 | |
JPWO2019065427A1 (ja) | ロボットハンドシステム制御方法およびロボットハンドシステム | |
JP4137601B2 (ja) | ロボットハンドの制御方法、ロボットハンド | |
JPS643661Y2 (ko) | ||
JP7213010B2 (ja) | ロボットシステム及び搬送されているワークに対して作業を行う方法 | |
JP2013129005A (ja) | 把持ロボット装置、把持動作制御方法、および、把持動作制御装置 | |
KR20120097930A (ko) | 로봇의 작업물 위치 추적방법 | |
JP3904039B2 (ja) | ロボットの制御方法 | |
WO2024023934A1 (ja) | ワーク取出し装置、ワーク取出し方法及び制御装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20140703 Year of fee payment: 4 |