KR101234521B1 - 작업대상물의 6자유도 위치/자세 인식방법 - Google Patents
작업대상물의 6자유도 위치/자세 인식방법 Download PDFInfo
- Publication number
- KR101234521B1 KR101234521B1 KR1020110100660A KR20110100660A KR101234521B1 KR 101234521 B1 KR101234521 B1 KR 101234521B1 KR 1020110100660 A KR1020110100660 A KR 1020110100660A KR 20110100660 A KR20110100660 A KR 20110100660A KR 101234521 B1 KR101234521 B1 KR 101234521B1
- Authority
- KR
- South Korea
- Prior art keywords
- workpiece
- points
- freedom
- sensed
- point
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 210000002784 stomach Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
본 발명은 센서를 장착한 로봇에서 작업대상물의 위치/자세를 인식하는 방법에 관한 것으로서, 로봇에서 작업대상물의 위치/자세를 인식하는 방법으로서, 로봇에 장착된 센서로 작업대상물의 일측 벽면에서 3 포인트, 바닥면에서 3 포인트, 타측 벽면에서 1 포인트를 센싱하고, 상기 일측 벽면에서 센싱된 3 포인트를 포함하는 평면과 바닥면에서 센싱된 3 포인트를 포함하는 평면이 만나는 교선을 구하고, 상기 타측 벽면에서 센싱된 1 포인트를 상기 교선으로 투영시켜 교점을 구하고, 구해진 교점을 작업대상물의 원점 위치로 인식하는 것을 특징으로 한다. 본 발명에 따르면, 작업대상물의 위치/자세값을 6자유도(X, Y, Z, Rx, Ry, Rz) 전체에 대해서 얻을 수가 있으므로 로봇을 이용하여 보다 정밀한 작업을 수행 할 수 있는 이점이 있다.
Description
본 발명은 로봇 기준으로 작업대상물의 위치/자세를 인식하는 방법에 관한 것으로서, 특히 작업대상물의 6자유도(X, Y, Z, Rx, Ry, Rz) 전체 정보를 획득할 수 있는 작업대상물의 6자유도 위치/자세 인식방법에 관한 것이다.
기존 산업용 로봇에서 터치센서/레이저센서를 사용할 경우, 작업대상물의 위치/자세 4자유도(X, Y, Z, Rz) 정보만을 획득할 수 있었다. 즉, 로봇기준으로 작업대상물의 X/Y/Z축 거리값(X, Y, Z)과 Z축 회전정보(Rz)만을 획득할 수 있었다.
이에 따라, 로봇의 로봇베이스와 작업대상물의 바닥면이 완전평면이 되지 않는 경우, 로봇기준 X축 회전정보(Roll), Y축 회전정보(Pitch)를 제대로 인식하지 못함으로써 정밀한 작업을 수행할 수 없는 문제점이 있었다.
한편, 일본국 야스카와(Yaskawa)사에서 제조된 로봇에서 제공하는 '서치 시프트' 기능에는 작업대상물의 4자유도 정보만을 제공하도록 되어 있다.
도 1을 참조하여, 야스카와사 로봇에서 작업대상물의 위치/자세 정보를 획득하는 방법을 살펴보면, 작업대상물의 일측 벽면과 바닥면에 터치를 한 뒤 일정간격이 되는 두 포인트(P1,P3)에 로봇 TCP(Tool Center Point)를 위치시킨 후 다른 두 포인트(P1',P3')를 구한다.
그리고, 두 포인트(P1',P3')를 지나는 직선(L)을 구한다. 그리고, 작업대상물의 타측 벽면의 포인트(P5)를 직선(L)으로 투영(Projection)시켜 작업대상물의 원점을 구한다. 또한, 직선(L)의 기울기를 통해 로봇 기준에서 Z축 회전정보를 구한다.
그런데, 이러한 방법으로는 로봇 기준 X축 회전정보(Roll) 및 Y축 회전정보(Pitch)를 구하는데 한계가 있다.
이에 본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 작업대상물의 로봇기준 X축 회전정보(Roll) 및 Y축 회전정보(Pitch)를 획득하여 6자유도(X, Y, Z, Rx, Ry, Rz) 정보를 모두 획득할 수 있도록 된 작업대상물의 6자유도 위치/자세 인식방법을 제공하는데 그 목적이 있다.
상기와 같은 목적을 달성하기 위하여 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법은, 로봇에서 작업대상물의 위치/자세를 인식하는 방법으로서, 로봇에 장착된 센서로 작업대상물의 일측 벽면에서 3 포인트, 바닥면에서 3 포인트, 타측 벽면에서 1 포인트를 센싱하고, 상기 일측 벽면에서 센싱된 3 포인트를 포함하는 평면과 바닥면에서 센싱된 3 포인트를 포함하는 평면이 만나는 교선을 구하고, 상기 타측 벽면에서 센싱된 1 포인트를 상기 교선으로 투영시켜 교점을 구하고, 구해진 교점을 작업대상물의 원점 위치로 인식하는 것을 특징으로 한다.
여기에서, 상기 작업대상물은 일측 벽면이 바닥면과 직각을 이루며, 타측 벽면이 일측 벽면 또는 바닥면과 직각을 이루는 것이 바람직하다.
또한, 상기 일측 벽면에서 센싱된 3 포인트와 바닥면에서 센싱된 3 포인트는, 각각 일측 벽면에서 센싱된 3 포인트 또는 바닥면에서 센싱된 3 포인트로 평면이 이루어질 수 있도록 동일한 직선 상에 있지 않는 것이 바람직하다.
본 발명에 따르면, 작업대상물의 위치/자세값을 6자유도(X, Y, Z, Rx, Ry, Rz) 전체에 대해서 얻을 수가 있으므로 로봇을 이용하여 보다 정밀한 작업을 수행 할 수 있는 이점이 있다.
도 1은 종래 작업대상물의 위치/자세 정보를 획득하는 방법을 설명하기 위한도면.
도 2는 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 설명하기 위한 제1 도면.
도 3은 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 설명하기 위한 제2 도면.
도 4는 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 설명하기 위한 흐름도.
도 2는 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 설명하기 위한 제1 도면.
도 3은 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 설명하기 위한 제2 도면.
도 4는 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 설명하기 위한 흐름도.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다.
도 2는 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 설명하기 위한 제1 도면, 도 3은 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 설명하기 위한 제2 도면, 도 4는 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 설명하기 위한 흐름도이다.
본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법은, 로봇 기준으로 작업대상물의 위치/자세를 인식하는 방법으로서, 작업대상물의 로봇기준 X축 회전정보(Roll) 및 Y축 회전정보(Pitch)를 획득하여 6자유도(X, Y, Z, Rx, Ry, Rz) 정보를 모두 획득할 수 있도록 된 것을 그 핵심요지로 한다.
도 2에서, 도면부호 100은 작업대상물, 101은 작업대상물의 원점, 102는 타측 벽면 센싱 포인트, 103은 일측 벽면 센싱 포인트, 104는 바닥면 센싱 포인트를 의미한다. 작업대상물(100)에서 일측 벽면(103)과 바닥면(104)이 직각을 이루고 있어야 하며, 또한 타측 벽면(102)과 일측 벽면(103)/바닥면(104)이 직각을 이루어야 한다.
작업대상물의 원점(101)은 본 발명의 방법으로 획득하게 되는 작업대상물(100)의 원점을 의미하는데, 로봇 기준으로 3차원 위치값(X, Y, Z)과 3차원 자세값(Rx, Ry, Rz)을 모두 나타내는 6자유도(degree of freedom;DOF)를 의미한다.
타측 벽면 센싱 포인트(102)는 6자유도 위치/자세값을 얻기 위해 필요한 점으로서, 타측 벽면에서 측정해야 할 1개의 참조점(P6)을 의미한다.
일측 벽면 센싱 포인트(103)는 6자유도 위치/자세값을 얻기 위해 필요한 점으로서, 일측 벽면에서 측정해야 할 3개의 참조점(P0,P1,P2)을 의미한다. 이때, 3개의 참조점(P0,P1,P2)으로 평면이 이루어져야 하므로 3개 참조점(P0,P1,P2)은 동일한 직선상에 있으면 안된다.
바닥면 센싱 포인트(104)는 6자유도 위치/자세값을 얻기 위해 필요한 점으로서, 바닥면에서 측정해야 할 3개의 참조점(P3,P4,P5)을 의미한다. 이때, 3개의 참조점(P3,P4,P5)으로 평면이 이루어져야 하므로 3개 참조점(P3,P4,P5)은 동일한 직선상에 있으면 안된다.
도 3을 참조하여 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 설명하자면, 먼저 로봇에 장착된 센서로 작업대상물의 일측 벽면에서 3 포인트(P0,P1,P2), 바닥면에서 3 포인트(P3,P4,P5), 타측 벽면에서 1 포인트(P6)를 각각 센싱한다.
이때, 상기 작업대상물은 일측 벽면이 바닥면과 직각을 이루며, 또한 타측 벽면이 일측 벽면 또는 바닥면과 직각을 이루는 것이 바람직하다. 그리고, 상기 3 포인트(P0,P1,P2) 또는 3 포인트(P3,P4,P5)는 각각 3 포인트(P0,P1,P2) 또는 3 포인트(P3,P4,P5)로 하나의 평면이 이루어질 수 있도록 동일한 직선 상에 있지 않아야 한다.
한편, 상기 일측 벽면에서 센싱된 3 포인트(P0,P1,P2)를 포함하는 평면(N1)과 바닥면에서 센싱된 3 포인트(P3,P4,P5)를 포함하는 평면(N2)이 만나는 교선(L)을 구한다. 그리고, 상기 타측 벽면에서 센싱된 1 포인트(P6)를 상기 교선(L)으로 투영시켜 교점(213)을 구하고, 구해진 교점(213)을 작업대상물의 원점 위치로 인식한다.
도면부호 200은 작업대상물의 Y축 방향 벡터이다.
도면부호 200'은 작업대상물의 Y축 방향 벡터이다.
작업대상물의 Y축 방향 벡터(200)에서 구한 Y축 방향 벡터와 동일한 방향이 작업대상물 원점에 대해 성립됨을 보여준다.
도면부호 201은 작업대상물의 Z축 방향 벡터이다.
도면부호 201'은 작업대상물의 Z축 방향 벡터이다.
작업대상물의 Z축 방향 벡터(201)에서 구한 Z축 방향 벡터와 동일한 방향이 작업대상물 원점에 대해 성립됨을 보여준다.
도면부호 202는 작업대상물의 X축 방향 벡터이다.
작업대상물의 Y축 방향 벡터(200)에서 구한 Y축 방향벡터와 작업대상물의 Z축 방향 벡터(201)에서 구한 Z축 방향벡터 둘의 벡터 외적에 의해 X축 방향벡터를 구한다.
도면부호 210은 일측 벽면의 3 포인트(P0, P1, P2)가 이루는 평면으로서, 평면의 방정식 N1로 표현하고 있다.
도면부호 211은 바닥면의 3 포인트(P3, P4, P5)가 이루는 평면으로서, 평면의 방정식 N2로 표현하고 있다.
도면부호 212는 두 평면(210,211)이 만나는 교선으로서, 평면의 방정식 N1과 바닥면의 방정식 N2를 통해 구할 수 있는 교선이다. 도면에서는 직선의 방정식 L로 표현하고 있다.
도면부호 213은 작업대상물의 원점의 위치이며, 작업대상물의 원점 위치(X, Y, Z)를 의미한다. 작업대상물의 타측 벽면의 1 포인트(P6)를 두 평면(210,211)이 만나는 교선(212)으로 투영(Projection)시킬 경우, 원점을 찾을 수 있다.
도 4를 참조하여 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 정리하여 설명하자면, 먼저 작업대상물의 일측 벽면에서 3 포인트(P0,P1,P2), 바닥면에서 3 포인트(P3,P4,P5)를 센싱하여 센싱된 일측 벽면의 3 포인트(P0, P1, P2)가 이루는 평면의 방정식 N1과 바닥면의 3 포인트(P3, P4, P5)가 이루는 평면의 방정식 N2를 설정한다(S110,S120).
그리고, 설정된 평면의 방정식 N1과 N2가 만나는 교선으로 이루어진 직선의 방정식 L을 구한다(S130). 마지막으로, 작업대상물의 타측 벽면에서 1 포인트(P6)를 센싱하여 센싱된 타측 벽면의 1 포인트(P6)를 교선(L)로 투영시켜서 만나는 교점을 구하고, 구해진 교점을 작업대상물의 원점 위치로 인식한다(S140).
이렇게 인식된 작업대상물의 원점은 로봇 기준으로 3차원 위치값(X, Y, Z)과 3차원 자세값(Rx, Ry, Rz)을 모두 나타내는 6자유도(DOF)를 의미한다.
이와 같이, 본 발명의 작업대상물의 6자유도 위치/자세 인식방법을 적용하게 되면, 작업대상물의 위치/자세값을 6자유도(X, Y, Z, Rx, Ry, Rz) 전체에 대해서 얻을 수 있으므로, 로봇을 이용하여 정밀한 작업을 수행할 수가 있게 된다.
한편, 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 한정된 실시예에 따라 설명하였지만, 본 발명의 범위는 특정 실시예에 한정되는 것은 아니며, 본 발명과 관련하여 통상의 지식을 가진자에게 자명한 범위내에서 여러 가지의 대안, 수정 및 변경하여 실시할 수 있다.
따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100 : 작업대상물
101 : 작업대상물의 원점
102 : 작업대상물의 타측 벽면 센싱 포인트
103 : 작업대상물의 일측 벽면 센싱 포인트
104 : 작업대상물의 바닥면 센싱 포인트
200,200' : 작업대상물의 Y축 방향 벡터
201,201' : 작업대상물의 Z축 방향 벡터
202 : 작업대상물의 X축 방향 벡터
210 : 작업대상물의 일측 벽면의 3 포인트가 이루는 평면(N1)
211 : 작업대상물의 바닥면의 3 포인트가 이루는 평면(N2)
212 : 두 평면이 만나는 교선(L)
213 : 작업대상물의 원점의 위치
101 : 작업대상물의 원점
102 : 작업대상물의 타측 벽면 센싱 포인트
103 : 작업대상물의 일측 벽면 센싱 포인트
104 : 작업대상물의 바닥면 센싱 포인트
200,200' : 작업대상물의 Y축 방향 벡터
201,201' : 작업대상물의 Z축 방향 벡터
202 : 작업대상물의 X축 방향 벡터
210 : 작업대상물의 일측 벽면의 3 포인트가 이루는 평면(N1)
211 : 작업대상물의 바닥면의 3 포인트가 이루는 평면(N2)
212 : 두 평면이 만나는 교선(L)
213 : 작업대상물의 원점의 위치
Claims (3)
- 로봇에서 작업대상물의 위치/자세를 인식하는 방법으로서,
로봇에 장착된 센서로 작업대상물의 일측 벽면에서 3 포인트(P0,P1,P2), 바닥면에서 3 포인트(P3,P4,P5), 타측 벽면에서 1 포인트(P6)를 센싱하고,
상기 일측 벽면에서 센싱된 3 포인트(P0,P1,P2)를 포함하는 평면(N1)과 바닥면에서 센싱된 3 포인트(P3,P4,P5)를 포함하는 평면(N2)이 만나는 교선(L)을 구하고,
상기 타측 벽면에서 센싱된 1 포인트(P6)를 상기 교선(L)으로 투영시켜 교점(213)을 구하고, 구해진 교점(213)을 작업대상물의 원점 위치로 인식하는 것을 특징으로 하는 작업대상물의 6자유도 위치/자세 인식방법. - 청구항 1에 있어서,
상기 작업대상물은 일측 벽면이 바닥면과 직각을 이루며, 또한 타측 벽면이 일측 벽면 또는 바닥면과 직각을 이루는 것을 특징으로 하는 작업대상물의 6자유도 위치/자세 인식방법. - 청구항 1에 있어서,
상기 3 포인트(P0,P1,P2) 또는 3 포인트(P3,P4,P5)는 각각 3 포인트(P0,P1,P2) 또는 3 포인트(P3,P4,P5)로 평면이 이루어질 수 있도록 동일한 직선 상에 있지 않는 것을 특징으로 하는 작업대상물의 6자유도 위치/자세 인식방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110100660A KR101234521B1 (ko) | 2011-10-04 | 2011-10-04 | 작업대상물의 6자유도 위치/자세 인식방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110100660A KR101234521B1 (ko) | 2011-10-04 | 2011-10-04 | 작업대상물의 6자유도 위치/자세 인식방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101234521B1 true KR101234521B1 (ko) | 2013-02-19 |
Family
ID=47899725
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110100660A KR101234521B1 (ko) | 2011-10-04 | 2011-10-04 | 작업대상물의 6자유도 위치/자세 인식방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101234521B1 (ko) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05301195A (ja) * | 1992-04-23 | 1993-11-16 | Fanuc Ltd | 視覚センサにおけるカメラ位置ずれ検出方法 |
KR0160636B1 (ko) * | 1993-10-28 | 1998-12-15 | 김광호 | 로보트의 작업대상물 위치 추적방법 |
KR20090053484A (ko) * | 2007-11-23 | 2009-05-27 | 현대중공업 주식회사 | 로봇 원점이동장치의 센싱시스템 및 센싱방법 |
-
2011
- 2011-10-04 KR KR1020110100660A patent/KR101234521B1/ko not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05301195A (ja) * | 1992-04-23 | 1993-11-16 | Fanuc Ltd | 視覚センサにおけるカメラ位置ずれ検出方法 |
KR0160636B1 (ko) * | 1993-10-28 | 1998-12-15 | 김광호 | 로보트의 작업대상물 위치 추적방법 |
KR20090053484A (ko) * | 2007-11-23 | 2009-05-27 | 현대중공업 주식회사 | 로봇 원점이동장치의 센싱시스템 및 센싱방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5829306B2 (ja) | レンジセンサの配置位置評価装置 | |
JP6427972B2 (ja) | ロボット、ロボットシステム及び制御装置 | |
JP5088278B2 (ja) | 物体検出方法と物体検出装置およびロボットシステム | |
US20150127162A1 (en) | Apparatus and method for picking up article randomly piled using robot | |
JP6208724B2 (ja) | 物体の姿勢算出システム | |
US11015930B2 (en) | Method for 2D picture based conglomeration in 3D surveying | |
US10427298B2 (en) | Robot system displaying information for teaching robot | |
JP2012137421A (ja) | 3軸力センサを用いて力制御をおこなうロボットの制御装置 | |
US20140092048A1 (en) | Information processing device, control method of information processing device, program, and information storing medium | |
JP5228783B2 (ja) | ロボットの原点復帰装置 | |
JP5858773B2 (ja) | 3次元計測方法、3次元計測プログラム及びロボット装置 | |
JP7454132B2 (ja) | ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム | |
KR101234521B1 (ko) | 작업대상물의 6자유도 위치/자세 인식방법 | |
Kobayashi et al. | Motion capture with inertial measurement units for hand/arm robot teleoperation | |
CN109789548A (zh) | 用于工件校准的方法和使用该方法的机器人系统 | |
WO2021149429A1 (ja) | ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム | |
CN102662495A (zh) | 坐标感测系统、坐标感测方法及显示系统 | |
WO2017007492A1 (en) | Machine display and machine control systems | |
CN109048911A (zh) | 一种基于矩形特征的机器人视觉控制方法 | |
JP7509534B2 (ja) | 画像処理装置、ロボットシステム、及び画像処理方法 | |
TWI446214B (zh) | Remote control system based on user action and its method | |
JPH0731536B2 (ja) | 教示デ−タ補正ロボツト | |
WO2023013699A1 (ja) | ロボット制御装置、ロボット制御システム、及びロボット制御方法 | |
KR20120097930A (ko) | 로봇의 작업물 위치 추적방법 | |
JP4798552B2 (ja) | ロボットの領域監視方法および制御装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160201 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170209 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |