KR101234521B1 - 작업대상물의 6자유도 위치/자세 인식방법 - Google Patents

작업대상물의 6자유도 위치/자세 인식방법 Download PDF

Info

Publication number
KR101234521B1
KR101234521B1 KR1020110100660A KR20110100660A KR101234521B1 KR 101234521 B1 KR101234521 B1 KR 101234521B1 KR 1020110100660 A KR1020110100660 A KR 1020110100660A KR 20110100660 A KR20110100660 A KR 20110100660A KR 101234521 B1 KR101234521 B1 KR 101234521B1
Authority
KR
South Korea
Prior art keywords
workpiece
points
freedom
sensed
point
Prior art date
Application number
KR1020110100660A
Other languages
English (en)
Inventor
김진욱
Original Assignee
대우조선해양 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대우조선해양 주식회사 filed Critical 대우조선해양 주식회사
Priority to KR1020110100660A priority Critical patent/KR101234521B1/ko
Application granted granted Critical
Publication of KR101234521B1 publication Critical patent/KR101234521B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 센서를 장착한 로봇에서 작업대상물의 위치/자세를 인식하는 방법에 관한 것으로서, 로봇에서 작업대상물의 위치/자세를 인식하는 방법으로서, 로봇에 장착된 센서로 작업대상물의 일측 벽면에서 3 포인트, 바닥면에서 3 포인트, 타측 벽면에서 1 포인트를 센싱하고, 상기 일측 벽면에서 센싱된 3 포인트를 포함하는 평면과 바닥면에서 센싱된 3 포인트를 포함하는 평면이 만나는 교선을 구하고, 상기 타측 벽면에서 센싱된 1 포인트를 상기 교선으로 투영시켜 교점을 구하고, 구해진 교점을 작업대상물의 원점 위치로 인식하는 것을 특징으로 한다. 본 발명에 따르면, 작업대상물의 위치/자세값을 6자유도(X, Y, Z, Rx, Ry, Rz) 전체에 대해서 얻을 수가 있으므로 로봇을 이용하여 보다 정밀한 작업을 수행 할 수 있는 이점이 있다.

Description

작업대상물의 6자유도 위치/자세 인식방법{6 DOF location/rotation recognition method for a working object}
본 발명은 로봇 기준으로 작업대상물의 위치/자세를 인식하는 방법에 관한 것으로서, 특히 작업대상물의 6자유도(X, Y, Z, Rx, Ry, Rz) 전체 정보를 획득할 수 있는 작업대상물의 6자유도 위치/자세 인식방법에 관한 것이다.
기존 산업용 로봇에서 터치센서/레이저센서를 사용할 경우, 작업대상물의 위치/자세 4자유도(X, Y, Z, Rz) 정보만을 획득할 수 있었다. 즉, 로봇기준으로 작업대상물의 X/Y/Z축 거리값(X, Y, Z)과 Z축 회전정보(Rz)만을 획득할 수 있었다.
이에 따라, 로봇의 로봇베이스와 작업대상물의 바닥면이 완전평면이 되지 않는 경우, 로봇기준 X축 회전정보(Roll), Y축 회전정보(Pitch)를 제대로 인식하지 못함으로써 정밀한 작업을 수행할 수 없는 문제점이 있었다.
한편, 일본국 야스카와(Yaskawa)사에서 제조된 로봇에서 제공하는 '서치 시프트' 기능에는 작업대상물의 4자유도 정보만을 제공하도록 되어 있다.
도 1을 참조하여, 야스카와사 로봇에서 작업대상물의 위치/자세 정보를 획득하는 방법을 살펴보면, 작업대상물의 일측 벽면과 바닥면에 터치를 한 뒤 일정간격이 되는 두 포인트(P1,P3)에 로봇 TCP(Tool Center Point)를 위치시킨 후 다른 두 포인트(P1',P3')를 구한다.
그리고, 두 포인트(P1',P3')를 지나는 직선(L)을 구한다. 그리고, 작업대상물의 타측 벽면의 포인트(P5)를 직선(L)으로 투영(Projection)시켜 작업대상물의 원점을 구한다. 또한, 직선(L)의 기울기를 통해 로봇 기준에서 Z축 회전정보를 구한다.
그런데, 이러한 방법으로는 로봇 기준 X축 회전정보(Roll) 및 Y축 회전정보(Pitch)를 구하는데 한계가 있다.
이에 본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 작업대상물의 로봇기준 X축 회전정보(Roll) 및 Y축 회전정보(Pitch)를 획득하여 6자유도(X, Y, Z, Rx, Ry, Rz) 정보를 모두 획득할 수 있도록 된 작업대상물의 6자유도 위치/자세 인식방법을 제공하는데 그 목적이 있다.
상기와 같은 목적을 달성하기 위하여 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법은, 로봇에서 작업대상물의 위치/자세를 인식하는 방법으로서, 로봇에 장착된 센서로 작업대상물의 일측 벽면에서 3 포인트, 바닥면에서 3 포인트, 타측 벽면에서 1 포인트를 센싱하고, 상기 일측 벽면에서 센싱된 3 포인트를 포함하는 평면과 바닥면에서 센싱된 3 포인트를 포함하는 평면이 만나는 교선을 구하고, 상기 타측 벽면에서 센싱된 1 포인트를 상기 교선으로 투영시켜 교점을 구하고, 구해진 교점을 작업대상물의 원점 위치로 인식하는 것을 특징으로 한다.
여기에서, 상기 작업대상물은 일측 벽면이 바닥면과 직각을 이루며, 타측 벽면이 일측 벽면 또는 바닥면과 직각을 이루는 것이 바람직하다.
또한, 상기 일측 벽면에서 센싱된 3 포인트와 바닥면에서 센싱된 3 포인트는, 각각 일측 벽면에서 센싱된 3 포인트 또는 바닥면에서 센싱된 3 포인트로 평면이 이루어질 수 있도록 동일한 직선 상에 있지 않는 것이 바람직하다.
본 발명에 따르면, 작업대상물의 위치/자세값을 6자유도(X, Y, Z, Rx, Ry, Rz) 전체에 대해서 얻을 수가 있으므로 로봇을 이용하여 보다 정밀한 작업을 수행 할 수 있는 이점이 있다.
도 1은 종래 작업대상물의 위치/자세 정보를 획득하는 방법을 설명하기 위한도면.
도 2는 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 설명하기 위한 제1 도면.
도 3은 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 설명하기 위한 제2 도면.
도 4는 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 설명하기 위한 흐름도.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다.
도 2는 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 설명하기 위한 제1 도면, 도 3은 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 설명하기 위한 제2 도면, 도 4는 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 설명하기 위한 흐름도이다.
본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법은, 로봇 기준으로 작업대상물의 위치/자세를 인식하는 방법으로서, 작업대상물의 로봇기준 X축 회전정보(Roll) 및 Y축 회전정보(Pitch)를 획득하여 6자유도(X, Y, Z, Rx, Ry, Rz) 정보를 모두 획득할 수 있도록 된 것을 그 핵심요지로 한다.
도 2에서, 도면부호 100은 작업대상물, 101은 작업대상물의 원점, 102는 타측 벽면 센싱 포인트, 103은 일측 벽면 센싱 포인트, 104는 바닥면 센싱 포인트를 의미한다. 작업대상물(100)에서 일측 벽면(103)과 바닥면(104)이 직각을 이루고 있어야 하며, 또한 타측 벽면(102)과 일측 벽면(103)/바닥면(104)이 직각을 이루어야 한다.
작업대상물의 원점(101)은 본 발명의 방법으로 획득하게 되는 작업대상물(100)의 원점을 의미하는데, 로봇 기준으로 3차원 위치값(X, Y, Z)과 3차원 자세값(Rx, Ry, Rz)을 모두 나타내는 6자유도(degree of freedom;DOF)를 의미한다.
타측 벽면 센싱 포인트(102)는 6자유도 위치/자세값을 얻기 위해 필요한 점으로서, 타측 벽면에서 측정해야 할 1개의 참조점(P6)을 의미한다.
일측 벽면 센싱 포인트(103)는 6자유도 위치/자세값을 얻기 위해 필요한 점으로서, 일측 벽면에서 측정해야 할 3개의 참조점(P0,P1,P2)을 의미한다. 이때, 3개의 참조점(P0,P1,P2)으로 평면이 이루어져야 하므로 3개 참조점(P0,P1,P2)은 동일한 직선상에 있으면 안된다.
바닥면 센싱 포인트(104)는 6자유도 위치/자세값을 얻기 위해 필요한 점으로서, 바닥면에서 측정해야 할 3개의 참조점(P3,P4,P5)을 의미한다. 이때, 3개의 참조점(P3,P4,P5)으로 평면이 이루어져야 하므로 3개 참조점(P3,P4,P5)은 동일한 직선상에 있으면 안된다.
도 3을 참조하여 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 설명하자면, 먼저 로봇에 장착된 센서로 작업대상물의 일측 벽면에서 3 포인트(P0,P1,P2), 바닥면에서 3 포인트(P3,P4,P5), 타측 벽면에서 1 포인트(P6)를 각각 센싱한다.
이때, 상기 작업대상물은 일측 벽면이 바닥면과 직각을 이루며, 또한 타측 벽면이 일측 벽면 또는 바닥면과 직각을 이루는 것이 바람직하다. 그리고, 상기 3 포인트(P0,P1,P2) 또는 3 포인트(P3,P4,P5)는 각각 3 포인트(P0,P1,P2) 또는 3 포인트(P3,P4,P5)로 하나의 평면이 이루어질 수 있도록 동일한 직선 상에 있지 않아야 한다.
한편, 상기 일측 벽면에서 센싱된 3 포인트(P0,P1,P2)를 포함하는 평면(N1)과 바닥면에서 센싱된 3 포인트(P3,P4,P5)를 포함하는 평면(N2)이 만나는 교선(L)을 구한다. 그리고, 상기 타측 벽면에서 센싱된 1 포인트(P6)를 상기 교선(L)으로 투영시켜 교점(213)을 구하고, 구해진 교점(213)을 작업대상물의 원점 위치로 인식한다.
도면부호 200은 작업대상물의 Y축 방향 벡터이다.
Figure 112011077254393-pat00001
: P0→P1가는 벡터,
Figure 112011077254393-pat00002
: P1→P2가는 벡터
위 두 벡터
Figure 112011077254393-pat00003
,
Figure 112011077254393-pat00004
의 벡터외적에 의해 작업대상물의 Y축 방향 벡터를 구한다.
Figure 112011077254393-pat00005
도면부호 200'은 작업대상물의 Y축 방향 벡터이다.
작업대상물의 Y축 방향 벡터(200)에서 구한 Y축 방향 벡터와 동일한 방향이 작업대상물 원점에 대해 성립됨을 보여준다.
도면부호 201은 작업대상물의 Z축 방향 벡터이다.
Figure 112011077254393-pat00006
: P3→P4가는 벡터,
Figure 112011077254393-pat00007
: P4→P5가는 벡터
위 두 벡터
Figure 112011077254393-pat00008
,
Figure 112011077254393-pat00009
의 벡터외적에 의해 작업대상물의 Z축 방향 벡터를 구한다.
Figure 112011077254393-pat00010
도면부호 201'은 작업대상물의 Z축 방향 벡터이다.
작업대상물의 Z축 방향 벡터(201)에서 구한 Z축 방향 벡터와 동일한 방향이 작업대상물 원점에 대해 성립됨을 보여준다.
도면부호 202는 작업대상물의 X축 방향 벡터이다.
작업대상물의 Y축 방향 벡터(200)에서 구한 Y축 방향벡터와 작업대상물의 Z축 방향 벡터(201)에서 구한 Z축 방향벡터 둘의 벡터 외적에 의해 X축 방향벡터를 구한다.
Figure 112011077254393-pat00011
도면부호 210은 일측 벽면의 3 포인트(P0, P1, P2)가 이루는 평면으로서, 평면의 방정식 N1로 표현하고 있다.
도면부호 211은 바닥면의 3 포인트(P3, P4, P5)가 이루는 평면으로서, 평면의 방정식 N2로 표현하고 있다.
도면부호 212는 두 평면(210,211)이 만나는 교선으로서, 평면의 방정식 N1과 바닥면의 방정식 N2를 통해 구할 수 있는 교선이다. 도면에서는 직선의 방정식 L로 표현하고 있다.
도면부호 213은 작업대상물의 원점의 위치이며, 작업대상물의 원점 위치(X, Y, Z)를 의미한다. 작업대상물의 타측 벽면의 1 포인트(P6)를 두 평면(210,211)이 만나는 교선(212)으로 투영(Projection)시킬 경우, 원점을 찾을 수 있다.
도 4를 참조하여 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 정리하여 설명하자면, 먼저 작업대상물의 일측 벽면에서 3 포인트(P0,P1,P2), 바닥면에서 3 포인트(P3,P4,P5)를 센싱하여 센싱된 일측 벽면의 3 포인트(P0, P1, P2)가 이루는 평면의 방정식 N1과 바닥면의 3 포인트(P3, P4, P5)가 이루는 평면의 방정식 N2를 설정한다(S110,S120).
그리고, 설정된 평면의 방정식 N1과 N2가 만나는 교선으로 이루어진 직선의 방정식 L을 구한다(S130). 마지막으로, 작업대상물의 타측 벽면에서 1 포인트(P6)를 센싱하여 센싱된 타측 벽면의 1 포인트(P6)를 교선(L)로 투영시켜서 만나는 교점을 구하고, 구해진 교점을 작업대상물의 원점 위치로 인식한다(S140).
이렇게 인식된 작업대상물의 원점은 로봇 기준으로 3차원 위치값(X, Y, Z)과 3차원 자세값(Rx, Ry, Rz)을 모두 나타내는 6자유도(DOF)를 의미한다.
이와 같이, 본 발명의 작업대상물의 6자유도 위치/자세 인식방법을 적용하게 되면, 작업대상물의 위치/자세값을 6자유도(X, Y, Z, Rx, Ry, Rz) 전체에 대해서 얻을 수 있으므로, 로봇을 이용하여 정밀한 작업을 수행할 수가 있게 된다.
한편, 본 발명에 따른 작업대상물의 6자유도 위치/자세 인식방법을 한정된 실시예에 따라 설명하였지만, 본 발명의 범위는 특정 실시예에 한정되는 것은 아니며, 본 발명과 관련하여 통상의 지식을 가진자에게 자명한 범위내에서 여러 가지의 대안, 수정 및 변경하여 실시할 수 있다.
따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100 : 작업대상물
101 : 작업대상물의 원점
102 : 작업대상물의 타측 벽면 센싱 포인트
103 : 작업대상물의 일측 벽면 센싱 포인트
104 : 작업대상물의 바닥면 센싱 포인트
200,200' : 작업대상물의 Y축 방향 벡터
201,201' : 작업대상물의 Z축 방향 벡터
202 : 작업대상물의 X축 방향 벡터
210 : 작업대상물의 일측 벽면의 3 포인트가 이루는 평면(N1)
211 : 작업대상물의 바닥면의 3 포인트가 이루는 평면(N2)
212 : 두 평면이 만나는 교선(L)
213 : 작업대상물의 원점의 위치

Claims (3)

  1. 로봇에서 작업대상물의 위치/자세를 인식하는 방법으로서,
    로봇에 장착된 센서로 작업대상물의 일측 벽면에서 3 포인트(P0,P1,P2), 바닥면에서 3 포인트(P3,P4,P5), 타측 벽면에서 1 포인트(P6)를 센싱하고,
    상기 일측 벽면에서 센싱된 3 포인트(P0,P1,P2)를 포함하는 평면(N1)과 바닥면에서 센싱된 3 포인트(P3,P4,P5)를 포함하는 평면(N2)이 만나는 교선(L)을 구하고,
    상기 타측 벽면에서 센싱된 1 포인트(P6)를 상기 교선(L)으로 투영시켜 교점(213)을 구하고, 구해진 교점(213)을 작업대상물의 원점 위치로 인식하는 것을 특징으로 하는 작업대상물의 6자유도 위치/자세 인식방법.
  2. 청구항 1에 있어서,
    상기 작업대상물은 일측 벽면이 바닥면과 직각을 이루며, 또한 타측 벽면이 일측 벽면 또는 바닥면과 직각을 이루는 것을 특징으로 하는 작업대상물의 6자유도 위치/자세 인식방법.
  3. 청구항 1에 있어서,
    상기 3 포인트(P0,P1,P2) 또는 3 포인트(P3,P4,P5)는 각각 3 포인트(P0,P1,P2) 또는 3 포인트(P3,P4,P5)로 평면이 이루어질 수 있도록 동일한 직선 상에 있지 않는 것을 특징으로 하는 작업대상물의 6자유도 위치/자세 인식방법.
KR1020110100660A 2011-10-04 2011-10-04 작업대상물의 6자유도 위치/자세 인식방법 KR101234521B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110100660A KR101234521B1 (ko) 2011-10-04 2011-10-04 작업대상물의 6자유도 위치/자세 인식방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110100660A KR101234521B1 (ko) 2011-10-04 2011-10-04 작업대상물의 6자유도 위치/자세 인식방법

Publications (1)

Publication Number Publication Date
KR101234521B1 true KR101234521B1 (ko) 2013-02-19

Family

ID=47899725

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110100660A KR101234521B1 (ko) 2011-10-04 2011-10-04 작업대상물의 6자유도 위치/자세 인식방법

Country Status (1)

Country Link
KR (1) KR101234521B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05301195A (ja) * 1992-04-23 1993-11-16 Fanuc Ltd 視覚センサにおけるカメラ位置ずれ検出方法
KR0160636B1 (ko) * 1993-10-28 1998-12-15 김광호 로보트의 작업대상물 위치 추적방법
KR20090053484A (ko) * 2007-11-23 2009-05-27 현대중공업 주식회사 로봇 원점이동장치의 센싱시스템 및 센싱방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05301195A (ja) * 1992-04-23 1993-11-16 Fanuc Ltd 視覚センサにおけるカメラ位置ずれ検出方法
KR0160636B1 (ko) * 1993-10-28 1998-12-15 김광호 로보트의 작업대상물 위치 추적방법
KR20090053484A (ko) * 2007-11-23 2009-05-27 현대중공업 주식회사 로봇 원점이동장치의 센싱시스템 및 센싱방법

Similar Documents

Publication Publication Date Title
JP5829306B2 (ja) レンジセンサの配置位置評価装置
JP6427972B2 (ja) ロボット、ロボットシステム及び制御装置
JP5088278B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
US11015930B2 (en) Method for 2D picture based conglomeration in 3D surveying
US10427298B2 (en) Robot system displaying information for teaching robot
JP6208724B2 (ja) 物体の姿勢算出システム
US8897919B2 (en) Robot controller which conducts a force control by using a three-axial force sensor
US20200030992A1 (en) Robot System
JP2012137421A (ja) 3軸力センサを用いて力制御をおこなうロボットの制御装置
US20140092048A1 (en) Information processing device, control method of information processing device, program, and information storing medium
JP5228783B2 (ja) ロボットの原点復帰装置
JP5858773B2 (ja) 3次元計測方法、3次元計測プログラム及びロボット装置
JP7454132B2 (ja) ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
KR101234521B1 (ko) 작업대상물의 6자유도 위치/자세 인식방법
Kobayashi et al. Motion capture with inertial measurement units for hand/arm robot teleoperation
CN109789548A (zh) 用于工件校准的方法和使用该方法的机器人系统
EP4094904B1 (en) Robot system control device, robot system control method, computer control program, and robot system
CN102662495A (zh) 坐标感测系统、坐标感测方法及显示系统
WO2017007492A1 (en) Machine display and machine control systems
TWI446214B (zh) Remote control system based on user action and its method
JPH0731536B2 (ja) 教示デ−タ補正ロボツト
WO2023013699A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
KR20120097930A (ko) 로봇의 작업물 위치 추적방법
JP7249214B2 (ja) 工具のコーナ半径の判別装置、判別システム及び判別方法
JP4798552B2 (ja) ロボットの領域監視方法および制御装置

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160201

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170209

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee