KR102130617B1 - 로봇 위치 제어 장치 및 방법 - Google Patents

로봇 위치 제어 장치 및 방법 Download PDF

Info

Publication number
KR102130617B1
KR102130617B1 KR1020190055417A KR20190055417A KR102130617B1 KR 102130617 B1 KR102130617 B1 KR 102130617B1 KR 1020190055417 A KR1020190055417 A KR 1020190055417A KR 20190055417 A KR20190055417 A KR 20190055417A KR 102130617 B1 KR102130617 B1 KR 102130617B1
Authority
KR
South Korea
Prior art keywords
teaching point
distance
point
control unit
robot
Prior art date
Application number
KR1020190055417A
Other languages
English (en)
Inventor
이현
박요한
김호연
Original Assignee
주식회사 하나비전테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 하나비전테크 filed Critical 주식회사 하나비전테크
Priority to KR1020190055417A priority Critical patent/KR102130617B1/ko
Application granted granted Critical
Publication of KR102130617B1 publication Critical patent/KR102130617B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 로봇 위치 제어 장치 및 방법에 관한 것으로서, 특히 용접, 절단, 조립, 픽앤플래이스(Pick & Place) 등의 작업을 할 수 있는 작업 툴(tool)과 카메라가 장착된 로봇에 있어서 카메라가 운행 중 틀어지거나 또는 물체 위치변위로 인한 티칭 포인트(teaching point)의 변위가 발생된 경우 카메라로 작업 대상물의 2차원 영상을 획득하여 비전처리 하거나 또는 AI(Artificial Intelligence) 기능을 이용하여서 변위 반영된 티칭 포인트를 결정하고 거리 감지기를 이용하여 해당 티칭 포인트까지의 거리를 감지하고 작업 툴의 끝점을 정확하게 새로운 해당 티칭 포인트로 이동시킴과 아울러 감지된 거리를 유지하도록 이동시켜 변위를 보정함으로써 카메라에 대한 새로운 캘리브레이션 또는 새로운 로봇 티칭이 필요 없는 로봇 위치 제어 장치 및 방법에 관한 것이다.

Description

로봇 위치 제어 장치 및 방법{APPARATUS AND METHOD FOR CONTROLING POSITION OF ROBOT}
본 발명은 로봇 위치 제어 장치 및 방법에 관한 것으로서, 특히 용접, 절단, 조립, 픽엔플레이스(Pick&Place) 등의 작업을 할 수 있는 작업 툴(tool)과 카메라가 장착된 로봇에 있어서 초기 로봇 티칭 포인트(teaching point)의 변위가 발생된 경우 로봇에 설치된 카메라로 작업 대상물의 2차원 영상을 획득하고 영상 처리하여 AI(Artificial Intelligence) 기능을 이용하여서 틀어진 변위 반영된 티칭 포인트를 결정하고, 거리 감지기를 이용하여 해당 티칭 포인트까지의 거리를 감지하고 작업 툴의 끝점을 해당 티칭 포인트로 이동시킴과 아울러 감지된 거리를 유지하도록 이동시켜 변위를 보정함으로써 카메라에 대한 캘리브레이션이 필요 없고, 또한 로봇 초기 티칭 포인트 변위가 변경되는 문제점을 해결할 수 있는 로봇 위치 제어 장치 및 방법에 관한 것이다.
최근, 제조업 등에서 산업용 로봇이 실용적으로 이용되고 있다. 자동차 등 사람의 발에 상당하는 것도 있으나, 일반적으로는 사람의 손에 상당하는 로봇 핸드가 사용된다. 지적 로봇 등에 대립하는 것으로, 동작의 유연성이나 섬세성은 부족하다. 요구되는 작업의 복잡도에 따라 6자유도를 지닌 관절형을 비롯하여, 기본적으로 2자유도이고 수평운동을 주체로 하는 스칼라형 등 많은 종류가 제작되어 있다.
자동차 차체의 스폿 용접이나 도장, 차체의 조립 등의 복잡한 동작을 요구하는 것을 제외하고는 2자유도 정도의 것이 압도적으로 많다. 전기·전자 제품의 조립 로봇 등이 대표적이다. 제어 방식으로는, 고정 시퀀스 동작을 하는 것, 티칭 플레이백 방식에 의한 것, 컴퓨터 시뮬레이션에 의거하는 오프라인 프로그래밍 방식의 것 등으로 나눌 수 있다. 뒤의 것일수록 유연성이 높은데, 현재는 티칭 플레이백 방식이 일반적이다.
국내 공개 특허 2014-0123660호 공보(이하, 선행 특허라 함)에는 카메라 캘리브레이션 시의 데이터를 사용하여 카메라의 캘리브레이션 과정에서 로봇 핸드와 로봇 핸드에 부착된 카메라의 캘리브레이션을 함께 수행하는 방법 및 장치에 관한 기술이 개시되어 있다. 하지만, 로봇에 설치된 카메라가 틀어지거나 또는 실제 용접포인트 또는 초기 티칭위치를 벗어나는 물체의 변위 등에 의하여 기존 카메라 캘리브레이션만으론 로봇 작업에 문제가 발생하는 경우가 흔히 발생할 수 있다.
그래서 선행 특허는 카메라가 운행 중에 틀어진 경우나 또는 물체의 변위가 틀어진 경우에는 새로운 캘리브레이션 방법 또는 새로운 티칭포인트로 보정을 수행하여야 정확한 로봇동작이 가능한데, 이를 위해서는 계속해서 카메라의 틀어진 정도를 확인하고 새로운 캘리브레이션을 수행하는 절차 또는 새로운 티칭을 수행해야 하므로 시간과 비용적인 측면에서 바람직하지 않다.
따라서 본 발명은 상기와 같은 종래의 문제점을 해결하기 위해 이루어진 것으로서, 본 발명의 목적은 티칭 포인트(teaching point)의 변위가 발생된 경우에도 카메라에 대한 캘리브레이션 또는 새로운 티칭 포인트 변경 없이 티칭포인트 추적(tracking)이라는 비전처리 알고리즘 또는 AI 기능을 통해 자동으로 변위를 보정하여 로봇작업의 효율을 높일 수 있는, 로봇 위치 제어 장치 및 방법을 제공하는 데에 있다.
상기의 목적을 달성하기 위해 본 발명의 실시형태에 의한 로봇 위치 제어 장치는 작업 대상물을 촬영하여 2차원 영상을 획득하도록 구성된 카메라; 로봇 핸드에 장착되어 카메라 중심점에서 티칭 포인트까지의 거리를 감지하는 거리 감지부; 상기 로봇 핸드에 장착되어 상기 로봇 핸드의 위치를 특정 위치로 이동시키도록 구성된 로봇 위치 결정부; 및 상기 카메라로부터 2차원 영상을 입력받아 설정된 위치를 기초로 티칭 포인트(VTP1)를 결정하고, 상기 로봇 위치 결정부를 제어하여 작업 툴의 끝점을 상기 티칭 포인트로 이동한 후 상기 거리 감지부에 의해 감지된 티칭 포인트까지의 거리(r1)를 유지하도록 이동시키고, 상기 카메라를 통해 상기 작업 대상물에 대한 2차원 영상을 획득하고 티칭 포인트의 변위 발생여부를 판단하여 변위(△sx, △sy)가 발생했을 때 획득된 2차원 영상을 분석하여 변위 반영된 티칭 포인트(VTP2)를 결정하고, 상기 거리 감지기를 통해 상기 변위 반영된 티칭 포인트까지의 거리(r2)를 감지하고, 상기 로봇 위치 결정부를 제어하여 상기 작업 툴의 끝점을 티칭 포인트(VTP2)로 이동한 후 감지된 티칭 포인트까지의 거리(r2)를 유지하도록 더욱 이동시키도록 구성된 제어부;를 포함하는 것을 특징으로 한다.
상기 실시형태에 의한 로봇 위치 제어 장치에 있어서, 상기 작업 툴의 끝점을 티칭 포인트(VTP2)로 이동시키는 과정은 상기 제어부가 작업 툴 끝점의 영상 좌표(swx, swy)를 판독하고, 상기 티칭 포인트(VTP1)의 영상 좌표(sx′, sy′)를 판독하며, 상기 티칭 포인트(VTP2)의 영상 좌표(sx′+△sx, sy′+△sy)를 판독하며, 상기 로봇 위치 결정부를 제어하여 상기 작업 툴의 끝점을 |swx-(sx′+△sx)| 및 |swy-(sy′+△sy)|가 0이 되도록 이동시킬 수 있다.
상기의 목적을 달성하기 위해 본 발명의 다른 실시형태에 의한 로봇 위치 제어 장치를 이용한 로봇 위치 제어 방법은 제어부가 설정 위치에서 카메라를 통해 작업 대상물을 인식하는 단계; 상기 제어부가 상기 카메라로부터 2차원 영상을 입력받아 설정된 위치를 기초로 티칭 포인트(VTP1)를 결정하는 단계; 상기 제어부가 거리감지부를 통해 상기 티칭 포인트(VTP1)까지의 거리(r1)를 감지하는 단계; 상기 제어부가 상기 로봇 위치 결정부를 제어하여 작업 툴의 끝점(VWP)을 상기 티칭 포인트(VTP1)로 이동한 후 상기 티칭 포인트(VTP1)까지의 거리(r1)를 유지하도록 더욱 이동시키는 단계; 상기 제어부가 현재 위치에서 상기 카메라를 통해 상기 작업 대상물에 대한 2차원 영상을 획득하는 단계; 상기 제어부가 상기 티칭 포인트(VTP1)의 변위 발생여부를 판단하는 단계; 상기 판단 단계에서 변위(△sx, △sy)가 발생했을 때 상기 제어부는 획득된 상기 2차원 영상을 분석하여 변위 반영된 티칭 포인트(VTP2)를 결정하는 단계; 상기 제어부가 상기 거리 감지기를 통해 상기 변위 반영된 티칭 포인트(VTP2)까지의 거리(r2)를 감지하는 단계; 및 상기 제어부가 상기 로봇 위치 결정부를 제어하여 상기 작업 툴의 끝점(VWP)을 티칭 포인트(VTP2)로 이동한 후 상기 티칭 포인트까지의 거리(r2)를 유지하도록 더욱 이동시키는 단계;를 포함하는 것을 특징으로 한다.
상기 다른 실시형태에 의한 로봇 위치 제어 방법에 있어서, 상기 티칭 포인트까지의 거리(r2)를 유지하도록 더욱 이동시키는 단계는, 상기 제어부가 상기 작업 툴 끝점(VWP)의 영상 좌표(swx, swy)를 판독하는 단계; 상기 제어부가 상기 티칭 포인트(VTP1)의 영상 좌표(sx′, sy′)를 판독하는 단계; 상기 제어부가 상기 티칭 포인트(VTP2)의 영상 좌표(sx′+△sx, sy′+△sy)를 판독하는 단계; 상기 제어부가 상기 로봇 위치 결정부를 제어하여 상기 작업 툴의 끝점(VWP)을 |swx-(sx′+△sx)| 및 |swy-(sy′+△sy)|가 0이 되도록 이동시키는 단계; 및 상기 제어부가 상기 로봇 위치 결정부를 제어하여 상기 작업 툴의 끝점(VWP)을 상기 티칭 포인트(VTP2)까지의 거리를 유지하도록 이동시키는 단계;를 포함할 수 있다.
본 발명의 실시형태에 의한 로봇 위치 제어 장치 및 방법에 의하면, 카메라로부터 2차원 영상을 입력받아 설정된 위치를 기초로 티칭 포인트(VTP1)를 결정하고, 로봇 위치 결정부를 제어하여 작업 툴의 끝점을 상기 티칭 포인트로 이동한 후 상기 거리 감지부에 의해 감지된 티칭 포인트까지의 거리(r1)를 유지하도록 더욱 이동시키고, 현재 위치에서 상기 카메라를 통해 작업 대상물에 대한 2차원 영상을 획득하고 티칭 포인트의 변위 발생여부를 판단하여 변위(△sx, △sy)가 발생했을 때 획득된 2차원 영상을 분석하여 변위 반영된 티칭 포인트(VTP2)를 결정하고, 상기 거리 감지기를 통해 상기 변위 반영된 티칭 포인트까지의 거리(r2)를 감지하고, 상기 로봇 위치 결정부를 제어하여 상기 작업 툴의 끝점을 티칭 포인트(VTP2)로 이동한 후 감지된 티칭 포인트까지의 거리(r2)를 유지하도록 더욱 이동시키도록 구성됨으로써, 티칭 포인트(teaching point)의 변위가 발생된 경우에도 카메라에 대한 캘리브레이션 또는 새로운 티칭 포인트 변경 없이 티칭포인트 추적(tracking)이라는 비전처리 알고리즘 또는 AI 기능을 통해 자동으로 변위를 보정하여 로봇작업의 효율을 높일 수 있는 뛰어난 효과가 있다.
도 1은 본 발명의 실시예에 의한 로봇 위치 제어 장치의 개략적인 구성도이다.
도 2는 본 발명의 실시예에 의한 로봇 위치 제어 장치의 제어블록도이다.
도 3은 본 발명의 실시예에 의한 로봇 위치 제어 장치를 이용한 로봇 위치 제어 방법을 설명하기 위한 플로우챠트이다.
도 4는 도 3의 스텝(S90)에 대한 상세 플로우챠트이다.
본 발명의 실시예를 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예를 기술하기 위한 것이며, 결코 제한적으로 해석되어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하는 것으로 해석되어서는 안 된다.
도면에서 도시된 각 시스템에서, 몇몇 경우에서의 요소는 각각 동일한 참조 번호 또는 상이한 참조 번호를 가져서 표현된 요소가 상이하거나 유사할 수가 있음을 시사할 수 있다. 그러나 요소는 상이한 구현을 가지고 본 명세서에서 보여지거나 기술된 시스템 중 몇몇 또는 전부와 작동할 수 있다. 도면에서 도시된 다양한 요소는 동일하거나 상이할 수 있다. 어느 것이 제1 요소로 지칭되는지 및 어느 것이 제2 요소로 불리는지는 임의적이다.
본 명세서에서 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송', '전달' 또는 '제공'한다 함은 어느 한 구성요소가 다른 구성요소로 직접 데이터 또는 신호를 전송하는 것은 물론, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송하는 것을 포함한다.
이하, 본 발명의 실시예를 도면을 참조하여 상세히 설명하기로 한다.
도 1은 본 발명의 실시예에 의한 로봇 위치 제어 장치의 개략적인 구성도이고, 도 2는 본 발명의 실시예에 의한 로봇 위치 제어 장치의 제어블록도이다.
본 발명의 실시예에 의한 로봇 위치 제어 장치는, 도 1 및 도 2에 도시된 바와 같이, 카메라(30), 거리 감지부(20), 로봇 위치 결정부(200) 및 제어부(100)를 포함한다.
카메라(30)는 로봇 핸드(10) 및 기타 고정 위치에 설치되고 작업 대상물을 촬영하여 2차원 영상을 획득하여 제어부(100)에 입력시키는 역할을 한다. 카메라(30)는 예컨대, 2D 비전 센서 또는 3D 비전센서가 사용될 수 있다.
도 1에는 작업 툴(40)의 끝점(WP)(wx, wy, wz), 티칭 포인트(TP1)(x′, y′, z′), 및 변위(△x, △y, △z) 반영된 티칭 포인트(TP2)(x′+△x, y′+△y, z′+△z)가 3차원으로 표시되어 있고, 좌측 상단에 카메라(30)로 촬영한 2D 영상이 박스로 표시되어 있다. 이 촬영된 2D 영상은 (sx, sy) 좌표계로 표시되며, 여기서 VWP(swx, swy)는 작업툴(40)의 끝점을 나타낸다. VTP1(sx′, sy′)는 티칭 포인트를 나타낸다. VTP2(sx′+△sx, sy′+△sy)는 변위 반영된 티칭 포인트를 나타낸다.
거리 감지부(20)는 로봇 핸드(10)에 장착되고, 카메라(30)의 중심점(cx, cy, cz)에서 티칭 포인트(VTP1 및 VTP2)까지의 거리를 감지하여 제어부(100)에 입력시키는 역할을 한다. 거리 감지부(20)는 레이저 레인지 파인더(laser range finder), 깊이 카메라(Depth Camera) 등이 사용될 수 있으며, 깊이를 측정하는 장치이면 특별한 제한없이 사용될 수 있다.
로봇 위치 결정부(200)는 로봇 핸드(10)에 장착되어 제어부(100)로부터 위치 제어신호를 입력받아 로봇 핸드(10)의 위치를 제어부(100)에 의해 결정된 특정 위치로 이동시키는 장치이다. 로봇 핸드(10)의 위치 이동은 결과적으로 작업 툴(40)의 위치를 이동시키기 위한 모든 동작을 포함할 수 있다.
제어부(100)는 전체 구성요소를 제어하는 마이크로컴퓨터로서, 카메라(30)로부터 2차원 영상을 입력받음과 아울러 거리 감지부(20)에서 감지된 티칭 포인트(VTP1, VTP2)까지의 거리 정보를 입력받아 로봇 위치를 조정하기 위한 제어신호를 로봇 위치 결정부(200)에 출력하는 역할을 한다.
좀 더 상세하게 설명하면, 제어부(100)는 카메라(30)로부터 2차원 영상을 입력받아 영상을 분석하고 설정된 위치(교시된 위치)를 기초로 AI 기능 또는 비전처리 알고리즘[티칭포인트 추적(tracking)]을 이용하여 티칭 포인트(VTP1)를 결정하고, 로봇 위치 결정부(200)를 제어하여 작업 툴(40)의 끝점(VWP)을 티칭 포인트(VTP1)로 이동시킨 후 거리 감지부(20)를 통해 티칭 포인트(VTP1)까지의 거리(r1)를 유지하도록 더욱 이동시킨다. 제어부(100)는 현재 위치에서 카메라(30)를 통해 작업 대상물에 대한 2차원 영상을 획득하여 티칭 포인트(VTP1)의 변위 발생여부를 판단하고, 변위(△sx, △sy)가 발생했을 때 영상을 처리하고 AI 기능 또는 비전처리 알고리즘을 이용하여서 변위 반영된 티칭 포인트(VTP2)를 결정한다. 제어부(100)는 거리 감지부(20)를 통해 변위 반영된 티칭 포인트(VTP2)까지의 거리(r2)를 감지하고, 로봇 위치 결정부(200)를 제어하여 작업 툴(40)의 끝점(VWP)을 티칭 포인트(VTP2)로 이동시킨 후, 감지된 티칭 포인트(VTP2)까지의 거리(r2)를 유지하도록 작업 툴(40)의 끝점(VWP)을 더욱 이동시킨다.
작업 툴(40)의 끝점(VWP)을 티칭 포인트(VTP2)로 이동시키는 과정에 대해 상세하게 설명한다. 제어부(100)는 작업 툴(40)의 끝점(VWP)의 영상 좌표(swx, swy)를 판독하고, 티칭 포인트(VTP1)의 영상 좌표(sx′, sy′)를 판독하며, 티칭 포인트(VTP2)의 영상 좌표(sx′+△sx, sy′+△sy)를 판독한 후, 로봇 위치 결정부(200)를 제어하여 작업 툴(40)의 끝점(VWP)을 |swx-(sx′+△sx)| 및 |swy-(sy′+△sy)|가 0이 되도록 이동시킨다.
상기와 같이 구성된 본 발명의 실시예에 의한 로봇 위치 제어 장치를 이용한 로봇 위치 제어 방법에 대해 설명하기로 한다.
도 3은 본 발명의 실시예에 의한 로봇 위치 제어 장치를 이용한 로봇 위치 제어 방법을 설명하기 위한 플로우챠트이고, 도 4는 도 3의 스텝(S90)에 대한 상세플로우챠트로서, 여기서 S는 스텝(step)을 의미한다.
먼저, 제어부(100)는 설정 위치(예컨대, 컨베이어에 설치된 로봇 핸드의 위치)에서 카메라(30)의 2차원 영상을 통해 작업 대상물을 인식하면(S10), 카메라(30)로부터 입력된 2차원 영상을 분석하여 설정된 위치를 기초로 AI 기능 또는 비전처리 알고리즘을 이용하여서 티칭 포인트(VTP1)를 결정한다(S20).
이어서, 제어부(100)는 거리감지부(20)를 통해 티칭 포인트(VTP1)까지의 거리(r1)를 감지하고(S30), 로봇 위치 결정부(200)를 제어하여 작업 툴(40)의 끝점(VWP)을 티칭 포인트(VTP1)로 이동시킨 후 티칭 포인트(VTP1)까지의 거리(r1)를 유지하도록 더욱 이동시킨다(S40).
이때, 제어부(100)가 현재 위치에서 카메라(30)를 통해 작업 대상물에 대한 2차원 영상을 획득하고(S50), 획득된 2차원 영상을 분석하여 티칭 포인트(VTP1)의 변위 발생여부를 판단한다(S60).
만약, 상기 스텝(S60)에서 티칭 포인트(VTP1)의 변위(△sx, △sy)가 발생했을 때(YES), 제어부(100)는 획득된 영상을 분석하고 AI 기능을 이용하여 변위 반영된 티칭 포인트(VTP2)를 결정한다(S70).
이어서, 제어부(100)는 거리 감지기(20)를 통해 변위 반영된 티칭 포인트(VTP2)까지의 거리(r2)를 감지한 후(S80), 로봇 위치 결정부(200)를 제어하여서 작업 툴(40)의 끝점(VWP)을 티칭 포인트(VTP2)로 이동시킨 후 티칭 포인트(VTP2)까지의 거리(r2)를 유지하도록 더욱 이동시킨다(S90)
상기 스텝(S90)에 대해 도 4를 참조하여 상세히 설명하기로 한다.
먼저, 제어부(100)가 2D 영상을 통해 작업 툴(40)의 끝점(VWP)에 대한 영상 좌표(swx, swy)를 판독한 후(S91), 티칭 포인트(VTP1)의 영상 좌표(sx′, sy′)를 판독한다(S92).
이어서, 제어부(100)가 변위(△sx, △sy)가 반영된 티칭 포인트(VTP2)의 영상 좌표(sx′+△sx, sy′+△sy)를 판독하고(S93), 로봇 위치 결정부(200)를 제어하여 작업 툴(40)의 끝점(VWP)을 |swx-(sx′+△sx)| 및 |swy-(sy′+△sy)|가 0이 되도록 이동시킨다(S94).
이후, 제어부(100)는 로봇 위치 결정부(200)를 제어하여 작업 툴(40)의 끝점(VWP)을 티칭 포인트(VTP2)까지의 거리를 유지하도록 이동시킨다.
본 발명의 실시예에 의한 로봇 위치 제어 장치 및 방법에 의하면, 카메라로부터 2차원 영상을 입력받아 설정된 위치를 기초로 AI 기능 또는 비전처리 알고리즘을 이용하여 티칭 포인트(VTP1)를 결정하고, 로봇 위치 결정부를 제어하여 작업 툴의 끝점을 상기 티칭 포인트로 이동한 후 상기 거리 감지부에 의해 감지된 티칭 포인트까지의 거리(r1)를 유지하도록 더욱 이동시키고, 현재 위치에서 상기 카메라를 통해 작업 대상물에 대한 2차원 영상을 획득하고 티칭 포인트의 변위 발생여부를 판단하여 변위(△sx, △sy)가 발생했을 때 획득된 2차원 영상을 이용하여 변위 반영된 티칭 포인트(VTP2)를 결정하고, 상기 거리 감지기를 통해 상기 변위 반영된 티칭 포인트까지의 거리(r2)를 감지하고, 상기 로봇 위치 결정부를 제어하여 상기 작업 툴의 끝점을 티칭 포인트(VTP2)로 이동한 후 감지된 티칭 포인트까지의 거리(r2)를 유지하도록 더욱 이동시키도록 구성됨으로써, 티칭 포인트(teaching point)의 변위가 발생된 경우에도 카메라에 대한 캘리브레이션 또는 새로운 티칭 포인트 변경 없이 티칭포인트 추적(tracking)이라는 비전처리 알고리즘 또는 AI 기능을 통해 자동으로 변위를 보정하여 로봇작업의 효율을 높일 수 있다.
도면과 명세서에는 최적의 실시예가 개시되었으며, 특정한 용어들이 사용되었으나 이는 단지 본 발명의 실시형태를 설명하기 위한 목적으로 사용된 것이지 의미를 한정하거나 특허 청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 수 있을 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
10: 로봇 핸드
20: 거리 감지부
30: 카메라
40: 작업 툴
100: 제어부
200: 로봇 위치 결정부

Claims (4)

  1. 작업 대상물을 촬영하여 2차원 영상을 획득하도록 구성된 카메라;
    로봇 핸드에 장착되어 카메라 중심점에서 티칭 포인트까지의 거리를 감지하는 거리 감지부;
    상기 로봇 핸드에 장착되어 상기 로봇 핸드의 위치를 특정 위치로 이동시키도록 구성된 로봇 위치 결정부; 및
    상기 카메라로부터 2차원 영상을 입력받아 설정된 위치를 기초로 티칭 포인트(VTP1)를 결정하고, 상기 로봇 위치 결정부를 제어하여 작업 툴의 끝점을 상기 티칭 포인트로 이동한 후 상기 거리 감지부에 의해 감지된 티칭 포인트까지의 거리(r1)를 유지하도록 이동시키고, 상기 카메라를 통해 상기 작업 대상물에 대한 2차원 영상을 획득하고 티칭 포인트의 변위 발생여부를 판단하여 변위(△sx, △sy)가 발생했을 때 획득된 2차원 영상을 분석하여 변위 반영된 티칭 포인트(VTP2)를 결정하고, 상기 거리 감지기를 통해 상기 변위 반영된 티칭 포인트까지의 거리(r2)를 감지하고, 상기 로봇 위치 결정부를 제어하여 상기 작업 툴의 끝점을 티칭 포인트(VTP2)로 이동한 후 감지된 티칭 포인트까지의 거리(r2)를 유지하도록 더욱 이동시키도록 구성된 제어부;를 포함하는 로봇 위치 제어 장치.
  2. 제 1 항에 있어서,
    상기 작업 툴의 끝점을 티칭 포인트(VTP2)로 이동시키는 과정은
    상기 제어부가 작업 툴 끝점의 영상 좌표(swx, swy)를 판독하고, 상기 티칭 포인트(VTP1)의 영상 좌표(sx′, sy′)를 판독하며, 상기 티칭 포인트(VTP2)의 영상 좌표(sx′+△sx, sy′+△sy)를 판독하며, 상기 로봇 위치 결정부를 제어하여 상기 작업 툴의 끝점을 |swx-(sx′+△sx)| 및 |swy-(sy′+△sy)|가 0이 되도록 이동시키는 로봇 위치 제어 장치.
  3. 제 1 항에 기재된 로봇 위치 제어 장치를 이용한 로봇 위치 제어 방법으로서,
    제어부가 설정 위치에서 카메라를 통해 작업 대상물을 인식하는 단계;
    상기 제어부가 상기 카메라로부터 2차원 영상을 입력받아 설정된 위치를 기초로 티칭 포인트(VTP1)를 결정하는 단계;
    상기 제어부가 거리감지부를 통해 상기 티칭 포인트(VTP1)까지의 거리(r1)를 감지하는 단계;
    상기 제어부가 상기 로봇 위치 결정부를 제어하여 작업 툴의 끝점(VWP)을 상기 티칭 포인트(VTP1)로 이동한 후 상기 티칭 포인트(VTP1)까지의 거리(r1)를 유지하도록 더욱 이동시키는 단계;
    상기 제어부가 현재 위치에서 상기 카메라를 통해 상기 작업 대상물에 대한 2차원 영상을 획득하는 단계;
    상기 제어부가 상기 티칭 포인트(VTP1)의 변위 발생여부를 판단하는 단계;
    상기 판단 단계에서 변위(△sx, △sy)가 발생했을 때 상기 제어부는 획득된 상기 2차원 영상을 분석하여 변위 반영된 티칭 포인트(VTP2)를 결정하는 단계;
    상기 제어부가 상기 거리 감지기를 통해 상기 변위 반영된 티칭 포인트(VTP2)까지의 거리(r2)를 감지하는 단계; 및
    상기 제어부가 상기 로봇 위치 결정부를 제어하여 상기 작업 툴의 끝점(VWP)을 티칭 포인트(VTP2)로 이동한 후 상기 티칭 포인트까지의 거리(r2)를 유지하도록 더욱 이동시키는 단계;를 포함하는 로봇 위치 제어 방법.
  4. 제 3 항에 있어서,
    상기 티칭 포인트까지의 거리(r2)를 유지하도록 더욱 이동시키는 단계는,
    상기 제어부가 상기 작업 툴 끝점(VWP)의 영상 좌표(swx, swy)를 판독하는 단계;
    상기 제어부가 상기 티칭 포인트(VTP1)의 영상 좌표(sx′, sy′)를 판독하는 단계;
    상기 제어부가 상기 티칭 포인트(VTP2)의 영상 좌표(sx′+△sx, sy′+△sy)를 판독하는 단계;
    상기 제어부가 상기 로봇 위치 결정부를 제어하여 상기 작업 툴의 끝점(VWP)을 |swx-(sx′+△sx)| 및 |swy-(sy′+△sy)|가 0이 되도록 이동시키는 단계; 및
    상기 제어부가 상기 로봇 위치 결정부를 제어하여 상기 작업 툴의 끝점(VWP)을 상기 티칭 포인트(VTP2)까지의 거리를 유지하도록 이동시키는 단계;를 포함하는 로봇 위치 제어 방법.
KR1020190055417A 2019-05-13 2019-05-13 로봇 위치 제어 장치 및 방법 KR102130617B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190055417A KR102130617B1 (ko) 2019-05-13 2019-05-13 로봇 위치 제어 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190055417A KR102130617B1 (ko) 2019-05-13 2019-05-13 로봇 위치 제어 장치 및 방법

Publications (1)

Publication Number Publication Date
KR102130617B1 true KR102130617B1 (ko) 2020-07-06

Family

ID=71571186

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190055417A KR102130617B1 (ko) 2019-05-13 2019-05-13 로봇 위치 제어 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102130617B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022092446A1 (ko) * 2020-10-30 2022-05-05 한국전자기술연구원 터치를 이용한 로봇의 캘리브레이션 시스템 및 방법
KR20220164197A (ko) * 2021-06-04 2022-12-13 한국전자통신연구원 초고품질의 디지털 데이터 생성 방법 및 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5428639B2 (ja) * 2009-08-19 2014-02-26 株式会社デンソーウェーブ ロボットの制御装置及びロボットのティーチング方法
JP2015212012A (ja) * 2009-02-03 2015-11-26 ファナック アメリカ コーポレイション ロボットツールの制御方法
JP6129058B2 (ja) * 2013-11-13 2017-05-17 三菱電機株式会社 教示点補正装置および教示点補正方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015212012A (ja) * 2009-02-03 2015-11-26 ファナック アメリカ コーポレイション ロボットツールの制御方法
JP5428639B2 (ja) * 2009-08-19 2014-02-26 株式会社デンソーウェーブ ロボットの制御装置及びロボットのティーチング方法
JP6129058B2 (ja) * 2013-11-13 2017-05-17 三菱電機株式会社 教示点補正装置および教示点補正方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022092446A1 (ko) * 2020-10-30 2022-05-05 한국전자기술연구원 터치를 이용한 로봇의 캘리브레이션 시스템 및 방법
KR20220164197A (ko) * 2021-06-04 2022-12-13 한국전자통신연구원 초고품질의 디지털 데이터 생성 방법 및 장치
KR102611537B1 (ko) 2021-06-04 2023-12-08 한국전자통신연구원 초고품질의 디지털 데이터 생성 방법 및 장치

Similar Documents

Publication Publication Date Title
US11911914B2 (en) System and method for automatic hand-eye calibration of vision system for robot motion
US11254008B2 (en) Method and device of controlling robot system
US9437005B2 (en) Information processing apparatus and information processing method
US10112301B2 (en) Automatic calibration method for robot systems using a vision sensor
US10035268B2 (en) Measurement system used for calibrating mechanical parameters of robot
US11565427B2 (en) Robot system
US6763284B2 (en) Robot teaching apparatus
US5319443A (en) Detected position correcting method
US20090099690A1 (en) Method for robot-assisted measurement of measurable objects
CN111278608B (zh) 用于3d视觉机器人系统的校准物品
JP6816070B2 (ja) 干渉回避装置およびロボットシステム
KR20080088165A (ko) 로봇 캘리브레이션 방법
KR102130617B1 (ko) 로봇 위치 제어 장치 및 방법
CN111152243B (zh) 控制系统
US11554494B2 (en) Device for acquiring a position and orientation of an end effector of a robot
Deniz et al. In-line stereo-camera assisted robotic spot welding quality control system
US20180051983A1 (en) Measurement system and method for configuring the measurement system
KR20130075712A (ko) 레이저비전 센서 및 그 보정방법
KR20100081881A (ko) 데이터 매칭 장치, 데이터 매칭 방법, 및 이를 이용한 이동로봇
US20230032421A1 (en) Robot system
US20220388179A1 (en) Robot system
US20230191612A1 (en) Coordinate system setting system and position/orientation measurement system
JP3562096B2 (ja) 位置検出方法
WO2024062535A1 (ja) ロボット制御装置
KR101122857B1 (ko) 랜드마크를 이용한 비젼 트래킹 시스템 및 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant