KR20120009275A - 로봇의 축 관리장치 및 방법 - Google Patents

로봇의 축 관리장치 및 방법 Download PDF

Info

Publication number
KR20120009275A
KR20120009275A KR1020100071398A KR20100071398A KR20120009275A KR 20120009275 A KR20120009275 A KR 20120009275A KR 1020100071398 A KR1020100071398 A KR 1020100071398A KR 20100071398 A KR20100071398 A KR 20100071398A KR 20120009275 A KR20120009275 A KR 20120009275A
Authority
KR
South Korea
Prior art keywords
robot
image
axis
vision sensor
laser vision
Prior art date
Application number
KR1020100071398A
Other languages
English (en)
Other versions
KR101206241B1 (ko
Inventor
홍영화
강동수
우갑주
은종호
Original Assignee
삼성중공업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성중공업 주식회사 filed Critical 삼성중공업 주식회사
Priority to KR20100071398A priority Critical patent/KR101206241B1/ko
Publication of KR20120009275A publication Critical patent/KR20120009275A/ko
Application granted granted Critical
Publication of KR101206241B1 publication Critical patent/KR101206241B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • B25J9/106Programme-controlled manipulators characterised by positioning means for manipulator elements with articulated links
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/19Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by positioning or contouring control systems, e.g. to control position from one programmed point to another or to control movement along a programmed continuous path

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)

Abstract

로봇의 축 관리장치 및 방법이 개시된다. 본 발명의 실시예에 따른 로봇의 축 관리장치 및 방법은 레이저 비전센서가 장착되는 로봇의 축 관리방법에 있어서, 전원 온에 따른 초기화가 실행되면 로봇의 웜업 과정에서 레이저 비전센서로 베이스 특정라인의 영상을 스캔하는 과정; 상기 스캔한 베이스 특정라인의 영상과 정밀원점영상과 비교하여 축 오차의 발생여부를 판정하는 과정; 축 오차 발생이 검출되면 그에 대한 정보를 지시하는 과정을 포함한다.

Description

로봇의 축 관리장치 및 방법{APPARATUS AND METHOD OF PIVOT MANAGEMENT FOR ROBOT}
본 발명은 산업용 로봇의 축 관리장치 및 방법에 관한 것이다.
로봇은 다수의 링크와 각 링크를 연결하는 관절로 이루어져 미리 설정된 작업 범위 내를 이동하며 용접이나 조립 등의 작업을 수행하는 것으로, 산업 자동화에 따라 생산성 향상과 정밀작업의 수단으로 널리 사용되고 있다.
로봇이 용접이나 조립 등의 할당된 작업을 수행하기 위해서는 툴 끝단(Tool Center Point : TCP)이 작업 위치에서 이동되어야 한다.
이때, 로봇의 관절 및 회전축의 움직임은 모터 등의 전기적 장치 또는 유압 장치에 의해 이루어지며, 이러한 장치의 작동으로 작업자가 의도하는 작업 위치에서 툴 끝단(TCP)이 이동되게 하기 위해서는 각 링크의 길이, 휨에 대한 치수와 더불어 각 관절의 실제 회동 각도가 매우 중요하다.
로봇의 제어에 있어 사용자가 의도한 작업 위치와 툴 끝단(TCP)이 이동되는 위치에 오차가 발생하는데, 이러한 오차는 기하학적 오차, 동작 제어시 각 링크에 대한 동적 오차(Dynamic Error), 무게로 인한 구조물의 처짐, 기계 구조상 발생되는 백 래쉬(Back Lash) 현상, 관절부의 컴플라이언스(Compliance), 움직임 과정에서 주변 구조물과의 충돌로 인한 축의 뒤틀림, 엔코더 값의 손실 등 다양한 원인에 의해 발생된다.
이러한 오차가 누적되면 조립이나 용접 작업에서 작업 명령에 반하여 대상 부재와 툴 끝단(TCP)간의 위치가 변형되어 품질에 악영향을 초래하게 된다.
따라서, 로봇의 링크 위치 및 방위 오차와 로봇이 가지는 기계적 특성간의 관계를 살펴 기구학적 파라미터의 오차를 검출하고, 방위와 링크 위치의 변수 사이의 함수 관계를 찾아 링크 위치의 오차를 보정하는 캘리브레이션(Calibration)이 제어 프로그램에 적용되고 있다.
로봇의 캘리브레이션은 사용 모델에 따라 링크 파라미터에 근거한 기구학적 캘리브레이션과 관절 관성, 링크 강성, 조립 공차, 백 래쉬, 커플링 오차, 마찰력 등의 비기구학적 파라미터(Non??Kinematic Parameter)를 포함하는 캘리브레이션으로 나누어 고려될 수 있다.
기구학적 캘리브레이션 방법은 측정 도구(지그)를 이용하는 것으로 별도를 측정 도구를 기구적으로 연결하여 오차를 측정하여야 하므로 오차 측정 작업에 번거로움이 발생되어 현장 적용에 많은 제한이 발생된다.
그리고, 비기구학적 캘리브레이션 방법에 대하여서는 구체적인 해결 방법을 제시하지 못하고 있다.
본 발명의 실시예는 로봇 운용을 위해 전원이 공급되어 초기화가 실행되면 축 오차를 판단하고, 그 결과를 운용자(관리자/작업자)에게 지시함으로써, 신속한 후속조치가 실행될 수 있는 로봇의 축 관리장치 및 방법을 제공하고자 한다.
본 발명의 일 측면에 따르면, 로봇의 전원 온/오프 키, 작업 명령 설정 키, 작업 실행 실행키를 포함하는 조작부; 상기 로봇에 장착되는 레이저 비전센서에서 입력되는 영상을 처리하는 영상처리부; 제어부의 제어에 따라 상기 로봇의 관절과 축 구동을 실행시키는 구동부; 전원 온에 따라 초기화되어 구동부를 통해 상기 로봇의 각 관절과 회전축을 동작시켜 웜 업을 실행시키고, 웜 업 과정에서 상기 레이저 비전센서를 제어하여 지정된 라인의 영상을 스캔한 다음 기준 데이터인 정밀원점영상과 비교하여 축 오차 발생을 판단하는 제어부; 및 상기 제어부의 제어에 따라 축 오차의 이상여부를 표출하는 표시부를 포함하는 로봇의 축 관리장치가 제공될 수 있다.
상기 제어부는 학습된 원점영상을 더 참조하여 축 오차 발생여부를 판단하고, 상기 학습된 원점영상은 상기 로봇의 작업 또는 가공 품질이 지정된 합격선 이상인 경우에 있어서, 상기 레이져 비젼센서가 지정된 라인을 스캔하여 생성한 영상인 것으로 할 수 있다.
본 발명에 따르면, 상기 조작부에서 입력되는 작업 제어 명령, 학습되는 축 오차의 캘리브레이션 결과를 저장하는 메모리부를 더 포함할 수 있다.
상기 제어부는 레이저 비전센서로부터 X축인 베이스 정면의 하측 혹은 상측의 가로 방향, Y축인 베이스 정면의 좌측 혹은 우측의 세로 방향으로, Z축인 베이스 정면의 대각선 방향 중 어느 하나 혹은 하나 이상의 방향의 스캔 영상을 입력받아 분석할 수 있다.
본 발명의 다른 측면에 따르면, 레이저 비전센서가 장착되는 로봇의 축 관리방법에 있어서, 전원 온에 따른 초기화가 실행되면 로봇의 웜업 과정에서 레이저 비전센서로 베이스 특정라인의 영상을 스캔하는 과정; 상기 스캔한 베이스 특정라인의 영상과 정밀원점영상과 비교하여 축 오차의 발생여부를 판정하는 과정; 축 오차 발생이 검출되면 그에 대한 정보를 지시하는 과정을 포함하는 로봇의 축 관리방법이 제공될 수 있다.
상기 축 오차의 발생여부를 판정하는 과정은 학습된 원점영상을 더 참조하여 상기 축 오차의 발생여부를 판정하되, 상기 학습된 원점영상은 상기 로봇의 작업 또는 가공 품질이 지정된 합격선 이상인 경우에 있어서, 상기 레이져 비젼센서가 상기 특정 라인을 스캔하여 생성한 영상이 적용될 수 있다.
본 발명의 실시예는 로봇의 축 오차를 정확하게 판단하고, 그 결과를 운용자(관리자/작업자)에게 지시하여 신속한 후속조치가 제공되도록 함으로써, 로봇의 운용에 안전성 및 신뢰성을 제공할 수 있다.
또한, 로봇의 웜업 과정에서 축 오차가 보정되어 지정된 작업이 실행되도록 함으로써, 작업에 정밀성을 제공할 수 있다.
또한, 로봇이 작업을 개시하기 전에 축 오차를 판단하고, 그 결과를 학습함으로써 로봇의 축 오차 관리에 신뢰성을 제공할 수 있다.
도 1은 본 발명의 실시예에 따른 로봇의 축 관리장치를 개략적으로 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 로봇의 원점설정에 대한 흐름도이다.
도 3은 본 발명의 실시예에 따른 로봇의 축 관리절차를 실행하는 흐름도이다.
이하, 본 발명의 바람직한 실시예를 첨부한 도면을 참조로 상세하게 설명하면 다음과 같다.
도 1은 본 발명의 실시예에 따른 로봇의 축 관리장치를 개략적으로 도시한 도면이다.
본 발명에 따르는 실시예는 로봇의 축 오차를 관리하기 위한 발명으로, 로봇을 이용한 조립이나 용접 등의 작업 제어는 기존의 로봇 제어와 동일 내지 유사하게 실행되므로, 이에 대한 구체적인 설명은 생략한다.
도 1을 참조하면 본 실시예는 6축을 갖는 로봇(10)과 로봇(10)의 움직임을 제어하고 전원 공급에 의한 초기화가 실행되면 축 오차가 발생되었는지를 분석하여 그 결과를 지시하는 제어장치(100)로 구성된다.
로봇(10)은 베이스(11)에 발판(12)이 부착되어 설치 고정되고, 베이스 스탠드(13)는 발판(12)에 의해 지지되며, 베이스 스탠드(13)의 상부에는 제1관절(14)을 통해 제1아암(15)의 일측 끝단이 연결된다.
그리고, 제1아암(15)의 다른 일측 끝단에는 제2관절(16)을 통해 제2아암(17)의 일측 끝단이 연결되고, 제2아암(17)의 다른 일측 끝단에는 제3관절(18)을 통해 로봇 핸드(Robot Hand: 19)가 연결된다.
상기 로봇 핸드(19)에는 툴 부착부가 포함되고, 툴 부착부에는 조립이나 용접을 실행시키는 툴(20)이 결합되며, 툴(20)의 끝단에는 레이져 비젼 센서(21)가 설치된다.
상기 레이저 비전센서(21)는 작업 품질과 작업 실행의 이상여부를 판단할 수 있도록 하기 위하여 특정 라인을 스캔하여 작업 라인의 영상을 생성한다.
또한, 레이저 비전센서(21)는 오프 상태에 있는 로봇(10)의 운용을 위해 전원이 공급되어 초기화가 실행되고, 각 관절과 회전축을 웜 업시키는 과정에서 축 오차가 발생되었는지를 판단시킬 수 있도록 베이스(11)의 특정 라인에 대한 영상을 입력한다.
상기 베이스(11)의 특정 라인은 X축인 베이스(11) 정면의 하측 혹은 상측의 가로 방향, Y축인 베이스(11) 정면의 좌측 혹은 우측의 세로 방향으로, Z축인 베이스(11) 정면의 대각선 방향 중 어느 하나 혹은 하나 이상을 포함하여 설정될 수 있다.
상기 특정 라인은 베이스 외에 다른 구성의 형태나 또는 표시된 특정 라인일 수 있다.
축 오차의 정밀 측정을 위해서는 X,Y,Z 축 모두를 측정하는 방법이 가장 정밀성을 높일 수 있다.
상기 레이저 비전센서(21)의 베이스(11) 특정 라인에 대한 가로방향 영상입력은 좌측에서 우측방향으로의 이동이나 우측에서 좌측방향으로의 이동 중 어느 하나로 설정될 수 있다.
그리고, 베이스(11) 특정 라인에 대한 세로방향 영상입력은 상측에서 하측방향으로의 이동이나 하측에서 상측방향으로 이동 중 어느 하나로 설정될 수 있다.
또한, 베이스(11) 특정 라인에 대한 대각선 방향 영상입력은 좌측 하단에서 우측 상단방향으로의 대각선 이동, 우측상단에서 좌측 하단방향으로 이동, 우측 하단에서 좌측 상단방향으로의 대각선 이동, 좌측 상단에서 우측 하단방향으로 대각선 이동 중 어느 하나로 설정될 수 있다.
상기 로봇(10)은 베이스 스탠드(13)의 회전에 따른 제1회전축(R1), 제1관절(14)의 움직임으로 제1아암(15)의 상하 회전을 실행시키는 제2회전축(R2), 제2관절(16)의 움직임으로 제2아암(17)의 상하 회전을 실행시키는 제3회전축(R3), 제2아암(17)의 회전을 실행시키는 제4회전축(R4), 제3관절(18)의 움직임으로 로봇 핸드(19)의 작업 각도를 조절시키는 제5회전축(R5), 로봇 핸드(19)의 회전을 통해 툴(20)을 회전시키는 제6회전축(R6)을 포함한다.
따라서, 로봇 핸드(19)에 결합된 툴(20)의 끝단(TCP)는 제1축 내지 제3축(R1 ~ R3)으로 정해지는 위치와 제4축 내지 제6축(R4 ~ R6)으로 정해지는 자세에 의해 결정된다.
또한, 제어장치(100)는 조작부(101)와 제어부(102), 메모리부(103), 표시부(104), 구동부(105), 영상처리부(106)를 포함한다.
상기 조작부(101)는 로봇(10)의 전원 온/오프를 선택하는 전원 키, 위급 상황에서 로봇(10)의 비상정지를 실행시키는 비상 키, 로봇(10)의 작업 명령을 설정하기 위한 좌표 설정키, 작업 실행을 명령하는 실행키, 좌표 보정키 등을 포함하여 다양한 기능키가 구비된다.
제어부(102)는 상기 조작부(101)에서 정지상태에 있는 로봇(10)에 전원을 공급하는 명령이 검출되면 초기화를 실행한 다음 구동부(105)를 통해 로봇(10)의 각 관절과 회전축을 동작시켜 웜 업을 실행시키고, 웜 업 과정에서 레이저 비전센서(21)로 베이스(11)의 특정 라인을 스캔하여 영상을 추출한 다음 메모리부(103)에 저장된 최초 정밀원점영상 및 학습된 원점영상과 비교하여 축 오차가 발생되었는지를 판단한다.
여기서, 학습된 원점영상은, 로봇에 축 오차가 어느 정도 발생하여도, 로봇의 작업/가공 품질이 지정된 합격선을 상회하는 경우에 있어서의 스캔영상일 수 있다.
사용자는 로봇의 작업/가공 품질이 지정된 합격선을 상회하는 경우 해당하는 스캔영상을 학습된 원점영상으로 설정할 수 있고, 상기 학습된 원점영상은 메모리부(103)에 저장될 수 있다.
그리고, 축 오차가 발생된 것으로 판단되면 표시부(104)를 통해 로봇(10) 운용자(관리자/작업자)에게 지시하여 주며, 축 오차의 캘리브레이션이 실행되면 그 값을 학습하여 메모리부(103)에 저장한다.
메모리부(103)는 상기 조작부(101)에서 입력되는 작업 제어 명령을 저장하고, 학습되는 축 오차의 캘리브레이션 결과를 저장한다.
표시부(104)는 제어부(102)의 제어에 따라 모니터링 되는 축 오차의 판단 결과를 설정된 소정의 형식으로 표출시킨다.
구동부(105)는 상기 제어부(102)에서 인가되는 전원 공급에 따른 초기화 명령에 따라 정지 상태에 있는 로봇(10)의 각 관절과 회전축을 구동시켜 웜 업을 실행한다.
또한, 상기 구동부(105)는 웜 업 실행 과정에서 툴 끝단(TCP)에 설치되는 레이저 비전센서(21)가 베이스(11)의 일정 라인을 스캔하여 영상을 입력할 수 있도록 관절과 회전축을 구동시킬 수 있다.
레이저 비전센서(21)가 스캔하는 방향은 다양할 수 있는 바, 예를 들어, 구동부(105)는 레이저 비전센서(21)를 X축인 베이스(11) 정면의 하측 혹은 상측의 가로 방향, Y축인 베이스(11) 정면의 좌측 혹은 우측의 세로 방향으로, Z축인 베이스(11) 정면의 대각선 방향 중 어느 하나 혹은 하나 이상의 방향으로 이동시켜 스캔 영상이 입력될 있도록 할 수 있다.
상기 구동부(105)는 레이저 비전센서(21)를 베이스(11)의 가로방향에 대하여 좌측에서 우측방향 혹은 우측에서 좌측방향으로 이동시켜 스캔 영상이 입력될 수 있도록 할 수 있다.
또한, 구동부(105)는 레이저 비전센서(21)를 베이스(11)의 세로방향에 대하여 상측에서 하측방향 혹은 하측에서 상측방향으로 이동시켜 스캔 영상이 입력될 수 있도록 한다.
또한, 구동부(105)는 레이저 비전센서(21)를 베이스(11)의 대각선 방향에 대하여 좌측하단에서 우측상단 방향, 우측상단에서 좌측하단 방향, 우측하단에서 좌측 상단방향, 좌측상단에서 우측하단방향 중 어느 하나 혹은 그 이상으로 이동시켜 스캔 영상이 입력될 수 있도록 할 수 있다.
영상 처리부(106)는 상기 레이저 비전 센서(21)로부터 입력되는 베이스(11) 특정 라인의 스캔 영상을 설정된 소정의 형식으로 처리한다.
전술한 기능이 포함되는 본 발명의 실시예에 따르는 구체적인 동작을 설명하면 다음과 같다.
도 2는 본 발명의 실시예에 따른 로봇의 원점설정에 대한 흐름도이다.
도 2를 참조하면, 정밀한 조립이나 용접 작업을 위하여 작업장에 로봇(10)이 설치되면(S101), 로봇(10)의 각 관절과 회전축의 구동에 대한 정밀원점 보정을 실행한다(S102).
그리고, 툴 끝단(TCP)에 장착되는 레이저 비전센서(21)로 베이스(11)의 특정 라인을 스캔하여 영상을 추출하며(S103), 추출된 영상에 상/하한의 기준라인을 설정하고, 이를 최초원점의 기준영상으로 설정한다(S104)
상기 레이저 비전센서(21)에 의한 베이스(11)의 특정라인 영상 추출은, X축인 베이스(11) 정면의 하측 혹은 상측의 가로 방향, Y축인 베이스(11) 정면의 좌측 혹은 우측의 세로 방향으로, Z축인 베이스(11) 정면의 대각선 방향 중 어느 하나 혹은 하나 이상을 포함하는 영상을 추출한다.
도 3은 본 발명의 실시예에 따른 로봇의 축 관리절차를 실행하는 흐름도이다.
도 3을 참조하면, 본 발명의 실시예에 따르는 로봇(10)의 전원이 오프 되어 동작이 정지되어 있는 상태에서(S201) 제어부(102)는 조작부(101)로부터 전원 온 명령이 입력되는지 판단한다(S202).
상기 S202에서 전원 온 명령이 입력되지 않으면 로봇(10)은 전원 오프의 대기상태를 지속적으로 유지하고, 전원 온 명령이 입력되면 제어부(102)는 초기화를 실행한 다음 구동부(105)를 통해 정지 상태에 있는 로봇(10)의 각 관절과 회전축을 구동시켜 웜 업을 실행한다(S203).
상기와 같이 로봇(10)의 각 관절과 회전축을 구동시키는 웜 업 실행과정에서 툴 끝단(TCP)에 설치되는 레이저 비전센서(21)는 베이스(11)의 특정 라인을 스캔하여 영상을 입력한다(S204).
상기 레이저 비전센서(21)의 스캔으로 입력되는 베이스(10)의 특정 라인의 영상은 X축인 베이스(11) 정면의 하측 혹은 상측의 가로 방향, Y축인 베이스(11) 정면의 좌측 혹은 우측의 세로 방향으로, Z축인 베이스(11) 정면의 대각선 방향 중 어느 하나 혹은 하나 이상의 스캔 영상을 포함한다.
상기 레이저 비전센서(21)에서 입력되는 스캔 영상은 영상처리부(106)에 인가되어 설정된 소정의 형식으로 처리된 다음 제어부(102)에 인가된다.
이때, 제어부(102)는 영상처리부(106)에서 입력되는 베이스(11) 특정 라인의 스캔 영상을 추출한 다음 메모리부(103)에 저장된 기준 데이터인 최초 정밀원점영상 및 학습된 원점영상과 비교하여(S205) 스캔 입력 영상이 상/하한의 기준값 범위에 포함되는지를 판단한다(S206).
상기 S206에서 스캔 입력 영상이 상/하한의 기준값 범위에 포함되면 로봇(10)의 축 상태는 정상적인 상태를 유지하는 것으로 판정한다.
그리고, 조작부(101)에서 입력되는 지정된 작업 명령에 따라 구동부(105)를 통해 로봇(10)을 작동시켜 조립이나 용접 등의 작업을 실행시킨다(S207).
상기의 작업 명령은 유,무선 통신, 근거리 통신 등 공지된 다양한 방법을 통해 제공될 수 있다.
로봇(10)이 지정된 명령에 따라 작업을 실행하는 과정에서 툴 끝단(TCP)에 설치되는 레이저 비전센서(21)는 작업선을 추적하여 영상을 입력한 다음 영상처리부(106)를 통해 제어부(102)에 인가한다.
따라서, 제어부(102)는 입력되는 작업선의 영상으로부터 작업 상태를 분석하여(S208), 작업에 이상이 발생되었는지 판단한다(S209).
상기 S209에서 작업 상태에 이상이 검출되지 않으면 현재 실행되는 작업이 종료되기까지 지속적으로 실행하고, 작업 상태에 이상이 있는 것으로 판단되면 작업 오차를 보상하기 위하여 상/하한 조정 및 축 교정을 실행한 다음 상기S207의 과정으로 리턴된다(S210).
그러나, 상기 S206에서 스캔 입력 영상이 상/하한의 기준값 범위에 포함되지 않으면 치명적인 축 오차가 발생된 것으로 판단하고(S211) 표시부(104)를 통해 축 교정 요구를 로봇(10) 운용자(관리자/작업자)에게 지시하여 주며(S212), 운용자(관리자/작업자)에 의해 축 오차의 캘리브레이션이 실행되면 그 값을 학습하여 메모리부(103)에 저장한다(S213).
이상과 같이, 본 발명은 한정된 실시예와 도면을 통하여 설명되었으나, 본 발명은 이에 한정되는 것은 아니며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술 사상과 아래에 기재된 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능하다.
10 : 로봇 11 : 베이스
21 : 레이저 비전센서 101 : 조작부
102 : 제어부 103 : 메모리부
104 : 표시부 105 : 구동부
106 : 영상처리부

Claims (6)

  1. 로봇의 전원 온/오프 키, 작업 명령 설정 키, 작업 실행 실행키를 포함하는 조작부;
    상기 로봇에 장착되는 레이저 비전센서에서 입력되는 영상을 처리하는 영상처리부;
    제어부의 제어에 따라 상기 로봇의 관절과 축 구동을 실행시키는 구동부;
    전원 온에 따라 초기화되어 구동부를 통해 상기 로봇의 각 관절과 회전축을 동작시켜 웜 업을 실행시키고, 웜 업 과정에서 상기 레이저 비전센서를 제어하여 지정된 라인의 영상을 스캔한 다음 기준 데이터인 정밀원점영상과 비교하여 축 오차 발생을 판단하는 제어부; 및
    상기 제어부의 제어에 따라 축 오차의 이상여부를 표출하는 표시부;
    를 포함하는 로봇의 축 관리장치.
  2. 제1항에 있어서,
    상기 제어부는 학습된 원점영상을 더 참조하여 축 오차 발생여부를 판단하고,
    상기 학습된 원점영상은 상기 로봇의 작업 또는 가공 품질이 지정된 합격선 이상인 경우에 있어서, 상기 레이져 비젼센서가 지정된 라인을 스캔하여 생성한 영상인 것을 특징으로 하는 로봇의 축 관리장치.
  3. 제1항 또는 제2항에 있어서,
    상기 조작부에서 입력되는 작업 제어 명령, 학습되는 축 오차의 캘리브레이션 결과를 저장하는 메모리부를 더 포함하는 로봇의 축 관리장치.
  4. 제1항 또는 제2항에 있어서,
    상기 제어부는 레이저 비전센서로부터 X축인 베이스 정면의 하측 혹은 상측의 가로 방향, Y축인 베이스 정면의 좌측 혹은 우측의 세로 방향으로, Z축인 베이스 정면의 대각선 방향 중 어느 하나 혹은 하나 이상의 방향의 스캔 영상을 입력받아 분석하는 것을 특징으로 하는 로봇의 축 관리장치.
  5. 레이저 비전센서가 장착되는 로봇의 축 관리방법에 있어서,
    전원 온에 따른 초기화가 실행되면 로봇의 웜업 과정에서 레이저 비전센서로 베이스 특정라인의 영상을 스캔하는 과정;
    상기 스캔한 베이스 특정라인의 영상과 정밀원점영상과 비교하여 축 오차의 발생여부를 판정하는 과정;
    축 오차 발생이 검출되면 그에 대한 정보를 지시하는 과정;
    을 포함하는 로봇의 축 관리방법.
  6. 제5항에 있어서,
    상기 축 오차의 발생여부를 판정하는 과정은 학습된 원점영상을 더 참조하여 상기 축 오차의 발생여부를 판정하되,
    상기 학습된 원점영상은 상기 로봇의 작업 또는 가공 품질이 지정된 합격선이상인 경우에 있어서, 상기 레이져 비젼센서가 상기 특정 라인을 스캔하여 생성한 영상인 것을 특징으로 하는 로봇의 축 관리방법.
KR20100071398A 2010-07-23 2010-07-23 로봇의 축 관리장치 및 방법 KR101206241B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20100071398A KR101206241B1 (ko) 2010-07-23 2010-07-23 로봇의 축 관리장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20100071398A KR101206241B1 (ko) 2010-07-23 2010-07-23 로봇의 축 관리장치 및 방법

Publications (2)

Publication Number Publication Date
KR20120009275A true KR20120009275A (ko) 2012-02-01
KR101206241B1 KR101206241B1 (ko) 2012-11-28

Family

ID=45834218

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20100071398A KR101206241B1 (ko) 2010-07-23 2010-07-23 로봇의 축 관리장치 및 방법

Country Status (1)

Country Link
KR (1) KR101206241B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107472910A (zh) * 2017-07-31 2017-12-15 浩科机器人(苏州)有限公司 一种带视觉检测功能玻璃搬运机器人的工作方法
CN107472909A (zh) * 2017-07-31 2017-12-15 浩科机器人(苏州)有限公司 一种具有激光检测功能的玻璃搬运机器人
KR102277162B1 (ko) * 2021-04-02 2021-07-14 주식회사 스누아이랩 산업 로봇 감시장치 및 그 장치의 구동방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106346486B (zh) * 2016-11-04 2018-07-27 武汉海默机器人有限公司 一种六轴协作机器人多回路控制系统及其控制方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107472910A (zh) * 2017-07-31 2017-12-15 浩科机器人(苏州)有限公司 一种带视觉检测功能玻璃搬运机器人的工作方法
CN107472909A (zh) * 2017-07-31 2017-12-15 浩科机器人(苏州)有限公司 一种具有激光检测功能的玻璃搬运机器人
CN107472910B (zh) * 2017-07-31 2019-03-26 浩科机器人(苏州)有限公司 一种带视觉检测功能玻璃搬运机器人的工作方法
CN107472909B (zh) * 2017-07-31 2019-04-30 浩科机器人(苏州)有限公司 一种具有激光检测功能的玻璃搬运机器人
KR102277162B1 (ko) * 2021-04-02 2021-07-14 주식회사 스누아이랩 산업 로봇 감시장치 및 그 장치의 구동방법

Also Published As

Publication number Publication date
KR101206241B1 (ko) 2012-11-28

Similar Documents

Publication Publication Date Title
EP2381325B1 (en) Method for robot offline programming
EP2375298B1 (en) Programming method for a robot, programming apparatus for a robot, and robot control system
JP5670416B2 (ja) ロボットシステム表示装置
CN110997249B (zh) 作业机器人和作业机器人的控制方法
CN108422420B (zh) 具有学习控制功能的机器人系统以及学习控制方法
EP2767370A2 (en) Robot system and method for controlling the same
JP5872894B2 (ja) ロボット動作教示支援装置及び方法
US10987742B2 (en) Method of controlling positioning control apparatus and positioning control apparatus
JP2005108144A (ja) ロボットの補正データ確認装置
KR101206241B1 (ko) 로봇의 축 관리장치 및 방법
JP2002283059A (ja) サーボ式スポット溶接ガンの軸の基準位置設定方法及びロボット制御装置
CN109278063B (zh) 机器人装置、控制方法、组装方法和记录介质
JP2017027360A (ja) 機械の誤差補償システム及び誤差補償方法、誤差補償プログラム
JP6568172B2 (ja) キャリブレーションを行うロボット制御装置、計測システム及びキャリブレーション方法
CN114055460B (zh) 示教方法及机器人系统
JP7307263B2 (ja) バリ取り装置、及び制御システム
CN112743510B (zh) 控制方法和计算装置
JPH07198370A (ja) 力制御ロボットの位置検出プローブ
WO2022009765A1 (ja) ロボット制御装置
JP7423943B2 (ja) 制御方法およびロボットシステム
JP2005028529A (ja) 産業用ロボットの原点位置合わせ装置
CN112743509A (zh) 控制方法和计算装置
US20210311454A1 (en) Maintenance support system, numerical controller, and control method of maintenance support system
WO2021210514A1 (ja) ロボットの制御装置及び制御方法、ロボットシステム、ロボットの動作プログラムを生成する装置及び方法
JPH05329787A (ja) 力制御ロボットにおける作業対象物の位置検出装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151102

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171031

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20181031

Year of fee payment: 7