KR101206241B1 - Apparatus and method of pivot management for robot - Google Patents

Apparatus and method of pivot management for robot Download PDF

Info

Publication number
KR101206241B1
KR101206241B1 KR20100071398A KR20100071398A KR101206241B1 KR 101206241 B1 KR101206241 B1 KR 101206241B1 KR 20100071398 A KR20100071398 A KR 20100071398A KR 20100071398 A KR20100071398 A KR 20100071398A KR 101206241 B1 KR101206241 B1 KR 101206241B1
Authority
KR
South Korea
Prior art keywords
robot
image
axis
vision sensor
laser vision
Prior art date
Application number
KR20100071398A
Other languages
Korean (ko)
Other versions
KR20120009275A (en
Inventor
홍영화
강동수
우갑주
은종호
Original Assignee
삼성중공업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성중공업 주식회사 filed Critical 삼성중공업 주식회사
Priority to KR20100071398A priority Critical patent/KR101206241B1/en
Publication of KR20120009275A publication Critical patent/KR20120009275A/en
Application granted granted Critical
Publication of KR101206241B1 publication Critical patent/KR101206241B1/en

Links

Images

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)

Abstract

로봇의 축 관리장치 및 방법이 개시된다. 본 발명의 실시예에 따른 로봇의 축 관리장치 및 방법은 레이저 비전센서가 장착되는 로봇의 축 관리방법에 있어서, 전원 온에 따른 초기화가 실행되면 로봇의 웜업 과정에서 레이저 비전센서로 베이스 특정라인의 영상을 스캔하는 과정; 상기 스캔한 베이스 특정라인의 영상과 정밀원점영상과 비교하여 축 오차의 발생여부를 판정하는 과정; 축 오차 발생이 검출되면 그에 대한 정보를 지시하는 과정을 포함한다.Disclosed are an axis management apparatus and method for a robot. The axis management apparatus and method of the robot according to an embodiment of the present invention in the axis management method of the robot equipped with a laser vision sensor, when the initialization is performed according to the power-on of the base specific line to the laser vision sensor in the warm-up process of the robot Scanning an image; Determining whether an axis error is generated by comparing the scanned base specific line image with the precision origin image; When the occurrence of the axis error is detected, it includes the step of indicating information about it.

Description

로봇의 축 관리장치 및 방법{APPARATUS AND METHOD OF PIVOT MANAGEMENT FOR ROBOT}Axis management device and method for robots {APPARATUS AND METHOD OF PIVOT MANAGEMENT FOR ROBOT}

본 발명은 산업용 로봇의 축 관리장치 및 방법에 관한 것이다. The present invention relates to an axis management apparatus and method for an industrial robot.

로봇은 다수의 링크와 각 링크를 연결하는 관절로 이루어져 미리 설정된 작업 범위 내를 이동하며 용접이나 조립 등의 작업을 수행하는 것으로, 산업 자동화에 따라 생산성 향상과 정밀작업의 수단으로 널리 사용되고 있다.The robot consists of a number of links and joints connecting each link to move within a preset work range and perform welding or assembly, and is widely used as a means of improving productivity and precision work according to industrial automation.

로봇이 용접이나 조립 등의 할당된 작업을 수행하기 위해서는 툴 끝단(Tool Center Point : TCP)이 작업 위치에서 이동되어야 한다.In order for the robot to perform assigned tasks such as welding or assembly, the tool tip (TCP) must be moved from the working position.

이때, 로봇의 관절 및 회전축의 움직임은 모터 등의 전기적 장치 또는 유압 장치에 의해 이루어지며, 이러한 장치의 작동으로 작업자가 의도하는 작업 위치에서 툴 끝단(TCP)이 이동되게 하기 위해서는 각 링크의 길이, 휨에 대한 치수와 더불어 각 관절의 실제 회동 각도가 매우 중요하다.At this time, the movement of the joint and rotation axis of the robot is made by an electrical device or a hydraulic device such as a motor, the operation of such a device in order to move the tool tip (TCP) in the intended working position by the operation of the operator, the length of each link, In addition to the dimensions for the deflection, the actual angle of rotation of each joint is very important.

로봇의 제어에 있어 사용자가 의도한 작업 위치와 툴 끝단(TCP)이 이동되는 위치에 오차가 발생하는데, 이러한 오차는 기하학적 오차, 동작 제어시 각 링크에 대한 동적 오차(Dynamic Error), 무게로 인한 구조물의 처짐, 기계 구조상 발생되는 백 래쉬(Back Lash) 현상, 관절부의 컴플라이언스(Compliance), 움직임 과정에서 주변 구조물과의 충돌로 인한 축의 뒤틀림, 엔코더 값의 손실 등 다양한 원인에 의해 발생된다.In the control of the robot, errors occur between the user's intended work position and the position where the tool tip (TCP) is moved. These errors are caused by geometric error, dynamic error for each link during motion control, and weight. It is caused by various factors such as deflection of structure, back lash caused by mechanical structure, compliance of joints, axis distortion due to collision with surrounding structures during movement, and loss of encoder value.

이러한 오차가 누적되면 조립이나 용접 작업에서 작업 명령에 반하여 대상 부재와 툴 끝단(TCP)간의 위치가 변형되어 품질에 악영향을 초래하게 된다.When these errors accumulate, the position between the target member and the tool tip (TCP) is deformed in opposition to the work order during assembly or welding, which adversely affects the quality.

따라서, 로봇의 링크 위치 및 방위 오차와 로봇이 가지는 기계적 특성간의 관계를 살펴 기구학적 파라미터의 오차를 검출하고, 방위와 링크 위치의 변수 사이의 함수 관계를 찾아 링크 위치의 오차를 보정하는 캘리브레이션(Calibration)이 제어 프로그램에 적용되고 있다.Therefore, by looking at the relationship between the link position and orientation error of the robot and the mechanical characteristics of the robot, it detects the error of the kinematic parameters, and finds a functional relationship between the variables of the orientation and the link position to correct the link position error. ) Is being applied to the control program.

로봇의 캘리브레이션은 사용 모델에 따라 링크 파라미터에 근거한 기구학적 캘리브레이션과 관절 관성, 링크 강성, 조립 공차, 백 래쉬, 커플링 오차, 마찰력 등의 비기구학적 파라미터(Non??Kinematic Parameter)를 포함하는 캘리브레이션으로 나누어 고려될 수 있다.The calibration of the robot involves kinematic calibration based on link parameters and non-kinetic parameters such as joint inertia, link stiffness, assembly tolerances, back lash, coupling error, and frictional force, depending on the model used. It can be considered by dividing by.

기구학적 캘리브레이션 방법은 측정 도구(지그)를 이용하는 것으로 별도를 측정 도구를 기구적으로 연결하여 오차를 측정하여야 하므로 오차 측정 작업에 번거로움이 발생되어 현장 적용에 많은 제한이 발생된다.The kinematic calibration method uses a measuring tool (jig), and separate measurement tools must be mechanically connected to measure the error, which causes trouble in measuring the error and causes many limitations in the field application.

그리고, 비기구학적 캘리브레이션 방법에 대하여서는 구체적인 해결 방법을 제시하지 못하고 있다.In addition, the non-kinetic calibration method does not provide a concrete solution.

본 발명의 실시예는 로봇 운용을 위해 전원이 공급되어 초기화가 실행되면 축 오차를 판단하고, 그 결과를 운용자(관리자/작업자)에게 지시함으로써, 신속한 후속조치가 실행될 수 있는 로봇의 축 관리장치 및 방법을 제공하고자 한다.An embodiment of the present invention is to determine the axis error when the power is supplied for the operation of the robot and the initialization is performed, by instructing the operator (manager / worker), the axis management apparatus of the robot that can be quickly followed up To provide a method.

본 발명의 일 측면에 따르면, 로봇의 전원 온/오프 키, 작업 명령 설정 키, 작업 실행 실행키를 포함하는 조작부; 상기 로봇에 장착되는 레이저 비전센서에서 입력되는 영상을 처리하는 영상처리부; 제어부의 제어에 따라 상기 로봇의 관절과 축 구동을 실행시키는 구동부; 전원 온에 따라 초기화되어 구동부를 통해 상기 로봇의 각 관절과 회전축을 동작시켜 웜 업을 실행시키고, 웜 업 과정에서 상기 레이저 비전센서를 제어하여 지정된 라인의 영상을 스캔한 다음 기준 데이터인 정밀원점영상과 비교하여 축 오차 발생을 판단하는 제어부; 및 상기 제어부의 제어에 따라 축 오차의 이상여부를 표출하는 표시부를 포함하는 로봇의 축 관리장치가 제공될 수 있다.According to an aspect of the invention, the operation unit including a power on / off key, a work command setting key, a job execution execution key of the robot; An image processor configured to process an image input from a laser vision sensor mounted to the robot; A driving unit configured to execute joint and axis driving of the robot under control of a controller; It is initialized according to the power-on and executes warm up by operating each joint and rotation axis of the robot through the driving unit, and controls the laser vision sensor during the warm up process, scans the image of the designated line, and then precise reference image as the reference data. A controller for determining an axis error occurrence in comparison with the control unit; And it may be provided with the axis management apparatus of the robot including a display unit for expressing whether the error of the axis under the control of the controller.

상기 제어부는 학습된 원점영상을 더 참조하여 축 오차 발생여부를 판단하고, 상기 학습된 원점영상은 상기 로봇의 작업 또는 가공 품질이 지정된 합격선 이상인 경우에 있어서, 상기 레이져 비젼센서가 지정된 라인을 스캔하여 생성한 영상인 것으로 할 수 있다.The controller determines whether an axis error is generated by further referring to the learned home image, and the learned home image scans a designated line by the laser vision sensor when the work or processing quality of the robot is greater than or equal to a specified pass line. It may be a generated video.

본 발명에 따르면, 상기 조작부에서 입력되는 작업 제어 명령, 학습되는 축 오차의 캘리브레이션 결과를 저장하는 메모리부를 더 포함할 수 있다.According to the present invention, the control unit may further include a memory for storing a calibration result of a job control command input from the manipulation unit and a learned axis error.

상기 제어부는 레이저 비전센서로부터 X축인 베이스 정면의 하측 혹은 상측의 가로 방향, Y축인 베이스 정면의 좌측 혹은 우측의 세로 방향으로, Z축인 베이스 정면의 대각선 방향 중 어느 하나 혹은 하나 이상의 방향의 스캔 영상을 입력받아 분석할 수 있다.The control unit scans the scanned image in any one or more directions of the horizontal direction in the lower or upper side of the base front on the X axis, the left or right side of the base front on the Y axis, and the diagonal direction of the base front on the Z axis from the laser vision sensor. You can take input and analyze it.

본 발명의 다른 측면에 따르면, 레이저 비전센서가 장착되는 로봇의 축 관리방법에 있어서, 전원 온에 따른 초기화가 실행되면 로봇의 웜업 과정에서 레이저 비전센서로 베이스 특정라인의 영상을 스캔하는 과정; 상기 스캔한 베이스 특정라인의 영상과 정밀원점영상과 비교하여 축 오차의 발생여부를 판정하는 과정; 축 오차 발생이 검출되면 그에 대한 정보를 지시하는 과정을 포함하는 로봇의 축 관리방법이 제공될 수 있다.According to another aspect of the present invention, in the axis management method of a robot equipped with a laser vision sensor, the process of scanning the image of the base specific line with the laser vision sensor in the warm-up process of the robot when the initialization according to the power-on; Determining whether an axis error is generated by comparing the scanned base specific line image with the precision origin image; When an axis error is detected, an axis management method of the robot including a process of indicating information about the same may be provided.

상기 축 오차의 발생여부를 판정하는 과정은 학습된 원점영상을 더 참조하여 상기 축 오차의 발생여부를 판정하되, 상기 학습된 원점영상은 상기 로봇의 작업 또는 가공 품질이 지정된 합격선 이상인 경우에 있어서, 상기 레이져 비젼센서가 상기 특정 라인을 스캔하여 생성한 영상이 적용될 수 있다.In the process of determining whether the axis error is generated, the generation of the axis error is determined by further referring to the learned origin image, wherein the learned origin image is equal to or greater than a specified passing line for the work or processing quality of the robot. An image generated by the laser vision sensor scanning the specific line may be applied.

본 발명의 실시예는 로봇의 축 오차를 정확하게 판단하고, 그 결과를 운용자(관리자/작업자)에게 지시하여 신속한 후속조치가 제공되도록 함으로써, 로봇의 운용에 안전성 및 신뢰성을 제공할 수 있다.Embodiments of the present invention can accurately determine the axis error of the robot, and instruct the operator (manager / worker) to provide a quick follow-up, it is possible to provide safety and reliability in the operation of the robot.

또한, 로봇의 웜업 과정에서 축 오차가 보정되어 지정된 작업이 실행되도록 함으로써, 작업에 정밀성을 제공할 수 있다.In addition, the axis error is corrected in the warm-up process of the robot so that the designated work is executed, thereby providing precision to the work.

또한, 로봇이 작업을 개시하기 전에 축 오차를 판단하고, 그 결과를 학습함으로써 로봇의 축 오차 관리에 신뢰성을 제공할 수 있다.In addition, by determining the axis error and learning the result before the robot starts work, it is possible to provide reliability to the axis error management of the robot.

도 1은 본 발명의 실시예에 따른 로봇의 축 관리장치를 개략적으로 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 로봇의 원점설정에 대한 흐름도이다.
도 3은 본 발명의 실시예에 따른 로봇의 축 관리절차를 실행하는 흐름도이다.
1 is a view schematically showing an axis management apparatus of a robot according to an embodiment of the present invention.
Figure 2 is a flow chart for the origin setting of the robot according to an embodiment of the present invention.
3 is a flow chart for executing the axis management procedure of the robot according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시예를 첨부한 도면을 참조로 상세하게 설명하면 다음과 같다.Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention will be described in detail as follows.

도 1은 본 발명의 실시예에 따른 로봇의 축 관리장치를 개략적으로 도시한 도면이다.1 is a view schematically showing an axis management apparatus of a robot according to an embodiment of the present invention.

본 발명에 따르는 실시예는 로봇의 축 오차를 관리하기 위한 발명으로, 로봇을 이용한 조립이나 용접 등의 작업 제어는 기존의 로봇 제어와 동일 내지 유사하게 실행되므로, 이에 대한 구체적인 설명은 생략한다.Embodiment according to the present invention is an invention for managing the axis error of the robot, the operation control, such as assembly or welding using the robot is carried out the same or similar to the conventional robot control, a detailed description thereof will be omitted.

도 1을 참조하면 본 실시예는 6축을 갖는 로봇(10)과 로봇(10)의 움직임을 제어하고 전원 공급에 의한 초기화가 실행되면 축 오차가 발생되었는지를 분석하여 그 결과를 지시하는 제어장치(100)로 구성된다.Referring to FIG. 1, the present embodiment controls a robot 10 having six axes and a movement of the robot 10, and when an initialization by power supply is executed, a control device for analyzing whether an axis error has occurred and indicating a result thereof ( 100).

로봇(10)은 베이스(11)에 발판(12)이 부착되어 설치 고정되고, 베이스 스탠드(13)는 발판(12)에 의해 지지되며, 베이스 스탠드(13)의 상부에는 제1관절(14)을 통해 제1아암(15)의 일측 끝단이 연결된다.The robot 10 has a footrest 12 attached to and fixed to the base 11, the base stand 13 is supported by the footrest 12, and the first joint 14 is placed on the upper part of the base stand 13. One end of the first arm 15 is connected through.

그리고, 제1아암(15)의 다른 일측 끝단에는 제2관절(16)을 통해 제2아암(17)의 일측 끝단이 연결되고, 제2아암(17)의 다른 일측 끝단에는 제3관절(18)을 통해 로봇 핸드(Robot Hand: 19)가 연결된다.One end of the second arm 17 is connected to the other end of the first arm 15 through the second joint 16, and the third joint 18 is connected to the other end of the second arm 17. The robot hand 19 is connected to the robot hand 19.

상기 로봇 핸드(19)에는 툴 부착부가 포함되고, 툴 부착부에는 조립이나 용접을 실행시키는 툴(20)이 결합되며, 툴(20)의 끝단에는 레이져 비젼 센서(21)가 설치된다.The robot hand 19 includes a tool attaching part, and a tool attaching part 20 is coupled to the tool attaching part, and a laser vision sensor 21 is installed at the end of the tool 20.

상기 레이저 비전센서(21)는 작업 품질과 작업 실행의 이상여부를 판단할 수 있도록 하기 위하여 특정 라인을 스캔하여 작업 라인의 영상을 생성한다.The laser vision sensor 21 scans a specific line and generates an image of the work line in order to determine whether the work quality and the execution of the work are abnormal.

또한, 레이저 비전센서(21)는 오프 상태에 있는 로봇(10)의 운용을 위해 전원이 공급되어 초기화가 실행되고, 각 관절과 회전축을 웜 업시키는 과정에서 축 오차가 발생되었는지를 판단시킬 수 있도록 베이스(11)의 특정 라인에 대한 영상을 입력한다.In addition, the laser vision sensor 21 is supplied with power for the operation of the robot 10 in the off state, and the initialization is executed, and it is possible to determine whether an axis error has occurred in the process of warming up each joint and the rotating shaft. An image of a specific line of the base 11 is input.

상기 베이스(11)의 특정 라인은 X축인 베이스(11) 정면의 하측 혹은 상측의 가로 방향, Y축인 베이스(11) 정면의 좌측 혹은 우측의 세로 방향으로, Z축인 베이스(11) 정면의 대각선 방향 중 어느 하나 혹은 하나 이상을 포함하여 설정될 수 있다.The specific line of the base 11 is the horizontal direction of the lower side or the upper side of the base 11 front side which is the X axis, and the vertical direction of the left side or the right side of the base 11 front side which is the Y axis, and the diagonal direction of the base 11 front side of the Z axis. It may be set to include any one or more than one.

상기 특정 라인은 베이스 외에 다른 구성의 형태나 또는 표시된 특정 라인일 수 있다.The particular line may be in the form of a configuration other than the base or the specific line indicated.

축 오차의 정밀 측정을 위해서는 X,Y,Z 축 모두를 측정하는 방법이 가장 정밀성을 높일 수 있다.For the precise measurement of axis error, the method of measuring both X, Y, and Z axes can improve the most accuracy.

상기 레이저 비전센서(21)의 베이스(11) 특정 라인에 대한 가로방향 영상입력은 좌측에서 우측방향으로의 이동이나 우측에서 좌측방향으로의 이동 중 어느 하나로 설정될 수 있다.The horizontal image input to the base 11 specific line of the laser vision sensor 21 may be set to one of a movement from left to right or a movement from right to left.

그리고, 베이스(11) 특정 라인에 대한 세로방향 영상입력은 상측에서 하측방향으로의 이동이나 하측에서 상측방향으로 이동 중 어느 하나로 설정될 수 있다.In addition, the vertical image input for the specific line of the base 11 may be set to one of a movement from an upper side to a lower side and a movement from a lower side to an upper side.

또한, 베이스(11) 특정 라인에 대한 대각선 방향 영상입력은 좌측 하단에서 우측 상단방향으로의 대각선 이동, 우측상단에서 좌측 하단방향으로 이동, 우측 하단에서 좌측 상단방향으로의 대각선 이동, 좌측 상단에서 우측 하단방향으로 대각선 이동 중 어느 하나로 설정될 수 있다.In addition, the diagonal image input for the specific line of the base 11 is diagonally shifted from the lower left to the upper right, shifted from the upper right to the lower left, diagonally shifted from the lower right to the upper left, and from the upper left to the right. It can be set to any one of the diagonal movement in the lower direction.

상기 로봇(10)은 베이스 스탠드(13)의 회전에 따른 제1회전축(R1), 제1관절(14)의 움직임으로 제1아암(15)의 상하 회전을 실행시키는 제2회전축(R2), 제2관절(16)의 움직임으로 제2아암(17)의 상하 회전을 실행시키는 제3회전축(R3), 제2아암(17)의 회전을 실행시키는 제4회전축(R4), 제3관절(18)의 움직임으로 로봇 핸드(19)의 작업 각도를 조절시키는 제5회전축(R5), 로봇 핸드(19)의 회전을 통해 툴(20)을 회전시키는 제6회전축(R6)을 포함한다.The robot 10 has a first rotary shaft R1 according to the rotation of the base stand 13, a second rotary shaft R2 for executing the vertical rotation of the first arm 15 by the movement of the first joint 14, The third rotary shaft R3 which executes the vertical rotation of the second arm 17 by the movement of the second joint 16, the fourth rotary shaft R4 which executes the rotation of the second arm 17, and the third joint ( 18, a fifth rotating shaft R5 for adjusting the working angle of the robot hand 19 by the movement of the robot hand 19, and a sixth rotating shaft R6 for rotating the tool 20 through the rotation of the robot hand 19.

따라서, 로봇 핸드(19)에 결합된 툴(20)의 끝단(TCP)는 제1축 내지 제3축(R1 ~ R3)으로 정해지는 위치와 제4축 내지 제6축(R4 ~ R6)으로 정해지는 자세에 의해 결정된다.Accordingly, the end TCP of the tool 20 coupled to the robot hand 19 is positioned at the first to third axes R1 to R3 and the fourth to sixth axes R4 to R6. It is decided by the posture decided.

또한, 제어장치(100)는 조작부(101)와 제어부(102), 메모리부(103), 표시부(104), 구동부(105), 영상처리부(106)를 포함한다.In addition, the control device 100 includes an operation unit 101, a control unit 102, a memory unit 103, a display unit 104, a driving unit 105, and an image processing unit 106.

상기 조작부(101)는 로봇(10)의 전원 온/오프를 선택하는 전원 키, 위급 상황에서 로봇(10)의 비상정지를 실행시키는 비상 키, 로봇(10)의 작업 명령을 설정하기 위한 좌표 설정키, 작업 실행을 명령하는 실행키, 좌표 보정키 등을 포함하여 다양한 기능키가 구비된다.The operation unit 101 is a power key for selecting the power on / off of the robot 10, an emergency key for executing an emergency stop of the robot 10 in an emergency, coordinate setting for setting a work command of the robot 10 Various function keys are provided including a key, an execution key for commanding execution of a job, a coordinate correction key, and the like.

제어부(102)는 상기 조작부(101)에서 정지상태에 있는 로봇(10)에 전원을 공급하는 명령이 검출되면 초기화를 실행한 다음 구동부(105)를 통해 로봇(10)의 각 관절과 회전축을 동작시켜 웜 업을 실행시키고, 웜 업 과정에서 레이저 비전센서(21)로 베이스(11)의 특정 라인을 스캔하여 영상을 추출한 다음 메모리부(103)에 저장된 최초 정밀원점영상 및 학습된 원점영상과 비교하여 축 오차가 발생되었는지를 판단한다.The control unit 102 executes initialization when a command for supplying power to the robot 10 in a stationary state is detected by the operation unit 101, and then operates each joint and the rotating shaft of the robot 10 through the driving unit 105. To perform a warm-up, scan a specific line of the base 11 with a laser vision sensor 21 in the warm-up process, extract an image, and then compare it with the initial precision origin image and the learned origin image stored in the memory unit 103. Determine if an axis error occurred.

여기서, 학습된 원점영상은, 로봇에 축 오차가 어느 정도 발생하여도, 로봇의 작업/가공 품질이 지정된 합격선을 상회하는 경우에 있어서의 스캔영상일 수 있다. Here, the learned origin image may be a scan image when the robot's work / processing quality exceeds a specified pass line even if an axis error occurs to some extent in the robot.

사용자는 로봇의 작업/가공 품질이 지정된 합격선을 상회하는 경우 해당하는 스캔영상을 학습된 원점영상으로 설정할 수 있고, 상기 학습된 원점영상은 메모리부(103)에 저장될 수 있다. When the work / processing quality of the robot exceeds a specified pass line, the user may set the corresponding scan image as the learned origin image, and the learned origin image may be stored in the memory unit 103.

그리고, 축 오차가 발생된 것으로 판단되면 표시부(104)를 통해 로봇(10) 운용자(관리자/작업자)에게 지시하여 주며, 축 오차의 캘리브레이션이 실행되면 그 값을 학습하여 메모리부(103)에 저장한다.If it is determined that an axis error has occurred, the controller 10 instructs the operator of the robot 10 (manager / worker) through the display unit 104. When calibration of the axis error is performed, the value is learned and stored in the memory unit 103. do.

메모리부(103)는 상기 조작부(101)에서 입력되는 작업 제어 명령을 저장하고, 학습되는 축 오차의 캘리브레이션 결과를 저장한다.The memory unit 103 stores a job control command input from the operation unit 101 and stores a calibration result of the learned axis error.

표시부(104)는 제어부(102)의 제어에 따라 모니터링 되는 축 오차의 판단 결과를 설정된 소정의 형식으로 표출시킨다.The display unit 104 displays the determination result of the axis error monitored under the control of the control unit 102 in a predetermined format.

구동부(105)는 상기 제어부(102)에서 인가되는 전원 공급에 따른 초기화 명령에 따라 정지 상태에 있는 로봇(10)의 각 관절과 회전축을 구동시켜 웜 업을 실행한다.The driving unit 105 performs warm up by driving each joint and the rotating shaft of the robot 10 in the stationary state according to the initialization command according to the power supply applied from the control unit 102.

또한, 상기 구동부(105)는 웜 업 실행 과정에서 툴 끝단(TCP)에 설치되는 레이저 비전센서(21)가 베이스(11)의 일정 라인을 스캔하여 영상을 입력할 수 있도록 관절과 회전축을 구동시킬 수 있다.In addition, the driving unit 105 may drive the joint and the rotating shaft so that the laser vision sensor 21 installed at the tool tip TCP during the warm up process scans a predetermined line of the base 11 and inputs an image. Can be.

레이저 비전센서(21)가 스캔하는 방향은 다양할 수 있는 바, 예를 들어, 구동부(105)는 레이저 비전센서(21)를 X축인 베이스(11) 정면의 하측 혹은 상측의 가로 방향, Y축인 베이스(11) 정면의 좌측 혹은 우측의 세로 방향으로, Z축인 베이스(11) 정면의 대각선 방향 중 어느 하나 혹은 하나 이상의 방향으로 이동시켜 스캔 영상이 입력될 있도록 할 수 있다.The direction in which the laser vision sensor 21 scans may vary. For example, the driving unit 105 may have the laser vision sensor 21 in the horizontal direction and the Y axis below or in front of the base 11 in the X axis. In the vertical direction of the left or right side of the front of the base 11, the scan image may be input by moving in one or more directions of the diagonal direction of the front of the base 11, which is the Z axis.

상기 구동부(105)는 레이저 비전센서(21)를 베이스(11)의 가로방향에 대하여 좌측에서 우측방향 혹은 우측에서 좌측방향으로 이동시켜 스캔 영상이 입력될 수 있도록 할 수 있다.The driver 105 may move the laser vision sensor 21 from the left to the right direction or the right to the left direction with respect to the horizontal direction of the base 11 so that the scan image may be input.

또한, 구동부(105)는 레이저 비전센서(21)를 베이스(11)의 세로방향에 대하여 상측에서 하측방향 혹은 하측에서 상측방향으로 이동시켜 스캔 영상이 입력될 수 있도록 한다.In addition, the driving unit 105 moves the laser vision sensor 21 from the upper side to the lower direction or the lower side to the upper direction with respect to the longitudinal direction of the base 11 so that the scanned image can be input.

또한, 구동부(105)는 레이저 비전센서(21)를 베이스(11)의 대각선 방향에 대하여 좌측하단에서 우측상단 방향, 우측상단에서 좌측하단 방향, 우측하단에서 좌측 상단방향, 좌측상단에서 우측하단방향 중 어느 하나 혹은 그 이상으로 이동시켜 스캔 영상이 입력될 수 있도록 할 수 있다.In addition, the driving unit 105 makes the laser vision sensor 21 with respect to the diagonal direction of the base 11 from the lower left to the upper right, the upper right to the lower left, the lower right to the upper left, and the upper left to the lower right. The scan image may be input by moving to any one or more of the above.

영상 처리부(106)는 상기 레이저 비전 센서(21)로부터 입력되는 베이스(11) 특정 라인의 스캔 영상을 설정된 소정의 형식으로 처리한다.The image processor 106 processes the scanned image of the base 11 specific line input from the laser vision sensor 21 in a predetermined format.

전술한 기능이 포함되는 본 발명의 실시예에 따르는 구체적인 동작을 설명하면 다음과 같다.Referring to the specific operation according to an embodiment of the present invention that includes the above-described function is as follows.

도 2는 본 발명의 실시예에 따른 로봇의 원점설정에 대한 흐름도이다.Figure 2 is a flow chart for the origin setting of the robot according to an embodiment of the present invention.

도 2를 참조하면, 정밀한 조립이나 용접 작업을 위하여 작업장에 로봇(10)이 설치되면(S101), 로봇(10)의 각 관절과 회전축의 구동에 대한 정밀원점 보정을 실행한다(S102).Referring to FIG. 2, when the robot 10 is installed in the workshop for precise assembly or welding operation (S101), precision origin correction for the driving of each joint and the rotating shaft of the robot 10 is performed (S102).

그리고, 툴 끝단(TCP)에 장착되는 레이저 비전센서(21)로 베이스(11)의 특정 라인을 스캔하여 영상을 추출하며(S103), 추출된 영상에 상/하한의 기준라인을 설정하고, 이를 최초원점의 기준영상으로 설정한다(S104)Then, a specific line of the base 11 is scanned with the laser vision sensor 21 mounted at the tool tip TCP to extract an image (S103), and a reference line of upper and lower limits is set on the extracted image, and this is Set as the reference image of the first origin (S104)

상기 레이저 비전센서(21)에 의한 베이스(11)의 특정라인 영상 추출은, X축인 베이스(11) 정면의 하측 혹은 상측의 가로 방향, Y축인 베이스(11) 정면의 좌측 혹은 우측의 세로 방향으로, Z축인 베이스(11) 정면의 대각선 방향 중 어느 하나 혹은 하나 이상을 포함하는 영상을 추출한다.The specific line image extraction of the base 11 by the laser vision sensor 21 is performed in the horizontal direction of the lower side or the upper side of the base 11 front face which is the X axis, and in the vertical direction of the left side or right side of the front face of the base 11 which is the Y axis. , Z-axis extracts an image including any one or more of the diagonal direction of the base 11 front.

도 3은 본 발명의 실시예에 따른 로봇의 축 관리절차를 실행하는 흐름도이다.3 is a flow chart for executing the axis management procedure of the robot according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 실시예에 따르는 로봇(10)의 전원이 오프 되어 동작이 정지되어 있는 상태에서(S201) 제어부(102)는 조작부(101)로부터 전원 온 명령이 입력되는지 판단한다(S202).Referring to FIG. 3, in a state in which the operation of the robot 10 is turned off and the operation is stopped (S201), the controller 102 determines whether a power-on command is input from the operation unit 101. (S202).

상기 S202에서 전원 온 명령이 입력되지 않으면 로봇(10)은 전원 오프의 대기상태를 지속적으로 유지하고, 전원 온 명령이 입력되면 제어부(102)는 초기화를 실행한 다음 구동부(105)를 통해 정지 상태에 있는 로봇(10)의 각 관절과 회전축을 구동시켜 웜 업을 실행한다(S203).If the power-on command is not input in step S202, the robot 10 continuously maintains a standby state of power-off, and when the power-on command is input, the controller 102 executes initialization and then stops through the driving unit 105. Each joint and the rotation axis of the robot 10 in the drive a warm up (S203).

상기와 같이 로봇(10)의 각 관절과 회전축을 구동시키는 웜 업 실행과정에서 툴 끝단(TCP)에 설치되는 레이저 비전센서(21)는 베이스(11)의 특정 라인을 스캔하여 영상을 입력한다(S204).As described above, the laser vision sensor 21 installed at the tool tip TCP in order to drive each joint and the rotation axis of the robot 10 scans a specific line of the base 11 and inputs an image ( S204).

상기 레이저 비전센서(21)의 스캔으로 입력되는 베이스(10)의 특정 라인의 영상은 X축인 베이스(11) 정면의 하측 혹은 상측의 가로 방향, Y축인 베이스(11) 정면의 좌측 혹은 우측의 세로 방향으로, Z축인 베이스(11) 정면의 대각선 방향 중 어느 하나 혹은 하나 이상의 스캔 영상을 포함한다.The image of a specific line of the base 10 input by the scan of the laser vision sensor 21 is a horizontal direction of the lower side or the upper side of the base 11 front face which is the X axis, and the left or the right side of the front face of the base 11 which is the Y axis. Direction, which includes one or more scanned images in a diagonal direction in front of the base 11 which is the Z axis.

상기 레이저 비전센서(21)에서 입력되는 스캔 영상은 영상처리부(106)에 인가되어 설정된 소정의 형식으로 처리된 다음 제어부(102)에 인가된다.The scanned image input from the laser vision sensor 21 is applied to the image processor 106, processed in a predetermined format, and then applied to the controller 102.

이때, 제어부(102)는 영상처리부(106)에서 입력되는 베이스(11) 특정 라인의 스캔 영상을 추출한 다음 메모리부(103)에 저장된 기준 데이터인 최초 정밀원점영상 및 학습된 원점영상과 비교하여(S205) 스캔 입력 영상이 상/하한의 기준값 범위에 포함되는지를 판단한다(S206).At this time, the control unit 102 extracts the scanned image of the base 11 specific line input from the image processing unit 106 and compares it with the initial precision origin image and the learned origin image which are reference data stored in the memory unit 103 ( S205) It is determined whether the scan input image is included in the upper / lower limit reference value range (S206).

상기 S206에서 스캔 입력 영상이 상/하한의 기준값 범위에 포함되면 로봇(10)의 축 상태는 정상적인 상태를 유지하는 것으로 판정한다.If the scan input image is included in the reference value range of the upper and lower limits in S206, it is determined that the axis state of the robot 10 maintains a normal state.

그리고, 조작부(101)에서 입력되는 지정된 작업 명령에 따라 구동부(105)를 통해 로봇(10)을 작동시켜 조립이나 용접 등의 작업을 실행시킨다(S207).Then, the robot 10 is operated through the driving unit 105 in accordance with the designated work command input from the operation unit 101 to execute work such as assembly or welding (S207).

상기의 작업 명령은 유,무선 통신, 근거리 통신 등 공지된 다양한 방법을 통해 제공될 수 있다.The work command may be provided through various known methods such as wired / wireless communication and short-range communication.

로봇(10)이 지정된 명령에 따라 작업을 실행하는 과정에서 툴 끝단(TCP)에 설치되는 레이저 비전센서(21)는 작업선을 추적하여 영상을 입력한 다음 영상처리부(106)를 통해 제어부(102)에 인가한다.In the process of executing the work according to the specified command by the robot 10, the laser vision sensor 21 installed at the tool tip TCP receives an image by tracking a work line and then controls the control unit 102 through the image processor 106. ) Is applied.

따라서, 제어부(102)는 입력되는 작업선의 영상으로부터 작업 상태를 분석하여(S208), 작업에 이상이 발생되었는지 판단한다(S209).Therefore, the controller 102 analyzes the work state from the input image of the work line (S208) and determines whether an abnormality has occurred in the work (S209).

상기 S209에서 작업 상태에 이상이 검출되지 않으면 현재 실행되는 작업이 종료되기까지 지속적으로 실행하고, 작업 상태에 이상이 있는 것으로 판단되면 작업 오차를 보상하기 위하여 상/하한 조정 및 축 교정을 실행한 다음 상기S207의 과정으로 리턴된다(S210).If no abnormality is detected in the work state in step S209, the operation is continuously executed until the end of the currently executed work. If it is determined that there is an abnormality in the work state, the upper / lower limit adjustment and the axis calibration are performed to compensate for the work error. The process returns to step S207 (S210).

그러나, 상기 S206에서 스캔 입력 영상이 상/하한의 기준값 범위에 포함되지 않으면 치명적인 축 오차가 발생된 것으로 판단하고(S211) 표시부(104)를 통해 축 교정 요구를 로봇(10) 운용자(관리자/작업자)에게 지시하여 주며(S212), 운용자(관리자/작업자)에 의해 축 오차의 캘리브레이션이 실행되면 그 값을 학습하여 메모리부(103)에 저장한다(S213).However, if the scan input image is not included in the reference value range of the upper and lower limits in S206, it is determined that a fatal axis error has occurred (S211), and the robot 10 operator (manager / operator) requests an axis correction through the display unit 104. ) And when the calibration of the axis error is performed by the operator (manager / worker), the value is learned and stored in the memory unit 103 (S213).

이상과 같이, 본 발명은 한정된 실시예와 도면을 통하여 설명되었으나, 본 발명은 이에 한정되는 것은 아니며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술 사상과 아래에 기재된 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described through limited embodiments and drawings, but the present invention is not limited thereto, and the present invention has been described below by the person skilled in the art to which the present invention pertains. Various modifications and variations are possible within the scope of the claims.

10 : 로봇 11 : 베이스
21 : 레이저 비전센서 101 : 조작부
102 : 제어부 103 : 메모리부
104 : 표시부 105 : 구동부
106 : 영상처리부
10: robot 11: base
21: laser vision sensor 101: control panel
102 control unit 103 memory unit
104: display unit 105: drive unit
106: image processing unit

Claims (6)

로봇의 전원 온/오프 키, 작업 명령 설정 키, 작업 실행 실행키를 포함하는 조작부;
상기 로봇에 장착되는 레이저 비전센서에서 입력되는 영상을 처리하는 영상처리부;
제어부의 제어에 따라 상기 로봇의 관절과 축 구동을 실행시키는 구동부;
상기 로봇의 운용상태를 표시하는 표시부;
를 포함하고,
전원 온에 따라 초기화되어 상기 구동부를 통해 상기 로봇의 각 관절과 회전축을 동작시켜 웜 업을 실행시키고, 웜 업 과정에서 상기 레이저 비전센서를 제어하여 지정된 라인의 영상을 스캔한 다음 기준 데이터인 정밀 원점 영상과 비교하여 축 오차의 발생 여부를 판단하는 제어부;
를 포함하며,
상기 제어부는 학습된 원점 영상을 더 참조하여 축 오차의 발생 여부를 판단하고,
상기 학습된 원점 영상은 상기 로봇의 작업 또는 가공 품질이 지정된 합격선 이상인 경우에 있어서, 상기 레이저 비젼센서가 지정된 라인을 스캔하여 생성한 영상인 것을 특징으로 하는 로봇의 축 관리장치.
An operation unit including a power on / off key of the robot, a job command setting key, and a job execution execution key;
An image processor configured to process an image input from a laser vision sensor mounted to the robot;
A driving unit configured to execute joint and axis driving of the robot under control of a controller;
A display unit displaying an operation state of the robot;
Including,
It is initialized according to the power-on and executes warm up by operating each joint and rotation axis of the robot through the driving unit, and controls the laser vision sensor in the warm up process to scan an image of a designated line and then precision reference point as reference data. A controller which determines whether an axis error is generated in comparison with an image;
Including;
The controller determines whether an axis error occurs by further referring to the learned origin image.
And the learned home image is an image generated by scanning the specified line by the laser vision sensor when the work or processing quality of the robot is equal to or greater than a specified pass line.
삭제delete 제1항에 있어서,
상기 조작부에서 입력되는 작업 제어 명령, 학습되는 축 오차의 캘리브레이션 결과를 저장하는 메모리부를 더 포함하는 로봇의 축 관리장치.
The method of claim 1,
And a memory unit configured to store a job control command input from the operation unit and a calibration result of the learned axis error.
제1항에 있어서,
상기 제어부는 레이저 비전센서로부터 X축인 베이스 정면의 하측 혹은 상측의 가로 방향, Y축인 베이스 정면의 좌측 혹은 우측의 세로 방향으로, Z축인 베이스 정면의 대각선 방향 중 어느 하나 혹은 하나 이상의 방향의 스캔 영상을 입력받아 분석하는 것을 특징으로 하는 로봇의 축 관리장치.
The method of claim 1,
The control unit scans the scanned image in any one or more directions of the horizontal direction in the lower or upper side of the base front on the X axis, the left or right side of the base front on the Y axis, and the diagonal direction of the base front on the Z axis from the laser vision sensor. Axis management device for the robot, characterized in that the input and analysis.
레이저 비전센서가 장착되는 로봇의 축 관리방법에 있어서,
전원 온에 따른 초기화가 실행되면 로봇의 웜업 과정에서 레이저 비전센서로 베이스 특정라인의 영상을 스캔하는 과정;
상기 스캔한 베이스 특정라인의 영상과 정밀 원점 영상과 비교하여 축 오차의 발생여부를 판정하는 과정;
축 오차의 발생이 검출되면 그에 대한 정보를 지시하는 과정;
을 포함하고,
상기 축 오차의 발생 여부를 판정하는 과정은 학습된 원점 영상을 더 참조하여 상기 축 오차의 발생 여부를 판정하되,
상기 학습된 원점 영상은 상기 로봇의 작업 또는 가공 품질이 지정된 합격선이상인 경우에 있어서, 상기 레이져 비젼센서가 상기 특정 라인을 스캔하여 생성한 영상인 것을 특징으로 하는 로봇의 축 관리방법.
In the axis management method of a robot equipped with a laser vision sensor,
Scanning the image of the base specific line with a laser vision sensor during warm-up of the robot when initialization is performed according to power on;
Determining whether an axis error is generated by comparing the scanned base specific line with the image of the precision origin;
Instructing information on occurrence of an axis error if detected;
Including,
The process of determining whether the axis error occurs is to determine whether the axis error occurs by further referring to the learned origin image,
And the learned origin image is an image generated by the laser vision sensor scanning the specific line when the work or processing quality of the robot is equal to or greater than a specified pass line.
삭제delete
KR20100071398A 2010-07-23 2010-07-23 Apparatus and method of pivot management for robot KR101206241B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20100071398A KR101206241B1 (en) 2010-07-23 2010-07-23 Apparatus and method of pivot management for robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20100071398A KR101206241B1 (en) 2010-07-23 2010-07-23 Apparatus and method of pivot management for robot

Publications (2)

Publication Number Publication Date
KR20120009275A KR20120009275A (en) 2012-02-01
KR101206241B1 true KR101206241B1 (en) 2012-11-28

Family

ID=45834218

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20100071398A KR101206241B1 (en) 2010-07-23 2010-07-23 Apparatus and method of pivot management for robot

Country Status (1)

Country Link
KR (1) KR101206241B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106346486A (en) * 2016-11-04 2017-01-25 武汉海默自控股份有限公司 Six-axis cooperated robot multi-loop control system and control method thereof

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107472910B (en) * 2017-07-31 2019-03-26 浩科机器人(苏州)有限公司 A kind of working method with vision-based detection functional glass transfer robot
CN107472909B (en) * 2017-07-31 2019-04-30 浩科机器人(苏州)有限公司 A kind of glass handling machine people with laser detection function
KR102277162B1 (en) * 2021-04-02 2021-07-14 주식회사 스누아이랩 Apparatus for Monitoring Industrial Robot and Driving Method Thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106346486A (en) * 2016-11-04 2017-01-25 武汉海默自控股份有限公司 Six-axis cooperated robot multi-loop control system and control method thereof
CN106346486B (en) * 2016-11-04 2018-07-27 武汉海默机器人有限公司 Six axis of one kind cooperation robot multiloop control system and its control method

Also Published As

Publication number Publication date
KR20120009275A (en) 2012-02-01

Similar Documents

Publication Publication Date Title
US10618164B2 (en) Robot system having learning control function and learning control method
EP2381325B1 (en) Method for robot offline programming
EP2375298B1 (en) Programming method for a robot, programming apparatus for a robot, and robot control system
US9050728B2 (en) Apparatus and method for measuring tool center point position of robot
CN110997249B (en) Work robot and control method for work robot
JP5670416B2 (en) Robot system display device
EP2767370A2 (en) Robot system and method for controlling the same
US6888089B2 (en) Method of and device for setting reference position for servo spot welding gun
US10987742B2 (en) Method of controlling positioning control apparatus and positioning control apparatus
JP2005108144A (en) Device for confirming correction data of robot
KR101206241B1 (en) Apparatus and method of pivot management for robot
JP2013136123A (en) Assisting device and assisting method for teaching operation for robot
CN109278063B (en) Robot apparatus, control method, assembly method, and recording medium
JP6568172B2 (en) ROBOT CONTROL DEVICE, MEASUREMENT SYSTEM, AND CALIBRATION METHOD FOR CALIBRATION
CN110154043B (en) Robot system for learning control based on machining result and control method thereof
US11327462B2 (en) Maintenance support system, numerical controller, and control method of maintenance support system
JP7512743B2 (en) Teaching method and robot system
JP7307263B2 (en) Deburring device and control system
US20230364793A1 (en) Command value correction device and robot system
WO2022009765A1 (en) Robot control device
CN111452021B (en) Robot device and thermal displacement estimation method
JP7423943B2 (en) Control method and robot system
JP2005028529A (en) Device for positioning industrial robot into its original position
JPH05329787A (en) Work position detecting device for force control robot
WO2021210514A1 (en) Control device and control method for robot, robot system, and device and method for generating robot operation program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151102

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171031

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20181031

Year of fee payment: 7