KR102147777B1 - The robot auto teaching system using image and laser hybrid signal, and the method thereof - Google Patents

The robot auto teaching system using image and laser hybrid signal, and the method thereof Download PDF

Info

Publication number
KR102147777B1
KR102147777B1 KR1020190141048A KR20190141048A KR102147777B1 KR 102147777 B1 KR102147777 B1 KR 102147777B1 KR 1020190141048 A KR1020190141048 A KR 1020190141048A KR 20190141048 A KR20190141048 A KR 20190141048A KR 102147777 B1 KR102147777 B1 KR 102147777B1
Authority
KR
South Korea
Prior art keywords
robot
distance
unit
error
alignment mark
Prior art date
Application number
KR1020190141048A
Other languages
Korean (ko)
Inventor
황준철
Original Assignee
황준철
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 황준철 filed Critical 황준철
Priority to KR1020190141048A priority Critical patent/KR102147777B1/en
Application granted granted Critical
Publication of KR102147777B1 publication Critical patent/KR102147777B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Abstract

The present invention relates to a robot auto-teaching system using image and laser hybrid signals. According to the present invention, the robot auto-teaching system using image and laser hybrid signals comprises: an alignment mark; an image photographing unit for photographing the alignment mark or the outer appearance of a robot; a displacement measurement unit; a reference value storage unit; a primary robot position correction unit; and a secondary robot position correction unit. According to the present invention, the movement errors of a robot can be minimized.

Description

영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 시스템 및 방법{The robot auto teaching system using image and laser hybrid signal, and the method thereof}The robot auto teaching system using image and laser hybrid signal, and the method thereof

본 발명은 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 시스템 및 방법에 관한 것으로, 보다 상세하게는, 2개 이상의 경유지를 왕복 이동하는 로봇이 이동 오차 없이 정해진 경유지에 항상 정확하게 도달하도록 로봇의 위치를 자동 보정하는 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 시스템 및 방법에 관한 것이다.The present invention relates to a robot auto-teaching system and method using an image and a laser hybrid signal, and more particularly, to automatically position the robot so that a robot that reciprocates two or more waypoints always accurately arrives at a predetermined waypoint without a movement error. It relates to a robot auto-teaching system and method using a corrected image and a laser hybrid signal.

일반적으로, 산업용 로봇은 티칭(Teaching)된 좌표를 따라 반복적으로 움직인다.In general, industrial robots move repeatedly along the taught coordinates.

산업용 로봇은 주어진 작업을 충실히 수행하기 위해 항상 출발지나 목적지에 정확하게 도달해야만 한다.Industrial robots must always reach their origin or destination accurately in order to faithfully perform a given task.

동일한 목표 위치에 대해 이전 사이클과 다음 사이클에서 로봇이 실제 도착한 위치가 다르다면 작업에 영향을 미칠 수 있다.If the position where the robot actually arrived in the previous cycle and the next cycle for the same target position is different, it may affect the work.

로봇이 반복해서 동일한 위치로 이동할 때 로봇의 실제 위치 오차가 얼마나 될지 나타내는 사양이 반복 정밀도(Repeatability)이다.Repeatability is a specification that indicates how much the actual position error of the robot will be when the robot repeatedly moves to the same position.

로봇에 저장된 프로그램 상의 목표 위치는 동일하기 때문에 로봇은 항상 동일한 위치에 도달해야 하지만, 로봇의 물리적 한계로 인하여 어느 정도의 오차를 피할 수 없다.Since the target position on the program stored in the robot is the same, the robot must always reach the same position, but some errors cannot be avoided due to the physical limitation of the robot.

상기 반복 정밀도에 영향을 미치는 것으로는 인코더 분해능과 감속기 백래쉬(Backlash) 등이 있다.Influencing the repetition accuracy, there are encoder resolution and reducer backlash.

상기 백래쉬는 한 쌍의 기어를 맞물렸을 때 치면 사이에 생기는 틈새로서, 한 쌍의 기어를 매끄럽게 회전시키기 위해서는 적절한 백래쉬가 필요하다.The backlash is a gap between tooth surfaces when a pair of gears are meshed, and an appropriate backlash is required to smoothly rotate the pair of gears.

상기 백래쉬가 너무 적으면 치면 사이의 윤활이 부족해지면서 치면끼리의 마찰이 커지는 반면, 백래쉬가 너무 커지면 기어의 맞물림이 나빠져 기어가 파손되기 쉽다.If the backlash is too small, the lubrication between the tooth surfaces becomes insufficient and the friction between the tooth surfaces increases, whereas if the backlash is too large, the meshing of the gears deteriorates and the gear is liable to be damaged.

일반적으로, 상기 반복 정밀도는 감속기 백래쉬의 영향이 지배적이며, 인코더 분해능에 의한 오차는 무시할 수 있는 수준이다.In general, the repetition accuracy is dominated by the backlash of the reducer, and the error due to the resolution of the encoder is negligible.

상기 인코더 분해능과 감속기 백래쉬의 영향으로 실제 로봇이 이동해야 될 위치 좌표와 실제 로봇이 이동한 위치 사이에 오차가 발생될 수 밖에 없다는 문제점이 있었다.There is a problem in that an error is inevitably generated between the position coordinate to which the actual robot should move and the position where the actual robot has moved due to the influence of the encoder resolution and the reducer backlash.

한편, 본 발명의 선행 기술로는 특허등록번호 "10-1329322"호의 "기판이송로봇의 자동 티칭 장치"가 출원되어 등록되었는데, 상기 기판이송로봇의 자동 티칭 장치는 처리 유닛으로 기판을 이송하기 위한 기판 이송 로봇의 자동 티칭 장치에 있어서, 상기 기판 이송 로봇의 암에 거치되는 지그 웨이퍼와, 상기 지그 웨이퍼의 하부면 중앙에 구비되는 기준 표시부, 상기 처리 유닛 내부의 플레이트에 설치되어 상기 기준 표시부를 촬상한 영상 데이터를 획득하는 비젼 카메라, 및 상기 영상 데이터를 분석하여 상기 기준 표시부가 상기 처리 유닛 내부의 특정 위치에 도달하도록 상기 암을 이동시키고 그 이동량을 저장하는 제어부를 포함한다.On the other hand, as the prior art of the present invention, the "automatic teaching device of the substrate transfer robot" of the patent registration number "10-1329322" has been applied and registered. The automatic teaching device of the substrate transfer robot is used to transfer the substrate to the processing unit. An automatic teaching apparatus for a substrate transfer robot, comprising: a jig wafer mounted on an arm of the substrate transfer robot; a reference display unit provided at the center of a lower surface of the jig wafer; and a reference display unit installed on a plate inside the processing unit to image the reference display unit And a vision camera that acquires one image data, and a control unit that analyzes the image data to move the arm so that the reference display unit reaches a specific position inside the processing unit and stores the movement amount.

하지만, 상기 기판 이송 로봇의 자동 티칭 장치 역시 비젼 카메라를 통해 촬영된 2D 형태의 영상 데이터를 토대로 기판 이송 로봇 암(Arm)의 위치를 보정해야 함으로 기판 이송 로봇의 높낮이를 정확하게 판별할 수 없어 기판 이송 로봇 암이 이동하려는 좌표와 실제 이동 위치 사이에 이동 오차가 발생될 수 밖에 없다는 문제가 있었다.However, the automatic teaching device of the substrate transfer robot must also correct the position of the substrate transfer robot arm based on the 2D image data captured by the vision camera, so the height of the substrate transfer robot cannot be accurately determined. There was a problem that a movement error inevitably occurred between the coordinates to which the robot arm was moving and the actual movement position.

대한민국 특허등록번호 "10-1329322" (2013.11.14)Korean patent registration number "10-1329322" (2013.11.14)

이에 본 발명은 상기 문제점을 해결하기 위하여 로봇이 제1 경유지와 제2 경유지를 번갈아가며 이동할 때 반복 정밀도를 높여 로봇의 이동 오차를 최소화시킬 수 있는 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 시스템 및 방법을 제공하는데 본 발명의 목적이 있다.Accordingly, in order to solve the above problems, the present invention provides a robot auto-teaching system and method using a laser hybrid signal and an image capable of minimizing the movement error of the robot by increasing the repeatability when the robot alternately moves the first waypoint and the second waypoint. It is an object of the present invention to provide.

또한, 본 발명의 또 다른 목적은 로봇이 2개 이상의 경유지를 왕복 이동할 때 이동 오차를 최소화시킴으로써 로봇을 이용한 제조 및 유통 과정 중 발생될 수 있는 오류를 최소화시키고 작업 효율 및 생산 효율을 향상시키며 로봇의 이동 오차 보정을 위한 작업 인력 및 시간을 절약할 수 있는 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 시스템 및 방법을 제공하는 것이다.In addition, another object of the present invention is to minimize errors that may occur during manufacturing and distribution processes using robots by minimizing movement errors when the robot moves back and forth between two or more waypoints, and improves work efficiency and production efficiency. It is to provide a robot auto-teaching system and method using an image and a laser hybrid signal that can save manpower and time for correcting movement errors.

상기 목적을 달성하기 위한 본 발명에 따른 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 시스템은 2개 이상의 경유지를 왕복 이동하는 로봇의 표면에 마킹된 정렬용 마크와; 상기 로봇이 왕복 이동하는 각 경유지에 고정 설치되어 로봇이 각 경유지에 도착했을 때 상기 정렬용 마크 또는 로봇 외형을 촬영하는 영상 촬영부; 상기 로봇이 왕복 이동하는 각 경유지에 각각 고정 설치되어 경유지에 도착한 로봇과의 거리 간격을 측정하는 변위 측정부; 최초 상기 로봇이 내부 프로그램된 위치 좌표에 따라 각 경유지에 정위치했을 때 각 경유지의 영상 촬영부에 의해 촬영된 영상 내 정렬용 마크 또는 로봇 외형의 위치 좌표와 설정된 기준선 대비 회전 각도를 각 경유지별 기준값으로 저장하고, 각 경유지의 변위 측정부에 의해 측정된 거리 간격을 각 경유지별 기준 값으로 저장하는 기준값 저장부; 상기 기준값 저장부에 각 경유지별 기준 값이 저장된 후 상기 로봇이 어느 한 경유지에 도착했을 때 로봇이 도착된 경유지의 영상 촬영부를 통해 정렬용 마크 또는 로봇 외형을 촬영하고 촬영 영상 내 정렬용 마크 또는 로봇 외형의 위치 좌표와 설정된 기준선 대비 회전 각도를 계산하며, 계산된 정렬용 마크 또는 로봇 외형의 위치 좌표와 기준선 대비 회전 각도를 상기 기준값 저장부에 저장된 기준값 중 현재 로봇이 도착한 경유지와 맞대응되는 정렬용 마크 또는 로봇 외형의 위치 좌표 및 기준선 대비 회전 각도와 비교하여 위치 좌표차와 회전 각도차를 산출하고, 산출된 위치 좌표차와 회전 각도차만큼 로봇 위치를 보정하는 로봇 위치 1차 보정부; 및 상기 로봇 위치 1차 보정부에 의해 로봇 위치가 1차 보정되었을 때 로봇이 도착된 경유지의 변위 측정부를 통해 변위 측정부와 로봇 사이의 거리 간격을 측정하고, 측정된 거리 간격을 상기 기준값 저장부에 저장된 기준값 중 현재 로봇이 도착한 경유지와 맞대응되는 거리 간격과 비교하여 거리 오차를 계산하며, 계산된 거리 오차만큼 로봇 위치를 2차 보정하는 로봇 위치 2차 보정부로 이루어질 수 있다.The robot auto-teaching system using an image and a laser hybrid signal according to the present invention for achieving the above object comprises: an alignment mark marked on a surface of a robot reciprocating at least two stops; An image photographing unit that is fixedly installed at each stop where the robot reciprocates and photographs the alignment mark or the outer shape of the robot when the robot arrives at each stop; A displacement measuring unit that is fixedly installed at each stop where the robot reciprocates and measures a distance distance between the robot arriving at the stop; When the robot is first positioned at each stop according to the internally programmed position coordinates, the alignment mark in the image captured by the image capture unit of each stop or the position coordinate of the robot's outer shape and the rotation angle compared to the set reference line are reference values for each stop A reference value storage unit storing the distance interval measured by the displacement measuring unit of each stopover as a reference value for each stopover; After the reference value for each stopover is stored in the reference value storage unit, when the robot arrives at any one stopover, the alignment mark or robot appearance is photographed through the image capture unit of the waypoint where the robot arrives, and the alignment mark or robot in the captured image It calculates the position coordinates of the outer shape and the rotation angle relative to the set reference line, and the calculated alignment mark or the alignment mark that corresponds to the stopover point where the current robot arrives among the reference values stored in the reference value storage unit for the calculated position coordinates and rotation angle of the robot shape Or a robot position primary correction unit that calculates a position coordinate difference and a rotation angle difference by comparing the position coordinate of the outer shape of the robot and a rotation angle relative to the reference line, and corrects the robot position by the calculated position coordinate difference and the rotation angle difference; And a distance distance between the displacement measurement unit and the robot is measured through the displacement measurement unit of the waypoint where the robot arrives when the robot position is first corrected by the robot position primary correction unit, and the measured distance distance is stored in the reference value storage unit. Among the reference values stored in the robot, the distance error is calculated by comparing with the distance distance corresponding to the waypoint where the current robot has arrived, and a second robot position correction unit that secondly corrects the robot position by the calculated distance error.

이러한 구성으로 이루어진 본 발명에 따른 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 시스템은 2개 이상의 경유지를 왕복 이동하는 로봇이 각 경유지에 도착할 때마다 영상 촬영부를 이용하여 로봇에 새겨진 정렬용 마크 또는 로봇 외형을 촬영하고, 촬영된 영상 내 정렬용 마크 또는 로봇 외형의 위치 좌표와 기준선 대비 회전 각도를 기준값과 비교한 다음, 기준값 대비 위치 좌표 오차와 회전 각도 오차만큼 로봇 위치를 1차 보정하여 로봇의 이동 오차를 최소화할 수 있다.The robot auto-teaching system using the image and laser hybrid signal according to the present invention having such a configuration includes an alignment mark or robot appearance engraved on the robot using an image capture unit whenever a robot that reciprocates two or more stops arrives at each stop After taking a picture, comparing the position coordinates of the alignment mark or the outer shape of the robot in the captured image and the rotation angle relative to the reference line with a reference value, and then first correcting the robot position by the position coordinate error and rotation angle error compared to the reference value, and the robot's movement error Can be minimized.

또한, 본 발명은 1차 로봇 위치 보정에 그치지 않고, 현재 로봇이 위치한 경유지에 설치된 2개 이상의 변위 측정부를 이용하여 변위 측정부와 로봇 사이의 거리 간격을 측정하고, 측정된 거리 간격을 기준값과 비교 후 기준값 대비 거리 오차만큼 로봇 위치를 2차 보정하여 로봇의 이동 오차를 최소화하였다.In addition, the present invention does not stop at the primary robot position correction, but measures the distance distance between the displacement measurement unit and the robot using two or more displacement measurement units installed on the waypoint where the robot is currently located, and compares the measured distance distance with a reference value. Afterwards, the robot's movement error was minimized by secondary correction of the robot position by the distance error compared to the reference value.

따라서, 본 발명에 따른 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 시스템은 로봇이 제1 경유지와 제2 경유지를 번갈아 가며 이동할 때 반복 정밀도를 높여 로봇의 이동 오차를 최소화시킬 수 있다.Accordingly, the robot auto-teaching system using an image and a laser hybrid signal according to the present invention can minimize the movement error of the robot by increasing the repeatability when the robot alternately moves the first waypoint and the second waypoint.

또한, 본 발명은 로봇이 2개 이상의 경유지를 왕복 이동할 때 이동 오차를 최소화시킴으로써 로봇을 이용한 제조 및 유통 과정 중 발생될 수 있는 오류를 최소화시키고 작업 효율 및 생산 효율을 향상시키며 로봇의 이동 오차 보정을 위한 작업 인력 및 시간을 절약할 수 있다.In addition, the present invention minimizes errors that may occur during manufacturing and distribution processes using robots by minimizing movement errors when the robot moves back and forth between two or more stops, improves work efficiency and production efficiency, and corrects movement errors of the robot. It can save manpower and time for work.

도면 1은 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 시스템의 개념도,
도면 2는 각 경유지에 설치된 영상 촬영부와 변위 측정부를 도시한 도면,
도면 3은 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 시스템의 제어 블록도,
도면 4는 로봇 위치 1차 보정부의 제어 블록도,
도면 5는 상호 상관 기법을 설명하기 위한 도면,
도면 6은 로봇 위치 2차 보정부의 제어 블록도,
도면 7은 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 방법의 플로우 챠트,
도면 8은 제1 단계를 세분화한 플로우 챠트,
도면 9는 제4-1 단계를 도시한 도면,
도면 10은 제6-1 단계를 도시한 도면.
Figure 1 is a conceptual diagram of a robot auto-teaching system using an image and a laser hybrid signal.
Fig. 2 is a diagram showing an image photographing unit and a displacement measuring unit installed at each stopover;
3 is a control block diagram of a robot auto teaching system using video and laser hybrid signals.
Figure 4 is a control block diagram of the robot position primary correction unit,
Figure 5 is a diagram for explaining a cross-correlation technique;
Figure 6 is a control block diagram of the robot position secondary correction unit,
Figure 7 is a flow chart of a robot auto-teaching method using an image and a laser hybrid signal.
Figure 8 is a flow chart subdividing the first step,
FIG. 9 is a diagram showing a step 4-1;
Fig. 10 is a diagram showing a step 6-1.

이하, 첨부된 도면을 참조하여 본 발명을 자세히 설명한다. Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

본 발명에 따른 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 시스템은 도면 1 내지 도면 3에 도시한 바와 같이, 2개 이상의 경유지(C,S)를 왕복 이동하는 로봇(R)의 표면에 마킹(Marking)된 정렬용 마크(AM)와; 상기 로봇(R)이 왕복 이동하는 각 경유지(C,S)에 고정 설치되어 로봇(R)이 각 경유지(C,S)에 도착했을 때 상기 정렬용 마크(AM) 또는 로봇 외형을 촬영하는 영상 촬영부(1); 상기 로봇(R)이 왕복 이동하는 각 경유지(C,S)에 각각 고정 설치되어 경유지(C,S)에 도착한 로봇(R)과의 거리 간격을 측정하는 변위 측정부(2); 최초 상기 로봇(R)이 내부 프로그램된 위치 좌표에 따라 각 경유지(C,S)에 정위치했을 때 각 경유지(C,S)의 영상 촬영부(1)에 의해 촬영된 영상 내 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와 설정된 기준선 대비 회전 각도를 각 경유지(C,S)별 기준값으로 저장하고, 각 경유지(C,S)의 변위 측정부(2)에 의해 측정된 거리 간격을 각 경유지(C,S)별 기준 값으로 저장하는 기준값 저장부(3); 상기 기준값 저장부(3)에 각 경유지(C,S)별 기준 값이 저장된 후 상기 로봇(R)이 어느 한 경유지(C,S)에 도착했을 때 로봇(R)이 도착된 경유지(C,S)의 영상 촬영부(1)를 통해 정렬용 마크(AM) 또는 로봇 외형을 촬영하고 촬영 영상 내 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와 설정된 기준선 대비 회전 각도를 계산하며, 계산된 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와 기준선 대비 회전 각도를 상기 기준값 저장부(3)에 저장된 기준값 중 현재 로봇(R)이 도착한 경유지(C,S)와 맞대응되는 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표 및 기준선 대비 회전 각도와 비교하여 위치 좌표차와 회전 각도차를 산출하고, 산출된 위치 좌표차와 회전 각도차만큼 로봇(R) 위치를 보정하는 로봇 위치 1차 보정부(4); 및 상기 로봇 위치 1차 보정부(4)에 의해 로봇(R) 위치가 1차 보정되었을 때 로봇(R)이 도착된 경유지(C,S)의 변위 측정부(2)를 통해 변위 측정부(2)와 로봇(R) 사이의 거리 간격을 측정하고, 측정된 거리 간격을 상기 기준값 저장부(3)에 저장된 기준값 중 현재 로봇(R)이 도착한 경유지(C,S)와 맞대응되는 거리 간격과 비교하여 거리 오차를 계산하며, 계산된 거리 오차만큼 로봇(R) 위치를 2차 보정하는 로봇 위치 2차 보정부(5)로 이루어질 수 있다.The robot auto-teaching system using an image and a laser hybrid signal according to the present invention marks the surface of a robot R that reciprocates two or more stops (C,S) as shown in Figs. ) The alignment mark (AM) and; An image that is fixedly installed at each stop (C, S) where the robot (R) reciprocates and photographs the alignment mark (AM) or the robot appearance when the robot (R) arrives at each stop (C, S) A photographing unit 1; A displacement measuring unit (2) that is fixedly installed at each stop (C,S) in which the robot (R) reciprocates and measures a distance between the robot (R) arriving at the stopover (C,S); When the robot (R) is initially positioned at each stop (C,S) according to the internally programmed position coordinates, the mark for alignment in the image captured by the image capture unit (1) of each stop (C,S) ( AM) or the position coordinates of the outer shape of the robot and the rotation angle compared to the set reference line are stored as a reference value for each waypoint (C,S), and the distance interval measured by the displacement measuring unit (2) of each stopover (C,S) A reference value storage unit 3 for storing reference values for each stopover (C, S); After the reference value for each stopover (C,S) is stored in the reference value storage unit 3, when the robot R arrives at one of the stops (C,S), the robot R arrives at the stopover point (C,S). The alignment mark (AM) or the outer shape of the robot is photographed through the image photographing unit (1) of S), and the alignment mark (AM) in the photographed image or the position coordinate of the robot shape and the rotation angle relative to the set reference line are calculated. Alignment marks (AM) or alignment marks (AM) that match the position coordinates of the outer shape of the robot and the rotation angle relative to the reference line among the reference values stored in the reference value storage unit (3), ) Or, a robot position primary correction unit that calculates the position coordinate difference and the rotation angle difference by comparing the position coordinate of the outer shape of the robot and the rotation angle compared to the reference line, and corrects the position of the robot R by the calculated position coordinate difference and the rotation angle difference. (4); And the displacement measurement unit 2 through the displacement measurement unit 2 of the waypoint C and S where the robot R arrives when the position of the robot R is first corrected by the robot position primary correction unit 4 2) Measure the distance gap between the robot (R) and the measured distance gap from the reference values stored in the reference value storage unit 3 to the distance gap that corresponds to the stopover (C,S) where the current robot (R) arrives. The distance error may be compared and the second robot position correction unit 5 may be configured to secondarily correct the position of the robot R by the calculated distance error.

상기 정렬용 마크(AM)는 2개 이상의 직선이 교차하는 형태이거나 다각형 형태로 이루어짐이 바람직하다.It is preferable that the alignment mark AM has a shape in which two or more straight lines intersect or has a polygonal shape.

상기 변위 측정부(2)는 각 경유지(C,S)에 2개 이상 설치되고, 상기 변위 측정부(2)는 레이저 변위 센서 또는 초음파 센서를 이용한다.Two or more displacement measurement units 2 are installed at each stop (C,S), and the displacement measurement unit 2 uses a laser displacement sensor or an ultrasonic sensor.

상기 기준선은 기울기가 수평선 대비 0도 내지 180도인 직선이다.The reference line is a straight line whose slope is 0 degrees to 180 degrees compared to the horizontal line.

상기 로봇(R)은 어느 한 경유지(C)에 놓인 물건을 집어 다른 한 경유지(S)에 내려놓는 산업용 로봇(R)이고, 2개 이상의 경유지(C,S) 중 어느 1개의 경유지(C)는 이송 벨트를 통해 물건을 이동시키는 컨베이어일 수 있고, 다른 1개의 경유지(S)는 로봇(R)을 통해 이송된 물건을 승하강시키는 승하강 스테이지일 수 있다.The robot (R) is an industrial robot (R) that picks up an object placed on one stop (C) and puts it down on another stop (S), and any one stop (C) of two or more stops (C,S) May be a conveyor for moving objects through a transfer belt, and the other stop (S) may be an elevating stage for raising and lowering objects transferred through the robot R.

상기 로봇(R)은 말단에 물건을 집을 수 있게 집게가 달린 로봇 암(Arm) 형태이고, 상기 정렬용 마크(AM)는 집게 표면에 마킹됨이 바람직하다.The robot R is in the form of a robot arm (Arm) with tongs so that an object can be picked up at the end, and the alignment mark AM is preferably marked on the surface of the tongs.

상기 로봇 위치 1차 보정부(4)는 도면 4에 도시한 바와 같이, 로봇(R)이 도착된 경유지(C,S)의 영상 촬영부(1)를 통해 촬영된 영상에서 정렬용 마크(AM) 또는 로봇 외형을 추출하는 오브젝트 추출부(41)와; 상기 오브젝트 추출부(41)에 의해 추출된 정렬용 마크(AM) 또는 로봇 외형의 영상 내 위치 좌표와 설정된 기준선 대비 회전 각도를 검출하는 오브젝트 위치 검출부(42); 상기 오브젝트 위치 검출부(42)에 의해 검출된 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와 설정된 기준선 대비 회전 각도를 상기 기준값 저장부(3)에 저장된 기준값 중 현재 로봇(R)이 도착한 경유지(C,S)와 맞대응되는 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표 및 설정된 기준선 대비 회전 각도와 비교하여 위치 좌표차와 회전 각도차를 산출하는 이동 오차 도출부(43); 및 상기 이동 오차 도출부(43)에 의해 산출된 위치 좌표차와 회전 각도차만큼 로봇(R) 위치를 보정하는 로봇 위치 1차 보정 수단(44)을 포함한다.The robot position primary correction unit 4 is an alignment mark (AM) in the image taken through the image capture unit 1 of the waypoint (C, S) where the robot R has arrived, as shown in FIG. ) Or an object extracting unit 41 for extracting the outer shape of the robot; An object position detection unit 42 that detects an alignment mark (AM) extracted by the object extracting unit 41 or a position coordinate in an image of an external shape of the robot and a rotation angle relative to a set reference line; The alignment mark (AM) detected by the object position detection unit 42 or the position coordinates of the outer shape of the robot and the rotation angle relative to the set reference line are selected from the reference values stored in the reference value storage unit 3 to the waypoint where the current robot R arrives ( A movement error derivation unit 43 for calculating a position coordinate difference and a rotation angle difference by comparing the position coordinates of the alignment mark (AM) or the outer shape of the robot and the rotation angle compared to the set reference line; And a robot position primary correction means 44 for correcting the position of the robot R by the position coordinate difference and the rotation angle difference calculated by the movement error derivation unit 43.

상기 오브젝트 위치 검출부(42)는 도면 5에 도시한 바와 같이, 상기 오브젝트 추출부(41)에 의해 정렬용 마크(AM) 또는 로봇 외형이 추출된 영상내에서 상호 상관(2-D Cross Correlation) 기법을 이용하여 기준값 저장부(3)에 저장된 정렬용 마크(AM) 또는 로봇 외형과 가장 유사한 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표를 검출한다.As shown in Fig. 5, the object position detection unit 42 is a 2-D Cross Correlation technique in an image from which an alignment mark (AM) or a robot appearance is extracted by the object extraction unit 41. The alignment mark (AM) stored in the reference value storage unit 3 or the alignment mark (AM) most similar to the shape of the robot, or the position coordinates of the shape of the robot are detected.

상기 로봇 위치 2차 보정부(5)는 도면 6에 도시한 바와 같이, 로봇(R)이 어느 한 경유지(C,S)에 도착했을 때 로봇(R)이 도착된 경유지(C,S)에 설치된 변위 측정부(2)를 이용하여 변위 측정부(2)와 로봇(R) 사이의 이격 거리인 비교용 거리 간격을 측정하는 비교용 거리 간격 측정부(51)와; 상기 비교용 거리 간격 측정부(51)에 의해 측정된 비교용 거리 간격을 상기 기준값 저장부(3)에 저장된 기준값 중 현재 로봇(R)이 도착한 경유지(C,S)와 맞대응되는 거리 간격과 비교하여 두 거리 간격 사이에 거리 오차를 도출하는 거리 오차 도출부(52); 및 상기 거리 오차 도출부(52)에 의해 도출된 거리 오차만큼 로봇(R) 위치를 보정하는 로봇 위치 2차 보정 수단(53)을 포함한다.The robot position secondary correction unit 5, as shown in Figure 6, when the robot (R) arrives at one of the waypoints (C,S) to the waypoints (C,S) where the robot (R) has arrived. A comparison distance distance measurement unit 51 for measuring a distance distance for comparison, which is a distance between the displacement measurement unit 2 and the robot R, using the installed displacement measurement unit 2; The comparison distance distance measured by the comparison distance distance measurement unit 51 is compared with the distance distance corresponding to the stopover (C,S) where the current robot R arrives among the reference values stored in the reference value storage unit 3 A distance error derivation unit 52 for deriving a distance error between the two distance intervals; And a robot position secondary correction means 53 for correcting the position of the robot R by the distance error derived by the distance error derivation unit 52.

또한, 본 발명은 도면 3에 도시한 바와 같이, 상기 로봇 위치 1차 보정부(4)에 의해 로봇(R) 위치가 보정된 후, 로봇(R)이 도착된 경유지(C,S)의 영상 촬영부(1)를 통해 정렬용 마크(AM) 또는 로봇 외형을 재촬영하고, 재촬영된 영상 내 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와 설정된 기준선 대비 회전 각도를 상기 기준값 저장부(3)에 저장된 기준값과 비교한 결과, 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표차와 회전 각도차가 설정된 오차값 이상인지 판단하는 오브젝트 오차 범위 판단부(6)를 더 포함하고, 상기 오브젝트 오차 범위 판단부(6)에 의해 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표차와 회전 각도차가 설정된 오차값 이상이라고 판단되면, 상기 로봇 위치 1차 보정부(4)는 로봇(R) 위치를 재보정한다.In addition, the present invention, as shown in Figure 3, after the robot (R) position is corrected by the robot position primary correction unit 4, the image of the waypoint (C, S) where the robot (R) arrived. The alignment mark (AM) or the outer shape of the robot is re-photographed through the photographing unit 1, and the position coordinates of the alignment mark (AM) or the outer shape of the robot in the re-taken image are stored in the reference value storage unit ( 3) As a result of comparing with the reference value stored in, the object error range determination unit 6 further comprises an object error range determination unit 6 that determines whether the alignment mark AM or the position coordinate difference and the rotation angle difference of the outer shape of the robot are equal to or greater than a set error value, and the object error When it is determined by the range determination unit 6 that the position coordinate difference and the rotation angle difference of the alignment mark AM or the outer shape of the robot are equal to or greater than the set error value, the robot position primary correction unit 4 determines the position of the robot R. Recalibrate.

또한, 본 발명은 도면 3에 도시한 바와 같이, 상기 로봇 위치 2차 보정부(5)에 의해 로봇(R) 위치가 보정된 후, 로봇(R)이 도착된 경유지(C,S)의 변위 측정부(2)를 통해 변위 측정부(2)와 로봇(R) 사이의 거리 간격을 재측정하고, 재측정된 거리 간격과 상기 기준값 저장부(3)에 저장된 기준값을 비교한 결과, 거리 간격차가 설정된 오차값 이상인지 판단하는 거리 오차 범위 판단부(7)를 더 포함하고, 상기 거리 오차 범위 판단부(7)에 의해 거리 간격차가 설정된 오차값 이상이라고 판단되면, 상기 로봇 위치 2차 보정부(5)는 로봇(R) 위치를 재보정한다.In addition, the present invention, as shown in Figure 3, after the robot (R) position is corrected by the robot position secondary correction unit (5), the displacement of the waypoint (C, S) where the robot (R) arrived The distance distance between the displacement measurement unit 2 and the robot R is re-measured through the measurement unit 2, and as a result of comparing the remeasured distance distance with the reference value stored in the reference value storage unit 3, the distance distance A distance error range determination unit 7 that determines whether the difference is equal to or greater than a set error value, and when it is determined by the distance error range determination unit 7 that the distance gap difference is equal to or greater than a set error value, the robot position secondary correction unit (5) recalibrates the robot (R) position.

한편, 본 발명에 따른 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 방법은 도면 7에 도시한 바와 같이, 로봇(R)이 2개 이상의 경유지(C,S)를 왕복 이동할 때 로봇의 이동 오차를 최소화하기 위한 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 방법에 있어서, 사전 작업으로 로봇(R)의 위치를 보정하는 로봇 위치 보정 수단이 로봇(R)이 각 경유지(C,S)에 정위치했을 때 각 경유지(C,S)에 설치된 영상 촬영부(1)를 이용하여 로봇(R) 표면에 마킹된 정렬용 마크(AM) 또는 로봇 외형을 촬영하고, 촬영 영상 내 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와 설정된 기준선 대비 회전 각도를 각 경유지(C,S)별 기준값으로 저장하는 제1 단계(S1)와; 상기 로봇 위치 보정 수단이 사전 작업으로 로봇(R)이 각 경유지(C,S)에 정위치했을 때 각 경유지(C,S)에 고정 설치된 변위 측정부(2)를 이용하여 변위 측정부(2)와 로봇(R) 사이의 거리 간격을 경유지(C,S)별 기준값으로 저장하는 제2 단계(S2); 사전 작업 완료 후 상기 로봇 위치 보정 수단은 로봇(R)이 어느 1개의 경유지(C,S)에 도착했을 때 로봇(R)이 도착한 경유지(C,S)에 설치된 영상 촬영부(1)를 이용하여 로봇(R) 표면에 마킹된 정렬용 마크(AM) 또는 로봇 외형을 촬영하고, 촬영 영상 내 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와 설정된 기준선 대비 회전 각도를 비교값으로 저장하는 제3 단계(S3); 상기 로봇 위치 보정 수단이 현재 로봇(R)이 위치한 경유지(C,S)에 대하여 기준값으로 저장된 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와, 설정된 기준선 대비 회전 각도를 비교값으로 저장된 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표 그리고 설정된 기준선 대비 회전 각도와 비교하여 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표 오차와 회전 각도 오차를 산출하고, 산출된 오차만큼 로봇(R)의 위치를 보정하는 제4 단계(S4); 상기 로봇 위치 보정 수단이 현재 로봇(R)이 위치하고 있는 경유지(C,S)에 설치된 변위 측정부(2)를 이용하여 변위 측정부(2)와 로봇(R) 사이의 거리 간격을 비교값으로 저장하는 제5 단계(S5); 및 상기 로봇 위치 보정 수단이 현재 로봇(R)이 위치한 경유지(C,S)에 대하여 기준값으로 저장된 거리 간격과 비교값으로 저장된 거리 간격을 비교하여 거리 오차를 산출하고, 상기 거리 오차만큼 로봇(R)의 위치를 보정하는 제6 단계(S6)로 이루어질 수 있다.On the other hand, the robot auto-teaching method using an image and a laser hybrid signal according to the present invention minimizes the movement error of the robot when the robot R reciprocates two or more stops (C, S), as shown in FIG. 7. In the robot auto-teaching method using the following image and laser hybrid signal, when the robot position correction means for correcting the position of the robot R as a preliminary operation, the robot R is correctly positioned at each stop (C, S). The alignment mark (AM) marked on the surface of the robot (R) or the outer shape of the robot is photographed using the image capture unit (1) installed at each stopover (C,S), and the alignment mark (AM) or robot in the captured image A first step (S1) of storing the outer position coordinates and the rotation angle relative to the set reference line as reference values for each stopover point (C,S); When the robot (R) is correctly positioned at each stop (C,S) as the robot position correction means is a pre-work, using the displacement measurement unit (2) fixedly installed at each stop (C,S), the displacement measurement unit (2) A second step (S2) of storing the distance interval between the robot (R) and the waypoint (C,S) as a reference value; After completion of the preliminary work, the robot position correction means uses the image capture unit 1 installed at the waypoint (C,S) where the robot (R) arrives when the robot (R) arrives at one of the stops (C,S). This is a system that photographs the alignment mark (AM) marked on the surface of the robot (R) or the outer shape of the robot, and stores the alignment mark (AM) in the captured image or the position coordinates of the outer shape of the robot and the rotation angle compared to the set reference line as a comparison value. Step 3 (S3); The robot position correction means stores the alignment mark (AM) stored as a reference value for the waypoint (C,S) where the robot R is currently located, or the position coordinates of the outer shape of the robot, and the rotation angle compared to the set reference line as a comparison value. By comparing the position coordinates of the mark (AM) or the outer shape of the robot and the rotation angle compared to the set reference line, the position coordinate error and the rotation angle error of the alignment mark (AM) or the outer shape of the robot are calculated, and the position of the robot (R) by the calculated error A fourth step of correcting (S4); The robot position correction means uses the displacement measurement unit 2 installed at the stopover (C, S) where the robot R is currently located, and uses the distance distance between the displacement measurement unit 2 and the robot R as a comparison value. A fifth step of storing (S5); And the robot position correction means calculates a distance error by comparing the distance distance stored as a reference value with the distance distance stored as a comparison value with respect to the stopover (C,S) where the robot R is currently located, and calculates a distance error by the distance error. ) May be made in a sixth step (S6) of correcting the position.

상기 사전 작업으로 로봇(R)의 위치를 보정하는 로봇 위치 보정 수단이 로봇(R)이 각 경유지(C,S)에 정위치했을 때 각 경유지(C,S)에 설치된 영상 촬영부(1)를 이용하여 로봇(R) 표면에 마킹된 정렬용 마크(AM) 또는 로봇 외형을 촬영하고, 촬영 영상 내 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와 설정된 기준선 대비 회전 각도를 각 경유지(C,S)별 기준값으로 저장하는 제1 단계(S1)는 도면 8에 도시한 바와 같이, 상기 로봇 위치 보정 수단이 촬영 영상 내 정렬용 마크(AM) 또는 로봇 외형의 위치를 탐색하는 단계(S1-1)와; 상기 로봇 위치 보정 수단이 탐색된 촬영 영상 내 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와 정렬용 마크(AM) 또는 로봇 외형의 설정된 기준선 대비 회전 각도를 산출하는 단계(S1-2)로 이루어질 수 있다.The robot position correction means for correcting the position of the robot R through the preliminary work is an image photographing unit (1) installed at each stop (C, S) when the robot (R) is correctly positioned at each stop (C, S) By using the alignment mark (AM) marked on the surface of the robot (R) or the outer shape of the robot, the alignment mark (AM) in the captured image or the position coordinate of the robot's outer shape and the rotation angle compared to the set reference line are determined at each stop (C). The first step (S1) of storing as a reference value for each ,S) is a step in which the robot position correction means searches for the position of the alignment mark (AM) in the photographed image or the outer shape of the robot, as shown in FIG. 1) and; The robot position correction means comprises a step (S1-2) of calculating an alignment mark (AM) or a position coordinate of the robot outer shape and a rotation angle relative to a set reference line of the robot outer shape. I can.

또한, 본 발명에 따른 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 방법은 도면 9에 도시한 바와 같이, 상기 제4 단계(S4)가 종료된 후 상기 로봇 위치 보정 수단은 로봇(R)이 도착한 경유지(C,S)에 설치된 영상 촬영부(1)를 이용하여 로봇(R) 표면에 마킹된 정렬용 마크(AM) 또는 로봇 외형을 재촬영하고, 촬영 영상 내 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와 설정된 기준선 대비 회전 각도를 현재 로봇(R)이 위치한 경유지(C,S)에 대하여 기준값으로 저장된 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와 설정된 기준선 대비 회전 각도와 비교하여 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표 오차와 회전 각도 오차를 재산출하고, 재산출된 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표 오차 또는 회전 각도 오차가 설정된 오차값 이상이면, 상기 제3 단계(S3)와 제4 단계(S4)를 반복 수행하는 제4-1 단계(S4-1)를 더 포함한다.In addition, the robot auto-teaching method using an image and a laser hybrid signal according to the present invention is as shown in FIG. 9, and after the fourth step (S4) is completed, the robot position correction means is a stopover where the robot R has arrived. The alignment mark (AM) marked on the surface of the robot (R) or the outer shape of the robot is re-photographed using the image capture unit (1) installed in the (C,S), and the alignment mark (AM) or the robot appearance in the captured image Alignment by comparing the position coordinate of the robot (R) and the rotation angle relative to the set reference line with the alignment mark (AM) stored as a reference value for the waypoint (C,S) where the robot (R) is currently located, or the position coordinate of the robot outer shape and the rotation angle compared to the set reference line. If the recalculated alignment mark (AM) or the position coordinate error and rotation angle error of the outer shape of the robot are recalculated, and if the recalculated alignment mark (AM) or the position coordinate error or the rotation angle error of the robot outer shape is more than the set error value, the It further includes a step 4-1 (S4-1) of repeatedly performing the third step (S3) and the fourth step (S4).

또, 본 발명에 따른 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 방법은 도면 10에 도시한 바와 같이, 상기 제6 단계(S6)가 종료된 후 상기 로봇 위치 보정 수단은 로봇(R)이 도착한 경유지(C,S)에 설치된 변위 측정부(2)를 이용하여 변위 측정부(2)와 로봇(R) 사이의 거리 간격을 비교값으로 재저장하고, 현재 로봇(R)이 위치한 경유지(C,S)에 대하여 기준값으로 저장된 거리 간격과 비교값으로 재저장된 거리 간격을 재비교하여 거리 오차를 재산출하며, 재산출된 거리 오차가 설정된 오차값 이상이면, 상기 제5 단계와 제6 단계를 반복 수행하는 제6-1 단계(S6-1)를 더 포함한다.In addition, the robot auto-teaching method using an image and a laser hybrid signal according to the present invention is as shown in FIG. 10, and after the sixth step (S6) is completed, the robot position correction means is a stopover where the robot R has arrived. Using the displacement measurement unit 2 installed in (C,S), the distance distance between the displacement measurement unit 2 and the robot R is restored as a comparison value, and the waypoint (C, For S), the distance error is recalculated by recomparison of the distance interval stored as a reference value and the distance interval restored as a comparison value, and if the recalculated distance error is greater than or equal to the set error value, steps 5 and 6 are repeated. It further includes a 6-1 step (S6-1) to be performed.

이러한 구성으로 이루어진 본 발명에 따른 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 시스템은 2개 이상의 경유지(C,S)를 왕복 이동하는 로봇(R)이 각 경유지(C,S)에 도착할 때마다 영상 촬영부(1)를 이용하여 로봇(R)에 새겨진 정렬용 마크(AM) 또는 로봇 외형을 촬영하고, 촬영된 영상 내 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와 기준선 대비 회전 각도를 기준값과 비교한 다음, 기준값 대비 위치 좌표 오차와 회전 각도 오차만큼 로봇(R) 위치를 1차 보정하여 로봇(R)의 이동 오차를 최소화할 수 있다. The robot auto-teaching system using the image and laser hybrid signal according to the present invention constituted in this configuration provides an image every time a robot (R) reciprocating two or more stops (C,S) arrives at each stop (C,S). The alignment mark (AM) engraved on the robot (R) or the shape of the robot is photographed using the photographing unit (1), and the position coordinates of the alignment mark (AM) in the captured image or the outer shape of the robot and the rotation angle relative to the reference line are reference values. After comparing with, it is possible to minimize the movement error of the robot R by first correcting the position of the robot R by the position coordinate error and the rotation angle error compared to the reference value.

또한, 본 발명은 1차 로봇(R) 위치 보정에 그치지 않고, 현재 로봇(R)이 위치한 경유지(C,S)에 설치된 2개 이상의 변위 측정부(2)를 이용하여 변위 측정부(2)와 로봇(R) 사이의 거리 간격을 측정하고, 측정된 거리 간격을 기준값과 비교 후 거리 오차만큼 로봇(R) 위치를 2차 보정하여 로봇(R)의 이동 오차를 최소화하였다.In addition, the present invention is not limited to correcting the position of the primary robot (R), but using two or more displacement measuring units (2) installed in the waypoint (C,S) where the robot (R) is currently located, the displacement measuring unit (2) The distance gap between the robot and the robot R was measured, the measured distance gap was compared with a reference value, and the position of the robot R was secondarily corrected by the distance error, thereby minimizing the movement error of the robot R.

따라서, 본 발명에 따른 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 시스템은 로봇(R)이 제1 경유지(C)와 제2 경유지(S)를 번갈아 가며 이동할 때 반복 정밀도를 높여 로봇의 이동 오차를 최소화시킬 수 있다.Therefore, the robot auto-teaching system using an image and a laser hybrid signal according to the present invention increases the repetition precision when the robot R alternates between the first stop (C) and the second stop (S), thereby reducing the movement error of the robot. Can be minimized.

또한, 본 발명은 로봇이 2개 이상의 경유지를 왕복 이동할 때 이동 오차를 최소화시킴으로써 로봇(R)을 이용한 제조 및 유통 과정 중 발생될 수 있는 오류를 최소화시키고 작업 효율 및 생산 효율을 향상시키며 로봇(R)의 이동 오차 보정을 위한 작업 인력 및 시간을 절약할 수 있다.In addition, the present invention minimizes errors that may occur during the manufacturing and distribution process using the robot R by minimizing the movement error when the robot reciprocates two or more waypoints, improves work efficiency and production efficiency, ) It can save manpower and time for correction of movement error.

C. 경유지 S. 경유지
R. 로봇 AM. 정렬용 마크
1. 영상 촬영부 2. 변위 측정부
3. 기준값 저장부 4. 로봇 위치 1차 보정부
41. 오브젝트 추출부 42. 오브젝트 위치 검출부
43. 이동 오차 도출부 44. 로봇 위치 1차 보정 수단
5. 로봇 위치 2차 보정부 51. 비교용 거리 간격 측정부
52. 거리 오차 도출부 53. 로봇 위치 2차 보정 수단
6. 오브젝트 오차 범위 판단부 7. 거리 오차 범위 판단부
C. Stopover S. Stopover
R. Robot AM. Alignment mark
1. Video recording unit 2. Displacement measurement unit
3. Reference value storage unit 4. Robot position primary correction unit
41. Object extraction unit 42. Object position detection unit
43. Movement error derivation unit 44. Robot position primary correction means
5. Robot position secondary correction unit 51. Distance distance measurement unit for comparison
52. Distance error derivation unit 53. Robot position secondary correction means
6. Object error range determination unit 7. Distance error range determination unit

Claims (9)

2개 이상의 경유지(C,S)를 왕복 이동하는 로봇(R)의 표면에 마킹(Marking)된 정렬용 마크(AM)와;
상기 로봇(R)이 왕복 이동하는 각 경유지(C,S)에 고정 설치되어 로봇(R)이 각 경유지(C,S)에 도착했을 때 상기 정렬용 마크(AM) 또는 로봇 외형을 촬영하는 영상 촬영부(1);
상기 로봇(R)이 왕복 이동하는 각 경유지(C,S)에 각각 고정 설치되어 경유지(C,S)에 도착한 로봇(R)과의 거리 간격을 측정하는 변위 측정부(2);
최초 상기 로봇(R)이 내부 프로그램된 위치 좌표에 따라 각 경유지(C,S)에 정위치했을 때 각 경유지(C,S)의 영상 촬영부(1)에 의해 촬영된 영상 내 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와 설정된 기준선 대비 회전 각도를 각 경유지(C,S)별 기준값으로 저장하고, 각 경유지(C,S)의 변위 측정부(2)에 의해 측정된 거리 간격을 각 경유지(C,S)별 기준 값으로 저장하는 기준값 저장부(3);
상기 기준값 저장부(3)에 각 경유지(C,S)별 기준 값이 저장된 후 상기 로봇(R)이 어느 한 경유지(C,S)에 도착했을 때 로봇(R)이 도착된 경유지(C,S)의 영상 촬영부(1)를 통해 정렬용 마크(AM) 또는 로봇 외형을 촬영하고 촬영 영상 내 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와, 설정된 기준선 대비 회전 각도를 계산하며, 계산된 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와 기준선 대비 회전 각도를 상기 기준값 저장부(3)에 저장된 기준값 중 현재 로봇(R)이 도착한 경유지(C,S)와 맞대응되는 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표 및 기준선 대비 회전 각도와 비교하여 위치 좌표차와 회전 각도차를 산출하고, 산출된 위치 좌표차와 회전 각도차만큼 로봇(R) 위치를 보정하는 로봇 위치 1차 보정부(4);
및 상기 로봇 위치 1차 보정부(4)에 의해 로봇(R) 위치가 1차 보정되었을 때 로봇(R)이 도착된 경유지(C,S)의 변위 측정부(2)를 통해 변위 측정부(2)와 로봇(R) 사이의 거리 간격을 측정하고, 측정된 거리 간격을 상기 기준값 저장부(3)에 저장된 기준값 중 현재 로봇(R)이 도착한 경유지(C,S)와 맞대응되는 거리 간격과 비교하여 거리 오차를 계산하며, 계산된 거리 오차만큼 로봇(R) 위치를 2차 보정하는 로봇 위치 2차 보정부(5);
상기 로봇 위치 1차 보정부(4)에 의해 로봇(R) 위치가 보정된 후, 로봇(R)이 도착된 경유지(C,S)의 영상 촬영부(1)를 통해 정렬용 마크(AM) 또는 로봇 외형을 재촬영하고, 재촬영된 영상 내 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와 설정된 기준선 대비 회전 각도를 상기 기준값 저장부(3)에 저장된 기준값과 비교한 결과, 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표차와 회전 각도차가 설정된 오차값 이상인지 판단하는 오브젝트 오차 범위 판단부(6); 및
상기 오브젝트 오차 범위 판단부(6)에 의해 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표차와 회전 각도차가 설정된 오차값 이상이라고 판단되면, 상기 로봇 위치 1차 보정부(4)는 로봇(R) 위치를 재보정하며, 상기 로봇 위치 2차 보정부(5)에 의해 로봇(R) 위치가 보정된 후, 로봇(R)이 도착된 경유지(C,S)의 변위 측정부(2)를 통해 변위 측정부(2)와 로봇(R) 사이의 거리 간격을 재측정하고, 재측정된 거리 간격과 상기 기준값 저장부(3)에 저장된 기준값을 비교한 결과, 거리 간격차가 설정된 오차값 이상인지 판단하는 거리 오차 범위 판단부(7)로 구성되고 상기 거리 오차 범위 판단부(7)에 의해 거리 간격차가 설정된 오차값 이상이라고 판단되면, 상기 로봇 위치 2차 보정부(5)는 로봇(R) 위치를 재보정 하되,
상기 로봇 위치 1차 보정부(4)는 로봇(R)이 도착된 경유지(C,S)의 영상 촬영부(1)를 통해 촬영된 영상에서 정렬용 마크(AM) 또는 로봇 외형을 추출하는 오브젝트 추출부(41)와; 상기 오브젝트 추출부(41)에 의해 추출된 정렬용 마크(AM) 또는 로봇 외형의 영상 내 위치 좌표와 설정된 기준선 대비 회전 각도를 검출하는 오브젝트 위치 검출부(42); 상기 오브젝트 위치 검출부(42)에 의해 검출된 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와 설정된 기준선 대비 회전 각도를 상기 기준값 저장부(3)에 저장된 기준값 중 현재 로봇(R)이 도착한 경유지(C,S)와 맞대응되는 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표 및 설정된 기준선 대비 회전 각도와 비교하여 위치 좌표차와 회전 각도차를 산출하는 이동 오차 도출부(43); 및 상기 이동 오차 도출부(43)에 의해 산출된 위치 좌표차와 회전 각도차만큼 로봇(R) 위치를 보정하는 로봇 위치 1차 보정 수단(44)을 포함하고,
상기 로봇 위치 2차 보정부(5)는 로봇(R)이 어느 한 경유지(C,S)에 도착했을 때 로봇(R)이 도착된 경유지(C,S)에 설치된 변위 측정부(2)를 이용하여 변위 측정부(2)와 로봇(R) 사이의 이격 거리인 비교용 거리 간격을 측정하는 비교용 거리 간격 측정부(51)와; 상기 비교용 거리 간격 측정부(51)에 의해 측정된 비교용 거리 간격을 상기 기준값 저장부(3)에 저장된 기준값 중 현재 로봇(R)이 도착한 경유지(C,S)와 맞대응되는 거리 간격과 비교하여 두 거리 간격 사이에 거리 오차를 도출하는 거리 오차 도출부(52); 및 상기 거리 오차 도출부(52)에 의해 도출된 거리 오차만큼 로봇(R) 위치를 보정하는 로봇 위치 2차 보정 수단(53)을 포함하는 것을 특징으로 하는 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 시스템.
Alignment marks (AM) marked on the surface of the robot (R) reciprocating two or more waypoints (C, S);
An image that is fixedly installed at each stop (C, S) where the robot (R) reciprocates and photographs the alignment mark (AM) or the robot appearance when the robot (R) arrives at each stop (C, S) A photographing unit 1;
A displacement measuring unit (2) that is fixedly installed at each stop (C,S) in which the robot (R) reciprocates and measures a distance between the robot (R) arriving at the stopover (C,S);
When the robot (R) is initially positioned at each stop (C,S) according to the internally programmed position coordinates, the mark for alignment in the image captured by the image capture unit (1) of each stop (C,S) ( AM) or the position coordinates of the outer shape of the robot and the rotation angle compared to the set reference line are stored as a reference value for each waypoint (C,S), and the distance interval measured by the displacement measuring unit (2) of each stopover (C,S) A reference value storage unit 3 for storing reference values for each stopover (C, S);
After the reference value for each stopover (C,S) is stored in the reference value storage unit 3, when the robot R arrives at one of the stops (C,S), the robot R arrives at the stopover point (C,S). The alignment mark (AM) or the outer shape of the robot is photographed through the image photographing unit (1) of S), and the alignment mark (AM) in the captured image or the position coordinate of the outer shape of the robot and the rotation angle relative to the set reference line are calculated, Alignment mark (AM) or the alignment mark (C, S) that matches the current robot R's arrival destination (C, S) among the reference values stored in the reference value storage unit 3 with the position coordinates of the robot's outer shape and the rotation angle relative to the reference line ( AM) or by comparing the position coordinates of the outer shape of the robot and the rotation angle compared to the reference line, calculating the position coordinate difference and the rotation angle difference, and correcting the robot (R) position by the calculated position coordinate difference and the rotation angle difference. Government (4);
And the displacement measurement unit 2 through the displacement measurement unit 2 of the waypoint C and S where the robot R arrives when the position of the robot R is first corrected by the robot position primary correction unit 4 2) Measure the distance gap between the robot (R), and measure the measured distance gap from the reference values stored in the reference value storage unit 3 to the distance gap corresponding to the destination (C,S) where the current robot (R) arrives. A robot position secondary correction unit 5 that compares and calculates a distance error, and secondly corrects the position of the robot R by the calculated distance error;
After the robot (R) position is corrected by the robot position primary correction unit (4), the alignment mark (AM) through the image capture unit (1) of the waypoint (C,S) where the robot (R) arrived Alternatively, the outer shape of the robot is re-photographed, and as a result of comparing the alignment mark (AM) in the re-taken image or the position coordinate of the robot shape and the rotation angle relative to the set reference line with the reference value stored in the reference value storage unit 3, the alignment mark (AM) or an object error range determination unit 6 for determining whether the position coordinate difference and the rotation angle difference of the outer shape of the robot are equal to or greater than a set error value; And
When the object error range determination unit 6 determines that the alignment mark AM or the position coordinate difference and the rotation angle difference of the outer shape of the robot is equal to or greater than a set error value, the robot position primary correction unit 4 ) After recalibrating the position and correcting the position of the robot R by the robot position secondary correction unit 5, the displacement measuring unit 2 of the waypoint (C,S) where the robot R has arrived As a result of re-measurement of the distance gap between the displacement measuring unit 2 and the robot R, and comparing the remeasured distance gap with the reference value stored in the reference value storage unit 3, whether the distance gap difference is greater than or equal to the set error value. When the distance error range determination unit 7 is configured to determine that the distance gap difference is equal to or greater than the set error value, the robot position secondary correction unit 5 determines the robot R. Reposition it,
The robot position primary correction unit 4 is an object for extracting an alignment mark (AM) or a robot appearance from an image captured through the image capture unit 1 of the waypoint (C, S) where the robot R has arrived An extraction unit 41; An object position detection unit 42 that detects an alignment mark (AM) extracted by the object extracting unit 41 or a position coordinate in an image of an external shape of the robot and a rotation angle relative to a set reference line; The alignment mark (AM) detected by the object position detection unit 42 or the position coordinates of the outer shape of the robot and the rotation angle relative to the set reference line are selected from the reference values stored in the reference value storage unit 3 to the waypoint where the current robot R arrives ( A movement error derivation unit 43 for calculating a position coordinate difference and a rotation angle difference by comparing the position coordinates of the alignment mark (AM) or the outer shape of the robot and the rotation angle compared to the set reference line; And a robot position primary correction means 44 for correcting the position of the robot R by the position coordinate difference and the rotation angle difference calculated by the movement error derivation unit 43,
The robot position secondary correction unit 5 uses the displacement measurement unit 2 installed at the stopover point C,S where the robot R arrives when the robot R arrives at one of the stops (C,S). A distance distance measurement unit 51 for comparison that measures a distance distance for comparison, which is a distance between the displacement measurement unit 2 and the robot R using the displacement measurement unit 2; The comparison distance distance measured by the comparison distance distance measuring unit 51 is compared with the distance distance corresponding to the stopover (C,S) where the current robot R arrives among the reference values stored in the reference value storage unit 3 A distance error derivation unit 52 for deriving a distance error between the two distance intervals; And a robot position secondary correction means 53 for correcting the position of the robot R by the distance error derived by the distance error derivation unit 52. Robot auto-teaching using a laser hybrid signal. system.
제1 항에 있어서,
상기 정렬용 마크(AM)는 2개 이상의 직선이 교차하는 형태이거나 다각형 형태로 이루어지는 것을 특징으로 하는 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 시스템.
The method of claim 1,
The alignment mark (AM) is a robot auto-teaching system using an image, laser hybrid signal, characterized in that two or more straight lines intersect or formed in a polygonal shape.
제1 항에 있어서,
상기 변위 측정부(2)는 각 경유지(C,S)에 2개 이상 설치되고,
상기 변위 측정부(2)는 레이저 변위 센서 또는 초음파 센서를 이용하는 것을 특징으로 하는 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 시스템.
The method of claim 1,
Two or more displacement measuring units 2 are installed at each stopover (C,S),
The displacement measuring unit (2) is a robot auto-teaching system using an image, laser hybrid signal, characterized in that using a laser displacement sensor or an ultrasonic sensor.
제1 항에 있어서,
상기 기준선은 기울기가 수평선 대비 0도 내지 180도인 직선인 것을 특징으로 하는 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 시스템.
The method of claim 1,
The reference line is a robot auto-teaching system using an image, laser hybrid signal, characterized in that the inclination is a straight line of 0 degrees to 180 degrees compared to the horizontal line.
삭제delete 삭제delete 제 1항의 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 시스템을 이용한 로봇 오토 티칭 방법에 있어서,
사전 작업으로 로봇(R)의 위치를 보정하는 로봇 위치 보정 수단이 로봇(R)이 각 경유지(C,S)에 정위치했을 때 각 경유지(C,S)에 설치된 영상 촬영부(1)를 이용하여 로봇(R) 표면에 마킹된 정렬용 마크(AM) 또는 로봇 외형을 촬영하고, 촬영 영상 내 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와, 설정된 기준선 대비 회전 각도를 각 경유지(C,S)별 기준값으로 저장하는 제1 단계(S1)와;
상기 로봇 위치 보정 수단이 사전 작업으로 로봇(R)이 각 경유지(C,S)에 정위치했을 때 각 경유지(C,S)에 고정 설치된 변위 측정부(2)를 이용하여 변위 측정부(2)와 로봇(R) 사이의 거리 간격을 경유지(C,S)별 기준값으로 저장하는 제2 단계(S2);
사전 작업 완료 후 상기 로봇 위치 보정 수단은 로봇(R)이 어느 1개의 경유지(C,S)에 도착했을 때 로봇(R)이 도착한 경유지(C,S)에 설치된 영상 촬영부(1)를 이용하여 로봇(R) 표면에 마킹된 정렬용 마크(AM) 또는 로봇 외형을 촬영하고, 촬영 영상 내 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와, 설정된 기준선 대비 회전 각도를 비교값으로 저장하는 제3 단계(S3);
상기 로봇 위치 보정 수단이 현재 로봇(R)이 위치한 경유지(C,S)에 대하여 기준값으로 저장된 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와, 설정된 기준선 대비 회전 각도를 비교값으로 저장된 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표 그리고 설정된 기준선 대비 회전 각도와 비교하여 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표 오차와 회전 각도 오차를 산출하고, 산출된 오차만큼 로봇(R)의 위치를 보정하는 제4 단계(S4);
상기 로봇 위치 보정 수단이 현재 로봇(R)이 위치하고 있는 경유지(C,S)에 설치된 변위 측정부(2)를 이용하여 변위 측정부(2)와 로봇(R) 사이의 거리 간격을 비교값으로 저장하는 제5 단계(S5);
및 상기 로봇 위치 보정 수단이 현재 로봇(R)이 위치한 경유지(C,S)에 대하여 기준값으로 저장된 거리 간격과 비교값으로 저장된 거리 간격을 비교하여 거리 오차를 산출하고, 상기 거리 오차만큼 로봇(R)의 위치를 보정하는 제6 단계(S6)로 이루어진 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 방법.
In the robot auto teaching method using the robot auto teaching system using the image and laser hybrid signal of claim 1,
Robot position correction means for correcting the position of the robot R as a preliminary operation, when the robot R is correctly positioned at each stop (C,S), the image capture unit (1) installed at each stop (C,S) Using the alignment mark (AM) marked on the surface of the robot (R) or the outer shape of the robot, the alignment mark (AM) in the captured image or the position coordinates of the robot's outer shape, and the rotation angle relative to the set reference line are determined at each stop (C). A first step (S1) of storing as a reference value for each ,S);
When the robot (R) is correctly positioned at each stop (C,S) as the robot position correction means is a pre-work, using the displacement measurement unit (2) fixedly installed at each stop (C,S), the displacement measurement unit (2) A second step (S2) of storing the distance interval between the robot (R) and the waypoint (C,S) as a reference value;
After completion of the preliminary work, the robot position correction means uses the image capture unit 1 installed at the waypoint (C,S) where the robot (R) arrives when the robot (R) arrives at one of the stops (C,S). The alignment mark (AM) marked on the surface of the robot (R) or the outer shape of the robot is photographed, and the position coordinates of the alignment mark (AM) or the outer shape of the robot in the captured image and the rotation angle compared to the set reference line are stored as a comparison value. A third step (S3);
The robot position correction means stores the alignment mark (AM) stored as a reference value for the waypoint (C,S) where the robot R is currently located, or the position coordinates of the outer shape of the robot, and the rotation angle compared to the set reference line as a comparison value. By comparing the position coordinates of the mark (AM) or the outer shape of the robot and the rotation angle compared to the set reference line, the position coordinate error and the rotation angle error of the alignment mark (AM) or the outer shape of the robot are calculated, and the position of the robot (R) by the calculated error A fourth step of correcting (S4);
The robot position correction means uses the displacement measurement unit 2 installed at the stopover (C, S) where the robot R is currently located, and uses the distance distance between the displacement measurement unit 2 and the robot R as a comparison value. A fifth step of storing (S5);
And the robot position correction means calculates a distance error by comparing the distance interval stored as a reference value with the distance interval stored as a comparison value with respect to the stopover (C,S) where the robot R is currently located, and calculates a distance error as much as the distance error. A robot auto-teaching method using an image, laser hybrid signal consisting of a sixth step (S6) of correcting the position of ).
제7 항에 있어서,
상기 제4 단계(S4)가 종료된 후 상기 로봇 위치 보정 수단은 로봇(R)이 도착한 경유지(C,S)에 설치된 영상 촬영부(1)를 이용하여 로봇(R) 표면에 마킹된 정렬용 마크(AM) 또는 로봇 외형을 재촬영하고,
촬영 영상 내 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와 설정된 기준선 대비 회전 각도를 현재 로봇(R)이 위치한 경유지(C,S)에 대하여 기준값으로 저장된 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표와 설정된 기준선 대비 회전 각도와 비교하여 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표 오차와 회전 각도 오차를 재산출하고,
재산출된 정렬용 마크(AM) 또는 로봇 외형의 위치 좌표 오차 또는 회전 각도 오차가 설정된 오차값 이상이면, 상기 제3 단계(S3)와 제4 단계(S4)를 반복 수행하는 제4-1 단계(S4-1)를 더 포함하는 것을 특징으로 하는 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 방법.
The method of claim 7,
After the fourth step (S4) is finished, the robot position correction means is for alignment marked on the surface of the robot (R) by using the image capture unit (1) installed at the stopover (C,S) where the robot (R) arrives. Retake the mark (AM) or the appearance of the robot,
The alignment mark (AM) in the captured image or the position coordinate of the robot's outer shape and the rotation angle compared to the set reference line are stored as a reference value for the waypoint (C,S) where the robot (R) is currently located. Comparing the position coordinates with the rotation angle compared to the set reference line, recalculate the position coordinate error and rotation angle error of the alignment mark (AM) or the outer shape of the robot,
Step 4-1 of repeating the third step (S3) and the fourth step (S4) if the recalculated alignment mark (AM) or the position coordinate error or rotation angle error of the robot outer shape is greater than or equal to the set error value (S4-1), robot auto-teaching method using an image, laser hybrid signal, characterized in that it further comprises.
제7 항에 있어서,
상기 제6 단계(S6)가 종료된 후 상기 로봇 위치 보정 수단은 로봇(R)이 도착한 경유지(C,S)에 설치된 변위 측정부(2)를 이용하여 변위 측정부(2)와 로봇(R) 사이의 거리 간격을 비교값으로 재저장하고,
현재 로봇(R)이 위치한 경유지(C,S)에 대하여 기준값으로 저장된 거리 간격과 비교값으로 재저장된 거리 간격을 재비교하여 거리 오차를 재산출하며, 재산출된 거리 오차가 설정된 오차값 이상이면,
상기 제5 단계와 제6 단계를 반복 수행하는 제6-1 단계(S6-1)를 더 포함하는 것을 특징으로 하는 영상, 레이저 하이브리드 신호를 이용한 로봇 오토 티칭 방법.
The method of claim 7,
After the sixth step (S6) is finished, the robot position correction means uses the displacement measurement unit 2 installed at the stopover (C,S) where the robot R arrives, and the displacement measurement unit 2 and the robot R ) To restore the distance interval as a comparison value,
For the waypoint (C,S) where the robot (R) is currently located, the distance error is recalculated by re-comparison of the distance interval saved as a reference value and the distance interval restored as a comparison value, and if the recalculated distance error is more than the set error value, ,
A robot auto-teaching method using an image and a laser hybrid signal, further comprising step 6-1 (S6-1) of repeatedly performing the fifth step and the sixth step.
KR1020190141048A 2019-11-06 2019-11-06 The robot auto teaching system using image and laser hybrid signal, and the method thereof KR102147777B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190141048A KR102147777B1 (en) 2019-11-06 2019-11-06 The robot auto teaching system using image and laser hybrid signal, and the method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190141048A KR102147777B1 (en) 2019-11-06 2019-11-06 The robot auto teaching system using image and laser hybrid signal, and the method thereof

Publications (1)

Publication Number Publication Date
KR102147777B1 true KR102147777B1 (en) 2020-08-25

Family

ID=72242136

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190141048A KR102147777B1 (en) 2019-11-06 2019-11-06 The robot auto teaching system using image and laser hybrid signal, and the method thereof

Country Status (1)

Country Link
KR (1) KR102147777B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230040575A (en) * 2021-09-16 2023-03-23 에스엔피 주식회사 Teaching system of robot assembly provided in vacuum chamber
KR20230040448A (en) * 2021-09-16 2023-03-23 에스엔피 주식회사 Monitoring system of robot assembly provided in vacuum chamber
CN117584157A (en) * 2024-01-17 2024-02-23 深圳威洛博机器人有限公司 Circulation type guiding control system of industrial robot module

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001105153A (en) * 1999-10-08 2001-04-17 Kawasaki Heavy Ind Ltd Robot for spot welding
KR101329322B1 (en) 2010-12-31 2013-11-14 세메스 주식회사 Automatic teaching method of wafer trasfer robot
KR101971824B1 (en) * 2018-03-05 2019-04-23 캐논 톡키 가부시키가이샤 Robot, Robot system, Manufacturing apparatus of device, Manufacturing method of device and Method for adjusting teaching positions

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001105153A (en) * 1999-10-08 2001-04-17 Kawasaki Heavy Ind Ltd Robot for spot welding
KR101329322B1 (en) 2010-12-31 2013-11-14 세메스 주식회사 Automatic teaching method of wafer trasfer robot
KR101971824B1 (en) * 2018-03-05 2019-04-23 캐논 톡키 가부시키가이샤 Robot, Robot system, Manufacturing apparatus of device, Manufacturing method of device and Method for adjusting teaching positions

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230040575A (en) * 2021-09-16 2023-03-23 에스엔피 주식회사 Teaching system of robot assembly provided in vacuum chamber
KR20230040448A (en) * 2021-09-16 2023-03-23 에스엔피 주식회사 Monitoring system of robot assembly provided in vacuum chamber
KR102627226B1 (en) * 2021-09-16 2024-01-19 에스엔피 주식회사 Monitoring system of robot assembly provided in vacuum chamber
KR102627640B1 (en) * 2021-09-16 2024-01-23 에스엔피 주식회사 Teaching system of robot assembly provided in vacuum chamber
CN117584157A (en) * 2024-01-17 2024-02-23 深圳威洛博机器人有限公司 Circulation type guiding control system of industrial robot module
CN117584157B (en) * 2024-01-17 2024-04-09 深圳威洛博机器人有限公司 Circulation type guiding control system of industrial robot module

Similar Documents

Publication Publication Date Title
KR102147777B1 (en) The robot auto teaching system using image and laser hybrid signal, and the method thereof
US8346392B2 (en) Method and system for the high-precision positioning of at least one object in a final location in space
US10035268B2 (en) Measurement system used for calibrating mechanical parameters of robot
JP6280525B2 (en) System and method for runtime determination of camera miscalibration
EP3157715B1 (en) Method for calibrating a robot and a robot system
US8908028B2 (en) Calibration method for a measuring system
EP1607194A2 (en) Robot system comprising a plurality of robots provided with means for calibrating their relative position
CN111278608B (en) Calibration article for 3D vision robot system
KR20080088165A (en) Robot calibration method
US20180354137A1 (en) Robot System Calibration
TW201621811A (en) Calibration system and method for 3D scanner
CN111707189A (en) Laser displacement sensor light beam direction calibration method based on binocular vision
TWI667090B (en) Laser processing device
CN111504189A (en) Method for accurately positioning polygonal track by finding intersection point through laser vision
CN109916346B (en) Workpiece flatness detection device and method based on vision system
JPS62206684A (en) Position and shape measuring method by pattern projection
JP2013024852A (en) Molding image processing inspection device
JPH0626770B2 (en) Workpiece fitting method
US20220105641A1 (en) Belt Conveyor Calibration Method, Robot Control Method, and Robot System
JPH0526639A (en) Three-dimensional measuring method
CN115972192A (en) 3D computer vision system with variable spatial resolution
KR101626374B1 (en) Precision position alignment technique using edge based corner estimation
JPH0545117A (en) Optical method for measuring three-dimensional position
JP2718249B2 (en) Robot displacement detection device
JPH04269194A (en) Plane measuring method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant