KR20110095700A - Industrial robot control method for workpiece object pickup - Google Patents

Industrial robot control method for workpiece object pickup Download PDF

Info

Publication number
KR20110095700A
KR20110095700A KR1020100015309A KR20100015309A KR20110095700A KR 20110095700 A KR20110095700 A KR 20110095700A KR 1020100015309 A KR1020100015309 A KR 1020100015309A KR 20100015309 A KR20100015309 A KR 20100015309A KR 20110095700 A KR20110095700 A KR 20110095700A
Authority
KR
South Korea
Prior art keywords
workpiece
posture
stereo camera
robot
dimensional position
Prior art date
Application number
KR1020100015309A
Other languages
Korean (ko)
Inventor
오종규
이찬호
정성현
이상훈
Original Assignee
현대중공업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대중공업 주식회사 filed Critical 현대중공업 주식회사
Priority to KR1020100015309A priority Critical patent/KR20110095700A/en
Publication of KR20110095700A publication Critical patent/KR20110095700A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/082Grasping-force detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40613Camera, laser scanner on end effector, hand eye manipulator, local

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE: A method for controlling a robot for picking up working object is provided to measure the three-dimensional position/posture of a working object. CONSTITUTION: A method for controlling a robot for picking up working object is as follows. A working object candidate is detected by a stereo camera of a robot at a remote(S100). The three dimensional position/posture about the detected working object is detected using the stereo camera at a short range(S200). A gripping posture of the robot is instituted according to three dimensional position/posture of the working object(S300).

Description

작업대상물 픽업을 위한 산업용 로봇 제어방법{Industrial robot control method for workpiece object pickup}Industrial robot control method for workpiece object pickup}

본 발명은 산업용 로봇에 관한 것으로, 특히 스테레오카메라로 구성된 시각센서를 이용하여 박스나 팔레트에 임의의 자세로 쌓여 있는 작업대상물들 중에 후보를 검출하고, 이 검출된 작업대상물의 위치/자세를 측정하여 로봇의 그립 자세를 용이하게 설정할 수 있는 작업대상물 픽업을 위한 산업용 로봇 제어방법에 관한 것이다.The present invention relates to an industrial robot, in particular, by using a visual sensor consisting of a stereo camera to detect candidates among the workpieces stacked in an arbitrary posture on a box or pallet, by measuring the position / posture of the detected workpiece The present invention relates to an industrial robot control method for picking up a workpiece that can easily set the grip posture of the robot.

최근 들어 자동화 시스템의 생산성 및 환경에 대한 적응력을 높이기 위하여 유연 생산 시스템(Flexible Manufacturing System)에 대한 관심이 증가하고 있다.Recently, in order to increase the productivity of the automation system and the adaptability to the environment, interest in the flexible manufacturing system (Flexible Manufacturing System) is increasing.

유연 생산 시스템을 구축하기 위해서는, 환경을 인식(Perception)하고 상황을 판단(Cognition)하여 자율적으로 동작(Manipulation)하는 지능형 로봇의 개발이 필수적으로 요구된다.In order to build a flexible production system, it is essential to develop an intelligent robot that recognizes the environment, judges the situation, and autonomously operates.

이를 위하여, 산업용 로봇 제조업체에서는 작업 환경을 인식하기 위한 신뢰성 있는 센서와 시스템 통합기술에 대한 연구를 지속적으로 추진하고 있다. 유연 생산 시스템 개발의 일환으로, 상자에 임의로 흩어져 있는 작업물을 로봇으로 그립 하여 새로운 공정으로 투입하는 빈피킹 시스템에 대한 연구가 추진되고 있으나, 그 적용 범위는 제한적이다.To this end, industrial robot manufacturers are continuously researching reliable sensors and system integration technology to recognize the working environment. As part of the development of flexible production systems, the research on the empty picking system that draws the workpieces scattered in the boxes with robots and introduces them into a new process, but the scope of application is limited.

종래의 레이저 슬릿광을 이용하는 빈피킹 방법은, 레이저 패턴이 투사되는 지점에 대해서만 3차원 위치/자세 데이터를 획득할 수 있다. 때문에 3차원 위치/자세 데이터를 측정할 수 있는 영역이 좁다는 단점이 있으며, 3차원 위치/자세를 측정하기 위해서는 홀과 같은 특징점이 존재해야 하는 문제점이 있었다.In the conventional bin picking method using the laser slit light, three-dimensional position / posture data can be obtained only at the point where the laser pattern is projected. Therefore, there is a disadvantage in that the area capable of measuring three-dimensional position / attitude data is narrow, and in order to measure the three-dimensional position / attitude, there is a problem that a feature point such as a hole must exist.

스테레오 비전을 이용한 빈 픽킹 시스템 대한 연구도 널리 진행되고 있으나, 이는 특징점이 존재하지 않는 동질영역(homogeneous area)에서의 정합정보 부재, 좌/우 영상의 밝기 차이, 가려짐(occlusion), 노이즈 등에 의한 정합 오류로 인하여 그 적용 범위가 제한되는 문제점이 있었다.Although the research on the empty picking system using the stereo vision has been widely conducted, it is due to the lack of registration information in the homogeneous area where the feature points do not exist, the brightness difference of the left and right images, the occlusion, the noise, etc. There was a problem in that the application range is limited due to a matching error.

레이저 스캐너나 구조화된 패턴을 투사하여 획득한 3차원 거리영상(range image)을 물체의 CAD 데이터와 비교하여 빈피킹을 시도하는 방법도 있으나, 실적용을 위해서는 오프라인에서 먼저 CAD 모델에 대하여 다양한 시점으로 회전시켜 모델에 대한 정보를 장시간 동안 데이터 베이스에 저장해야 하고, 자세 추정 정확도와 처리 속도가 데이터 베이스의 크기에 따라 좌우된다는 단점이 있었다.There is a method of attempting empty picking by comparing a 3D range image obtained by projecting a laser scanner or a structured pattern with the CAD data of an object. The information about the model has to be stored in the database for a long time by rotating, and the posture estimation accuracy and processing speed depend on the size of the database.

또한, 레이저나 빛을 투사하는 능동형 비전 시스템은 금속성 재질의 작업물에 대해서는, 반사 및 산란으로 인해 신뢰성 있는 3차원 점군 데이터를 획득하기가 어려운 문제점이 있었다.In addition, an active vision system for projecting a laser or light has a problem that it is difficult to obtain reliable three-dimensional point group data due to reflection and scattering of a workpiece made of a metallic material.

따라서, 본 발명은 상기와 같은 종래의 문제점을 해결하기 위한 것으로서, 스테레오카메라로 구성된 시각센서를 이용하여 기준작업물에 대한 패턴정보를 미리 설정하고, 이 기준작업물의 패턴정보를 토대로 기하학적 패턴정합(Geometric Pattern Matching)을 이용해 작업대상물을 검출한다. 이후, 작업대상물에 형성된 3개의 특징점에 대한 3차원 위치/자세 데이터로 작업대상물의 좌표계를 생성하여 측정하고, 이 측정된 작업대상물의 3차원 위치/자세 데이터에 따라 로봇의 파지자세를 실시간으로 설정함으로써, 작업물의 형상, 재질 및 처리시간 등에 제한 없이 범용으로 사용할 수 있는 작업대상물 픽업을 위한 산업용 로봇 제어방법을 제공하는데 그 목적이 있다.Accordingly, the present invention is to solve the conventional problems as described above, by using a visual sensor consisting of a stereo camera to set the pattern information for the reference workpiece in advance, and based on the pattern information of the reference workpiece geometric pattern matching ( Geometric Pattern Matching) detects the workpiece. Thereafter, the coordinate system of the workpiece is generated and measured using three-dimensional position / posture data of three feature points formed on the workpiece, and the gripping posture of the robot is set in real time according to the measured three-dimensional position / posture data of the workpiece. Accordingly, an object of the present invention is to provide an industrial robot control method for picking up a workpiece that can be used universally without limiting the shape, material, and processing time of the workpiece.

상기 목적 달성을 위한 본 발명은, 원거리에서 로봇에 설치된 스테레오카메라를 이용하여 작업대상물 후보를 검출하는 제1단계와, 근거리에서 상기 검출된 작업대상물에 대한 3차원 위치/자세를 스테레오카메라로 측정하는 제2단계 및, 상기 측정된 작업대상물의 3차원 위치/자세에 따라, 상기 로봇의 파지 자세를 설정하는 제3단계를 포함하는 것을 특징으로 한다.The present invention for achieving the above object, the first step of detecting a workpiece candidate using a stereo camera installed in the robot at a distance, and measuring the three-dimensional position / posture of the detected workpiece in a short distance with a stereo camera And a third step of setting the gripping position of the robot according to the second step and the three-dimensional position / posture of the workpiece.

상기 제1단계는, 상기 스테레오카메라가 설치된 상기 로봇을 상기 작업대상물의 위치로 이동시키는 단계와, 원거리에서 상기 스테레오카메라로 상기 작업대상물들이 수용된 상자의 2차원 영상을 촬영하여, 제어부에 기설정된 기준작업물의 2차원 패턴정보와 기하학적 패턴정합률이 일정오차범위 내에 있는 작업대상물 후보를 검출하는 단계를 포함하며, 상기 제2단계는, 근거리에서 상기 검출된 작업대상물의 영상을 상기 스테레오카메라로 촬영하고, 기하학적 패턴정합으로 상기 측정대상 작업물의 좌/우 영상에서의 3개의 특징점의 위치를 검출한 후, 제어부에 기설정된 투영행렬을 이용하여 측정대상 작업물에 대한 3개의 특징점에 대한 3차원 위치/자세 데이터로 좌표를 생성하며, 상기 검출된 작업대상물의 위치/자세를 측정하는 단계를 포함하는 것이 바람직하다.In the first step, the robot having the stereo camera installed is moved to a location of the work object, and the stereo camera photographs a 2D image of a box in which the work objects are accommodated by the stereo camera at a long distance. Detecting a workpiece candidate having a two-dimensional pattern information of the workpiece and a geometric pattern matching ratio within a predetermined error range, wherein the second step includes capturing an image of the detected workpiece at a short distance with the stereo camera; After detecting the positions of the three feature points in the left and right images of the workpiece to be measured by geometric pattern matching, using the projection matrix preset to the control unit, the three-dimensional position / Generating coordinates by posture data, and measuring the position / posture of the detected workpiece; It is preferred.

상기 제2단계에서 작업대상물의 상기 3차원 위치/자세 데이터는, 상기 작업대상물의 밝기 변화나 자세 변화에 대한 다수의 패턴들을 등록하는 다중패턴 등록 방식을 사용하는 것이 바람직하다.In the second step, the three-dimensional position / posture data of the work object may preferably use a multi-pattern registration method of registering a plurality of patterns of brightness change or posture change of the work object.

상기 제2단계에서 작업대상물의 상기 3차원 위치/자세 데이터는, 상기 기준작업물에 원 형태의 특징점이 존재할 경우, 타원을 피팅하는 방법을 적용하는 것이 바람직하다.In the second step, the three-dimensional position / posture data of the workpiece is preferably applied to a method of fitting an ellipse when the feature of the circular shape exists in the reference workpiece.

상기 제2단계는, 상기 작업대상물의 3차원 위치/자세를 측정하지 못하였을 경우에는, 상기 로봇이 측정 자세를 4방향으로 변경하여 상기 작업대상물의 3차원 위치/자세를 재측정하는 단계가 포함되며, 상기 재측정하는 단계로도 상기 작업대상물의 3차원 위치/자세를 측정하지 못하였을 경우에는, 상기 제1단계(S100)에서 측정한 다른 작업대상물의 위치로 이동하여 상기 작업대상물의 3차원 위치/자세를 재측정하는 것이 바람직하다.In the second step, when the 3D position / posture of the workpiece cannot be measured, the robot may change the measurement posture in 4 directions to re-measure the 3D position / posture of the workpiece. If the re-measurement fails to measure the three-dimensional position / posture of the workpiece, the object is moved to the position of another workpiece measured in the first step S100 and the three-dimensional of the workpiece. It is desirable to re-measure the position / posture.

한편, 상기 제1단계를 실시하기 이전에는, 상기 스테레오카메라가 설치된 상기 로봇을 기준작업물의 위치로 이동시킨 후, 원거리에서 상기 스테레오카메라로 상기 기준작업물이 수용된 상기 상자의 2차원 영상을 촬영하여 상기 기준작업물의 2차원 패턴정보를 제어부에 설정하는 단계와, 근거리에서 상기 검출된 기준작업물을 이용하여 상기 스테레오카메라에 대한 투영행렬과, 상기 검출된 기준작업물에 대한 좌우/영상의 3개 특징점에 대한 3차원 위치를 측정하여 상기 검출된 기준작업물의 좌표계를 제어부에 설정하는 단계를 포함하는 것이 바람직하다.On the other hand, before performing the first step, by moving the robot equipped with the stereo camera to the position of the reference workpiece, by taking a two-dimensional image of the box containing the reference workpiece with the stereo camera at a distance Setting two-dimensional pattern information of the reference workpiece to the control unit, three projection matrixes for the stereo camera using the detected reference workpiece at a short distance, and three left / right images for the detected reference workpiece; It is preferable to include the step of setting the coordinate system of the detected reference workpiece by measuring the three-dimensional position with respect to the feature point.

상기 스테레오카메라는, 다수의 사각 점들이 등 간격으로 배열되는 보정판에 의해 보정이 이루어지며, 상기 보정판을 고정된 위치에 배치하고, 일정시간마다 캘리브레이션을 재수행하여 기설정된 스테레오 카메라의 보정정보와 현재 계산한 스테레오 카메라 보정정보를 비교하여 설정이 변경되었는지 점검하는 것이 바람직하다.In the stereo camera, correction is performed by a correction plate having a plurality of square points arranged at equal intervals, and the correction plate is disposed at a fixed position, and the calibration is performed again at a predetermined time to calculate the preset calibration information and current calculation of the stereo camera. It is desirable to compare the stereo camera calibration information and check whether the setting has been changed.

상기 제3단계에서는, 상기 스테레오카메라를 이용하여 측정된 6 자유도 변화량에 따라 상기 로봇의 충돌회피를 위한 궤적을 설정하는 단계를 더 포함하는 것이 바람직하다.In the third step, it is preferable to further include setting a trajectory for collision avoidance of the robot according to the six degrees of freedom change measured using the stereo camera.

여기서, 상기 로봇의 충돌회피 궤적을 설정하는 단계는, 상기 작업대상물의 자세와 상기 작업물이 상자에 놓인 위치를 고려하여, 사전에 교시된 상기 로봇의 작업궤적들 중 충돌이 발생하지 않는 로봇의 작업궤적을 미리 설정할 수 있다.Here, the step of setting the collision avoidance trajectory of the robot, in consideration of the posture of the workpiece and the position of the workpiece in the box, the collision of the robot that does not occur among the trajectories of the robot previously taught Work trace can be set in advance.

그리고 상기 로봇의 충돌회피 궤적을 설정하는 단계는, 상기 작업대상물이 심하게 기울어진 상태에서 상기 상자의 외곽영역에 분포할 경우, 상기 로봇의 그립자세를 상기 상자의 바닥면과 수직이 되게 변경시킬 수 있다.The setting of the collision avoidance trajectory of the robot may include changing the grip posture of the robot to be perpendicular to the bottom surface of the box when the workpiece is distributed in the outer region of the box in a severely inclined state. have.

상기 제3단계에서는, 상기 제어부의 충돌 검지 기능과 온라인 모니터링 프로그램의 충돌 검지 기능을 사용하여 충돌 여부를 감시하도록 하되, 오엘피(OLP: Off-Line Program) 프로그램을 이용하여 가상환경으로 모델링 한 후, 실시간으로 모니터링 하여 상기 로봇의 파지 자세를 실시간으로 변경시켜 충돌을 방지시킬 수 있다.In the third step, the collision detection function of the control unit and the collision detection function of the online monitoring program are monitored to determine whether there is a collision, and after modeling as a virtual environment using an OLP program (OLP) Monitoring in real time can change the gripping posture of the robot in real time to prevent a collision.

이상에서 설명한 바와 같이, 본 발명은 전체 영상에 대한 3차원 점군 데이터를 획득할 필요가 없으며, 기하학적 패턴정합을 사용하여 특징점의 위치를 정확하게 측정하므로 기존의 방법에서 스테레오 정합 오류로 발생하였던 3차원 위치 추정 오차를 방지할 수 있는 장점이 있다. As described above, the present invention does not need to acquire three-dimensional point group data for the entire image, and precisely measures the position of the feature point using geometric pattern matching, so that the three-dimensional position caused by the stereo matching error in the conventional method. There is an advantage that can prevent the estimation error.

그리고 자세 측정을 위한 3차원 점군 데이터 간의 정합 과정도 불필요하므로 정확하고 속도도 빠르다는 장점이 있다. In addition, there is no need for a matching process between three-dimensional point group data for posture measurement, which has the advantage of being accurate and fast.

또한, 작업물의 형상 및 재질에 상관없이 동일선상에 존재하지 않는 3개의 특징점만 패턴으로 등록만 하면 작업물의 3차원 위치/자세를 측정할 수 있으므로 범용으로 활용할 수 있는 장점이 있다.In addition, regardless of the shape and material of the workpiece, only three feature points that do not exist on the same line may be registered as a pattern, so the three-dimensional position / posture of the workpiece may be measured.

도 1은 본 발명에 따른 작업대상물 픽업을 위한 산업용 로봇 제어방법의 준비단계와 생산단계을 보여주기 위한 전체적인 작업 흐름도이다.
도 2는 본 발명에 따른 작업대상물 픽업을 위한 산업용 로봇 제어방법에서 생산단계를 상세히 보여주기 위한 흐름도이다.
도 3은 본 발명에 따른 작업대상물 픽업을 위한 산업용 로봇 제어방법의 구성을 보여주기 위한 도면이다.
도 4는 본 발명에 따른 작업대상물 픽업을 위한 산업용 로봇 제어방법의 2차원 패턴정보를 설정하는 상태를 보여주기 위한 도면이다.
도 5는 본 발명에 따른 작업대상물 픽업을 위한 산업용 로봇 제어방법의 3차원 위치/자세 측정을 위한 스테레오 영상의 패턴정보를 설정하는 상태를 보여주기 위한 도면이다.
도 6은 본 발명에 따른 작업대상물 픽업을 위한 산업용 로봇 제어방법의 3개 특징점에 대한 3차원 위치/자세를 통해 기준작업물의 좌표계가 설정되는 것을 보여주기 위한 도면이다.
도 7은 본 발명에 따른 작업대상물 픽업을 위한 산업용 로봇 제어방법의 생산단계에서 기하학적 패턴정합률이 일정 오차범위 내에 있는 작업대상물을 검출하는 것을 보여주기 위한 도면이다.
도 8은 본 발명에 따른 작업대상물 픽업을 위한 산업용 로봇 제어방법의 생산단계에서 3차원 위치/자세 측정을 위한 패턴 인식 과정 수행 후 타원 피팅을 수행한 결과를 보여주기 위한 도면이다.
도 9는 본 발명에 따른 작업대상물 픽업을 위한 산업용 로봇 제어방법에서 보정판을 이용해 스테레오카메라를 교정하는 것을 보여주기 위한 도면이다.
1 is an overall operation flowchart showing a preparation step and a production step of the industrial robot control method for the workpiece pickup according to the present invention.
2 is a flow chart showing in detail the production step in the industrial robot control method for the workpiece pickup according to the invention.
3 is a view showing the configuration of an industrial robot control method for the workpiece pickup according to the present invention.
4 is a view showing a state of setting the two-dimensional pattern information of the industrial robot control method for the workpiece pickup according to the present invention.
5 is a view showing a state of setting the pattern information of the stereo image for the three-dimensional position / posture measurement of the industrial robot control method for the workpiece pickup according to the present invention.
6 is a view for showing that the coordinate system of the reference workpiece is set through the three-dimensional position / attitude to the three feature points of the industrial robot control method for the workpiece pickup according to the present invention.
FIG. 7 is a view for detecting a workpiece having a geometric pattern matching ratio within a predetermined error range in a production step of an industrial robot control method for picking up a workpiece according to the present invention.
8 is a view showing the result of performing an elliptic fitting after performing a pattern recognition process for measuring the three-dimensional position / posture in the production step of the industrial robot control method for the workpiece pickup according to the present invention.
9 is a view for showing the calibration of the stereo camera using a correction plate in the industrial robot control method for the workpiece pickup according to the present invention.

이하 첨부된 도면을 참조하면서 본 발명에 따른 바람직한 실시 예를 상세히 설명하기로 한다.
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명을 설명함에 있어서, 정의되는 용어들은 본 발명에서의 기능을 고려하여 정의 내려진 것으로, 본 발명의 기술적 구성요소를 한정하는 의미로 이해되어서는 아니 될 것이다.In describing the present invention, the defined terms are defined in consideration of the function of the present invention, and should not be understood in a limiting sense of the technical elements of the present invention.

도 1은 본 발명에 따른 작업대상물 픽업을 위한 산업용 로봇 제어방법의 준비단계와 생산단계을 보여주기 위한 전체적인 작업 흐름도이다. 도 2는 본 발명에 따른 작업대상물 픽업을 위한 산업용 로봇 제어방법에서 생산단계를 상세히 보여주기 위한 흐름도이다. 도 3은 본 발명에 따른 작업대상물 픽업을 위한 산업용 로봇 제어방법의 구성을 보여주기 위한 도면이다. 도 4는 본 발명에 따른 작업대상물 픽업을 위한 산업용 로봇 제어방법의 2차원 패턴정보를 설정하는 상태를 보여주기 위한 도면이다. 도 5는 본 발명에 따른 작업대상물 픽업을 위한 산업용 로봇 제어방법의 3차원 위치/자세 측정을 위한 스테레오 영상의 패턴정보를 설정하는 상태를 보여주기 위한 도면이다. 도 6은 본 발명에 따른 작업대상물 픽업을 위한 산업용 로봇 제어방법의 3개 특징점에 대한 3차원 위치/자세를 통해 기준작업물의 좌표계가 설정되는 것을 보여주기 위한 도면이다. 도 7은 본 발명에 따른 작업대상물 픽업을 위한 산업용 로봇 제어방법의 생산단계에서 기하학적 패턴정합률이 일정 오차범위 내에 있는 작업대상물을 검출하는 것을 보여주기 위한 도면이다. 도 8은 본 발명에 따른 작업대상물 픽업을 위한 산업용 로봇 제어방법의 생산단계에서 3차원 위치/자세 측정을 위한 패턴 인식 과정 수행 후 타원 피팅을 수행한 결과를 보여주기 위한 도면이다. 도 9는 본 발명에 따른 작업대상물 픽업을 위한 산업용 로봇 제어방법에서 보정판을 이용해 스테레오카메라를 교정하는 것을 보여주기 위한 도면이다.1 is an overall operation flowchart showing a preparation step and a production step of the industrial robot control method for the workpiece pickup according to the present invention. 2 is a flow chart showing in detail the production step in the industrial robot control method for the workpiece pickup according to the invention. 3 is a view showing the configuration of an industrial robot control method for the workpiece pickup according to the present invention. 4 is a view showing a state of setting the two-dimensional pattern information of the industrial robot control method for the workpiece pickup according to the present invention. 5 is a view showing a state of setting the pattern information of the stereo image for the three-dimensional position / posture measurement of the industrial robot control method for the workpiece pickup according to the present invention. 6 is a view for showing that the coordinate system of the reference workpiece is set through the three-dimensional position / attitude to the three feature points of the industrial robot control method for the workpiece pickup according to the present invention. FIG. 7 is a view for detecting a workpiece having a geometric pattern matching ratio within a predetermined error range in a production step of an industrial robot control method for picking up a workpiece according to the present invention. 8 is a view showing the result of performing an elliptic fitting after performing a pattern recognition process for measuring the three-dimensional position / posture in the production step of the industrial robot control method for the workpiece pickup according to the present invention. 9 is a view for showing the calibration of the stereo camera using a correction plate in the industrial robot control method for the workpiece pickup according to the present invention.

도 1 내지 8에 도시한 바와 같이, 본 발명의 작업대상물 픽업을 위한 산업용 로봇 제어방법은, 원거리에서 로봇(100)에 설치된 스테레오카메라(300)를 이용하여 작업대상물(600) 후보를 검출하는 제1단계(S100), 근거리에서 상기 검출된 작업대상물(600)에 대한 3차원 위치/자세를 스테레오카메라(300)로 측정하는 제2단계(S200) 및, 상기 측정된 작업대상물(600)의 3차원 위치/자세에 따라, 상기 로봇(100)의 파지 자세를 설정하는 제3단계(S300)를 포함한다.As shown in Figures 1 to 8, the industrial robot control method for picking up the workpiece of the present invention, the agent for detecting the workpiece 600 candidate using a stereo camera 300 installed in the robot 100 at a distance. Step 1 (S100), a second step (S200) of measuring the three-dimensional position / posture of the detected work object 600 at a short distance with the stereo camera 300, and the 3 of the measured work object 600 According to the dimensional position / posture, a third step (S300) of setting the grip position of the robot 100.

상기한 단계들을 설명함에 앞서, 본원 발명은 도 3에서와 같이 PC 기반 비전부와 로봇(100)으로 구성된다. 상기 PC 기반 비전부는 제어부(PC: 200), 프레임 그래버(frame grabber), 스테레오카메라(300)로 구성되며, 제어부(200)와는 RS 232C 혹은 이더넷(Ethernet)으로 연결되는 것이 바람직다.Before explaining the above steps, the present invention is composed of a PC-based vision unit and the robot 100 as shown in FIG. The PC-based vision unit includes a controller (PC) 200, a frame grabber, and a stereo camera 300, and is preferably connected to the controller 200 by RS 232C or Ethernet.

본 발명에서는, 기존의 스테레오 정합 방법을 사용하여 일치점을 찾는 방법 대신에 기하학적 패턴정합(Geometric Pattern Matching) 방법을 사용하여 좌/우 영상의 일치점을 검출하고, 작업물의 자세는 작업물 내부에 존재하는 3개의 특징점에 대한 3차원 위치/자세 데이터로 작업대상물(600)의 좌표계를 생성하여 측정할 수 있도록 하였다.In the present invention, instead of using the conventional stereo matching method to find the matching point to detect the matching point of the left and right image using a geometric pattern matching (Geometric Pattern Matching) method, the posture of the workpiece is present inside the workpiece The coordinate system of the workpiece 600 may be generated and measured using three-dimensional position / posture data of three feature points.

즉, 본 발명에서 로봇(100)이 임의로 쌓여있는 작업대상물(600)을 그립 하기 위해서는 작업할 대상물의 후보 선정 과정과, 선정된 작업물의 3차원 위치/자세 측정하는 과정과, 작업물을 잡기 위한 그립 자세결정 과정 및, 자동으로 동작하기 위한 전략 계획수립 과정이 필요하다.That is, in order to grip the work object 600 in which the robot 100 is arbitrarily stacked in the present invention, the candidate selection process of the object to be worked on, the process of measuring the three-dimensional position / posture of the selected work, and for catching the work A grip attitude determination process and a strategic planning process for automatic operation are required.

먼저, 본 발명의 생산단계(Operation Stage)에 해당하는 제1단계(S100)는, 도 7에서와 같이 원거리에서 로봇(100)에 설치된 스테레오카메라(300)를 이용하여 작업대상물(600) 후보를 검출한다.First, the first step (S100) corresponding to the production stage (Operation Stage) of the present invention, using the stereo camera 300 installed in the robot 100 at a distance as shown in Figure 7 candidates for the workpiece 600 Detect.

상기 제1단계(S100)는, 상기 스테레오카메라(300)가 설치된 상기 로봇(100)을 상기 작업대상물(600)의 위치로 이동시키는 단계(S110), 원거리에서 상기 스테레오카메라(300)로 상기 작업대상물(600)들 즉, 상자 내에 수용된 다수의 작업대상물(600)들이 모두 보이도록 상자의 전체적인 2차원 영상을 촬영한 후, 제어부(200)에 기설정된 기준작업물(500)의 2차원 패턴정보(P)와 기하학적 패턴정합률이 일정오차범위 내에 있는 하나 또는 다수의 작업대상물(600) 후보를 검출한다.The first step (S100), the step of moving the robot 100, the stereo camera 300 is installed to the position of the work object (600) (S110), the work with the stereo camera 300 at a distance After capturing the entire 2D image of the box such that the objects 600, that is, the plurality of workpieces 600 contained in the box are all visible, the 2D pattern information of the reference workpiece 500 preset in the control unit 200. (P) detects one or more candidates 600 for a workpiece having a geometric pattern matching ratio within a predetermined error range.

즉, 제1단계(S100)는, 임의로 흩어져 있는 다수의 작업대상물(600)을 하나씩 이송하기 위해 작업 가능한 하나 또는 다수의 작업대상물(600) 후보를 선정하기 위한 것으로, 이는 기존의 빈피킹 시스템들과 달리 작업영역에 대한 3차원 거리정보 없이 작업물의 형상정보를 이용하여 작업 대상 후보 물체를 결정하는 방법을 제안하고자 하는 것이다. That is, the first step (S100) is to select one or a plurality of candidates 600 workable to transfer a plurality of workpieces 600 scattered one by one, which is the existing empty picking systems Unlike this, the present invention proposes a method of determining candidate objects by using shape information of a work without 3D distance information about a work area.

제2단계(S200)는, 근거리에서 검출된 작업대상물(600)의 영상을 상기 스테레오카메라(300)로 촬영한 후, 도 6에서와 같이 기하학적 패턴정합으로 상기 측정대상 작업물의 좌/우 영상에서의 3개의 특징점의 위치를 검출한다. 이후, 제어부(200)에 기설정된 투영행렬을 이용하여 측정대상 작업물에 대한 3개의 특징점에 대한 3차원 위치/자세 데이터로 좌표를 생성하며, 상기 검출된 작업대상물(600)의 위치/자세를 측정한다.In the second step S200, the image of the workpiece 600 detected at a short distance is photographed by the stereo camera 300, and then the left and right images of the workpiece to be measured are geometrically matched as shown in FIG. 6. The position of the three feature points of is detected. Subsequently, coordinates are generated from three-dimensional position / posture data of three feature points of the workpiece to be measured using the projection matrix preset by the controller 200, and the position / posture of the detected workpiece 600 is generated. Measure

다시 말해, 계산되는 3개의 특징점에 대한 3차원 위치 데이터로 측정대상 작업물의 좌표계를 생성한 후, 상기 생성된 좌표계를 제어부(200)에 미리 설정 등록된 기준작업물(500)의 좌표계와 비교하여 6축 방향의 자유도 변화량을 측정하여 판단한다. In other words, after generating the coordinate system of the workpiece to be measured using the three-dimensional position data for the three feature points calculated, the generated coordinate system is compared with the coordinate system of the reference workpiece 500 registered in advance in the control unit 200 It is determined by measuring the amount of change in the degrees of freedom in the 6-axis direction.

이후, 판단결과로부터 측정되는 6 축방향의 자유도 변화량에 따라 측정대상 작업물에 특징이 존재하면, 기하학적 패턴정합을 수행한 이후에 피팅 과정을 수행하여 측정대상 작업물의 3차원 위치 데이터를 계산할 수 있다.After that, if the feature exists in the workpiece to be measured according to the 6-axis degrees of freedom variation measured from the determination result, the three-dimensional position data of the workpiece to be measured can be calculated by performing a fitting process after performing geometric pattern matching. have.

한편, 상기 제2단계(S200)에서 작업대상물(600)의 상기 3차원 위치/자세 데이터는, 상기 작업대상물(600)의 밝기 변화나, 자세 변화에 대한 다수의 패턴들을 등록하는 다중패턴 등록 방식을 사용할 수 있다. On the other hand, in the second step (S200) the three-dimensional position / posture data of the workpiece 600, a multi-pattern registration method for registering a plurality of patterns for the brightness change or the posture change of the workpiece 600 Can be used.

또한, 상기 제2단계에서 작업대상물(600)의 상기 3차원 위치/자세 데이터는, 도 8에서와 같이 상기 기준작업물(500)에 원 형태의 특징점이 존재할 경우, 타원을 피팅하는 방법을 사용할 수도 있다.In addition, in the second step, the three-dimensional position / posture data of the workpiece 600 may use a method of fitting an ellipse when the feature of the circular shape exists in the reference workpiece 500 as shown in FIG. 8. It may be.

뿐만 아니라, 상기 제2단계(S200)에서 작업대상물(600)의 3차원 위치/자세를 측정하지 못하였을 경우에는, 도 2에서와 같이 상기 로봇(100)이 측정 자세를 4방향으로 변경하여 상기 작업대상물(600)의 3차원 위치/자세를 재측정하는 단계가 포함되며, 상기 재측정하는 단계로도 상기 작업대상물(600)의 3차원 위치/자세를 측정하지 못하였을 경우에는, 에러(알람)로 판단하여 상기 제1단계(S100)에서 측정한 다른 작업대상물(600)의 위치로 이동함으로써, 새로운 작업대상물(600)의 3차원 위치/자세를 재측정하는 단계가 더 포함될 수 있다.In addition, when the three-dimensional position / posture of the workpiece 600 is not measured in the second step (S200), the robot 100 changes the measurement posture in four directions as shown in FIG. Re-measuring the three-dimensional position / posture of the workpiece 600, and if the re-measurement did not measure the three-dimensional position / posture of the workpiece 600, the error (alarm Re-measurement of the three-dimensional position / posture of the new workpiece 600 by moving to the position of the other workpiece 600 measured in the first step (S100) determined by.

제3단계(S300)에서는, 상기 측정된 작업대상물(600)의 3차원 위치/자세 데이터에 따라, 로봇(100)의 파지 자세를 설정한 후 작업대상물(600)을 픽업하게 된다. 즉, 제2단계(S200)에서 측정되는 3차원 위치 데이터를 유무선의 통신망으로 제어부(200)에 전송함으로써, 상기 제어부(200)에 설정된 산업용 로봇(100)의 작업 궤적을 작업대상물의 3차원 위치 및 자세에 따라 수정 교정할 수 있다.In the third step (S300), according to the measured three-dimensional position / posture data of the workpiece 600, after setting the grip position of the robot 100 is to pick up the workpiece 600. That is, by transmitting the three-dimensional position data measured in the second step (S200) to the control unit 200 via a wired or wireless communication network, the three-dimensional position of the work trace of the industrial robot 100 set in the control unit 200 And correction can be corrected according to the posture.

이를 위해, 스테레오카메라(300)를 이용하여 측정된 6 자유도 변화량에 따라 로봇의 작업궤적을 수정하게 되는데, 로봇(100) 구동중 충돌을 회피하는 궤적을 선정하는 방법은 2가지가 있다.To this end, the work trajectory of the robot is modified according to the six degrees of freedom variation measured using the stereo camera 300. There are two methods of selecting a trajectory for avoiding collision while the robot 100 is being driven.

첫 번째 방법은, 작업물의 자세와 상자(400)에서 놓인 위치를 고려하여 사전에 교시된 로봇의 작업궤적들 중 충돌이 발생하지 않는 로봇의 작업궤적을 선정하는 방법이 있다.In the first method, there is a method of selecting a work trajectory of a robot in which collision does not occur among the work trajectories of the robots previously taught in consideration of the posture of the work and the position placed on the box 400.

두 번째 방법은, 작업대상물(600)이 상자(400)에 놓인 위치를 고려하여 로봇(100)의 그립 자세를 상자(400)의 바닥면과 항상 수직이 되도록 교정하는 방법이 있다.The second method is a method of correcting the grip posture of the robot 100 to be perpendicular to the bottom surface of the box 400 in consideration of the position where the workpiece 600 is placed on the box 400.

예를 들어, 작업물이 심하게 기울어진 상태에서 상자(400)의 외곽영역에 분포할 경우에는, 상기한 두 번째 방법을 이용하여 작업물이 상자(400)의 외곽영역에 분포할 때, 로봇(100)의 그립자세를 상자(400)의 바닥면과 수직이 되게 변경시킬 수 있다.For example, when the workpiece is distributed in the outer region of the box 400 in a state in which it is inclined severely, when the workpiece is distributed in the outer region of the box 400 using the second method described above, the robot ( The grip posture of 100 may be changed to be perpendicular to the bottom surface of the box 400.

뿐만 아니라, 제어부(200)의 충돌 검지 기능과 온라인 모니터링 프로그램의 충돌 검지 기능을 사용하여 충돌 여부를 감시하도록 할 수도 있다. 즉 오엘피(OLP: Off-Line Program)를 이용하여 가상환경으로 모델링 한 후, 실시간으로 모니터링 하여 로봇의 충돌을 방지할 수 있다. In addition, the collision detection function of the controller 200 and the collision detection function of the online monitoring program may be used to monitor the collision. In other words, the model can be modeled as a virtual environment using OLP (Off-Line Program) and monitored in real time to prevent robot collision.

따라서, 작업대상물(600)의 위치/자세에 따라 로봇(100)의 자세를 실시간으로 변경시킬 수 있으며, 작업대상물(600)의 종류 및 현재 상태에 구애받지 않고 범용으로 사용할 수 있다. Therefore, the posture of the robot 100 may be changed in real time according to the position / posture of the workpiece 600, and may be used universally regardless of the type and current state of the workpiece 600.

한편, 상기 제1단계(S100)를 실시하기 이전에는, 기준대상물의 2차원 패턴정보(P)와 3차원 위치/자세 데이터를 제어부(200)에 미리 설정해 놓는 준비단계(Preperatory Stage)가 선행될 수 있다.On the other hand, before performing the first step (S100), a preparatory stage in which the 2D pattern information P and the 3D position / posture data of the reference object are set in advance in the control unit 200 may be performed. Can be.

도 1에 도시한 바와 같이, 상기 준비단계는 스테레오카메라(300)가 설치된 상기 로봇(100)을 기준작업물(500)의 위치로 이동시킨 후, 원거리에서 상기 스테레오카메라(300)로 상기 기준작업물(500)의 2차원 영상을 촬영하여 상기 기준작업물(500) 후보를 검출하는 단계(S10)와, 상기 검출된 기준작업물(500) 후보의 2차원 패턴정보(P)를 제어부(200)에 설정하는 단계와, 근거리에서 기준작업물(500)에 존재하는 3개의 특징점에 대한 3차원 위치/자세 데이터를 제어부(200)에 설정하는 단계(S20)가 포함될 수 있다.As shown in FIG. 1, the preparation step moves the robot 100 provided with the stereo camera 300 to the position of the reference workpiece 500, and then, the reference operation is performed with the stereo camera 300 at a distance. Taking a 2D image of the water 500 to detect the candidate for the reference workpiece 500 (S10), and the 2D pattern information P of the candidate for the detected reference workpiece 500, the controller 200. ), And setting the three-dimensional position / posture data for three feature points existing in the reference workpiece 500 at a short distance to the controller 200 (S20).

여기서, 기준작업물(500)의 2차원 패턴정보(P)는 기준작업물(500)을 사각 박스 형태로 감싸는 제한선 내부영역이 상기 2차원 패턴정보(P)로 설정되는 것이다. 그리고 기준작업물(500)의 3차원 위치/자세 데이터는 기준작업물(500)에 지정된 3개 특징점에 대한 3차원 위치/자세 데이터를 통해 기준작업물(500)의 좌표계가 설정되는 것이다.Here, the two-dimensional pattern information (P) of the reference workpiece 500 is a region inside the limit line surrounding the reference workpiece 500 in the form of a rectangular box is set to the two-dimensional pattern information (P). And the three-dimensional position / attitude data of the reference workpiece 500 is a coordinate system of the reference workpiece 500 is set through the three-dimensional position / attitude data for the three feature points specified in the reference workpiece 500.

즉, 작업대상물(600)의 3차원 위치와 자세는, 도 5에서와 같이 로봇(100) 좌표계에 대한 기준작업물(500) 좌표계의 변환행렬을 계산함으로써 수행하는데, 기준작업물(500) 좌표계는 패턴 등록과정에서 사전에 저장한 특징들(F1, F2, F3)의 3차원 위치/자세 데이터를 이용하여 생성할 수 있다.That is, the three-dimensional position and posture of the workpiece 600 is performed by calculating a transformation matrix of the reference workpiece 500 coordinate system with respect to the robot 100 coordinate system as shown in FIG. 5, and the reference workpiece 500 coordinate system. May be generated using 3D position / posture data of the features F1, F2, and F3 stored in advance in the pattern registration process.

즉, 작업물 좌표계의 X 축은 F1F2 벡터를 따라서 생성되고, Y축은 3개의 특징점들이 존재하는 동일한 평면에서 X축과 수직이 되도록 설정되며, Z축은 X축과 Y축의 외적으로 구해진다. 이후, 로봇(100)과 기준작업물(500)의 동차 변환행렬을 획득하여 데이터베이스에 저장하고, 각 특징점 사이의 거리 정보들도 향후 작업물 좌표계 검증을 위해 저장한다.That is, the X axis of the workpiece coordinate system is generated along the F1F2 vector, the Y axis is set to be perpendicular to the X axis in the same plane where three feature points exist, and the Z axis is obtained externally of the X and Y axes. Then, the homogeneous transformation matrix of the robot 100 and the reference workpiece 500 is obtained and stored in a database, and the distance information between each feature point is also stored for future workpiece coordinate system verification.

또한, 3차원 영상에서 측정한 결과를 실 측정치로 변환하기 위해 스테레오카메라(300)를 교정하는 단계를 포함하는 것이 바람직하다. 즉, 제2단계(S200)에서 2차원 영상 좌표계를 3차원 월드 좌표계로 변환하기 위해서는, 스테레오카메라(300)의 투영행렬을 획득해야 한다. In addition, it is preferable to include the step of calibrating the stereo camera 300 to convert the results measured in the three-dimensional image to the actual measurement. That is, in order to convert the 2D image coordinate system into the 3D world coordinate system in the second step S200, the projection matrix of the stereo camera 300 should be obtained.

원근투영(Perspective Projection) 환경에서 3차원 공간상의 점 X = [X Y Z 1]T 는 2차원 영상 평면의 한 화소 x = [u v 1]T 에 투영된다. 식 (1)은 투영 행렬을 설명하는 수식으로 투영 행렬 P 는 내부변수(intrinsic parameter) K 와 회전행렬 R과 병진 벡터 T를 포함하는 외부 변수 (extrinsic parameter) 로 구성된다. In a perspective projection environment, the point X = [XYZ 1] T in three-dimensional space is projected onto one pixel x = [uv 1] T in the two-dimensional image plane. Equation (1) is an equation describing the projection matrix, and the projection matrix P is composed of an intrinsic parameter K, and an extrinsic parameter including a rotation matrix R and a translation vector T.

식 (1):

Figure pat00001
Equation (1):
Figure pat00001

또한, 스테레오카메라(300)는 다수의 사각 점들이 등 간격으로 배열되는 보정판(700)에 의해 보정이 이루어지며, 상기 보정판(700)을 고정된 위치에 배치하고, 일정시간마다 캘리브레이션을 재수행하여 기설정된 스테레오 카메라의 보정정보와 현재 계산한 스테레오 카메라 보정정보를 비교하여 설정이 변경되었는지 점검할 수 있다.In addition, the stereo camera 300 is corrected by the correction plate 700 is a plurality of square points are arranged at equal intervals, the correction plate 700 is placed in a fixed position, and recalibration every predetermined time It is possible to check whether the setting has been changed by comparing the calibration information of the set stereo camera with the currently calculated stereo camera calibration information.

도 9에 도시한 바와 같이, 스테레오카메라(300)의 보정은 촬영 영상에서 보정판(700)에 배열된 사각 점들 중, 코너에 위치된 점들을 코너 검출기를 이용해 검출하여 보정을 이루는 것이 바람직하다.As shown in FIG. 9, the stereo camera 300 may be corrected by detecting a point located at a corner of the quadrangular points arranged on the correction plate 700 in the captured image by using a corner detector.

스테레오 영상에 존재하는 코너 점의 위치들은, Harris 코너검출기 혹은 SIFT를 이용하여 검출할 수 있다. 여기서, 3차원 공간상의 코너 점의 위치는 로봇(100)으로 3점을 교시하여 로봇(100) 좌표계 기준의 위치로 변환하여 할당한다.The positions of the corner points existing in the stereo image may be detected using a Harris corner detector or SIFT. Here, the position of the corner point in the three-dimensional space is assigned by converting the three points to the robot 100 coordinate system reference position by teaching the robot 100.

또한, 보정판(700)은 항상 고정된 위치에 배치하고 일정 시간마다 캘리브레이션을 재수행하며, 기설정된 스테레오카메라(300) 보정정보와 현재 계산한 스테레오카메라(300) 보정정보를 비교하여 스테레오카메라(300) 설정이 변경되었는지 점검할 수도 있다.In addition, the correction plate 700 is always placed in a fixed position and re-calibrates every predetermined time, the stereo camera 300 by comparing the preset stereo camera 300 correction information and the currently calculated stereo camera 300 correction information You can also check if the settings have changed.

스테레오카메라(300)의 보정을 수행하고 나면, 스테레오카메라(300)에 대한 투영 행렬

Figure pat00002
,
Figure pat00003
이 획득되며, 3차원 공간상의 점
Figure pat00004
는 식(4),(5)와 같이 스테레오 영상의 일치점 정보 xL, xR, 를 이용하여 측정할 수 있게 된다.After performing the calibration of the stereo camera 300, the projection matrix for the stereo camera 300
Figure pat00002
,
Figure pat00003
Is obtained, a point in three-dimensional space
Figure pat00004
Equation (4), (5) can be measured using the matching point information x L , x R , of the stereo image.

Figure pat00005
Figure pat00005

이에 더하여, 핸드 아이 캘리브레이션을 사용할 수도 있는데, 핸드 아이 캘리브레이션 수행을 위한 좌표계를 설정한 그림으로 {B}, {E}, {C}, {W}는 각각 로봇(100) 베이스 좌표계, 로봇(100) 엔드 이펙터 좌표계, 카메라 좌표계, 월드 좌표계를 나타낸다. 각 좌표계 간의 관계는 동차변환행렬(Homogeneous Transformation Matrix)로 변환이 가능하다.In addition, hand eye calibration may be used. In this figure, {B}, {E}, {C}, and {W} are set to coordinate system for performing hand eye calibration. ) End effector coordinate system, camera coordinate system, world coordinate system. The relationship between each coordinate system can be transformed into a homogeneous transformation matrix.

이는, 구하고자 하는 로봇(100) 엔드 이펙터와 카메라(300)와의 관계

Figure pat00006
는 식 (7)를 통하여 획득될 수 있는데, 여기서
Figure pat00007
는 로봇 제어부(200)로부터 제공되며,
Figure pat00008
는 로봇(100)으로 기준 물체를 교시하거나 스테레오카메라(300)를 이용하여 측정함으로써 획득할 수 있고,
Figure pat00009
는 스테레오카메라(300)로 기준 물체를 측정함으로써 계산할 수 있으므로 최종적인
Figure pat00010
는 쉽게 획득이 가능하다. This is a relationship between the robot 100 end effector and the camera 300 to obtain.
Figure pat00006
Can be obtained from equation (7), where
Figure pat00007
Is provided from the robot control unit 200,
Figure pat00008
Can be obtained by teaching a reference object with the robot 100 or by measuring using a stereo camera 300,
Figure pat00009
Can be calculated by measuring the reference object with the stereo camera 300, so
Figure pat00010
Can be easily obtained.

그리고 핸드 아이 캘리브레이션을 수행하고 나면, 식 (8)과 같이 스테레오카메라(300)로 측정한 데이터는 모두 로봇(100) 좌표계를 기준으로 변환할 수 있다.After the hand eye calibration is performed, all data measured by the stereo camera 300 can be converted based on the robot 100 coordinate system as shown in Equation (8).

Figure pat00011
Figure pat00011

핸드 아이 캘리브레이션을 위한 좌표계들Coordinate Systems for Hand Eye Calibration

Figure pat00012
Figure pat00012

결과적으로, 본 발명은 전체 영상에 대한 3차원 점군 데이터를 획득할 필요가 없으며, 기하학적 패턴정합을 사용하여 특징점의 위치를 정확하게 측정하므로, 기존의 방법에서 스테레오 정합 오류로 발생하였던 3차원 위치 추정 오차를 방지할 수 있고, 자세 측정을 위한 3차원 점군 데이터 간의 정합 과정도 불필요하므로 정확하고 속도도 빠르다. 또한, 작업물의 형상 및 재질에 상관없이 동일선상에 존재하지 않는 3개의 특징점만 패턴으로 등록만 하면 작업물의 3차원 위치/자세를 측정할 수 있으므로 범용으로 활용할 수 있다.As a result, the present invention does not need to acquire three-dimensional point group data for the entire image, and precisely measures the position of the feature point by using geometric pattern matching, and thus, the three-dimensional position estimation error caused by the stereo matching error in the conventional method. It is possible to prevent the problem, and the matching process between the three-dimensional point group data for posture measurement is also unnecessary, so it is accurate and fast. In addition, regardless of the shape and the material of the workpiece, only three feature points that do not exist on the same line can be registered as a pattern, so that the three-dimensional position / posture of the workpiece can be measured and thus can be used universally.

이상에서 본 발명에 따른 작업대상물 픽업을 위한 산업용 로봇 제어방법에 대한 기술사상을 첨부도면과 함께 서술하였지만, 이는 본 발명의 가장 양호한 실시 예를 예시적으로 설명한 것이지 본 발명을 한정하는 것은 아니다.The technical idea of the industrial robot control method for the workpiece pickup according to the present invention has been described above with the accompanying drawings, but this is by way of example and not by way of limitation of the present invention.

따라서 이 기술분야의 통상의 지식을 가진 자이면 누구나 본 발명의 기술사상의 범위를 이탈하지 않는 범위 내에서 치수 및 모양 그리고 구조 등의 다양한 변형 및 모방할 수 있음은 명백한 사실이며 이러한 변형 및 모방은 본 발명의 기술 사상의 범위에 포함된다.Accordingly, it is a matter of course that various modifications and variations of the present invention are possible without departing from the scope of the present invention. And are included in the technical scope of the present invention.

100: 로봇 200: 제어부
300: 스테레오카메라 400: 상자
500: 기준작업물 600: 작업대상물
700: 보정판 P: 패턴정보
100: robot 200: control unit
300: stereo camera 400: box
500: reference workpiece 600: workpiece
700: correction plate P: pattern information

Claims (11)

원거리에서 로봇에 설치된 스테레오카메라를 이용하여 작업대상물 후보를 검출하는 제1단계(S100);
근거리에서 상기 검출된 작업대상물에 대한 3차원 위치/자세를 스테레오카메라로 측정하는 제2단계(S200); 및
상기 측정된 작업대상물의 3차원 위치/자세에 따라, 상기 로봇의 파지 자세를 설정하는 제3단계(S300);를 포함하는 것을 특징으로 하는 작업대상물 픽업을 위한 산업용 로봇 제어방법.
A first step (S100) of detecting a work object candidate using a stereo camera installed in a robot at a distance;
A second step (S200) of measuring a three-dimensional position / posture of the detected work object at a short distance with a stereo camera; And
And a third step (S300) of setting the holding posture of the robot according to the measured three-dimensional position / posture of the workpiece.
제1항에 있어서,
상기 제1단계(S100)는, 상기 스테레오카메라가 설치된 상기 로봇을 상기 작업대상물의 위치로 이동시키는 단계와, 원거리에서 상기 스테레오카메라로 상기 작업대상물들이 수용된 상자의 2차원 영상을 촬영하여, 제어부에 기설정된 기준작업물의 2차원 패턴정보와 기하학적 패턴정합률이 일정오차범위 내에 있는 작업대상물 후보를 검출하는 단계를 포함하며,
상기 제2단계(S200)는, 근거리에서 상기 검출된 작업대상물의 영상을 상기 스테레오카메라로 촬영하고, 기하학적 패턴정합으로 상기 측정대상 작업물의 좌/우 영상에서의 3개의 특징점의 위치를 검출한 후, 제어부에 기설정된 투영행렬을 이용하여 측정대상 작업물에 대한 3개의 특징점에 대한 3차원 위치/자세 데이터로 좌표를 생성하며, 상기 검출된 작업대상물의 위치/자세를 측정하는 단계를 포함하는 것을 특징으로 하는 작업대상물 픽업을 위한 산업용 로봇 제어방법.
The method of claim 1,
The first step (S100), the step of moving the robot equipped with the stereo camera to the position of the workpiece, and photographing the two-dimensional image of the box in which the workpiece is accommodated by the stereo camera at a distance, the control unit Detecting a workpiece candidate that the two-dimensional pattern information and the geometric pattern matching ratio of the predetermined reference workpiece is within a predetermined error range,
In the second step (S200), the image of the detected object is photographed by the stereo camera at a short distance, and after detecting the positions of three feature points in the left and right images of the object to be measured by geometric pattern matching. And generating coordinates by three-dimensional position / posture data of three feature points of the workpiece to be measured, using the projection matrix preset in the controller, and measuring the position / posture of the detected workpiece. An industrial robot control method for picking up a workpiece.
제2항에 있어서,
상기 제2단계에서 작업대상물의 상기 3차원 위치/자세 데이터는, 상기 작업대상물의 밝기 변화나 자세 변화에 대한 다수의 패턴들을 등록하는 다중패턴 등록 방식을 사용하는 것을 특징으로 하는 작업대상물 픽업을 위한 산업용 로봇 제어방법.
The method of claim 2,
The three-dimensional position / posture data of the workpiece in the second step, using a multi-pattern registration method for registering a plurality of patterns for the brightness change or the posture change of the workpiece for the pickup of the workpiece Industrial robot control method.
제2항에 있어서,
상기 제2단계에서 작업대상물의 상기 3차원 위치/자세 데이터는, 상기 기준작업물에 원 형태의 특징점이 존재할 경우, 타원을 피팅하는 방법을 적용하는 것을 특징으로 하는 작업대상물 픽업을 위한 산업용 로봇 제어방법.
The method of claim 2,
In the second step, the three-dimensional position / posture data of the workpiece, if the feature of the circular shape on the reference workpiece, the method for fitting an ellipse, characterized in that for applying the industrial robot control Way.
제2항에 있어서,
상기 제2단계(S200)는, 상기 작업대상물의 3차원 위치/자세를 측정하지 못하였을 경우에는, 상기 로봇이 측정 자세를 4방향으로 변경하여 상기 작업대상물의 3차원 위치/자세를 재측정하는 단계가 포함되며,
상기 재측정하는 단계로도 상기 작업대상물의 3차원 위치/자세를 측정하지 못하였을 경우에는, 상기 제1단계(S100)에서 측정한 다른 작업대상물의 위치로 이동하여 상기 작업대상물의 3차원 위치/자세를 재측정하는 것을 특징으로 하는 작업대상물 픽업을 위한 산업용 로봇 제어방법.
The method of claim 2,
The second step (S200), when the three-dimensional position / posture of the workpiece is not measured, the robot changes the measurement posture in four directions to re-measure the three-dimensional position / attitude of the workpiece Steps,
If the re-measurement fails to measure the three-dimensional position / posture of the workpiece, the three-dimensional position / movement of the workpiece is moved to another position of the workpiece measured in the first step S100. An industrial robot control method for picking up a workpiece, characterized in that the posture is measured again.
제2항에 있어서,
상기 제1단계(S100)를 실시하기 이전에는, 상기 스테레오카메라가 설치된 상기 로봇을 기준작업물의 위치로 이동시킨 후, 원거리에서 상기 스테레오카메라로 상기 기준작업물이 수용된 상기 상자의 2차원 영상을 촬영하여 상기 기준작업물의 2차원 패턴정보를 제어부에 설정하는 단계와, 근거리에서 상기 검출된 기준작업물을 이용하여 상기 스테레오카메라에 대한 투영행렬과, 상기 검출된 기준작업물에 대한 좌우/영상의 3개 특징점에 대한 3차원 위치를 측정하여 상기 검출된 기준작업물의 좌표계를 제어부에 설정하는 단계를 포함하는 것을 특징으로 하는 작업대상물 픽업을 위한 산업용 로봇 제어방법.
The method of claim 2,
Before performing the first step (S100), the stereo camera is moved to the position of the reference workpiece, and then photographed the 2D image of the box in which the reference workpiece is accommodated by the stereo camera at a distance. Setting the two-dimensional pattern information of the reference workpiece to the controller; and using the detected reference workpiece at a short distance, the projection matrix for the stereo camera and the left and right / images of the detected reference workpiece. And measuring a three-dimensional position with respect to a dog feature point and setting a coordinate system of the detected reference workpiece to a control unit.
제6항에 있어서,
상기 스테레오카메라(300)는, 다수의 사각 점들이 등 간격으로 배열되는 보정판에 의해 보정이 이루어지며,
상기 보정판을 고정된 위치에 배치하고, 일정시간마다 캘리브레이션을 재수행하여 기설정된 스테레오 카메라의 보정정보와 현재 계산한 스테레오 카메라 보정정보를 비교하여 설정이 변경되었는지 점검하는 것을 특징으로 하는 작업대상물 픽업을 위한 산업용 로봇 제어방법.
The method of claim 6,
The stereo camera 300, the correction is made by the correction plate arranged a plurality of square points at equal intervals,
Placing the correction plate in a fixed position, and re-calibration every predetermined time to check whether the setting is changed by comparing the calibration information of the preset stereo camera and the currently calculated stereo camera correction information for the workpiece pickup Industrial robot control method.
제2항에 있어서,
상기 제3단계(S300)에서는, 상기 스테레오카메라를 이용하여 측정된 6 자유도 변화량에 따라 상기 로봇의 충돌회피를 위한 궤적을 설정하는 단계를 더 포함하는 것을 특징으로 하는 작업대상물 픽업을 위한 산업용 로봇 제어방법.
The method of claim 2,
In the third step (S300), the industrial robot for picking up the workpiece further comprises the step of setting the trajectory for collision avoidance of the robot according to the six degrees of freedom variation measured using the stereo camera. Control method.
제8항에 있어서,
상기 로봇의 충돌회피 궤적을 설정하는 단계는, 상기 작업대상물의 자세와 상기 작업물이 상자에 놓인 위치를 고려하여, 사전에 교시된 상기 로봇의 작업궤적들 중 충돌이 발생하지 않는 로봇의 작업궤적을 미리 설정하는 것을 특징으로 하는 작업대상물 픽업을 위한 산업용 로봇 제어방법.
The method of claim 8,
The setting of the collision avoidance trajectory of the robot may include: a work trajectory of a robot in which collision does not occur among the trajectories of the robot previously taught in consideration of the posture of the work object and the position where the work is placed in a box. Industrial robot control method for the workpiece pickup, characterized in that for setting in advance.
제8항에 있어서,
상기 로봇의 충돌회피 궤적을 설정하는 단계는, 상기 작업대상물이 심하게 기울어진 상태에서 상기 상자의 외곽영역에 분포할 경우, 상기 로봇의 그립자세를 상기 상자의 바닥면과 수직이 되게 변경시키는 것을 특징으로 하는 작업대상물 픽업을 위한 산업용 로봇 제어방법.
The method of claim 8,
The setting of the collision avoidance trajectory of the robot may include changing the grip posture of the robot to be perpendicular to the bottom surface of the box when the workpiece is distributed in the outer region of the box in a severely inclined state. Industrial robot control method for picking up the workpiece.
제2항에 있어서,
상기 제3단계(S300)에서는, 상기 제어부의 충돌 검지 기능과 온라인 모니터링 프로그램의 충돌 검지 기능을 사용하여 충돌 여부를 감시하도록 하되,
오엘피(OLP: Off-Line Program) 프로그램을 이용하여 가상환경으로 모델링 한 후, 실시간으로 모니터링 하여 상기 로봇의 파지 자세를 실시간으로 변경시켜 충돌을 방지시키는 것을 작업대상물 픽업을 위한 산업용 로봇 제어방법.
The method of claim 2,
In the third step (S300), the collision detection function of the control unit and the collision detection function of the online monitoring program to monitor whether there is a collision,
An industrial robot control method for picking up a workpiece by modeling in a virtual environment using an OLP (OLP) program and then monitoring in real time to change the holding posture of the robot in real time to prevent a collision.
KR1020100015309A 2010-02-19 2010-02-19 Industrial robot control method for workpiece object pickup KR20110095700A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100015309A KR20110095700A (en) 2010-02-19 2010-02-19 Industrial robot control method for workpiece object pickup

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100015309A KR20110095700A (en) 2010-02-19 2010-02-19 Industrial robot control method for workpiece object pickup

Publications (1)

Publication Number Publication Date
KR20110095700A true KR20110095700A (en) 2011-08-25

Family

ID=44931288

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100015309A KR20110095700A (en) 2010-02-19 2010-02-19 Industrial robot control method for workpiece object pickup

Country Status (1)

Country Link
KR (1) KR20110095700A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160010868A (en) * 2013-05-17 2016-01-28 록신 2002 에스.엘. Automated machining head with vision and procedure
KR102030040B1 (en) 2018-05-09 2019-10-08 한화정밀기계 주식회사 Method for automatic bin modeling for bin picking and apparatus thereof
US10540567B2 (en) 2015-03-25 2020-01-21 Electronics And Telecommunications Research Institute Bin-picking system and method for bin-picking
CN110842918A (en) * 2019-10-24 2020-02-28 华中科技大学 Robot mobile processing autonomous locating method based on point cloud servo
WO2020231319A1 (en) * 2019-05-15 2020-11-19 Unibap Ab Robot cell setup system and process
KR102220304B1 (en) * 2020-02-28 2021-02-25 주식회사 두산 Apparatus and method for controlling robot
CN112509043A (en) * 2020-11-30 2021-03-16 西安中科光电精密工程有限公司 Robot intelligent unstacking method suitable for randomly mixing carton stacks
WO2021118702A1 (en) * 2019-12-12 2021-06-17 Mujin, Inc. Method and computing system for performing motion planning based on image information generated by a camera

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160010868A (en) * 2013-05-17 2016-01-28 록신 2002 에스.엘. Automated machining head with vision and procedure
US10540567B2 (en) 2015-03-25 2020-01-21 Electronics And Telecommunications Research Institute Bin-picking system and method for bin-picking
KR102030040B1 (en) 2018-05-09 2019-10-08 한화정밀기계 주식회사 Method for automatic bin modeling for bin picking and apparatus thereof
WO2020231319A1 (en) * 2019-05-15 2020-11-19 Unibap Ab Robot cell setup system and process
CN110842918A (en) * 2019-10-24 2020-02-28 华中科技大学 Robot mobile processing autonomous locating method based on point cloud servo
WO2021118702A1 (en) * 2019-12-12 2021-06-17 Mujin, Inc. Method and computing system for performing motion planning based on image information generated by a camera
JP2022503406A (en) * 2019-12-12 2022-01-12 株式会社Mujin A method and calculation system for executing motion planning based on the image information generated by the camera.
US11717971B2 (en) 2019-12-12 2023-08-08 Mujin, Inc. Method and computing system for performing motion planning based on image information generated by a camera
KR102220304B1 (en) * 2020-02-28 2021-02-25 주식회사 두산 Apparatus and method for controlling robot
CN112509043A (en) * 2020-11-30 2021-03-16 西安中科光电精密工程有限公司 Robot intelligent unstacking method suitable for randomly mixing carton stacks
CN112509043B (en) * 2020-11-30 2024-03-22 西安中科光电精密工程有限公司 Robot intelligent unstacking method suitable for random mixed paper box stack

Similar Documents

Publication Publication Date Title
EP2636493B1 (en) Information processing apparatus and information processing method
KR20110095700A (en) Industrial robot control method for workpiece object pickup
JP6280525B2 (en) System and method for runtime determination of camera miscalibration
US8095237B2 (en) Method and apparatus for single image 3D vision guided robotics
Pradeep et al. Calibrating a multi-arm multi-sensor robot: A bundle adjustment approach
JP5854815B2 (en) Information processing apparatus, information processing apparatus control method, and program
US6816755B2 (en) Method and apparatus for single camera 3D vision guided robotics
CN111278608B (en) Calibration article for 3D vision robot system
JP6855492B2 (en) Robot system, robot system control device, and robot system control method
JP2016099257A (en) Information processing device and information processing method
CN110621447B (en) Robot conveyor calibration method, robot system and control system
JP2015090298A (en) Information processing apparatus, and information processing method
WO2017133756A1 (en) Robot system calibration
Kroeger et al. An automatic calibration approach for a multi-camera-robot system
JP2016078180A (en) Abnormality cause estimating device, picking device, and abnormality cause estimating method for picking device
WO2023013740A1 (en) Robot control device, robot control system, and robot control method
US20240003675A1 (en) Measurement system, measurement device, measurement method, and measurement program
WO2022075303A1 (en) Robot system
Saukkoriipi Design and implementation of robot skill programming and control
US20230405828A1 (en) Calibration device, and method for automatic setting of calibration
Maric et al. Choice of window size in calibrating the geometry of manipulators based on the regions correlation
CN114102622A (en) Robot system and measurement and control method thereof and surface laser receiver
Maric et al. Improving accuracy and flexibility of industrial robots using computer vision
JP2021133458A (en) Three-dimensional measurement apparatus and three-dimensional measurement system
JP2021043075A (en) Information processing device, control method therefor, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application