KR102452315B1 - Apparatus and method of robot control through vision recognition using deep learning and marker - Google Patents

Apparatus and method of robot control through vision recognition using deep learning and marker Download PDF

Info

Publication number
KR102452315B1
KR102452315B1 KR1020200154250A KR20200154250A KR102452315B1 KR 102452315 B1 KR102452315 B1 KR 102452315B1 KR 1020200154250 A KR1020200154250 A KR 1020200154250A KR 20200154250 A KR20200154250 A KR 20200154250A KR 102452315 B1 KR102452315 B1 KR 102452315B1
Authority
KR
South Korea
Prior art keywords
target object
robot
marker
recognition
gripping
Prior art date
Application number
KR1020200154250A
Other languages
Korean (ko)
Other versions
KR20220067719A (en
Inventor
유승열
유시현
이덕용
장혁준
조승현
장동열
최용완
Original Assignee
한국기술교육대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기술교육대학교 산학협력단 filed Critical 한국기술교육대학교 산학협력단
Priority to KR1020200154250A priority Critical patent/KR102452315B1/en
Publication of KR20220067719A publication Critical patent/KR20220067719A/en
Application granted granted Critical
Publication of KR102452315B1 publication Critical patent/KR102452315B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06T5/007
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Fuzzy Systems (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치 및 그 방법에 관한 것으로, 자동화된 생산공정에서 로봇을 이용하여 특정 위치에 구비된 그리핑대상 물체를 다른 위치에 구비된 피수용대상 물체로 이동시킬 때, 상기 그리핑대상 물체에 부착된 마커를 인식하여 좌표를 추출하고, 미리 생성해둔 딥러닝 학습모델을 통해 상기 피수용대상 물체를 인식하여 좌표를 추출하며, 상기 추출한 그리핑 대상물체와 피수용대상 물체의 좌표에 대한 정보를 토대로 로봇의 그리핑과 드롭을 정밀하게 제어함으로써, 딥러닝과 마커를 이용한 비전인식을 통해서 상기 그리핑대상 물체를 상기 피수용대상 물체로 정확하게 이동시킬 수 있는 장치 및 그 방법에 관한 것이다.The present invention relates to an apparatus and method for controlling a robot through vision recognition using deep learning and a marker, and to a gripping target provided at a specific location using a robot in an automated production process to be accommodated at another location When moving to an object, the coordinates are extracted by recognizing the marker attached to the gripping target object, the target object is recognized and the coordinates are extracted through the deep learning model created in advance, and the extracted gripping target By precisely controlling the gripping and dropping of the robot based on the information on the coordinates of the object and the target object, the gripping target can be accurately moved to the target object through deep learning and vision recognition using a marker. It relates to a device capable of and a method therefor.

Description

딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치 및 그 방법{APPARATUS AND METHOD OF ROBOT CONTROL THROUGH VISION RECOGNITION USING DEEP LEARNING AND MARKER}Robot control device and method through vision recognition using deep learning and markers

본 발명은 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치 및 그 방법에 관한 것으로, 더욱 상세하게는 자동화된 생산공정에서 로봇을 이용하여 특정 위치에 구비된 그리핑대상 물체를 다른 위치에 구비된 피수용대상 물체로 이동시킬 때, 상기 그리핑대상 물체에 부착된 마커를 인식하여 좌표를 추출하고, 미리 생성해둔 딥러닝 학습모델을 통해 상기 피수용대상 물체를 인식하여 좌표를 추출하며, 상기 추출한 그리핑 대상물체와 피수용대상 물체의 좌표에 대한 정보를 토대로 로봇의 그리핑과 드롭을 정밀하게 제어함으로써, 딥러닝과 마커를 이용한 비전인식을 통해서 상기 그리핑대상 물체를 상기 피수용대상 물체로 정확하게 이동시킬 수 있는 장치 및 그 방법에 관한 것이다.The present invention relates to an apparatus and method for controlling a robot through vision recognition using deep learning and a marker, and more particularly, to a gripping target provided at a specific location using a robot in an automated production process at another location When moving to the received target object, the coordinates are extracted by recognizing the marker attached to the gripping target, the coordinates are extracted by recognizing the target object through the deep learning learning model created in advance, and the By precisely controlling the gripping and dropping of the robot based on the extracted information on the coordinates of the gripping target and the target object, the gripping target is moved to the target object through deep learning and vision recognition using a marker. It relates to an apparatus and method capable of accurately moving the

4차 산업혁명은 정보통신기술과 기존 산업 분야의 융합을 통해, 지능화, 자동화 및 연결성이 극대화된 산업 환경의 변화를 의미하는 것으로서, 인공지능, 사물인터넷, 빅데이터, 로봇, 자율주행, 클라우드 컴퓨팅 등이 주요 기술 동력으로 알려져 있다.The 4th industrial revolution refers to a change in the industrial environment that maximizes intelligence, automation and connectivity through the convergence of information and communication technology with existing industrial fields. etc. are known as the main technological drivers.

이 중에서 로봇 분야는 인공지능 기술과 정보통신기술의 발달을 바탕으로 새로운 제품과 시장을 모색하고 있으며, 저출산과 고령화로 인한 노동 인구 감소와 생산성 혁신에 대한 사회적 요구, 제4차 산업혁명의 기술적 토대를 바탕으로 로봇에 대한 대중과 시장의 관심이 점점 커지고 있다.Among them, the robot field is seeking new products and markets based on the development of artificial intelligence technology and information and communication technology. Based on this, the public and market interest in robots is growing.

상기 로봇을 물류나 배송에 적용하는 경우, 상기 로봇을 원하는 위치로 이동한 후 로봇팔을 통해 물건을 그리핑하여 적재나 집하, 분류, 포장을 하는 조작을 수행하게 되는데, 이때 컴퓨터 비전의 역할이 매우 중요하다.When the robot is applied to logistics or delivery, the robot is moved to a desired position and then the robot is gripped through the robot arm to perform the operation of loading, collecting, sorting, and packaging. In this case, the role of computer vision is very important.

상기 컴퓨터 비전은 인공지능의 한 분야로 컴퓨터를 사용하여 인간의 시각적인 인식 능력 일반을 재현하는 것으로서, 상기 물류나 배송 등에 사용하는 로봇에 적용할 경우 카메라를 통해 촬영한 영상으로부터 특정 물건의 위치나 자세를 확인하는 작업에 사용된다.The computer vision is a field of artificial intelligence that uses a computer to reproduce the general human visual recognition ability. It is used to check posture.

그러나, 상기 로봇을 원하는 위치로 이동시킨 후 로봇팔을 통해 소정의 물건을 그리핑하거나, 혹은 상기 그리핑한 물건을 특정 위치에 구비된 다른 물건에 드롭하여 결합 등의 작업을 수행하고자 할 때, 카메라나 센서를 통해 물건의 위치나 자세를 정확하게 인식하지 못하면, 그리핑이나 드롭 작업이 부정확해지는 문제가 발생한다.However, when moving the robot to a desired position and then gripping a predetermined object through the robot arm, or dropping the gripped object to another object provided at a specific location to perform an operation such as combining, If the position or posture of an object is not accurately recognized through a camera or sensor, the gripping or dropping operation becomes inaccurate.

따라서 본 발명에서는 특정 위치에 구비된 그리핑대상 물체에 부착된 마커를 인식하여 좌표를 추출하고, 미리 생성해둔 딥러닝 학습모델을 통해 다른 위치에 구비된 피수용대상 물체를 인식하여 좌표를 추출하며, 상기 추출한 그리핑 대상물체와 피수용대상 물체의 좌표정보를 토대로 로봇의 그리핑과 드롭을 정밀하게 제어함으로써, 상기 그리핑대상 물체를 상기 피수용대상 물체로 이송할 때 정확도를 높일 수 있는 방안을 제시하고자 한다.Therefore, in the present invention, the coordinates are extracted by recognizing the marker attached to the gripping target provided at a specific location, and the coordinates are extracted by recognizing the target object provided at another location through the deep learning learning model created in advance. , A method to increase the accuracy when transferring the gripping object to the accommodated object by precisely controlling the gripping and dropping of the robot based on the extracted coordinate information of the gripping object and the accommodated object would like to present

다음으로 본 발명의 기술분야에 존재하는 선행기술에 대하여 간단하게 설명하고, 이어서 본 발명이 상기 선행기술에 비해서 차별적으로 이루고자 하는 기술적 사항에 대해서 기술하고자 한다.Next, the prior art existing in the technical field of the present invention will be briefly described, and then the technical matters that the present invention intends to achieve differently from the prior art will be described.

먼저 한국공개특허 제2020-0069713호(2020.06.17.)는 용접로봇의 작업 경로 생성방법에 관한 것으로, 작업 대상물 각 면 임의의 위치에 마커를 부착하고, 교시 조작기로 마커가 부착된 작업 대상물을 촬영하며, 교시 조작기가 촬영된 마커와 비전(vision)인식을 통해 작업 경로를 생성하는 용접로봇의 작업 경로 생성방법에 관한 것이다.First, Korean Patent Application Laid-Open No. 2020-0069713 (2020.06.17.) relates to a method of generating a work path of a welding robot, attaching a marker to an arbitrary position on each side of the work object, It relates to a method of generating a work path of a welding robot that takes a picture and creates a work path through a teaching manipulator and a photographed marker and vision recognition.

즉, 상기 선행기술은 작업 대상물의 형상을 인식하고, 용접선의 방향 및 용접선의 길이를 추출하여 용접로봇의 작업 경로를 생성하고자 한 용접로봇의 작업 경로를 생성하는 방법에 대해 기재하고 있다.That is, the prior art describes a method of generating a working path of a welding robot intended to generate a working path of the welding robot by recognizing the shape of the work object, extracting the direction of the welding line and the length of the welding line.

하지만, 본 발명은 상기 그리핑대상 물체에 부착된 마커를 통해서 추출한 상기 그리핑대상 물체의 좌표와 미리 생성해둔 딥러닝 학습모델을 이용하여 추정한 상기 피수용대상 물체의 위치와 자세를 통해서 추출한 상기 피수용대상 물체의 좌표에 대한 정보를 토대로 로봇의 그리핑과 드롭을 정밀하게 제어하는 것이므로, 상기 선행기술과 본 발명은 현저한 구성상 차이점이 있다.However, in the present invention, the coordinates of the gripping target extracted through the marker attached to the gripping target and the position and posture of the target object estimated using the deep learning learning model created in advance. Since the gripping and dropping of the robot is precisely controlled based on information on the coordinates of the target object, there is a significant difference between the prior art and the present invention in configuration.

또한 한국공개특허 제2018-0114698호(2018.10.19.)는 다관절 로봇의 작업 궤적 생성을 위한 효율적인 학습 모델 및 학습 기법에 관한 것으로, 로봇의 센싱 데이터가 처리된 인지 정보를 바탕으로 작업을 완료하기 위한 로봇 관절 궤적을 효율적으로 생성하는 기법에 대한 것이다.In addition, Korea Patent Publication No. 2018-0114698 (2018.10.19.) relates to an efficient learning model and learning technique for generating the work trajectory of a multi-joint robot, and completes the task based on the cognitive information processed by the robot's sensing data. It is about a technique for efficiently generating robot joint trajectories for

즉, 상기 선행기술은 다관절 로봇의 궤적을 생성하기 위한 학습 모델을 제안하며, 실시간성을 보장할 수 있도록 연산량을 줄이고, 작업을 완료할 수 있는 최적의 궤적에 근사화할 수 있는 학습 알고리즘을 제공하는 시스템 및 그 방법을 기재하고 있다.That is, the prior art proposes a learning model for generating the trajectory of the articulated robot, reduces the amount of computation to ensure real-time, and provides a learning algorithm that can approximate the optimal trajectory for completing the task A system and method thereof are described.

반면에 본 발명은, 마커를 이용하여 추출한 상기 그리핑대상 물체의 좌표와 미리 생성해둔 딥러닝 학습모델을 이용하여 추출한 상기 피수용대상 물체의 좌표에 대한 정보를 토대로 로봇의 그리핑과 드롭을 정밀하게 제어하는 것이므로, 상기 선행기술과 본 발명은 기술적 구성의 차이점이 분명하다.On the other hand, in the present invention, the gripping and dropping of the robot is precisely performed based on the coordinates of the gripping target extracted using a marker and information about the coordinates of the target object extracted using the deep learning learning model created in advance. Therefore, the difference in technical configuration between the prior art and the present invention is clear.

본 발명은 상기와 같은 문제점을 해결하기 위해 창작된 것으로서, 딥러닝과 마커를 이용한 비전인식을 통해서, 특정 위치에 구비된 그리핑대상 물체를 다른 위치에 구비된 피수용대상 물체로 이동시킬 때, 로봇의 그리핑과 드롭을 정밀하게 제어할 수 있는 장치 및 그 방법을 제공하는 것을 목적으로 한다.The present invention was created to solve the above problems, and through deep learning and vision recognition using a marker, when moving a gripping target provided at a specific location to a receiving target provided at another location, An object of the present invention is to provide an apparatus and method capable of precisely controlling gripping and dropping of a robot.

또한 본 발명은 로봇에 구비된 카메라로 촬영한 영상으로부터 상기 그리핑대상 물체에 부착된 마커를 인식하고, 상기 인식한 마커를 통해서 상기 그리핑대상 물체의 좌표를 추출할 수 있는 장치 및 그 방법을 제공하는 것을 다른 목적으로 한다.In addition, the present invention provides an apparatus and method for recognizing a marker attached to the gripping target from an image captured by a camera provided in the robot, and extracting the coordinates of the gripping target through the recognized marker. provide for a different purpose.

또한 본 발명은 상기 피수용대상 물체에 대하여 여러 각도에서 촬영한 데이터세트를 학습하여 딥러닝 학습모델을 생성하고, 로봇에 구비된 카메라로 촬영한 영상을 상기 생성한 딥러닝 학습모델에 입력하여 상기 피수용대상 물체의 위치와 자세를 추출하며, 상기 추출한 피수용대상 물체의 위치와 자세를 통해서 상기 피수용대상 물체의 좌표를 추출할 수 있는 장치 및 그 방법을 제공하는 것을 또 다른 목적으로 한다.In addition, the present invention generates a deep learning learning model by learning a dataset photographed from various angles with respect to the target object, and inputting an image photographed with a camera provided in the robot into the created deep learning learning model. Another object of the present invention is to provide an apparatus and method capable of extracting the position and posture of an accommodation target object, and extracting coordinates of the accommodation target object through the extracted location and posture of the accommodation target object.

또한 본 발명은 상기 그리핑대상 물체에 부착된 마커를 통해서 추출한 상기 그리핑대상 물체의 좌표와 미리 생성해둔 딥러닝 학습모델을 이용하여 추정한 상기 피수용대상 물체의 위치와 자세를 통해서 추출한 상기 피수용대상 물체의 좌표에 대한 정보를 토대로 로봇의 그리핑과 드롭을 정밀하게 제어할 수 있는 장치 및 그 방법을 제공하는 것을 또 다른 목적으로 한다.In addition, the present invention provides the target object extracted through the coordinates of the gripping target extracted through the marker attached to the gripping target and the position and posture of the target target estimated using the deep learning learning model created in advance. Another object of the present invention is to provide an apparatus and method that can precisely control the robot's gripping and dropping based on the information on the coordinates of the object to be accommodated.

본 발명의 일 실시예에 따른 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치는, 그리핑대상 물체의 마커 인식 위치에서 촬영한 영상으로부터 마커를 인식하는 마커 인식부; 피수용대상 물체의 인식 위치에서 촬영한 영상을 기 설정된 딥러닝 학습모델에 적용하여 피수용대상 물체를 인식하는 피수용대상 물체 인식부; 및 상기 마커의 인식 및 상기 피수용대상 물체의 인식을 토대로, 상기 그리핑대상 물체를 그리핑하여 상기 피수용대상 물체로 드롭하도록 제어하는 로봇팔 제어부;를 포함하며, 상기 마커와 피수용대상 물체를 비전인식을 통해서 인식하는 것을 특징으로 한다.According to an embodiment of the present invention, there is provided an apparatus for controlling a robot through deep learning and vision recognition using a marker, comprising: a marker recognition unit for recognizing a marker from an image taken at a marker recognition position of a gripping object; A target object recognition unit for recognizing the target object by applying the image taken at the recognition position of the target object to a preset deep learning learning model; and a robot arm control unit controlling the gripping target object to be gripped and dropped to the receiving target object based on the recognition of the marker and the recognition of the target object; including, the marker and the target object It is characterized by recognizing through vision recognition.

또한 상기 마커는, 흰색 셀과 검정색 셀을 조합한 n*n 2차원 패턴의 ArUco 마커, 또는 체크보드와 4개의 ArUco 마커가 다이아몬드 형태로 배열된 chArUco 마커를 사용하는 것을 특징으로 한다.In addition, the marker is characterized by using an ArUco marker of an n*n two-dimensional pattern combining white cells and black cells, or a chArUco marker in which a check board and four ArUco markers are arranged in a diamond shape.

또한 상기 로봇 제어장치는, 상기 피수용대상 물체에 대하여 복수의 각도에서 촬영하여 획득한 데이터세트를 학습하여 피수용대상 물체의 위치와 자세를 추정하기 위한 딥러닝 학습모델을 생성하는 학습부;를 더 포함하며, 상기 데이터세트는, 상기 피수용대상 물체를 적어도 4개 이상의 서로 다른 각도에서 상기 피수용대상 물체를 포함하도록 촬영한 영상과, 상기 촬영한 영상을 3차원 모델링한 후 상기 3차원 모델링한 영상을 상기 촬영한 영상에 역투영하여 이진화 처리한 마스크를 토대로 생성되며, 상기 학습부는, 상기 생성한 데이터세트의 피수용대상 물체를 촬영한 영상과 이진화 처리한 마스크의 매핑관계를 Mask R-CNN 모델로 학습하여 딥러닝 학습모델을 생성하는 것을 더 포함하는 것을 특징으로 한다.In addition, the robot control device, a learning unit for generating a deep learning learning model for estimating the position and posture of the target object by learning the dataset obtained by photographing the target object from a plurality of angles; Further comprising, the dataset includes an image obtained by photographing the object to be accommodated from at least four different angles to include the object to be accommodated, and the three-dimensional modeling after three-dimensional modeling of the captured image An image is generated based on a mask that is binarized by back-projecting an image onto the captured image, and the learning unit calculates the mapping relationship between the image captured by the target object of the generated dataset and the mask that has been binarized, Mask R- It is characterized in that it further comprises generating a deep learning learning model by learning with the CNN model.

또한 상기 마커 인식부는, 상기 그리핑대상 물체에 부착된 마커를 인식하기 위한 마커 인식 위치에서, 로봇의 베이스에서 상기 인식한 마커로의 변환행렬과 상기 로봇의 베이스에서 로봇팔로의 변환행렬을 곱하여 상기 마커에서 상기 로봇팔로의 변환행렬을 구하고; 상기 로봇팔의 좌표계를 기준으로 상기 로봇팔에서 상기 그리핑대상 물체까지의 X, Y, Z축 거리정보를 참조하여 상기 로봇팔에서 상기 그리핑대상 물체로의 변환행렬을 구하고; 상기 로봇이 상기 그리핑대상 물체를 그리핑하기 위한 실행 위치로 이동함에 따라 변경된 로봇의 베이스에서 상기 인식한 마커로의 변환행렬과 상기 마커 인식 위치에서 구한 상기 마커에서 상기 로봇팔로의 변환행렬을 곱하여 최종적인 상기 로봇의 베이스에서 상기 로봇팔로의 변환행렬을 구하고; 상기 실행 위치에서 구한 상기 로봇의 베이스에서 상기 로봇팔로의 변환행렬과 상기 마커 인식 위치에서 구한 상기 로봇팔에서 상기 그리핑대상 물체로의 변환행렬을 곱하여 최종적인 상기 로봇의 베이스에서 상기 그리핑대상 물체로의 변환행렬을 구함으로써, 상기 그리핑대상 물체의 좌표를 추출하며; 상기 로봇의 베이스와 상기 마커의 위치가 변경되더라도 상기 로봇팔을 상기 그리핑대상 물체로 이동시킬 수 있는 것을 특징으로 한다.In addition, the marker recognition unit, at a marker recognition position for recognizing the marker attached to the gripping target object, multiplies the transformation matrix from the base of the robot to the recognized marker and the transformation matrix from the base of the robot to the robot arm, obtaining a transformation matrix from the marker to the robot arm; obtaining a transformation matrix from the robot arm to the gripping object with reference to X, Y, and Z-axis distance information from the robot arm to the gripping object based on the coordinate system of the robot arm; By multiplying the transformation matrix from the base of the robot to the recognized marker, which is changed as the robot moves to the execution position for gripping the gripping target object, and the transformation matrix from the marker obtained at the marker recognition position to the robot arm, obtaining a transformation matrix from the base of the robot to the robot arm; The transformation matrix from the base of the robot to the robot arm obtained at the execution position is multiplied by the transformation matrix from the robot arm to the gripping object obtained from the marker recognition position, and finally the base of the robot to the gripping target object extracting the coordinates of the object to be gripped by obtaining a transformation matrix into It is characterized in that the robot arm can be moved to the gripping target object even if the positions of the base and the marker of the robot are changed.

또한 상기 피수용대상 물체 인식부는, 상기 피수용대상 물체의 인식 위치에서, 로봇의 베이스에서 상기 피수용대상 물체로의 변환행렬과 상기 로봇의 베이스에서 로봇팔로의 변환행렬을 곱하여 상기 피수용대상 물체에서 상기 로봇팔로의 변환행렬을 구하고; 상기 구한 상기 피수용대상 물체에서 상기 로봇팔로의 변환행렬에서 회전행렬을 추출하여 위치 벡터를 삭제한 새로운 상기 피수용대상 물체에서 상기 로봇팔로의 변환행렬을 구하고; 상기 구한 새로운 상기 피수용대상 물체에서 상기 로봇팔로의 변환행렬과 상기 구한 로봇의 베이스에서 상기 피수용대상 물체로의 변환행렬을 곱하여 최종적인 상기 로봇의 베이스에서 상기 피수용대상 물체로의 변환행렬을 구함으로써, 상기 피수용대상 물체의 좌표를 추출하며; 상기 구한 최종적인 상기 로봇의 베이스에서 상기 피수용대상 물체로의 변환행렬을 통해서, 상기 로봇팔이 상기 피수용대상 물체의 좌표축을 따라가지 않도록 하는 것을 특징으로 한다.In addition, the accommodated object recognition unit, at the recognition position of the accommodated object, multiplies the transformation matrix from the base of the robot to the accommodated object and the transformation matrix from the base of the robot to the robot arm to multiply the received object to obtain a transformation matrix of the robot arm; extracting a rotation matrix from the transformation matrix of the obtained target object to the robot arm to obtain a transformation matrix from the new target object to the robot arm from which a position vector is deleted; Multiplying the obtained transformation matrix from the new target object to the robot arm and the obtained transformation matrix from the base of the robot to the target object to obtain a final transformation matrix from the base of the robot to the target object by obtaining, extracting the coordinates of the target object; Through the obtained final transformation matrix from the base of the robot to the target object, it is characterized in that the robot arm does not follow the coordinate axis of the target object.

아울러, 본 발명의 일 실시예에 따른 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어방법은, 로봇 제어장치에서, 그리핑대상 물체의 마커 인식 위치에서 촬영한 영상으로부터 마커를 인식하는 마커 인식 단계; 상기 로봇 제어장치에서, 피수용대상 물체의 인식 위치에서 촬영한 영상을 기 설정된 딥러닝 학습모델에 적용하여 피수용대상 물체를 인식하는 피수용대상 물체 인식 단계; 및 상기 로봇 제어장치에서, 상기 마커의 인식 및 상기 피수용대상 물체의 인식을 토대로, 상기 그리핑대상 물체를 그리핑하여 상기 피수용대상 물체로 드롭하도록 제어하는 로봇팔 제어 단계;를 포함하며, 상기 마커와 피수용대상 물체를 비전인식을 통해서 인식하는 것을 특징으로 한다.In addition, the robot control method through deep learning and vision recognition using a marker according to an embodiment of the present invention, in the robot control device, a marker recognition step of recognizing a marker from an image taken at a marker recognition position of a gripping object ; an accommodation target object recognition step of recognizing an accommodation target object by applying, in the robot control device, an image captured at a recognition position of the accommodation target object to a preset deep learning learning model; and a robot arm control step of controlling, in the robot control device, to grip the gripping object and drop it to the accommodated object based on the recognition of the marker and the recognition of the accommodated object; It is characterized in that the marker and the target object are recognized through vision recognition.

또한 상기 로봇 제어방법은, 상기 로봇 제어장치에서, 상기 피수용대상 물체에 대하여 복수의 각도에서 촬영한 데이터세트를 학습하여 피수용대상 물체의 위치와 자세를 추정하기 위한 딥러닝 학습모델을 생성하는 학습 단계;를 더 포함하며, 상기 데이터세트는, 상기 피수용대상 물체를 적어도 4개 이상의 서로 다른 각도에서 상기 피수용대상 물체를 포함하도록 촬영한 영상과, 상기 촬영한 영상을 3차원 모델링한 후 상기 3차원 모델링한 영상을 상기 촬영한 영상에 역투영하여 이진화 처리한 마스크를 토대로 생성되며, 상기 학습 단계는, 상기 생성한 데이터세트의 피수용대상 물체를 촬영한 영상과 이진화 처리한 마스크의 매핑관계를 Mask R-CNN 모델로 학습하여 딥러닝 학습모델을 생성하는 것을 더 포함하는 것을 특징으로 한다.In addition, the robot control method, in the robot control device, by learning a dataset photographed from a plurality of angles with respect to the target object to generate a deep learning learning model for estimating the position and posture of the target object Learning step; further comprising, wherein the dataset is obtained by three-dimensional modeling of an image obtained by photographing the object to be accommodated from at least four different angles to include the object to be accommodated, and the captured image The three-dimensional modeled image is back-projected onto the captured image and generated based on a binarized mask, and the learning step is a mapping of an image captured by the target object of the generated dataset and the binarized mask. It is characterized in that it further comprises generating a deep learning learning model by learning the relationship with the Mask R-CNN model.

또한 상기 마커 인식 단계는, 상기 그리핑대상 물체에 부착된 마커를 인식하기 위한 마커 인식 위치에서, 로봇의 베이스에서 상기 인식한 마커로의 변환행렬과 상기 로봇의 베이스에서 로봇팔로의 변환행렬을 곱하여 상기 마커에서 상기 로봇팔로의 변환행렬을 구하는 단계; 상기 로봇팔의 좌표계를 기준으로 상기 로봇팔에서 상기 그리핑대상 물체까지의 X, Y, Z축 거리정보를 참조하여 상기 로봇팔에서 상기 그리핑대상 물체로의 변환행렬을 구하는 단계; 상기 로봇이 상기 그리핑대상 물체를 그리핑하기 위한 실행 위치로 이동함에 따라 변경된 로봇의 베이스에서 상기 인식한 마커로의 변환행렬과 상기 마커 인식 위치에서 구한 상기 마커에서 상기 로봇팔로의 변환행렬을 곱하여 최종적인 상기 로봇의 베이스에서 상기 로봇팔로의 변환행렬을 구하는 단계; 및 상기 실행 위치에서 구한 상기 로봇의 베이스에서 상기 로봇팔로의 변환행렬과 상기 마커 인식 위치에서 구한 상기 로봇팔에서 상기 그리핑대상 물체로의 변환행렬을 곱하여 최종적인 상기 로봇의 베이스에서 상기 그리핑대상 물체로의 변환행렬을 구하는 단계;를 수행함으로써, 상기 그리핑대상 물체의 좌표를 추출하는 것이며, 상기 로봇의 베이스와 상기 마커의 위치가 변경되더라도 상기 로봇팔을 상기 그리핑대상 물체로 이동시킬 수 있는 것을 특징으로 한다.In addition, in the marker recognition step, at a marker recognition position for recognizing a marker attached to the gripping target object, a transformation matrix from the base of the robot to the recognized marker is multiplied by a transformation matrix from the base of the robot to a robot arm. obtaining a transformation matrix from the marker to the robot arm; obtaining a transformation matrix from the robot arm to the gripping object with reference to X, Y, and Z-axis distance information from the robot arm to the gripping object based on the coordinate system of the robot arm; By multiplying the transformation matrix from the base of the robot to the recognized marker, which is changed as the robot moves to the execution position for gripping the gripping target object, and the transformation matrix from the marker obtained at the marker recognition position to the robot arm, obtaining a transformation matrix from the final robot base to the robot arm; and the transformation matrix from the base of the robot to the robot arm obtained at the execution position multiplied by the transformation matrix from the robot arm to the gripping target object obtained from the marker recognition position to finally obtain the gripping target at the base of the robot. Obtaining a transformation matrix into an object; by performing, the coordinates of the gripping object are extracted, and even if the positions of the base and the marker of the robot are changed, the robot arm can be moved to the gripping object characterized by having

또한 상기 피수용대상 물체 인식 단계는, 상기 피수용대상 물체의 인식 위치에서, 로봇의 베이스에서 상기 피수용대상 물체로의 변환행렬과 상기 로봇의 베이스에서 로봇팔로의 변환행렬을 곱하여 상기 피수용대상 물체에서 상기 로봇팔로의 변환행렬을 구하는 단계; 상기 구한 상기 피수용대상 물체에서 상기 로봇팔로의 변환행렬에서 회전행렬을 추출하여 위치 벡터를 삭제한 새로운 상기 피수용대상 물체에서 상기 로봇팔로의 변환행렬을 구하는 단계; 및 상기 구한 새로운 상기 피수용대상 물체에서 상기 로봇팔로의 변환행렬과 상기 구한 로봇의 베이스에서 상기 피수용대상 물체로의 변환행렬을 곱하여 최종적인 상기 로봇의 베이스에서 상기 피수용대상 물체로의 변환행렬을 구하는 단계;를 수행함으로써, 상기 피수용대상 물체의 좌표를 추출하는 것이며, 상기 구한 최종적인 상기 로봇의 베이스에서 상기 피수용대상 물체로의 변환행렬을 통해서, 상기 로봇팔이 상기 피수용대상 물체의 좌표축을 따라가지 않도록 하는 것을 특징으로 한다.In addition, the step of recognizing the target object may include multiplying the transformation matrix from the base of the robot to the target object by the transformation matrix from the base of the robot to the robot arm at the recognition position of the target object to obtain the target object. obtaining a transformation matrix from the object to the robot arm; extracting a rotation matrix from the obtained transformation matrix of the received target object to the robot arm, and obtaining a transformation matrix from the new received target object to the robot arm from which a position vector is deleted; and a final transformation matrix from the base of the robot to the target object by multiplying the obtained transformation matrix from the new target object to the robot arm and the obtained transformation matrix from the base of the robot to the target object. By performing a; to extract the coordinates of the accommodated object, and through a transformation matrix from the obtained final robot base to the accommodated object, the robot arm is It is characterized in that it does not follow the coordinate axis of .

이상에서와 같이 본 발명의 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치 및 그 방법에 따르면, 특정 위치에 구비된 그리핑대상 물체에 부착된 마커를 인식하여 좌표를 추출하고, 미리 생성해둔 딥러닝 학습모델을 통해 다른 위치에 구비된 피수용대상 물체를 인식하여 좌표를 추출하며, 상기 추출한 그리핑 대상물체와 피수용대상 물체의 좌표에 대한 정보를 토대로 로봇의 그리핑과 드롭을 정밀하게 제어함으로써, 딥러닝과 마커를 이용한 비전인식을 통해서 상기 그리핑대상 물체를 상기 피수용대상 물체로 정확하게 이동시킬 수 있는 효과가 있다.As described above, according to the robot control apparatus and method through deep learning and vision recognition using markers of the present invention, the coordinates are extracted by recognizing the marker attached to the gripping target provided at a specific position, and the Through the deep learning learning model, the coordinates are extracted by recognizing the target object provided in another location, and the gripping and dropping of the robot is precisely performed based on the extracted coordinates of the gripping object and the target object. By controlling, there is an effect of accurately moving the gripping target to the receiving target through deep learning and vision recognition using a marker.

도 1은 본 발명의 일 실시예에 따른 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치의 전체 구성을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 로봇 제어장치의 구성을 보다 상세하게 나타낸 도면이다.
도 3과 도 4는 본 발명에 적용되는 마커의 일 예를 각각 나타낸 도면이다.
도 5는 본 발명에 적용되는 ArUco 마커의 인식 과정을 상세하게 설명하기 위한 도면이다.
도 6은 본 발명에 적용되는 chArUco 마커의 인식 과정을 상세하게 설명하기 위한 도면이다.
도 7은 본 발명에 적용되는 Mask R-CNN 모델의 진행과정을 설명하기 위한 도면이다.
도 8은 본 발명에 적용되는 Mask R-CNN 모델을 이용한 학습에 사용되는 데이터세트를 생성하는 과정을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어방법의 동작과정을 상세하게 나타낸 순서도이다.
도 10은 본 발명의 일 실시예에 따른 로봇 제어방법의 그리핑 수행에 대한 동작과정을 상세하게 나타낸 순서도이다.
도 11은 본 발명의 일 실시예에 따른 로봇 제어방법의 드롭 수행에 대한 동작과정을 상세하게 나타낸 순서도이다.
도 12와 도 13은 본 발명에 적용된 마커 인식을 통한 그리핑대상 물체의 좌표추출의 과정을 설명하기 위한 도면이다.
도 14는 본 발명에 적용된 피수용대상 물체의 인식을 통한 피수용대상 물체의 좌표추출의 과정을 설명하기 위한 도면이다.
1 is a view for explaining the overall configuration of a robot control device through deep learning and vision recognition using a marker according to an embodiment of the present invention.
2 is a diagram showing in more detail the configuration of a robot control apparatus according to an embodiment of the present invention.
3 and 4 are views each showing an example of a marker applied to the present invention.
5 is a view for explaining in detail the recognition process of the ArUco marker applied to the present invention.
6 is a view for explaining in detail the recognition process of the chArUco marker applied to the present invention.
7 is a diagram for explaining the process of the Mask R-CNN model applied to the present invention.
8 is a diagram for explaining a process of generating a dataset used for learning using the Mask R-CNN model applied to the present invention.
9 is a flowchart illustrating in detail an operation process of a robot control method through deep learning and vision recognition using a marker according to an embodiment of the present invention.
10 is a flowchart illustrating in detail an operation process for performing gripping of a robot control method according to an embodiment of the present invention.
11 is a flowchart illustrating in detail an operation process for performing a drop in a method for controlling a robot according to an embodiment of the present invention.
12 and 13 are diagrams for explaining a process of extracting coordinates of a gripping target object through marker recognition applied to the present invention.
14 is a view for explaining a process of extracting coordinates of an accommodated object through recognition of the accommodated object applied to the present invention.

이하, 첨부한 도면을 참조하여 본 발명의 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치 및 그 방법에 대한 바람직한 실시 예를 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다. 또한 본 발명의 실시 예들에 대해서 특정한 구조적 내지 기능적 설명들은 단지 본 발명에 따른 실시 예를 설명하기 위한 목적으로 예시된 것으로, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는 것이 바람직하다.Hereinafter, a preferred embodiment of a robot control apparatus and method through deep learning and vision recognition using a marker of the present invention will be described in detail with reference to the accompanying drawings. Like reference numerals in each figure indicate like elements. In addition, specific structural or functional descriptions of the embodiments of the present invention are only exemplified for the purpose of describing the embodiments according to the present invention, and unless otherwise defined, all terms used herein, including technical or scientific terms They have the same meaning as commonly understood by those of ordinary skill in the art to which the present invention pertains. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present specification. It is preferable not to

도 1은 본 발명의 일 실시예에 따른 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치의 전체 구성을 설명하기 위한 도면이다.1 is a view for explaining the overall configuration of a robot control device through deep learning and vision recognition using a marker according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명은 로봇 제어장치(100), 로봇(200), 소정 위치에 마커(310)가 구비된 그리핑대상 물체(300), 피수용대상 물체(400), 데이터베이스(500) 등을 포함하여 구성된다.As shown in FIG. 1 , the present invention provides a robot control device 100 , a robot 200 , a gripping target object 300 provided with a marker 310 at a predetermined position, a receiving target object 400 , and a database. (500) and the like.

상기 로봇 제어장치(100)는 다양한 생산공정에서 딥러닝 학습모델과 마커를 이용한 비전인식을 통해서, 특정 작업공간에 위치한 상기 그리핑대상 물체(300)를 상기 로봇(200)을 통해 그리핑하는 것을 제어하며, 상기 그리핑대상 물체(300)를 다른 작업공간에 위치한 상기 피수용대상 물체(400)로 드롭하도록 제어한다.The robot control device 100 grips the gripping target object 300 located in a specific workspace through the robot 200 through vision recognition using a deep learning learning model and a marker in various production processes. and control to drop the gripping target object 300 to the receiving target object 400 located in another work space.

이때 상기 로봇 제어장치(100)는 상기 로봇(200)에 구비된 카메라로 촬영한 영상으로부터 상기 그리핑대상 물체(300)에 부착된 마커(310)를 인식하고, 상기 마커(310)의 방향이나 위치를 통해서 상기 그리핑대상 물체(300)의 좌표를 추출할 수 있다.At this time, the robot control device 100 recognizes the marker 310 attached to the gripping target object 300 from the image captured by the camera provided in the robot 200, and the direction of the marker 310 or The coordinates of the gripping target object 300 may be extracted through the position.

또한 상기 로봇 제어장치(100)는 상기 피수용대상 물체(400)에 대하여 여러 각도에서 촬영한 데이터세트를 학습하여 딥러닝 학습모델을 생성하여 상기 데이터베이스(500)에 저장하여 관리하고, 상기 로봇(200)에 구비된 카메라로 촬영한 영상을 상기 생성한 딥러닝 학습모델에 입력하여 상기 피수용대상 물체(400)의 위치와 자세를 추정하며, 이를 토대로 상기 피수용대상 물체의 좌표를 추출할 수 있다. 이때 상기 딥러닝 학습모델은 지속적으로 업데이트하여 관리할 수 있다.In addition, the robot control device 100 learns a dataset photographed from various angles with respect to the target object 400 to generate a deep learning learning model, stores it in the database 500 and manages it, and the robot ( 200), the position and posture of the target object 400 are estimated by inputting the image taken with the camera provided in the generated deep learning learning model, and the coordinates of the target object can be extracted based on this. have. In this case, the deep learning learning model may be continuously updated and managed.

즉 상기 로봇 제어장치(100)는 상기 마커(310)를 통해서 추출한 상기 그리핑대상 물체(300)의 좌표와 딥러닝 학습모델을 이용하여 추정한 상기 피수용대상 물체(400)의 위치와 자세를 통해서 확인한 좌표에 대한 정보를 토대로 상기 로봇(200)의 그리핑과 드롭을 정밀하게 제어하는 것이다.That is, the robot control device 100 determines the position and posture of the target object 400 estimated using the coordinates of the gripping target 300 extracted through the marker 310 and the deep learning learning model. It is to precisely control the gripping and dropping of the robot 200 based on the information on the coordinates confirmed through it.

이를 구체적으로 설명하면, 상기 로봇 제어장치(100)는 상기 로봇(200)의 구동을 제어하여 로봇팔을 상기 그리핑대상 물체(300)가 구비된 작업공간 #1로 이동시키고(①), 카메라로 촬영한 영상을 통해서 상기 그리핑대상 물체(300)의 특정 위치에 구비된 마커(310)를 인식하여 구체적인 좌표를 확인한다(②).Specifically, the robot control device 100 controls the driving of the robot 200 to move the robot arm to the workspace #1 where the gripping target object 300 is provided (①), and the camera The specific coordinates are confirmed by recognizing the marker 310 provided at a specific position of the gripping target 300 through the image taken with the .

또한 상기 로봇 제어장치(100)는 상기 마커(310)의 인식에 따라 확인된 상기 그리핑대상 물체(300)의 좌표로 상기 로봇(200)을 이동시켜 상기 그리핑대상 물체(300)를 그리핑하도록 제어한다(③).In addition, the robot control device 100 grips the gripping target 300 by moving the robot 200 to the coordinates of the gripping target 300 confirmed according to the recognition of the marker 310 . control to do so (③).

이어서, 상기 로봇 제어장치(100)는 상기 로봇(200)을 통해 그리핑한 상기 그리핑대상 물체(300)를 상기 피수용대상 물체(400)가 구비된 작업공간 #2로 이동시키고(④), 카메라로 촬영한 영상을 미리 생성해둔 딥러닝 학습모델에 적용하여 상기 피수용대상 물체(400)의 구체적인 좌표를 확인한다(⑤).Next, the robot control device 100 moves the gripping target object 300 gripped by the robot 200 to the workspace #2 provided with the accommodated target object 400 (④) , the image taken with the camera is applied to the previously generated deep learning learning model to confirm the specific coordinates of the target object 400 (⑤).

또한 상기 로봇 제어장치(100)는 상기 확인한 피수용대상 물체(400)의 좌표를 토대로 상기 로봇(200)을 상기 피수용대상 물체(400)상으로 이동시켜 그리핑한 상기 그리핑대상 물체(300)를 상기 피수용대상 물체(400)에 드롭하도록 제어한다(⑥).In addition, the robot control device 100 moves the robot 200 onto the accommodated object 400 and grips the gripping object 300 based on the identified coordinates of the accommodated object 400 . ) is controlled to drop on the target object 400 (⑥).

도 2는 본 발명의 일 실시예에 따른 로봇 제어장치의 구성을 보다 상세하게 나타낸 도면이다.2 is a diagram showing in more detail the configuration of a robot control apparatus according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 로봇 제어장치(100)는 학습부(110), 영상 수신부(120), 마커 인식부(130), 피수용대상 물체 인식부(140), 로봇팔 제어부(150), 메모리(160) 등을 포함하여 구성된다.As shown in FIG. 2 , the robot control apparatus 100 according to an embodiment of the present invention includes a learning unit 110 , an image receiving unit 120 , a marker recognition unit 130 , and a target object recognition unit 140 . ), a robot arm control unit 150, a memory 160, and the like.

상기 학습부(110)는 상기 피수용대상 물체(400)에 대하여 복수의 각도에서 촬영하여 획득한 데이터세트를 학습하여, 상기 피수용대상 물체(400)의 위치와 자세를 추정하기 위한 딥러닝 학습모델을 생성하고, 상기 생성한 딥러닝 학습모델을 상기 데이터베이스(500)에 저장하여 관리한다. 이때 상기 딥러닝 학습모델 생성과정이나 데이터세트의 설정은 도 7과 도 8에서 상세하게 설명하기로 한다.The learning unit 110 learns a dataset obtained by photographing from a plurality of angles with respect to the received target object 400 , and deep learning for estimating the position and posture of the received target object 400 . A model is generated, and the generated deep learning learning model is stored and managed in the database 500 . In this case, the deep learning model creation process or the setting of the dataset will be described in detail with reference to FIGS. 7 and 8 .

상기 영상 수신부(120)는 상기 로봇(200)에 구비된 카메라로부터 촬영한 영상을 수신하고, 상기 수신한 영상을 전처리하여 상기 마커 인식부(130)와 상기 피수용대상 물체 인식부(140)로 전달한다.The image receiving unit 120 receives the image taken from the camera provided in the robot 200, pre-processes the received image to the marker recognition unit 130 and the target object recognition unit 140. transmit

상기 마커 인식부(130)는 상기 그리핑대상 물체(300)의 마커 인식 위치에서 촬영한 영상으로부터 마커(310)를 인식하는 기능을 수행한다.The marker recognition unit 130 performs a function of recognizing the marker 310 from the image taken at the marker recognition position of the gripping target object 300 .

즉 상기 마커 인식부(130)는 상기 영상 수신부(120)로부터 제공받은 영상으로부터 상기 그리핑대상 물체(300)에 부착된 마커(310)를 확인하고, 상기 확인한 마커(310)의 방향이나 회전을 통해서 상기 그리핑대상 물체(300)의 좌표를 인식하는 것이다. 이때 상기 그리핑대상 물체(300)의 좌표 인식에 대한 과정은 도 12와 도 13에서 구체적으로 설명하기로 한다.That is, the marker recognition unit 130 identifies the marker 310 attached to the gripping target 300 from the image provided from the image receiving unit 120 , and determines the direction or rotation of the identified marker 310 . Through this, the coordinates of the gripping target object 300 are recognized. In this case, the process of recognizing the coordinates of the gripping target object 300 will be described in detail with reference to FIGS. 12 and 13 .

상기 피수용대상 물체 인식부(140)는 상기 피수용대상 물체의 인식 위치에서 촬영한 영상을 상기 학습부(110)를 통해 미리 생성해둔 딥러닝 학습모델에 적용하여 상기 피수용대상 물체(400)를 인식하는 기능을 수행한다.The received target object recognition unit 140 applies the image captured at the recognition position of the received target object to the deep learning learning model created in advance through the learning unit 110 to the received target object 400 . It performs the function of recognizing

즉 상기 피수용대상 물체 인식부(140)는 상기 영상 수신부(120)로부터 제공받은 영상을 상기 딥러닝 학습모델에 입력하여, 확률이 가장 높은 방향과 자세를 추정하고, 상기 추정한 방향과 자세를 통해서 상기 그리핑대상 물체(300)의 좌표를 인식하는 것이다. 이때 상기 피수용대상 물체(400)의 좌표 인식에 대한 과정은 도 14에서 구체적으로 설명하기로 한다.That is, the target object recognition unit 140 inputs the image received from the image receiving unit 120 into the deep learning learning model, estimates the direction and posture with the highest probability, and calculates the estimated direction and posture. Through this, the coordinates of the gripping target object 300 are recognized. In this case, the process of recognizing the coordinates of the target object 400 will be described in detail with reference to FIG. 14 .

상기 로봇팔 제어부(150)는 상기 마커(310)의 인식 및 상기 피수용대상 물체(400)의 인식을 토대로, 상기 그리핑대상 물체(300)를 그리핑하여 상기 피수용대상 물체(400)로 드롭하도록 제어한다.The robot arm control unit 150 grips the gripping target object 300 based on the recognition of the marker 310 and the recognition of the accommodated object 400 to be used as the accommodated object 400 . control to drop.

즉 상기 로봇팔 제어부(150)는 상기 마커 인식부(130)에서 비전인식을 통해 확인한 상기 그리핑대상 물체(300)의 좌표에 대한 정보를 토대로 상기 로봇(200)의 로봇팔을 이동시켜 상기 그리핑대상 물체(300)를 그리핑하도록 제어하고, 상기 피수용대상 물체 인식부(140)에서 비전인식을 통해 인식한 상기 피수용대상 물체(400)의 좌표에 대한 정보를 토대로 상기 로봇(200)의 로봇팔을 이동시켜 상기 그리핑대상 물체(300)를 상기 피수용대상 물체(400)로 드롭하도록 제어하는 것이다.That is, the robot arm control unit 150 moves the robot arm of the robot 200 based on the information on the coordinates of the gripping target object 300 confirmed through vision recognition by the marker recognition unit 130 to move the robot arm. Control to grip the ripping target object 300, and based on the information on the coordinates of the target object 400 recognized by the target object recognition unit 140 through vision recognition, the robot 200 It controls to drop the gripping target object 300 to the target object 400 by moving the robot arm.

상기 메모리(160)는 상기 로봇 제어장치(100)에서 사용하는 각종 동작프로그램을 저장하고 있다.The memory 160 stores various operation programs used in the robot control device 100 .

한편, 본 발명에서는 상기 그리핑대상 물체(300)에 구비된 마커(310)를 정확하게 인식할 수 있도록 여러 가지 형태의 마커를 사용할 수 있다. 이에 대해서 도 3 내지 도 6을 참조하여 구체적으로 설명하면 다음과 같다.Meanwhile, in the present invention, various types of markers may be used to accurately recognize the marker 310 provided in the gripping target 300 . This will be described in detail with reference to FIGS. 3 to 6 as follows.

도 3과 도 4는 본 발명에 적용되는 마커의 일 예를 각각 나타낸 도면이다.3 and 4 are views each showing an example of a marker applied to the present invention.

도 3은 ArUco 마커의 일 예를 나타낸 것으로서, n*n 크기의 2차원 패턴과 이를 둘러싸고 있는 검은색 테두리 영역으로 구성되어 있다.3 shows an example of an ArUco marker, and is composed of a two-dimensional pattern of n*n size and a black border region surrounding it.

상기 검은색 테두리 영역은 마커를 빠르게 인식하기 위하여 형성된 것이며, 내부의 2차원 패턴은 흰색 셀과 검정색 셀을 조합하여 마커의 고유 ID를 표현한 것으로 마커를 식별하는데 사용된다.The black border area is formed to quickly recognize the marker, and the two-dimensional pattern inside expresses the unique ID of the marker by combining the white cell and the black cell, and is used to identify the marker.

도 4는 chArUco 마커의 일 예를 나타낸 것으로서, 체크보드와 4개의 ArUco 마커가 다이아몬드 형태로 배열되어 있다.4 shows an example of a chArUco marker, in which a check board and four ArUco markers are arranged in a diamond shape.

상기 chArUco 마커는 색상구분이 뚜렷한 체크보드 사이에 ArUco 마커가 위치하기 때문에 감지가 수월하며, 4개의 ArUco 마커의 상대적 위치를 계산하여 체크보드 중심에 3차원 축을 생성하며, 상기 생성한 3차원 축을 기반으로 자세 추출을 수행한다.The chArUco marker is easy to detect because the ArUco marker is located between the checkboards with clear color classification, and a 3D axis is generated at the center of the checkboard by calculating the relative positions of the four ArUco markers, and based on the generated 3D axis to perform posture extraction.

도 5는 본 발명에 적용되는 ArUco 마커의 인식 과정을 상세하게 설명하기 위한 도면이다.5 is a view for explaining in detail the recognition process of the ArUco marker applied to the present invention.

도 5에 도시된 바와 같이, 상기 ArUco 마커를 감지하기 위해서는 카메라로 촬영한 영상을 그레이 스케일로 변환하여 이진화하고, 윤곽선을 추출한다.As shown in FIG. 5 , in order to detect the ArUco marker, an image captured by a camera is converted to gray scale, binarized, and an outline is extracted.

이어서, 상기 ArUco 마커의 ID를 분석하기 위해서 비스듬하게 촬영된 이미지는 정면에서 바라본 형태로 변환하고, 이후 검은색 픽셀을 제외한 흰색 픽셀의 개수를 카운트하여 ArUco 마커의 ID를 추출한다.Next, in order to analyze the ID of the ArUco marker, the obliquely photographed image is converted into a shape viewed from the front, and then the number of white pixels excluding the black pixel is counted to extract the ID of the ArUco marker.

또한 상기 ArUco 마커의 각 코너의 4개 꼭지점과 고유 ID를 통해서 상기 ArUco 마커의 중심에 3차원 좌표축이 생성된다.In addition, a three-dimensional coordinate axis is generated at the center of the ArUco marker through the four vertices of each corner of the ArUco marker and a unique ID.

상기 ArUco 마커의 3차원 좌표축은 상기 꼭지점이 회전을 해도 일정하게 유지되므로, 이를 이용해서 카메라에서 마커까지 이동벡터와 회전을 확인할 수 있게 된다.Since the 3D coordinate axis of the ArUco marker remains constant even when the vertex rotates, it is possible to check the movement vector and rotation from the camera to the marker using this.

한편, 상기 ArUco 마커는 감지가 빠르고 크기가 작다는 장점이 있지만, 밝기 등의 주변 환경에 의해서 모서리의 경계가 흐려지면 카메라가 이를 인지하지 못하며, 단일의 ArUco 마커를 사용할 경우 노이즈로 인해 축이 흔들려 정확한 3차원 좌표축을 세우기 어려운 단점이 있다.On the other hand, the ArUco marker has the advantage of fast detection and small size, but when the edge of the edge is blurred by the surrounding environment such as brightness, the camera does not recognize it, and when a single ArUco marker is used, the axis shakes due to noise. There is a disadvantage in that it is difficult to establish an accurate three-dimensional coordinate axis.

도 6은 본 발명에 적용되는 chArUco 마커의 인식 과정을 상세하게 설명하기 위한 도면이다.6 is a view for explaining in detail the recognition process of the chArUco marker applied to the present invention.

도 6에 도시된 바와 같이, 카메라로 촬영한 영상으로부터 상기 chArUco 마커가 인식되어, 4개의 ArUco 마커와 체크보드 중심이 추출된다. 이에 따라 4개의 ArUco 마커의 상대적 위치 계산을 통해서 체크보드 중심에 3차원 좌표축이 생성되며, 이를 이용해서 카메라에서 마커까지 이동벡터와 회전을 확인할 수 있게 된다.As shown in FIG. 6 , the chArUco marker is recognized from the image captured by the camera, and four ArUco markers and the center of the checkboard are extracted. Accordingly, a three-dimensional coordinate axis is created at the center of the checkboard by calculating the relative positions of the four ArUco markers, and using this, the movement vector and rotation from the camera to the marker can be checked.

한편, 상기 chArUco 마커는 색상구분이 뚜렷한 체크보드 사이에 ArUco 마커가 위치하기 때문에 상기 ArUco 마커에 비해 감지가 수월하고, 밝기 등의 주변 환경에 큰 영향을 받지 않기 때문에, 본 발명에서는 상기 chArUco 마커를 사용하는 것이 바람직하다.On the other hand, the chArUco marker is easier to detect compared to the ArUco marker because the ArUco marker is located between the checkboards with clear color distinction, and is not significantly affected by the surrounding environment such as brightness, so in the present invention, the chArUco marker It is preferable to use

다음에는, 딥러닝 학습모델의 생성과 데이터세트의 설정과 관련하여 도 7과 도 8을 참조하여 보다 상세하게 설명한다.Next, in relation to the creation of the deep learning learning model and the setting of the dataset, it will be described in more detail with reference to FIGS. 7 and 8 .

도 7은 본 발명에 적용되는 Mask R-CNN 모델의 진행과정을 설명하기 위한 도면이다.7 is a diagram for explaining the process of the Mask R-CNN model applied to the present invention.

도 7에 도시된 바와 같이, 본 발명에서는 상기 피수용대상 물체(400)를 인식하기 위한 딥러닝 학습모델로 Mask R-CNN 모델의 ResNet을 사용한다. 상기 Mask R-CNN 모델은 Faster R-CNN 모델에 FPN(Feature Pyramid Network)과 RoI(Region of Interest) align이 추가된 형태이다.As shown in FIG. 7 , in the present invention, ResNet of the Mask R-CNN model is used as a deep learning learning model for recognizing the target object 400 . The Mask R-CNN model is a form in which FPN (Feature Pyramid Network) and RoI (Region of Interest) align are added to the Faster R-CNN model.

상기 FPN은 레이어를 통과하면서 단계별로 특징 맵(feature map)을 생성하여, 가장 상위에 있는 레이어부터 내려오면서 특징을 합쳐 감지를 수행함으로써, CNN 모델 진행에서 각각의 레이어를 통과할 때마다 생략되는 특징을 방지하는 기능을 수행한다.The FPN generates a feature map step by step while passing through the layers, and performs detection by combining features while descending from the uppermost layer. function to prevent

또한 상기 RoI align은 한 픽셀에 선형 보간법을 이용하여 위치 정보에 대한 세그먼테이션을 뚜렷하게 함으로써, 이전의 바운딩 박스 형태로 물체 감지를 수행하던 것을 마스크 형태로 물체를 보다 확실하게 구분지을 수 있도록 하는 역할을 수행한다.In addition, the RoI align uses a linear interpolation method for one pixel to make segmentation of the position information clear, so that the object detection in the form of a bounding box in the past can be distinguished more clearly in the form of a mask. do.

한편, 본 발명에서는 Mask R-CNN 모델을 통해 피수용대상 물체를 인식하는 딥러닝 학습모델을 생성하는 것을 예로 하여 설명하였지만 이에 한정되는 것은 아니며, 그 이외에 다양한 모델을 적용할 수 있음을 밝혀둔다.Meanwhile, although the present invention has been described as an example of generating a deep learning learning model for recognizing a target object through a Mask R-CNN model, it is not limited thereto, and various other models can be applied.

도 8은 본 발명에 적용되는 Mask R-CNN 모델을 이용한 학습에 사용되는 데이터세트를 생성하는 과정을 설명하기 위한 도면이다.8 is a diagram for explaining a process of generating a dataset used for learning using the Mask R-CNN model applied to the present invention.

도 8에 도시된 바와 같이, 피수용대상 물체의 인식을 위한 딥러닝 학습모델을 생성하기 위해서 상기 Mask R-CNN 모델에 적용하는 데이터세트는 다음과 같이 생성된다.As shown in FIG. 8 , a dataset applied to the Mask R-CNN model in order to generate a deep learning learning model for recognizing a target object is generated as follows.

상기 데이터세트를 생성하기 위해서는, 먼저 실제 피수용대상 물체를 다양한 각도로 촬영하여야 한다.In order to generate the data set, the actual target object must be photographed at various angles.

이처럼 검출 범위를 설정하기 위해서, 본 발명에서는 적어도 4개 이상의 서로 다른 각도에서 상기 피수용대상 물체를 포함하도록 촬영 범위를 선정하고, 상기 선정한 적어도 4개 이상의 서로 다른 각도로 상기 피수용대상 물체를 촬영(예: 100장)한다.In order to set the detection range as described above, in the present invention, a shooting range is selected to include the target object at at least four different angles, and the target object is photographed at the selected at least four different angles. (Example: 100 sheets).

또한 상기 촬영한 영상을 3차원 모델링한 후 상기 3차원 모델링한 영상을 상기 촬영한 영상에 역투영하여 이진화 마스크 처리하고, 서로 다른 각도에서 각각 촬영한 상기 피수용대상 물체의 영상과 이진화 마스크로 데이터세트를 생성한다.In addition, after three-dimensional modeling of the captured image, the three-dimensional modeled image is back-projected onto the captured image to be subjected to a binarization mask, and the image of the target object photographed from different angles and the data as a binarization mask, respectively. create a set

이에 따라 상기 로봇 제어장치(100)는 상기 생성한 데이터세트의 촬영한 영상과 이진화 처리한 마스크의 매핑관계를 Mask R-CNN 모델을 통해 학습하여 딥러닝 학습모델을 생성한다.Accordingly, the robot control device 100 generates a deep learning learning model by learning the mapping relationship between the captured image of the generated dataset and the binarized mask through the Mask R-CNN model.

다음에는, 이와 같이 구성된 본 발명에 따른 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어방법의 일 실시예를 도 9 내지 도 14를 참조하여 상세하게 설명한다. 이때 본 발명의 방법에 따른 각 단계는 사용 환경이나 당업자에 의해 순서가 변경될 수 있다.Next, an embodiment of a robot control method through deep learning and vision recognition using a marker according to the present invention configured as described above will be described in detail with reference to FIGS. 9 to 14 . In this case, the order of each step according to the method of the present invention may be changed by the environment of use or by those skilled in the art.

도 9는 본 발명의 일 실시예에 따른 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어방법의 동작과정을 상세하게 나타낸 순서도이다.9 is a flowchart illustrating in detail an operation process of a robot control method through deep learning and vision recognition using a marker according to an embodiment of the present invention.

도 9에 도시된 바와 같이, 본 발명의 일 실시예에 따른 로봇 제어장치(100)는 피수용대상 물체에 대하여 복수의 각도에서 촬영한 데이터세트를 학습하여, 피수용대상 물체의 위치와 자세를 추정하기 위한 딥러닝 학습모델을 생성하는 학습 단계를 수행한다(S100).As shown in FIG. 9 , the robot control apparatus 100 according to an embodiment of the present invention learns a data set photographed from a plurality of angles with respect to the target object to determine the position and posture of the target object. A learning step of generating a deep learning learning model for estimating is performed (S100).

이때 상기 데이터세트는 상기 피수용대상 물체를 적어도 4개 이상의 서로 다른 각도에서 상기 피수용대상 물체를 포함하도록 촬영한 영상과, 상기 촬영한 영상을 3차원 모델링한 후 상기 3차원 모델링한 영상을 상기 촬영한 영상에 역투영하여 이진화 처리한 마스크를 토대로 생성된 것이며, 상기 로봇 제어장치(100)는 상기 생성한 데이터세트의 피수용대상 물체를 촬영한 영상과 이진화 처리한 마스크의 매핑관계를 Mask R-CNN 모델을 통해 학습하여 딥러닝 학습모델을 생성한다.In this case, the dataset includes an image obtained by photographing the object to be accommodated from at least four different angles to include the object to be accommodated, and the three-dimensional modeled image after three-dimensional modeling of the captured image. It is generated based on a mask that has been binarized by back-projecting onto the captured image, and the robot control device 100 calculates the mapping relationship between the image of the target object of the generated data set and the binarized mask in Mask R. -Create a deep learning learning model by learning through a CNN model.

S100 단계를 통해 피수용대상 물체의 인식을 위한 딥러닝 학습모델을 생성한 이후, 상기 로봇 제어장치(100)는 생산공정에서의 로봇(200)을 이용한 작업을 시작한다(S200).After generating the deep learning learning model for recognizing the target object through step S100, the robot control device 100 starts the operation using the robot 200 in the production process (S200).

이어서, 상기 로봇 제어장치(100)는 그리핑대상 물체(300)의 마커 인식 위치에서 촬영한 영상으로부터 상기 그리핑대상 물체(300)의 소정 위치에 구비된 마커(310)를 인식하는 마커 인식 단계를 수행하고, 상기 인식한 마커(310)의 좌표에 대한 정보를 토대로 상기 로봇(200)의 로봇팔을 구동하여 상기 그리핑대상 물체(300)의 그리핑을 수행한다(S300). 즉 상기 로봇 제어장치(100)는 상기 마커의 인식을 토대로, 상기 그리핑대상 물체(300)를 그리핑하도록 제어하는 것이다.Subsequently, the robot control device 100 recognizes a marker 310 provided at a predetermined position of the gripping target 300 from an image captured at the marker recognizing position of the gripping target 300 in a marker recognition step. and driving the robot arm of the robot 200 based on the recognized coordinates of the marker 310 to grip the gripping target object 300 (S300). That is, the robot control device 100 controls to grip the gripping target object 300 based on the recognition of the marker.

이때 상기 S300 단계를 통해 상기 로봇 제어장치(100)에서 상기 그리핑대상 물체(300)를 그리핑하는 과정을 도 10을 참조하여 보다 상세하게 설명하면 다음과 같다.At this time, the process of gripping the gripping target object 300 in the robot control device 100 through the step S300 will be described in more detail with reference to FIG. 10 .

도 10은 본 발명의 일 실시예에 따른 로봇 제어방법의 그리핑 수행에 대한 동작과정을 상세하게 나타낸 순서도이다.10 is a flowchart illustrating in detail an operation process for performing gripping of a robot control method according to an embodiment of the present invention.

도 10에 도시된 바와 같이, 작업이 실행되면 상기 로봇 제어장치(100)는 마커 인식 위치로 상기 로봇(200)의 이동을 제어하고(S301), 해당 마커 인식 위치에서 상기 그리핑대상 물체(300)에 부착된 특정 마커(310)가 감지되는지를 판단한다(S302).As shown in FIG. 10 , when the operation is executed, the robot control device 100 controls the movement of the robot 200 to the marker recognition position (S301), and the gripping target object 300 at the corresponding marker recognition position. ), it is determined whether a specific marker 310 attached to it is detected (S302).

상기 S302 단계의 판단결과 마커가 감지되면, 상기 로봇 제어장치(100)는 상기 감지한 마커의 좌표로 상기 로봇(200)의 로봇팔을 움직여 상기 그리핑대상 물체(300)를 그리핑한다(S303).When a marker is detected as a result of the determination in step S302, the robot control device 100 grips the gripping target object 300 by moving the robot arm of the robot 200 to the coordinates of the detected marker (S303). ).

또한 상기 로봇 제어장치(100)는 상기 S303 단계에서의 그리핑 실행 과정에서 에러가 발생하는지를 판단하고(S304), 상기 S304 단계의 판단결과 에러가 발생하지 않으면 그리핑한 물체를 드롭하는 상기 S400 단계를 진행하며, 상기 S304 단계의 판단결과 에러가 발생하면 상기 로봇(200)을 리셋하고(S305), 마커 인식 위치로 로봇팔을 이동시켜 마커를 찾는 상기 S301 단계를 다시 수행한다.In addition, the robot control apparatus 100 determines whether an error occurs in the gripping execution process in step S303 (S304), and if no error occurs as a result of the determination in step S304, in step S400, dropping the gripped object If an error occurs as a result of the determination in step S304, the robot 200 is reset (S305), and the robot arm is moved to the marker recognition position to perform the step S301 again to find the marker.

그러나 상기 S302 단계에서 판단한 결과 마커가 감지되지 않으면, 상기 로봇 제어장치(100)는 상기 로봇(200)에 구비된 카메라를 회전시킨 다음(S306), 마커를 다시 찾고(S307), 그 결과에 따라 마커가 감지되었는지를 판단한다(S308).However, if the marker is not detected as a result of determination in step S302, the robot control device 100 rotates the camera provided in the robot 200 (S306), and then finds the marker again (S307), and according to the result It is determined whether a marker is detected (S308).

상기 S308 단계의 판단결과 마커가 감지되면 그리핑 작업을 위한 상기 S303 단계를 수행하고, 상기 S308 단계의 판단결과 마커가 감지되지 않으면 로봇팔의 위치 변경 및 움직임 횟수에 따라 변수를 증가시킨다(S309).If the marker is detected as a result of the determination in step S308, the step S303 for the gripping operation is performed, and if the marker is not detected as a result of the determination in step S308, the variable is increased according to the position change and the number of movements of the robot arm (S309) .

이어서 상기 변수가 사전에 설정된 특정 수(예: 9)에 도달하는지를 판단하고(S309), 상기 S309 단계의 판단결과 상기 변수가 사전에 설정된 특정 수에 도달되면 로봇팔의 z축값을 수정한 다음(S310), 마커 인식 위치로 로봇팔을 이동시켜 마커를 찾는 상기 S301 단계를 다시 수행하며, 상기 S309 단계의 판단결과 상기 변수가 사전에 설정된 특정 수에 도달되지 않으면 카메라를 회전시켜 마커를 찾는 상기 S306 단계를 다시 수행한다.Subsequently, it is determined whether the variable reaches a preset specific number (eg, 9) (S309), and if the variable reaches a preset specific number as a result of the determination in step S309, the z-axis value of the robot arm is corrected ( S310), move the robot arm to the marker recognition position and perform the step S301 to find the marker again, and as a result of the determination in step S309, if the variable does not reach a preset specific number, the camera is rotated to find the marker S306 Do the steps again.

다시 도 9를 다시 참조하면, 상기 S300 단계를 통해 마커 인식과 그리핑 작업이 이루어진 후, 상기 로봇 제어장치(100)는 상기 그리핑대상 물체(300)를 그리핑한 상기 로봇(200)을 피수용대상 물체(400)의 인식 위치로 이동한 다음, 상기 피수용대상 물체(400)의 인식 위치에서 촬영한 영상을 상기 S100 단계에서 생성한 딥러닝 학습모델에 적용하여 상기 피수용대상 물체(400)를 인식하는 피수용대상 물체 인식 단계를 수행하고, 상기 인식한 상기 피수용대상 물체(400)의 좌표에 대한 정보를 토대로 상기 로봇(200)의 로봇팔을 구동하여 상기 그리핑대상 물체(300)를 상기 피수용대상 물체(400)로 드롭한다(S400). 즉 상기 로봇 제어장치(100)는 상기 피수용대상 물체(400)의 인식을 토대로, 그리핑된 상기 그리핑대상 물체(300)를 상기 피수용대상 물체(400)로 드롭하도록 제어하는 것이다.Referring back to FIG. 9 , after the marker recognition and the gripping operation are performed in step S300 , the robot control device 100 avoids the robot 200 gripping the gripping target object 300 . After moving to the recognition position of the receiving target object 400, the image taken at the recognition position of the receiving target object 400 is applied to the deep learning learning model generated in step S100 to apply the received target object 400 ) is performed, and the robot arm of the robot 200 is driven based on the recognized coordinates of the target object 400 to drive the gripping target object 300 ) to the target object 400 to be accommodated (S400). That is, the robot control device 100 controls to drop the gripped gripping target object 300 to the receiving target object 400 based on the recognition of the receiving target object 400 .

이때 상기 S400 단계를 통해 상기 로봇 제어장치(100)에서 상기 그리핑대상 물체(300)를 상기 피수용대상 물체(400)에 드롭하는 과정을 도 11을 참조하여 보다 상세하게 설명하면 다음과 같다.At this time, the process of dropping the gripping target object 300 to the receiving target object 400 in the robot control device 100 through the step S400 will be described in more detail with reference to FIG. 11 as follows.

도 11은 본 발명의 일 실시예에 따른 로봇 제어방법의 드롭 수행에 대한 동작과정을 상세하게 나타낸 순서도이다.11 is a flowchart illustrating in detail an operation process for performing a drop in a method for controlling a robot according to an embodiment of the present invention.

도 11에 도시된 바와 같이, 상기 S300 단계를 통해 그리핑한 상기 그리핑대상 물체(300)를 드롭 위치로 이동한 상기 로봇 제어장치(100)는 피수용대상 물체 인식 위치로 상기 로봇(200)의 이동을 제어하고(S401), 해당 물체 인식 위치에서 피수용대상 물체(400)가 감지되는지를 판단한다(S402).As shown in FIG. 11 , the robot control device 100 moves the gripping target 300 gripped through the step S300 to the drop position, and the robot 200 moves to the target object recognition position. control the movement of (S401), and determine whether the target object 400 is detected at the object recognition position (S402).

상기 S402 단계의 판단결과 피수용대상 물체(400)가 감지되면, 상기 로봇 제어장치(100)는 상기 감지한 피수용대상 물체(400)의 좌표로 상기 로봇(200)의 로봇팔을 움직여 그리핑한 상기 그리핑대상 물체(300)를 상기 피수용대상 물체(400)로 드롭한다(S403).If the target object 400 is detected as a result of the determination in step S402, the robot control device 100 moves the robot arm of the robot 200 to the coordinates of the detected target object 400 for gripping. One of the gripping target objects 300 is dropped onto the receiving target object 400 (S403).

또한 상기 로봇 제어장치(100)는 상기 S403 단계에서의 드롭 실행 과정에서 에러가 발생하는지를 판단하고(S404), 상기 S404 단계의 판단결과 에러가 발생하지 않으면 드롭 작업을 종료하고 다음 S500 단계를 진행하며, 상기 S404 단계의 판단결과 에러가 발생하면 상기 로봇(200)을 리셋하고(S405), 물체 인식 위치로 로봇팔을 이동시켜 피수용대상 물체(400)를 찾는 상기 S401 단계를 다시 수행한다.In addition, the robot control device 100 determines whether an error occurs in the drop execution process in step S403 (S404), and if an error does not occur as a result of the determination in step S404, the drop operation is terminated and the next step S500 is performed, , if an error occurs as a result of the determination in step S404, the robot 200 is reset (S405), and the robot arm is moved to the object recognition position to perform the step S401 again to find the target object 400 to be accommodated.

그러나 상기 S402 단계에서 판단한 결과 마커가 감지되지 않으면, 상기 로봇 제어장치(100)는 상기 로봇(200)의 로봇팔을 움직이고, 로봇팔의 위치 변경 및 움직임 횟수에 따라 변수를 증가시킨 다음(S406), 물체가 감지되었는지를 판단한다(S407).However, if the marker is not detected as a result of the determination in step S402, the robot control device 100 moves the robot arm of the robot 200, increases the variable according to the position change and the number of movements of the robot arm (S406) , it is determined whether an object is detected (S407).

상기 S407 단계의 판단결과 물체가 감지되면 드롭 작업을 위한 상기 S403 단계를 수행하고, 상기 S407 단계의 판단결과 물체가 감지되지 않으면 로봇팔의 위치 변경 및 움직임 횟수에 따라 변수가 사전에 설정된 특정 수(예: 9)에 도달하는지를 판단한다(S408).If the object is detected as a result of the determination in step S407, the step S403 for the drop operation is performed, and if the object is not detected as a result of the determination in step S407, a variable is set in advance according to the position change and the number of movements of the robot arm ( Yes: it is determined whether 9) is reached (S408).

상기 S408 단계의 판단결과 상기 변수가 사전에 설정된 특정 수에 도달되면 로봇팔의 z축값을 수정한 다음(S409), 물체 인식 위치로 로봇팔을 이동시켜 물체를 인식하는 상기 S401 단계를 다시 수행하며, 상기 S408 단계의 판단결과 상기 변수가 사전에 설정된 특정 수에 도달되지 않으면 로봇팔을 움직이고 로봇팔의 위치 변경 및 움직임 횟수에 따라 변수를 증가하는 상기 S406 단계를 다시 수행한다.As a result of the determination of step S408, if the variable reaches a preset specific number, the z-axis value of the robot arm is corrected (S409), and then the step S401 of recognizing the object by moving the robot arm to the object recognition position is performed again. , if it is determined in step S408 that the variable does not reach a predetermined specific number, the robot arm is moved and the step S406 of increasing the variable according to the position change and the number of movements of the robot arm is performed again.

다시 도 9를 참조하면, 상기 마커(310)와 피수용대상 물체(400)를 비전인식을 통해서 인식하여, 상기 그리핑대상 물체(300)를 그리핑하여 상기 피수용대상 물체(400)로 드롭한 이후, 상기 로봇 제어장치(100)는 작업이 모두 종료되는지를 판단하여(S500), 작업이 모두 종료될 때가지 상기 S200 단계 내지 S400 단계를 반복하여 수행한다.Referring back to FIG. 9 , the marker 310 and the target object 400 are recognized through vision recognition, and the gripping target object 300 is gripped and dropped to the target object 400 . After that, the robot control device 100 determines whether all operations are finished (S500), and repeats steps S200 to S400 until all operations are finished.

한편, 상기 S300 단계에서 그리핑을 수행할 때 그리핑대상 물체(300)의 좌표 추출에 대한 동작과정을 도 12와 도 13을 참조하여 보다 상세하게 설명하면 다음과 같다.Meanwhile, an operation process for extracting coordinates of the gripping target object 300 when gripping is performed in step S300 will be described in more detail with reference to FIGS. 12 and 13 as follows.

도 12와 도 13은 본 발명에 적용된 마커 인식을 통한 그리핑대상 물체의 좌표추출의 과정을 설명하기 위한 도면이다.12 and 13 are diagrams for explaining a process of extracting coordinates of a gripping target object through marker recognition applied to the present invention.

도 12에 도시된 바와 같이, 상기 로봇 제어장치(100)는 상기 그리핑대상 물체(300)에 부착된 마커(310)를 인식하기 위한 마커 인식 위치에서, 로봇의 베이스에서 상기 마커 인식 위치에서 인식한 마커로의 변환행렬(RTM), 및 로봇의 베이스에서 로봇팔로의 변환행렬(RTT)을 각각 구한다.As shown in FIG. 12 , the robot control device 100 recognizes the marker recognition position at the base of the robot at the marker recognition position for recognizing the marker 310 attached to the gripping target object 300 . A transformation matrix ( R T M ) to one marker and a transformation matrix ( R T T ) from the base of the robot to the robot arm are obtained, respectively.

이어서 상기 로봇 제어장치(100)는 수학식 1에서와 같이 마커에서 로봇팔로의 변환행렬(MTT)을 구한다. 즉 로봇의 베이스에서 상기 마커 인식 위치에서 인식한 마커로의 변환행렬(RTM)과 로봇의 베이스에서 로봇팔로의 변환행렬(RTT)을 곱하여, 마커에서 로봇팔로의 변환행렬(MTT)을 구하는 것이다.Then, the robot control device 100 obtains a transformation matrix ( M T T ) from the marker to the robot arm as in Equation 1. That is, by multiplying the transformation matrix from the base of the robot to the marker recognized at the marker recognition position ( R T M ) and the transformation matrix from the base of the robot to the robot arm ( R T T ), the transformation matrix from the marker to the robot arm ( M T ) T ) is to be found.

[수학식 1][Equation 1]

Figure 112020123526915-pat00001
Figure 112020123526915-pat00001

이때 상기 로봇의 로봇팔에서 상기 마커까지의 위치를 고정한다. 예를 들어 상기 로봇의 로봇팔에서 상기 마커가 X축으로 0.07m, Y축으로 0.26m, Z축으로 0.05m 이동한 위치로 설정되면, 로봇의 로봇팔에서 그리핑대상 물체로의 변환행렬(TTC)은 수학식 2와 같이 구해진다. 즉 상기 로봇팔의 좌표계를 기준으로 상기 로봇팔에서 상기 그리핑대상 물체(300)까지의 X, Y, Z축 거리정보를 참조하여 로봇팔에서 그리핑대상 물체(300)로의 변환행렬을 구할 수 있다. 이때 상기 거리에 대한 수치는 그리핑대상 물체의 위치에 따라 변경할 수 있다.At this time, the position from the robot arm of the robot to the marker is fixed. For example, in the robot arm of the robot, if the marker is set to a position moved 0.07 m in the X axis, 0.26 m in the Y axis, and 0.05 m in the Z axis, the transformation matrix from the robot arm of the robot to the gripping target object ( T T C ) is obtained as in Equation (2). That is, the transformation matrix from the robot arm to the gripping object 300 can be obtained by referring to the X, Y, and Z axis distance information from the robot arm to the gripping object 300 based on the coordinate system of the robot arm. have. In this case, the numerical value for the distance may be changed according to the position of the gripping target object.

[수학식 2][Equation 2]

Figure 112020123526915-pat00002
Figure 112020123526915-pat00002

이와 같이, 마커 인식 위치에서 로봇팔의 축 각도, 마커에서 로봇팔로의 변환행렬(MTT), 및 로봇팔에서 그리핑대상 물체로의 변환행렬(TTC)을 구한 후, 상기 로봇 제어장치(100)는 그리핑을 수행하기 위한 실행 위치로 상기 로봇의 로봇팔을 이동시킨다.In this way, after obtaining the axis angle of the robot arm at the marker recognition position, the transformation matrix from the marker to the robot arm ( M T T ), and the transformation matrix from the robot arm to the gripping target object ( T T C ), control the robot The device 100 moves the robot arm of the robot to an execution position for performing gripping.

이때 상기 로봇(200)이 상기 그리핑대상 물체(300)를 그리핑하기 위한 위치로 이동하였을 때, 상기 로봇(200)의 위치는 상기 마커 인식 위치와 변경될 수 있으므로, 상기 로봇 제어장치(100)는 도 13에 도시된 바와 같이, 변경된 실행 위치에서 마커를 찾은 다음, 변경된 로봇의 베이스에서 상기 인식한 마커로의 변환행렬(RTM`)을 구한다.At this time, when the robot 200 moves to a position for gripping the gripping target object 300 , the position of the robot 200 may be changed from the marker recognition position, so that the robot control device 100 ), as shown in FIG. 13, finds a marker at the changed execution position, and then obtains a transformation matrix ( R T M `) from the changed base of the robot to the recognized marker.

이어서, 상기 로봇 제어장치(100)는 수학식 3에서와 같이 상기 변경된 로봇의 베이스에서 상기 인식한 마커로의 변환행렬(RTM`)과 상기 마커 인식 위치에서 구한 마커에서 로봇팔로의 변환행렬(MTT)을 곱하여 최종적인 로봇의 베이스에서 로봇팔로의 변환행렬(RTT`)을 구한다.Next, the robot control device 100 converts a transformation matrix from the base of the robot to the recognized marker as in Equation 3 ( R T M `) and a transformation matrix from the marker obtained at the marker recognition position to the robot arm. Multiply by ( M T T ) to obtain the final transformation matrix ( R T T ` ) from the base of the robot to the robot arm.

[수학식 3][Equation 3]

Figure 112020123526915-pat00003
Figure 112020123526915-pat00003

또한 상기 로봇 제어장치(100)는 수학식 4에서와 같이 상기 실행 위치에서 구한 로봇의 베이스에서 로봇팔로의 변환행렬(RTT`)과 상기 마커 인식 위치에서 구한 로봇팔에서 그리핑대상 물체로의 변환행렬(TTC)을 곱하여 최종적인 로봇의 베이스에서 그리핑대상 물체로의 변환행렬(RTC)을 구한다.In addition, the robot control device 100 converts the transformation matrix ( R T T `) from the base of the robot to the robot arm obtained from the execution position as in Equation 4 and the robot arm obtained from the marker recognition position to the gripping target object. The transformation matrix ( R T C ) from the base of the robot to the gripping target is obtained by multiplying the transformation matrix ( T T C ).

[수학식 4][Equation 4]

Figure 112020123526915-pat00004
Figure 112020123526915-pat00004

이에 따라 상기 그리핑대상 물체(300)의 좌표가 추출되어, 상기 로봇(200)의 베이스와 상기 마커의 위치가 변경되더라도 상기 로봇팔을 상기 그리핑대상 물체(300)로 이동시킬 수 있게 된다.Accordingly, the coordinates of the gripping object 300 are extracted, and even if the positions of the base and the marker of the robot 200 are changed, the robot arm can be moved to the gripping object 300 .

한편, 상기 S400 단계를 통해 상기 그리핑대상 물체(300)가 드롭되는 상기 피수용대상 물체(400)의 좌표 추출에 대한 동작과정을 도 14를 참조하여 보다 상세하게 설명하면 다음과 같다.On the other hand, the operation process for extracting the coordinates of the target object 400 to which the gripping target object 300 is dropped through the step S400 will be described in more detail with reference to FIG. 14 .

도 14는 본 발명에 적용된 피수용대상 물체의 인식을 통한 피수용대상 물체의 좌표추출의 과정을 설명하기 위한 도면이다.14 is a view for explaining a process of extracting coordinates of an accommodated object through recognition of the accommodated object applied to the present invention.

14에 도시된 바와 같이, 상기 로봇 제어장치(100)는 상기 피수용대상 물체의 인식 위치에서, 로봇의 베이스에서 피수용대상 물체로의 변환행렬(RTO)과 로봇의 베이스에서 로봇팔로의 변환행렬(RTT)을 각각 구한다.As shown in 14, the robot control device 100 at the recognition position of the target object, the transformation matrix from the base of the robot to the target object ( R T O ) and the robot arm from the base of the robot to the robot arm. Each of the transformation matrices ( R T T ) is obtained.

이이서, 상기 로봇 제어장치(100)는 수학식 5에서와 같이 로봇의 베이스에서 피수용대상 물체로의 변환행렬(RTO)과 로봇의 베이스에서 로봇팔로의 변환행렬(RTT)을 곱하여, 피수용대상 물체에서 로봇팔로의 변환행렬(OTT)을 구한다.Accordingly, the robot control device 100 converts the transformation matrix from the base of the robot to the target object ( R T O ) and the transformation matrix from the base of the robot to the robot arm ( R T T ) as in Equation 5. Multiply, to obtain the transformation matrix ( OT T ) from the target object to the robot arm.

[수학식 5][Equation 5]

Figure 112020123526915-pat00005
Figure 112020123526915-pat00005

또한 상기 로봇 제어장치(100)는 수학식 6에서와 같이 피수용대상 물체에서 로봇팔로의 변환행렬(OTT)에서 회전행렬만 추출하고 위치벡터를 삭제한 새로운 피수용대상 물체에서 로봇팔로의 변환행렬(OTT`)을 생성한다.In addition, the robot control device 100 extracts only the rotation matrix from the transformation matrix ( OT T ) from the target object to the robot arm as in Equation 6 and deletes the position vector from the target object to the robot arm. Create a transformation matrix ( O T T `).

[수학식 6][Equation 6]

Figure 112020123526915-pat00006
Figure 112020123526915-pat00006

또한 상기 로봇 제어장치(100)는 수학식 7에서와 같이 생성한 새로운 피수용대상 물체에서 로봇팔로의 변환행렬(OTT`)과 로봇의 베이스에서 피수용대상 물체로의 변환행렬(RTO)을 곱하여 최종적인 로봇의 베이스에서 피수용대상 물체로의 변환행렬(RTO`)을 구한다.In addition, the robot control device 100 is a transformation matrix from the new target object to the robot arm ( OT T `) and the transformation matrix from the base of the robot to the target object ( R T ) generated as in Equation 7 O ) to obtain a transformation matrix ( R T O ` ) from the final robot base to the target object.

[수학식 7][Equation 7]

Figure 112020123526915-pat00007
Figure 112020123526915-pat00007

이에 따라 상기 피수용대상 물체(400)의 좌표가 추출되며, 상기 구한 최종적인 로봇의 베이스에서 피수용대상 물체로의 변환행렬(RTO`)을 통해서, 상기 로봇팔이 상기 피수용대상 물체의 좌표축을 따라가지 않도록 할 수 있다.Accordingly, the coordinates of the target object 400 are extracted, and through the transformation matrix ( R T O `) from the obtained final robot base to the target object, the robot arm is moved to the target object. You can avoid following the coordinate axes of .

즉 상기 로봇팔의 좌표축으로 변환시켜 상기 피수용대상 물체(400)를 움직일 때, 상기 로봇팔이 수직으로 보는 형태를 유지할 수 있도록, 상기 구한 최종적인 로봇의 베이스에서 피수용대상 물체로의 변환행렬(RTO`)을 통해서, 상기 로봇팔이 상기 피수용대상 물체(400)의 좌표축을 따라가지 않도록 하는 것이다.That is, when the target object 400 is moved by converting it into the coordinate axis of the robot arm, the transformation matrix from the obtained final robot base to the target object can be maintained so that the robot arm can maintain a vertical view. Through ( R T O ` ), the robot arm does not follow the coordinate axis of the target object 400 .

이처럼, 본 발명은 특정 위치에 구비된 그리핑대상 물체에 부착된 마커를 인식하여 좌표를 추출하고, 미리 생성해둔 딥러닝 학습모델을 통해 다른 위치에 구비된 피수용대상 물체를 인식하여 좌표를 추출하며, 상기 추출한 그리핑 대상물체와 피수용대상 물체의 좌표에 대한 정보를 토대로 로봇의 그리핑과 드롭을 정밀하게 제어하기 때문에, 상기 그리핑대상 물체를 상기 피수용대상 물체로 정확하게 이동시킬 수 있다.As such, the present invention extracts coordinates by recognizing a marker attached to a gripping target provided at a specific location, and extracts coordinates by recognizing a target object provided at another location through a deep learning learning model created in advance. and precisely control the gripping and dropping of the robot based on the extracted coordinates of the gripping target and the receiving target, so that the gripping target can be accurately moved to the receiving target. .

이상에서와 같이 본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 기술적 보호범위는 아래의 특허청구범위에 의해서 판단되어야 할 것이다.As described above, the present invention has been described with reference to the embodiments shown in the drawings, which are merely exemplary, and those of ordinary skill in the art can make various modifications and equivalent other embodiments therefrom. You will understand that it is possible. Therefore, the technical protection scope of the present invention should be judged by the following claims.

100 : 로봇 제어장치 110 : 학습부
120 : 영상 수신부 130 : 인식부
131 : 마커 인식부 132 : 피수용대상 물체 인식부
140 : 좌표 추출부 141 : 그리핑대상 물체 좌표 추출부
142 : 피수용대상 물체 좌표 추출부 150 : 로봇팔 제어부
160 : 메모리 200 : 로봇
300 : 그리핑대상 물체 310 : 마커
400 : 피수용대상 물체 500 : 데이터베이스
100: robot control device 110: learning unit
120: image receiving unit 130: recognition unit
131: marker recognition unit 132: target object recognition unit
140: coordinate extraction unit 141: gripping target object coordinate extraction unit
142: target object coordinate extraction unit 150: robot arm control unit
160: memory 200: robot
300: gripping target object 310: marker
400: target object 500: database

Claims (7)

피수용대상 물체에 대하여 복수의 각도에서 촬영하여 획득한 데이터세트를 학습하여, 상기 피수용대상 물체의 위치와 자세를 추정하기 위한 딥러닝 학습모델을 생성하는 학습부;
그리핑대상 물체의 마커 인식 위치에서 촬영한 영상으로부터 마커를 인식하는 마커 인식부;
상기 피수용대상 물체의 인식 위치에서 촬영한 영상을 상기 생성한 딥러닝 학습모델에 적용하여 피수용대상 물체를 인식하는 피수용대상 물체 인식부; 및
상기 마커 및 피수용대상 물체의 인식을 토대로, 상기 그리핑대상 물체를 그리핑하여 상기 피수용대상 물체로 드롭하도록 제어하는 로봇팔 제어부;를 포함하며,
상기 데이터세트는, 상기 피수용대상 물체를 적어도 4개 이상의 서로 다른 각도에서 상기 피수용대상 물체를 포함하도록 촬영한 영상과, 상기 촬영한 영상을 3차원 모델링한 후 상기 3차원 모델링한 영상을 상기 촬영한 영상에 역투영하여 이진화 처리한 마스크를 토대로 생성되며,
상기 마커와 피수용대상 물체를 비전인식을 통해서 인식하는 것을 특징으로 하는 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치.
a learning unit for generating a deep learning learning model for estimating the position and posture of the target object by learning a dataset obtained by photographing the target object from a plurality of angles;
a marker recognition unit for recognizing a marker from an image captured at a marker recognizing position of the gripping target;
a target object recognition unit for recognizing the target object by applying the image taken at the recognition position of the target object to the generated deep learning learning model; and
A robot arm control unit that grips the gripping target object based on recognition of the marker and the target object and controls to drop the gripping target object to the target object;
The dataset includes an image obtained by photographing the object to be accommodated from at least four different angles to include the object to be accommodated, and the three-dimensional modeled image after three-dimensional modeling of the captured image. It is created based on a mask that has been binarized by back-projecting the captured image.
A robot control device through vision recognition using deep learning and a marker, characterized in that the marker and the target object are recognized through vision recognition.
청구항 1에 있어서,
상기 마커는,
흰색 셀 및 검정색 셀을 조합한 n*n 2차원 패턴의 ArUco 마커, 또는
체크보드와 4개의 ArUco 마커가 다이아몬드 형태로 배열된 chArUco 마커를 사용하는 것을 특징으로 하는 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치.
The method according to claim 1,
The marker is
ArUco markers in an n*n two-dimensional pattern with a combination of white and black cells, or
A robot control device through deep learning and vision recognition using markers, characterized in that a checkboard and 4 ArUco markers are arranged in a diamond shape using chArUco markers.
청구항 1에 있어서,
상기 학습부는,
상기 생성한 데이터세트의 피수용대상 물체를 촬영한 영상과 이진화 처리한 마스크를 Mask R-CNN 모델로 학습하여 딥러닝 학습모델을 생성하는 것을 더 포함하는 것을 특징으로 하는 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치.
The method according to claim 1,
The learning unit,
Vision using deep learning and markers, characterized in that it further comprises generating a deep learning learning model by learning the image obtained by photographing the target object of the generated dataset and the mask subjected to binarization with the Mask R-CNN model. Robot control through recognition.
청구항 1에 있어서,
상기 마커 인식부는,
상기 마커 인식 위치에서, 로봇의 베이스에서 상기 인식한 마커로의 변환행렬과 상기 로봇의 베이스에서 로봇팔로의 변환행렬을 곱하여 상기 마커에서 상기 로봇팔로의 변환행렬을 구하고;
상기 로봇팔의 좌표계를 기준으로 상기 로봇팔에서 상기 그리핑대상 물체까지의 X, Y, Z축 거리정보를 참조하여 상기 로봇팔에서 상기 그리핑대상 물체로의 변환행렬을 구하고;
상기 로봇이 상기 그리핑대상 물체를 그리핑하기 위한 실행 위치로 이동함에 따라 변경된 로봇의 베이스에서 상기 인식한 마커로의 변환행렬과 상기 마커 인식 위치에서 구한 상기 마커에서 상기 로봇팔로의 변환행렬을 곱하여 최종적인 상기 로봇의 베이스에서 상기 로봇팔로의 변환행렬을 구하고;
상기 실행 위치에서 구한 상기 로봇의 베이스에서 상기 로봇팔로의 변환행렬과 상기 마커 인식 위치에서 구한 상기 로봇팔에서 상기 그리핑대상 물체로의 변환행렬을 곱하여 최종적인 상기 로봇의 베이스에서 상기 그리핑대상 물체로의 변환행렬을 구함으로써, 상기 그리핑대상 물체의 좌표를 추출하며;
상기 로봇의 베이스와 상기 마커의 위치가 변경되더라도 상기 로봇팔을 상기 그리핑대상 물체로 이동시킬 수 있는 것을 특징으로 하는 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치.
The method according to claim 1,
The marker recognition unit,
obtaining a transformation matrix from the marker to the robot arm by multiplying the transformation matrix from the base of the robot to the recognized marker at the marker recognition position and the transformation matrix from the base of the robot to the robot arm;
obtaining a transformation matrix from the robot arm to the gripping object with reference to X, Y, and Z-axis distance information from the robot arm to the gripping object based on the coordinate system of the robot arm;
By multiplying the transformation matrix from the base of the robot to the recognized marker, which is changed as the robot moves to the execution position for gripping the gripping target object, and the transformation matrix from the marker obtained at the marker recognition position to the robot arm, obtaining a transformation matrix from the base of the robot to the robot arm;
The transformation matrix from the base of the robot to the robot arm obtained at the execution position is multiplied by the transformation matrix from the robot arm to the gripping object obtained from the marker recognition position, and finally the base of the robot to the gripping target object extracting the coordinates of the object to be gripped by obtaining a transformation matrix into
A robot control device through deep learning and vision recognition using a marker, characterized in that it is possible to move the robot arm to the gripping target object even if the positions of the base and the marker of the robot are changed.
청구항 1에 있어서,
상기 피수용대상 물체 인식부는,
상기 피수용대상 물체의 인식 위치에서, 로봇의 베이스에서 상기 피수용대상 물체로의 변환행렬과 상기 로봇의 베이스에서 로봇팔로의 변환행렬을 곱하여, 상기 피수용대상 물체에서 상기 로봇팔로의 변환행렬을 구하고;
상기 구한 상기 피수용대상 물체에서 상기 로봇팔로의 변환행렬에서 회전행렬을 추출하여 위치 벡터를 삭제한 새로운 상기 피수용대상 물체에서 상기 로봇팔로의 변환행렬을 구하고;
상기 구한 새로운 상기 피수용대상 물체에서 상기 로봇팔로의 변환행렬과 상기 구한 로봇의 베이스에서 상기 피수용대상 물체로의 변환행렬을 곱하여, 최종적인 상기 로봇의 베이스에서 상기 피수용대상 물체로의 변환행렬을 구함으로써, 상기 피수용대상 물체의 좌표를 추출하며;
상기 구한 최종적인 상기 로봇의 베이스에서 상기 피수용대상 물체로의 변환행렬을 통해서, 상기 로봇팔이 상기 피수용대상 물체의 좌표축을 따라가지 않도록 하는 것을 특징으로 하는 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치.
The method according to claim 1,
The receiving target object recognition unit,
At the recognition position of the target object, the transformation matrix from the target object to the robot arm is obtained by multiplying the transformation matrix from the base of the robot to the target object and the transformation matrix from the base of the robot to the robot arm. seek;
extracting a rotation matrix from the transformation matrix of the obtained target object to the robot arm to obtain a transformation matrix from the new target object to the robot arm from which a position vector is deleted;
By multiplying the obtained transformation matrix from the new target object to the robot arm and the obtained transformation matrix from the base of the robot to the target object, a final transformation matrix from the base of the robot to the target object extracting the coordinates of the target object by obtaining
Vision recognition using deep learning and markers, characterized in that the robot arm does not follow the coordinate axis of the target object through the obtained final transformation matrix from the base of the robot to the target object through the robot control system.
로봇 제어장치에서, 피수용대상 물체에 대하여 복수의 각도에서 촬영하여 획득한 데이터세트를 학습하여, 상기 피수용대상 물체의 위치와 자세를 추정하기 위한 딥러닝 학습모델을 생성하는 학습 단계;
그리핑대상 물체의 마커 인식 위치에서 촬영한 영상으로부터 마커를 인식하는 마커 인식 단계;
상기 피수용대상 물체의 인식 위치에서 촬영한 영상을 상기 생성한 딥러닝 학습모델에 적용하여 피수용대상 물체를 인식하는 피수용대상 물체 인식 단계; 및
상기 마커 및 피수용대상 물체의 인식을 토대로, 상기 그리핑대상 물체를 그리핑하여 상기 피수용대상 물체로 드롭하도록 제어하는 로봇팔 제어 단계;를 포함하며,
상기 데이터세트는, 상기 피수용대상 물체를 적어도 4개 이상의 서로 다른 각도에서 상기 피수용대상 물체를 포함하도록 촬영한 영상과, 상기 촬영한 영상을 3차원 모델링한 후 상기 3차원 모델링한 영상을 상기 촬영한 영상에 역투영하여 이진화 처리한 마스크를 토대로 생성되며,
상기 마커와 피수용대상 물체를 비전인식을 통해서 인식하는 것을 특징으로 하는 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어방법.
A learning step of generating, in the robot control device, a deep learning learning model for estimating the position and posture of the accommodated object by learning a dataset obtained by photographing the object from a plurality of angles;
a marker recognition step of recognizing a marker from an image taken at a marker recognition position of the gripping target;
an accommodation target object recognition step of recognizing the accommodation target object by applying the image taken at the recognition position of the accommodation target object to the generated deep learning learning model; and
A robot arm control step of controlling to grip the gripping target object and drop it to the target object based on the recognition of the marker and the target object;
The dataset includes an image obtained by photographing the object to be accommodated from at least four different angles to include the object to be accommodated, and the three-dimensional modeled image after three-dimensional modeling of the captured image. It is created based on a mask that has been binarized by back-projecting the captured image.
A robot control method through vision recognition using deep learning and a marker, characterized in that the marker and the target object are recognized through vision recognition.
청구항 6에 있어서,
상기 학습 단계는,
상기 생성한 데이터세트의 피수용대상 물체를 촬영한 영상과 이진화 처리한 마스크를 Mask R-CNN 모델로 학습하여 딥러닝 학습모델을 생성하는 것을 더 포함하는 것을 특징으로 하는 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어방법.
7. The method of claim 6,
The learning step is
Vision using deep learning and markers, characterized in that it further comprises generating a deep learning learning model by learning the image obtained by photographing the target object of the generated dataset and the mask subjected to binarization with the Mask R-CNN model. Robot control method through recognition.
KR1020200154250A 2020-11-18 2020-11-18 Apparatus and method of robot control through vision recognition using deep learning and marker KR102452315B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200154250A KR102452315B1 (en) 2020-11-18 2020-11-18 Apparatus and method of robot control through vision recognition using deep learning and marker

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200154250A KR102452315B1 (en) 2020-11-18 2020-11-18 Apparatus and method of robot control through vision recognition using deep learning and marker

Publications (2)

Publication Number Publication Date
KR20220067719A KR20220067719A (en) 2022-05-25
KR102452315B1 true KR102452315B1 (en) 2022-10-06

Family

ID=81797465

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200154250A KR102452315B1 (en) 2020-11-18 2020-11-18 Apparatus and method of robot control through vision recognition using deep learning and marker

Country Status (1)

Country Link
KR (1) KR102452315B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102574447B1 (en) * 2022-12-06 2023-09-06 주식회사 어밸브 Method for controlling a drone in smart farm, and drone using the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101691076B1 (en) * 2015-08-12 2016-12-29 삼성중공업 주식회사 Device for replacing drill bit
JP2020107142A (en) * 2018-12-27 2020-07-09 パナソニックIpマネジメント株式会社 Recognition method, recognition system, robot control method, robot control system, robot system, recognition program, and robot control program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101691076B1 (en) * 2015-08-12 2016-12-29 삼성중공업 주식회사 Device for replacing drill bit
JP2020107142A (en) * 2018-12-27 2020-07-09 パナソニックIpマネジメント株式会社 Recognition method, recognition system, robot control method, robot control system, robot system, recognition program, and robot control program

Also Published As

Publication number Publication date
KR20220067719A (en) 2022-05-25

Similar Documents

Publication Publication Date Title
CN113696186B (en) Mechanical arm autonomous moving and grabbing method based on visual-touch fusion under complex illumination condition
CN111775152B (en) Method and system for guiding mechanical arm to grab scattered stacked workpieces based on three-dimensional measurement
US9616569B2 (en) Method for calibrating an articulated end effector employing a remote digital camera
JP6586532B2 (en) Deep machine learning method and apparatus for robot gripping
JP5458885B2 (en) Object detection method, object detection apparatus, and robot system
Wan et al. Teaching robots to do object assembly using multi-modal 3d vision
CN112476434A (en) Visual 3D pick-and-place method and system based on cooperative robot
CN111496770A (en) Intelligent carrying mechanical arm system based on 3D vision and deep learning and use method
US11173610B2 (en) Method and system for robot control using visual feedback
US20230042756A1 (en) Autonomous mobile grabbing method for mechanical arm based on visual-haptic fusion under complex illumination condition
JP6826069B2 (en) Robot motion teaching device, robot system and robot control device
CN111462154A (en) Target positioning method and device based on depth vision sensor and automatic grabbing robot
CN112775959A (en) Method and system for determining grabbing pose of manipulator and storage medium
CN115070781B (en) Object grabbing method and two-mechanical-arm cooperation system
JP7051751B2 (en) Learning device, learning method, learning model, detection device and gripping system
JPH0780790A (en) Three-dimensional object grasping system
KR102452315B1 (en) Apparatus and method of robot control through vision recognition using deep learning and marker
CN109079777B (en) Manipulator hand-eye coordination operation system
CN114187312A (en) Target object grabbing method, device, system, storage medium and equipment
CN115861780B (en) Robot arm detection grabbing method based on YOLO-GGCNN
CN115194774A (en) Binocular vision-based control method for double-mechanical-arm gripping system
CN211890823U (en) Four-degree-of-freedom mechanical arm vision servo control system based on RealSense camera
JP2022142773A (en) Device and method for localizing location of object from camera image of object
CN116529760A (en) Grabbing control method, grabbing control device, electronic equipment and storage medium
Li A Design of Robot System for Rapidly Sorting Express Carton with Mechanical Arm Based on Computer Vision Technology

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant