KR20220092288A - Control system and control method for manipulator - Google Patents

Control system and control method for manipulator Download PDF

Info

Publication number
KR20220092288A
KR20220092288A KR1020200183917A KR20200183917A KR20220092288A KR 20220092288 A KR20220092288 A KR 20220092288A KR 1020200183917 A KR1020200183917 A KR 1020200183917A KR 20200183917 A KR20200183917 A KR 20200183917A KR 20220092288 A KR20220092288 A KR 20220092288A
Authority
KR
South Korea
Prior art keywords
image
manipulator
target
acquisition unit
image acquisition
Prior art date
Application number
KR1020200183917A
Other languages
Korean (ko)
Other versions
KR102483351B1 (en
Inventor
옥승호
감지웅
김동현
양광민
Original Assignee
주식회사 아진엑스텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아진엑스텍 filed Critical 주식회사 아진엑스텍
Priority to KR1020200183917A priority Critical patent/KR102483351B1/en
Publication of KR20220092288A publication Critical patent/KR20220092288A/en
Application granted granted Critical
Publication of KR102483351B1 publication Critical patent/KR102483351B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

Disclosed are a system and a method for controlling a manipulator. The present invention relates to the system for controlling a manipulator performing vision-based recognition with respect to a target, which comprises: a first image obtaining unit spaced from the manipulator for vision-based recognition to capture the target; a second image obtaining unit installed in the manipulator for the vision-based recognition to capture the target; and a control unit learning a characteristic of the target from the image received from the first image obtaining unit and the second image obtaining unit and controlling the manipulator based on a learning result.

Description

매니퓰레이터 제어 시스템 및 제어 방법{CONTROL SYSTEM AND CONTROL METHOD FOR MANIPULATOR}CONTROL SYSTEM AND CONTROL METHOD FOR MANIPULATOR

본 발명은 매니퓰레이터 제어 시스템 및 제어 시스템에 관한 것이다. 보다 상세하게는 Hand-in-Eye 방식과 Hand-to-Eye 방식의 카메라들을 이용하여 매니퓰레이터를 제어하는 시스템 및 제어하는 방법에 관한 것이다.The present invention relates to a manipulator control system and a control system. More particularly, it relates to a system and method for controlling a manipulator using a hand-in-eye method and a hand-to-eye method camera.

종래의 단순 노동력을 대체하는 산업용 로봇에 이어 인공지능 기술의 급속한 발전으로 지능형 로봇에 대한 관심이 높아지고 있다. 지능형 로봇의 활용 영역은 제조업에서 탈피하여 가정, 의료, 자동차 분야로 진출하면서, 4차 산업의 발달과 함께 인공지능을 이용한 지능형 로봇이 등장하였다. Following the industrial robot replacing the conventional simple labor, interest in intelligent robots is increasing due to the rapid development of artificial intelligence technology. As the field of application of intelligent robots moved away from manufacturing and entered the home, medical, and automobile fields, intelligent robots using artificial intelligence appeared with the development of the 4th industry.

산업에서의 로봇의 활용도가 높아짐에 따라, 로봇의 팔로서 기능할 수 있는 매니퓰레이터에 대한 개발이 이루어지고 있다. 매니퓰레이터란 인간의 상지(上肢)와 유사한 기능을 보유하고, 그 선단부위에 해당하는 기계 손(mechanical hand) 등에 의해 물체를 「파지」(파악, 흡착, 유지하는 것들을 말한다.)하여 공간(空間)적으로 이동시키는 작업 또는 그 선단부위에 부착된 도장용 스프레이 건(spray gun), 용접 토오치 등의 공구에 의한 도장, 용접 등의 작업을 실시할 수 있는 것을 말한다.As the utilization of robots in industry increases, the development of manipulators that can function as arms of robots is being developed. A manipulator has a function similar to that of a human upper extremity, and “grasses” (referring to grasping, adsorbing, and holding) an object by means of a mechanical hand corresponding to the tip of the manipulator, thereby creating a spatial effect. It refers to a work that can be carried out by moving it to a pole or painting and welding with a tool such as a spray gun or a welding torch attached to the tip.

인공지능이란 인간의 경험과 지식을 바탕으로 문제를 해결하는 능력 등을 전자 기술로 실현하는 것을 목적으로 하는 기술 영역을 말한다. 최근 4차 산업의 발달과 함께 인공지능 기술이 발달하고 있으며, 특히 머신 러닝 분야의 괄목할만한 발전이 최근 주목받고 있다. Artificial intelligence refers to a technological field whose purpose is to realize the ability to solve problems based on human experience and knowledge with electronic technology. Recently, along with the development of the 4th industry, artificial intelligence technology is developing, and in particular, remarkable development in the field of machine learning has recently been attracting attention.

이처럼, 산업에서 많이 사용되는 매니퓰레이터에 머신 러닝 기술을 접목하여, 자동으로 특정 동작을 실현할 수 있는 매니퓰레이터에 관한 기술들이 등장하고 있다. 특히, 비전 인식 기능을 활용하여, 매니퓰레이터는 타겟을 인식하고, 인식된 타겟에 대하여 미리 정해진 동작을 수행할 수 있다. 다만, 종래에는 깊이 정보를 획득하기 위한 카메라 또는 RGB 영상을 획득할 수 있는 카메라 등 하나의 카메라를 위주로 비전 인식이 수행되어 왔으나, 이러한 비전 인식 기술은 동작의 정확도에서 한계를 가지고 있다. As such, technologies related to manipulators that can automatically realize specific motions by applying machine learning technology to manipulators widely used in industry are emerging. In particular, by utilizing the vision recognition function, the manipulator may recognize a target and perform a predetermined operation on the recognized target. However, conventionally, vision recognition has been mainly performed with a single camera, such as a camera for acquiring depth information or a camera capable of acquiring an RGB image, but this vision recognition technology has a limitation in the accuracy of its operation.

특히, 종래 Hand-to-Eye 방식의 비전 인식은 관찰 가능한 영역이 고정되어 있다는 한계가 존재하였고, 종래 Hand-in-Eye 방식의 비전 인식은 FPS(Frame Per Second)에 크게 좌우되어 비전 인식의 효율이 저하되는 문제점이 존재하였다. In particular, the conventional Hand-to-Eye method has a limitation that the observable area is fixed, and the conventional Hand-in-Eye method vision recognition is highly dependent on FPS (Frame Per Second), so the efficiency of vision recognition is This lowering problem existed.

대한민국 공개특허공보 제 10-2019-0075416 호Republic of Korea Patent Publication No. 10-2019-0075416

본 발명의 목적은 2개의 영상 획득부를 이용하여 타겟을 비전 인식하고, 이를 기초로 매니퓰레이터를 제어하는 매니퓰레이터 제어 시스템 및 제어 방법을 제공하는 것이다. An object of the present invention is to provide a manipulator control system and control method for recognizing a target by vision using two image acquisition units and controlling the manipulator based on the vision recognition.

또한, 본 발명의 목적은 Hand-to-Eye 방식과 Hand-in-Eye 방식을 이용하여 타겟을 인식하고 이를 기초로 매니퓰레이터를 제어하는 매니퓰레이터 제어 시스템 및 제어 방법을 제공하는 것이다 .Another object of the present invention is to provide a manipulator control system and a control method for recognizing a target using the Hand-to-Eye method and the Hand-in-Eye method and controlling the manipulator based on the recognition method.

상술한 과제를 해결하기 위하여, 본 발명은, 타겟을 비전 인식하는 매니퓰레이터 제어 시스템에 있어서, 상기 비전 인식을 위하여 상기 매니퓰레이터와 이격되어 상기 타겟을 촬영하는 제1 영상 획득부, 상기 비전 인식을 위하여 상기 매니퓰레이터에 설치되어 상기 타겟을 촬영하는 제2 영상 획득부 및 상기 제1 영상 획득부 및 상기 제2 영상 획득부로부터 수신한 영상으로부터 상기 타겟의 특징을 학습하고, 상기 학습 결과를 기초로 상기 매니퓰레이터를 제어하는 제어부를 포함할 수 있다. In order to solve the above problems, the present invention provides a manipulator control system for vision recognition of a target, a first image acquisition unit spaced apart from the manipulator to photograph the target for vision recognition, A second image acquisition unit installed in the manipulator to photograph the target, and the first image acquisition unit and the second image acquisition unit learn the characteristics of the target from the images received, and use the manipulator based on the learning result It may include a control unit to control.

또한, 상기 제어부는, 상기 제1 영상 획득부로부터 제1 영상을 수신하고, Hand-to-Eye 방식을 통하여 상기 타겟의 깊이 정보를 상기 제1 영상으로부터 획득할 수 있다. Also, the controller may receive a first image from the first image acquisition unit, and acquire depth information of the target from the first image through a hand-to-eye method.

또한, 상기 제어부는 상기 제2 영상 획득부로부터 제2 영상을 수신하고, Hand-in-Eye 방식을 통하여 상기 타겟의 2차원 정보를 상기 제2 영상으로부터 획득할 수 있다.In addition, the controller may receive a second image from the second image acquisition unit, and acquire 2D information of the target from the second image through a Hand-in-Eye method.

또한, 상기 2차원 정보는, 상기 매니퓰레이터의 회전 각도 및 회전 방향을 포함할 수 있다. Also, the two-dimensional information may include a rotation angle and a rotation direction of the manipulator.

또한, 상술한 과제를 해결하기 위하여, 본 발명은, 매니퓰레이터와 이격된 제1 영상 획득부 및 상기 매니퓰레이터에 설치된 제2 영상 획득부를 통하여 타겟을 비전 인식하는 매니퓰레이터 제어 방법에 있어서, 상기 제1 영상 획득부로부터 상기 타겟을 촬영한 제1 영상을 수신하는 단계, 상기 제2 영상 획득부로부터 상기 타겟을 촬영한 제2 영상을 수신하는 단계, 상기 제1 영상으로부터 깊이 정보에 기반한 ROI(Region of Interest) 이미지를 획득하는 단계, 상기 제2 영상으로부터 2차원 정보를 획득하는 단계, 상기 ROI 이미지 및 상기 2차원 정보를 기초로 상기 타겟의 특징을 학습하여 인식하는 단계 및 상기 인식 결과를 기초로, 상기 매니퓰레이터가 상기 타겟에 대한 동작을 제어하는 단계를 포함할 수 있다.In addition, in order to solve the above problem, the present invention provides a manipulator control method for vision recognition of a target through a first image acquisition unit spaced apart from a manipulator and a second image acquisition unit installed in the manipulator, the first image acquisition Receiving a first image obtained by photographing the target from a unit, receiving a second image obtained by photographing the target from the second image obtaining unit, ROI (Region of Interest) based on depth information from the first image acquiring an image, acquiring two-dimensional information from the second image, learning and recognizing a characteristic of the target based on the ROI image and the two-dimensional information, and based on the recognition result, the manipulator may include controlling an operation with respect to the target.

또한, 상기 제1 영상으로부터 깊이 정보에 기반한 ROI(Region of Interest) 이미지를 획득하는 단계는, 상기 제1 영상을 스레숄딩(thresholding)하는 단계, 상기 스레숄딩 이후 딥 러닝 알고리즘을 기반으로 상기 타겟을 감지하는 단계, 상기 제1 영상속 감지된 상기 타겟에 대한 깊이(depth) 이미지를 획득하는 단계 및 상기 깊이 이미지를 기초로 상기 ROI 이미지를 획득하는 단계를 포함할 수 있다. In addition, the step of obtaining an ROI (Region of Interest) image based on depth information from the first image includes: thresholding the first image; after the thresholding, the target is selected based on a deep learning algorithm The method may include detecting, obtaining a depth image of the detected target in the first image, and obtaining the ROI image based on the depth image.

또한, 상기 제2 영상으로부터 2차원 정보를 획득하는 단계는, 상기 제2 영상을 스레숄딩(thresholding)하는 단계, 상기 스레숄딩 이후 딥 러닝 알고리즘을 기반으로 상기 타겟의 윤곽선(contour)을 감지하는 단계 및 상기 윤곽선을 기초로 상기 타겟의 회전 각도를 획득하는 단계를 포함할 수 있다. In addition, the step of obtaining the two-dimensional information from the second image may include: thresholding the second image; detecting a contour of the target based on a deep learning algorithm after the thresholding; and obtaining a rotation angle of the target based on the outline.

또한, 상기 매니퓰레이터가 상기 타겟에 대한 동작을 제어하는 단계는, 상기 회전 각도를 기초로 상기 매니퓰레이터의 회전 방향을 획득하는 단계 및 상기 회전 방향을 기초로 상기 매니퓰레이터의 동작을 제어하는 단계를 포함할 수 있다. In addition, the step of controlling the operation of the manipulator with respect to the target may include obtaining a rotation direction of the manipulator based on the rotation angle and controlling the operation of the manipulator based on the rotation direction. have.

본 발명은 2개의 영상 획득부를 이용하여 Hand-to-Eye 방식과 Hand-in-Eye 방식 각각이 가지는 문제점을 극복하는 매니퓰레이터 제어 시스템 및 제어 방법을 제공하는 효과가 있다. The present invention has the effect of providing a manipulator control system and control method that overcomes the problems of the Hand-to-Eye method and the Hand-in-Eye method using two image acquisition units.

또한, 본 발명은 비전 인식을 통하여 자동으로 타겟에 대하여 미리 정해진 동작을 수행하는 매니퓰레이터 제어 시스템 및 제어 방법을 제공하는 교화가 있다. In addition, the present invention provides a manipulator control system and control method for automatically performing a predetermined operation on a target through vision recognition.

또한, 본 발명은 산업 현장에서 주로 사용되는 매니퓰레이터 특성상 오염되지 않는 렌즈를 포함하는 영상 획득부를 사용하여 매니퓰레이터를 제어함으로써 보다 안정적인 비전 인식을 제공할 수 있는 효과가 있다. In addition, the present invention has the effect of providing more stable vision recognition by controlling the manipulator using an image acquisition unit including a lens that is not contaminated due to the characteristics of the manipulator mainly used in industrial sites.

본 발명에 따라 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects that can be obtained according to the present invention are not limited to the effects mentioned above, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which this specification belongs from the description below. will be.

도 1은 본 발명에 따른 매니퓰레이터 제어 시스템을 나타낸 도면이다.
도 2는 본 발명에 따른 제어부를 나타낸 도면이다.
도 3은 본 발명에 따른 영상 획득부를 나타낸 도면이다.
도 4(a) 및 도4(b)는 본 발명에 따른 제1 영상 및 제2 영상을 나타낸 도면이다.
도 5는 본 발명에 따른 매니퓰레이터 제어 방법을 나타낸 도면이다.
도 6은 본 발명에 따른 제1 영상을 기초로 ROI 이미지를 획득하는 과정을 나타낸 도면이다.
도 7은 본 발명에 따른 제2 영상을 기초로 2차원 정보를 획득하는 과정을 나타낸 도면이다.
도 8(a) 및 도 8(b)는 본 발명에 따른 제2 영상을 기초로 회전 각도를 획득하는 과정을 나타낸 도면이다.
도 9는 본 발명에 따른 매니퓰레이터의 동작을 제어하는 과정을 나타낸 도면이다.
본 명세서에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 명세서에 대한 실시예를 제공하고, 상세한 설명과 함께 본 명세서의 기술적 특징을 설명한다.
1 is a view showing a manipulator control system according to the present invention.
2 is a view showing a control unit according to the present invention.
3 is a view showing an image acquisition unit according to the present invention.
4 (a) and 4 (b) are views showing a first image and a second image according to the present invention.
5 is a diagram illustrating a manipulator control method according to the present invention.
6 is a diagram illustrating a process of acquiring an ROI image based on a first image according to the present invention.
7 is a diagram illustrating a process of acquiring two-dimensional information based on a second image according to the present invention.
8(a) and 8(b) are diagrams illustrating a process of obtaining a rotation angle based on a second image according to the present invention.
9 is a diagram illustrating a process of controlling the operation of the manipulator according to the present invention.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included as a part of the detailed description to help the understanding of the present specification, provide embodiments of the present specification, and together with the detailed description, explain the technical features of the present specification.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numbers regardless of reference numerals, and redundant description thereof will be omitted.

또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed description thereof will be omitted.

또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical idea disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including an ordinal number such as 1st, 2nd, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.The singular expression includes the plural expression unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, terms such as “comprises” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

이하, 상술한 내용들을 바탕으로 본 발명의 바람직한 일 실시예에 따른, 매니퓰레이터 제어 시스템 및 제어 방법에 관하여 상세히 설명하면 다음과 같다.Hereinafter, a manipulator control system and a control method according to a preferred embodiment of the present invention will be described in detail based on the above description.

도 1은 본 발명에 따른 매니퓰레이터 제어 시스템을 나타낸 도면이다. 1 is a view showing a manipulator control system according to the present invention.

도 1에 따르면, 본 발명에 따른 제어 시스템은, 타겟(10)을 비전 인식하는 매니퓰레이터(11) 제어 시스템일 수 있다. 본 발명에 따른 제어 시스템은 제1 영상 획득부(110), 제2 영상 획득부(120) 및 제어부(130)를 포함할 수 있다. 매니퓰레이터(11)는 본 발명에 따른 제어 시스템에 포함될 수도 있다. 타겟(10)은 비전 인식의 대상이 되며, 매니퓰레이터(11)를 통하여 Pick and Place 하기 위한 대상 물체일 수 있다. Referring to FIG. 1 , the control system according to the present invention may be a manipulator 11 control system for vision-recognizing a target 10 . The control system according to the present invention may include a first image acquisition unit 110 , a second image acquisition unit 120 , and a controller 130 . The manipulator 11 may be included in the control system according to the present invention. The target 10 is a target for vision recognition, and may be a target object for pick and place through the manipulator 11 .

제1 영상 획득부(110)는 비전 인식을 위하여 매니퓰레이터(11)와 이격되어 타겟(10)을 촬영하는 구성으로서 카메라일 수 있다. 제2 영상 획득부(120)는 비전 인식을 위하여 매니퓰레이터(11)에 설치되어 타겟(10)을 촬영하는 구성으로서 카메라일 수 있다. 제1 영상 획득부(110)에서 획득된 영상은 제1 영상일 수 있고, 제2 영상 획득부(120)에서 획득된 영상은 제2 영상일 수 있다. The first image acquisition unit 110 may be a camera configured to photograph the target 10 while being spaced apart from the manipulator 11 for vision recognition. The second image acquisition unit 120 is installed on the manipulator 11 for vision recognition to photograph the target 10 and may be a camera. The image acquired by the first image acquiring unit 110 may be a first image, and the image acquired by the second image acquiring unit 120 may be a second image.

제어부(130)는 제1 영상 획득부(110) 및 제2 영상 획득부(120)에서 수신한 영상으로부터 타겟(10)의 특징을 학습할 수 있다. 또한, 제어부(130)는 학습 결과를 기초로 매니퓰레이터(11)를 제어할 수 있다. 즉, 제어부(130)는 제1 영상 및 제2 영상을 수신하고, 그로부터 타겟(10)의 특징을 학습할 수 있다. 타겟(10)의 특징은 시각적이고 형태적인 특징일 수 있다. The controller 130 may learn the characteristics of the target 10 from the images received by the first image acquisition unit 110 and the second image acquisition unit 120 . Also, the controller 130 may control the manipulator 11 based on the learning result. That is, the controller 130 may receive the first image and the second image, and learn the characteristics of the target 10 therefrom. The characteristics of the target 10 may be visual and morphological characteristics.

제어부(130)는 Hand-to-Eye 방식을 통하여 타겟(10)의 깊이 정보를 제1 영상으로부터 획득할 수 있다. 깊이 정보는 3차원 정보를 의미할 수 있다. 즉, 제어부(130)는 제1 영상으로부터 타겟(10)에 대한 3차원 정보를 획득할 수 있다. 제어부(130)는 YOLOv3 등의 알고리즘을 활용하여 제1 영상의 깊이 정보를 획득할 수 있다. 제어부(130)는 깊이 정보를 기초로 ROI(Region of Interest) 이미지를 획득할 수 있다. The controller 130 may acquire depth information of the target 10 from the first image through a hand-to-eye method. The depth information may mean 3D information. That is, the controller 130 may obtain 3D information about the target 10 from the first image. The controller 130 may acquire depth information of the first image by using an algorithm such as YOLOv3. The controller 130 may acquire a region of interest (ROI) image based on the depth information.

제어부(130)는 제2 영상 획득부(120)로부터 제2 영상을 수신하고, Hand-in-Eye 방식을 통하여 타겟(10)의 2차원 정보를 제2 영상으로부터 획득할 수 있다. 이때, 2차원 정보는 매니퓰레이터(11)의 회전 각도 및 회전 방향을 포함할 수 있다. The controller 130 may receive the second image from the second image acquisition unit 120 and acquire 2D information of the target 10 from the second image through the Hand-in-Eye method. In this case, the two-dimensional information may include a rotation angle and a rotation direction of the manipulator 11 .

도 2는 본 발명에 따른 제어부를 나타낸 도면이다. 2 is a view showing a control unit according to the present invention.

도 2에 따르면, 제어부(130)는 프로세서(131), 메모리(132) 및 통신부(133)를 포함할 수 있다. 프로세서(131)는, 연산을 수행하고 다른 장치를 제어할 수 있는 구성이다. 주로, 중앙 연산 장치(CPU), 어플리케이션 프로세서(AP), 그래픽스 처리 장치(GPU) 등을 의미할 수 있다. 또한, CPU, AP 또는 GPU는 그 내부에 하나 또는 그 이상의 코어들을 포함할 수 있으며, CPU, AP 또는 GPU는 작동 전압과 클락 신호를 이용하여 작동할 수 있다. 다만, CPU 또는 AP는 직렬 처리에 최적화된 몇 개의 코어로 구성된 반면, GPU는 병렬 처리용으로 설계된 수 천 개의 보다 소형이고 효율적인 코어로 구성될 수 있다. Referring to FIG. 2 , the control unit 130 may include a processor 131 , a memory 132 , and a communication unit 133 . The processor 131 is a component capable of performing calculations and controlling other devices. Mainly, it may mean a central processing unit (CPU), an application processor (AP), a graphics processing unit (GPU), or the like. In addition, the CPU, AP, or GPU may include one or more cores therein, and the CPU, AP, or GPU may operate using an operating voltage and a clock signal. However, a CPU or AP may consist of a few cores optimized for serial processing, whereas a GPU may consist of thousands of smaller and more efficient cores designed for parallel processing.

메모리(132)는, 제어부(130)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(132)는 제어부(130)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. The memory 132 stores data supporting various functions of the controller 130 . The memory 132 may store a plurality of application programs (or applications) and commands driven by the controller 130 . At least some of these application programs may be downloaded from an external server through wireless communication.

메모리(132)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(132)는 인터넷(internet)상에서 저장 기능을 수행하는 웹 스토리지(web storage)를 포함할 수도 있다.The memory 132 is a flash memory type, a hard disk type, a solid state disk type (SSD), a silicon disk drive type (SDD), and a multimedia card micro type. ), card-type memory (such as SD or XD memory), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read (EEPROM) -only memory), a programmable read-only memory (PROM), a magnetic memory, a magnetic disk, and an optical disk may include at least one type of storage medium. Also, the memory 132 may include a web storage that performs a storage function on the Internet.

통신부(133)는, 안테나를 통해 기지국 또는 통신 기능을 포함하는 차량과 정보의 송수신을 실행한다. 통신부(133)는, 변조부, 복조부, 신호 처리부 등을 포함할 수 있다. The communication unit 133 transmits/receives information to and from a base station or a vehicle including a communication function through an antenna. The communication unit 133 may include a modulator, a demodulator, a signal processor, and the like.

무선 통신은, 통신사들이 기존에 설치해둔 통신 시설과 그 통신 시설의 주파수를 사용하는 무선 통신망을 사용한 통신을 말할 수 있다. 이때, 통신부(133)는, CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 통신 시스템에 사용될 수 있으며, 뿐만 아니라, 통신부(133)는, 3GPP(3rd generation partnership project) LTE(long term evolution) 등에도 사용될 수 있다. 또한, 최근 상용화 중인 5G 통신 뿐만 아니라, 추후 상용화가 예정되어 있는 6G 등도 사용될 수 있다. 다만, 본 명세서는 이와 같은 무선 통신 방식에 구애됨이 없이 기설치된 통신망을 활용할 수 있다.Wireless communication may refer to communication using a communication facility installed by telecommunication companies and a wireless communication network using a frequency of the communication facility. At this time, the communication unit 133, CDMA (code division multiple access), FDMA (frequency division multiple access), TDMA (time division multiple access), OFDMA (orthogonal frequency division multiple access), SC-FDMA (single carrier frequency division multiple) access), and the like, may be used in various wireless communication systems, and the communication unit 133 may also be used in 3rd generation partnership project (3GPP) long term evolution (LTE) and the like. In addition, not only 5G communication, which is currently commercialized, but also 6G, which is scheduled to be commercialized in the future, may be used. However, in the present specification, a pre-installed communication network may be utilized without being limited by such a wireless communication method.

도 3은 본 발명에 따른 영상 획득부를 나타낸 도면이다. 3 is a view showing an image acquisition unit according to the present invention.

도 3에 따르면, 본 발명의 영상 획득부는 제1 영상 획득부(110) 및 제2 영상 획득부(120)를 의미할 수 있다. 설명의 편의를 위하여 제1 영상 획득부(110)로 설명하나, 제2 영상 획득부(120)도 동일한 구성일 수 있다. Referring to FIG. 3 , the image acquisition unit of the present invention may refer to the first image acquisition unit 110 and the second image acquisition unit 120 . For convenience of description, the first image acquisition unit 110 is described, but the second image acquisition unit 120 may also have the same configuration.

제1 영상 획득부(110)는 카메라로서, 카메라 모듈(111)을 포함할 수 있다. 카메라 모듈(111)은 광 이미지로부터 영상 이미지를 생성할 수 있다. 카메라 모듈(111)은 측벽에 관통홀을 포함하는 하우징, 관통홀에 설치된 렌즈(113) 및 렌즈(113)를 구동하는 구동부(112)를 포함할 수 있다. 관통홀은 렌즈(113)의 직경에 대응되는 크기로 형성될 수 있다. 렌즈(113)는 관통홀에 삽입될 수 있다. The first image acquisition unit 110 may include a camera module 111 as a camera. The camera module 111 may generate a video image from the optical image. The camera module 111 may include a housing including a through hole in a sidewall, a lens 113 installed in the through hole, and a driving unit 112 for driving the lens 113 . The through hole may be formed in a size corresponding to the diameter of the lens 113 . The lens 113 may be inserted into the through hole.

구동부(112)는 렌즈(113)를 전방 또는 후방으로 움직이도록 제어하는 구성일 수 있다. 렌즈(113)와 구동부(112)는 종래 알려진 방식으로 연결되고 렌즈(113)는 종래 알려진 방식으로 구동부(112)에 의하여 제어될 수 있다. The driving unit 112 may be configured to control the lens 113 to move forward or backward. The lens 113 and the driving unit 112 may be connected in a conventionally known manner, and the lens 113 may be controlled by the driving unit 112 in a conventionally known manner.

다양한 영상 이미지를 수득하기 위해서는 렌즈(113)가 카메라 모듈(111) 또는 영상 획득부(110)를 구성하는 하우징의 외부로 노출될 필요가 있다. In order to obtain various image images, the lens 113 needs to be exposed to the outside of the housing constituting the camera module 111 or the image acquisition unit 110 .

바람직하게 상기 렌즈(113)는 그 표면에 하기의 [화학식 1]로 표시되는 실록산계 화합물; 유기 용매, 무기 입자 및 분산제가 포함되는 코팅조성물로 코팅된 것일 수 있다.Preferably, the lens 113 is a siloxane-based compound represented by the following [Formula 1] on its surface; It may be coated with a coating composition containing an organic solvent, inorganic particles and a dispersing agent.

[화학식 1][Formula 1]

Figure pat00001
Figure pat00001

(여기서 n은 1 내지 100의 정수이다.)(Where n is an integer from 1 to 100.)

상기 코팅조성물로 렌즈(1321)가 코팅된 경우 우수한 발수성 및 내오염성을 나타낼 수 있기 때문에 차량의 외부에 설치된 렌즈(113)가 오염 환경에 장기간 노출되더라도, 도로정보로 활용할 수 있는 이미지 또는 영상을 수집할 수 있다.When the lens 1321 is coated with the coating composition, it can exhibit excellent water repellency and stain resistance, so even if the lens 113 installed outside the vehicle is exposed to a polluted environment for a long time, images or images that can be used as road information are collected. can do.

상기 무기 입자는 실리카, 알루미나 및 이들의 혼합물로 이루어진 군으로부터 선택될 수 있다. 상기 무기 입자의 평균 직경은 70 내지 100㎛이지만, 상기 예시에 국한되지 않는다. 상기 무기 입자는 렌즈(113) 표면에 코팅층(114)으로 형성 후, 물리적인 강도를 향상시키고, 점도를 일정 범위로 유지시켜 성형성을 높일 수 있다. The inorganic particles may be selected from the group consisting of silica, alumina, and mixtures thereof. The average diameter of the inorganic particles is 70 to 100 μm, but is not limited to the above example. After the inorganic particles are formed as a coating layer 114 on the surface of the lens 113 , physical strength may be improved, and the viscosity may be maintained within a certain range to increase moldability.

상기 유기 용매는 메틸에틸케톤(MEK), 톨루엔 및 이들의 혼합으로 이루어진 군으로부터 선택되며, 바람직하게는 메틸에틸케톤을 사용할 수 있으나, 상기 예시에 국한되지 않는다. The organic solvent is selected from the group consisting of methyl ethyl ketone (MEK), toluene, and mixtures thereof, and preferably methyl ethyl ketone may be used, but is not limited thereto.

상기 분산제로는 폴리에스테르 계열의 분산제를 사용할 수 있고, 구체적으로 2-메톡시프로필 아세테이트 및 1-메톡시-2-프로필 아세테이트의 공중합체로 이루어진 폴리에스테르 계열의 분산안정제로서 TEGO-Disperse 670 (제조사: EVONIK)을 사용할 수 있으나, 상기 예시에 국한되지 않고 통상의 기술자에게 자명한 분산제는 제한 없이 모두 사용 가능하다.As the dispersant, a polyester-based dispersant may be used, and specifically, as a polyester-based dispersion stabilizer composed of a copolymer of 2-methoxypropyl acetate and 1-methoxy-2-propyl acetate, TEGO-Disperse 670 (manufacturer : EVONIK), but is not limited to the above examples and any dispersant obvious to those skilled in the art can be used without limitation.

상기 코팅 조성물은 기타 첨가제로 안정화제를 추가로 포함할 수 있고, 상기 안정화제는 자외선 흡수제, 산화방지제 등을 포함할 수 있으나, 상기 예시에 국한되지 않고 제한 없이 사용 가능하다.The coating composition may further include a stabilizer as other additives, and the stabilizer may include a UV absorber, an antioxidant, and the like, but is not limited to the above examples and may be used without limitation.

상기 코팅층(114)을 형성하기 위한, 코팅 조성물은 보다 구체적으로 상기 화학식 1로 표시되는 실록산계 화합물; 유기 용매, 무기 입자 및 분산제를 포함할 수 있다.For forming the coating layer 114, the coating composition may include a siloxane-based compound represented by Chemical Formula 1; organic solvents, inorganic particles and dispersants.

상기 코팅 조성물은 유기용매 100 중량부에 대하여, 상기 화학식 1로 표시되는 실록산계 화합물 40 내지 60 중량부, 무기 입자 20 내지 40 중량부 및 분산제 5 내지 15 중량부를 포함할 수 있다. 상기 범위에 의하는 경우 각 구성 성분의 상호 작용에 의한 발수 효과가 임계적 의의가 있는 정도의 상승효과가 발현되며, 상기 범위를 벗어나는 경우 상승효과가 급격히 저하되거나 거의 없게 된다.The coating composition may include 40 to 60 parts by weight of the siloxane-based compound represented by Formula 1, 20 to 40 parts by weight of inorganic particles, and 5 to 15 parts by weight of a dispersant based on 100 parts by weight of the organic solvent. In the case of the above range, a synergistic effect is expressed to the extent that the water repellency effect due to the interaction of each component has a critical significance, and when it is out of the above range, the synergistic effect is rapidly reduced or almost absent.

보다 바람직하게, 상기 코팅 조성물의 점도는 1500 내지 1800cP이며, 상기 점도가 1500cP 미만인 경우에는 렌즈(113) 표면에 도포하면, 흘러내려 코팅층(114)의 형성이 용이하지 않은 문제가 있고, 1800cP를 초과하는 경우에는 균일한 코팅층(114)의 형성이 용이하지 않은 문제가 있다.More preferably, the viscosity of the coating composition is 1500 to 1800 cP, and when the viscosity is less than 1500 cP, when applied to the surface of the lens 113, there is a problem that the formation of the coating layer 114 is not easy because it flows down, and exceeds 1800 cP In this case, there is a problem in that the formation of a uniform coating layer 114 is not easy.

[제조예 1: 코팅층의 제조][Preparation Example 1: Preparation of coating layer]

1. 코팅 조성물의 제조1. Preparation of coating composition

메틸에틸케톤에 상기 [화학식 1]로 표시되는 실록산계 화합물, 무기입자 및 분산제를 혼합하여, 코팅 조성물을 제조하였다:A coating composition was prepared by mixing methyl ethyl ketone with the siloxane-based compound represented by the above [Formula 1], inorganic particles and a dispersant:

상기 대전방지 조성물의 보다 구체적인 조성은 하기 표 1과 같다. A more specific composition of the antistatic composition is shown in Table 1 below.

TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 유기용매organic solvent 100100 100100 100100 100100 100100 폴리실록산polysiloxane 3030 4040 5050 6060 7070 무기입자inorganic particles 1010 2020 3030 4040 5050 분산제dispersant 1One 55 1010 1515 2020

(단위 중량부)2. 코팅층의 제조 (unit parts by weight) 2. Preparation of coating layer

렌즈(113)의 일면에 상기 DX1 내지 DX5의 코팅 조성물을 도포 후, 경화시켜 코팅층(114)을 형성하였다. The coating composition of DX1 to DX5 was applied to one surface of the lens 113 and cured to form a coating layer 114 .

[실험예][Experimental example]

1. 표면 외관에 대한 평가1. Evaluation of surface appearance

코팅 조성물의 점도 차이로 인해, 코팅층(114)을 제조한 이후, 균일한 표면이 형성되었는지 여부에 대해 관능 평가를 진행하였다. 균일한 코팅층(114)을 형성하였는지 여부에 대한 평가를 진행하였고, 하기와 같은 기준에 의해 평가를 진행하였다. Due to the difference in viscosity of the coating composition, after the coating layer 114 was prepared, sensory evaluation was performed as to whether a uniform surface was formed. Whether or not a uniform coating layer 114 was formed was evaluated, and evaluation was performed according to the following criteria.

○: 균일한 코팅층 형성○: uniform coating layer formation

×: 불균일한 코팅층의 형성×: Formation of a non-uniform coating layer

TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 관능 평가sensory evaluation ХХ ХХ

코팅층(114)을 형성할 때, 일정 점도 미만인 경우에는 렌즈(113)의 표면에서 흐름이 발생하여, 경화 공정 이후, 균일한 코팅층(114)의 형성이 어려운 경우가 다수 발생하였다. 이에 따라, 생산 수율이 낮아지는 문제가 발생할 수 있다. 또한, 점도가 너무 높은 경우에도, 조성물의 균일 도포가 어려워 균일한 코팅층(114)의 형성이 불가하였다.When the coating layer 114 is formed, if the viscosity is less than a certain level, a flow occurs on the surface of the lens 113 , and after the curing process, it is difficult to form a uniform coating layer 114 . Accordingly, there may be a problem in that the production yield is lowered. In addition, even when the viscosity is too high, it is difficult to uniformly apply the composition to form a uniform coating layer 114 .

2. 발수각의 측정2. Measurement of water repellency angle

상기 렌즈(113) 표면에 코팅층(114)을 형성한 이후, 발수각을 측정한 결과는 하기 표 3과 같다. After forming the coating layer 114 on the surface of the lens 113, the results of measuring the water repellency angle are shown in Table 3 below.

전진 접촉각 (

Figure pat00002
Figure pat00003
) advancing contact angle (
Figure pat00002
Figure pat00003
) 정지 접촉각 (
Figure pat00004
Figure pat00005
)
stop contact angle (
Figure pat00004
Figure pat00005
)
후진 접촉각 (
Figure pat00006
Figure pat00007
)
receding contact angle (
Figure pat00006
Figure pat00007
)
TX1TX1 117.1±2.9117.1±2.9 112.1±4.1112.1±4.1 < 10< 10 TX2TX2 132.4±1.5132.4±1.5 131.5±2.7131.5±2.7 141.7±3.4141.7±3.4 TX3TX3 138.9±3.0138.9±3.0 138.9±2.7138.9±2.7 139.8±3.7139.8±3.7 TX4TX4 136.9±2.0136.9±2.0 135.6±2.6135.6±2.6 140.4±3.4140.4±3.4 TX5TX5 116.9±0.7116.9±0.7 115.4±3.0115.4±3.0 < 10< 10

상기 표 3에 나타낸 바와 같이, TX1 내지 TX5의 코팅 조성물을 이용하여 코팅층(114)을 형성한 이후, 접촉각을 측정한 결과를 확인하였다. TX1 및 TX5는 후진 접촉각이 10도 미만으로 측정되었다. 즉, 코팅 조성물을 제조하기 위한 최적의 범위를 벗어나게 되는 경우, 물방울이 피닝(Pinning)되는 현상이 발생하는 것을 확인하였다. 반면 TX2 내지 4에서는 피닝 현상이 발생하지 않음을 확인하여 우수한 방수 효과를 나타낼 수 있음을 확인하였다.As shown in Table 3, after forming the coating layer 114 using the coating composition of TX1 to TX5, the result of measuring the contact angle was confirmed. For TX1 and TX5, the receding contact angle was measured to be less than 10 degrees. That is, when it is out of the optimal range for preparing the coating composition, it was confirmed that the phenomenon of pinning water droplets occurs. On the other hand, it was confirmed that the peening phenomenon did not occur in TX2 to 4, thereby exhibiting an excellent waterproof effect.

3. 내오염성 평가3. Pollution resistance evaluation

설비 외부에 상기 실시예에 따른 코팅층(114)을 형성한 렌즈(113)를 모형카메라에 부착하고, 4일 간 일반도로 주행 환경에 노출되도록 하였다. 비교예(Con)로는 코팅층(114)이 형성되지 않은 동일한 렌즈(113)를 사용하였으며, 각 실시예에 모형카메라는 차량의 동일한 위치에 부착하였다.The lens 113 having the coating layer 114 according to the embodiment formed on the outside of the facility was attached to the model camera, and exposed to the driving environment on a general road for 4 days. As the comparative example (Con), the same lens 113 on which the coating layer 114 was not formed was used, and in each embodiment, the model camera was attached to the same position of the vehicle.

그 뒤 실험 전후의 렌즈(113)의 오염 정도를 유관으로 평가하였고, 객관적인 비교를 위하여 코팅층(114)이 형성되지 않은 비교예와 비교하여 그 결과를 1 내지 10의 지수로 평가하여 하기의 표 4에 나타내었다. 하기의 지수는 그 숫자가 낮을수록 내오염성이 우수한 것이다.Then, the degree of contamination of the lens 113 before and after the experiment was evaluated as related, and for objective comparison, the result was evaluated as an index of 1 to 10 in comparison with the comparative example in which the coating layer 114 was not formed. shown in In the following index, the lower the number, the better the stain resistance.

ConCon TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 내오염성stain resistance 1010 77 33 33 33 88

(단위: 지수)상기 표 4를 참조하면, 렌즈(113)에 코팅층(114)을 형성하는 경우 차량의 외부에 라이더 센서 또는 카메라를 설치하면서 렌즈(113)가 외부로 노출되도록 하여도 높은 내오염성을 오랜 기간 분석하기 용이한 형태로 이미지 데이터를 수집할 수 있다는 점을 알 수 있다. 특히 TX2 내지 TX4에 의하는 경우 코팅층(114)에 의한 내오염성이 매우 우수하다는 점을 확인할 수 있다.(Unit: Index) Referring to Table 4, when the coating layer 114 is formed on the lens 113, the lidar sensor or camera is installed on the outside of the vehicle and the lens 113 is exposed to the outside, but the high pollution resistance It can be seen that image data can be collected in a form that is easy to analyze over a long period of time. In particular, in the case of TX2 to TX4, it can be seen that the stain resistance by the coating layer 114 is very excellent.

도 4(a) 및 도4(b)는 본 발명에 따른 제1 영상 및 제2 영상을 나타낸 도면이다. 4(a) and 4(b) are views showing a first image and a second image according to the present invention.

제1 영상은 고정된 제1 영상 획득부(110)에서 촬영되는 것으로서, Field of View가 고정되어 있을 수 있다. 제2 영상은 매니퓰레이터(11)에 설치된 제2 영상 획득부(120)에서 촬영되는 것으로서, 매니퓰레이터(11) 동작에 따라 Field of View가 고정되지 않고, 계속하여 움직일 수 있다. The first image is captured by the fixed first image acquisition unit 110, and the Field of View may be fixed. The second image is captured by the second image acquisition unit 120 installed in the manipulator 11 , and the Field of View is not fixed but can be continuously moved according to the operation of the manipulator 11 .

도 5는 본 발명에 따른 매니퓰레이터 제어 방법을 나타낸 도면이다. 5 is a diagram illustrating a manipulator control method according to the present invention.

도 5에 따른 매니퓰레이터(11) 제어 방법의 수행 주체는 제어부(130) 또는 제어부(130)에 포함되는 프로세서(131)일 수 있다. 또한, 본 발명에 따른 제어 방법에 대한 설명 중 상술한 설명과 동일하거나 중복되는 내용은 생략될 수 있다. The subject performing the method for controlling the manipulator 11 according to FIG. 5 may be the controller 130 or the processor 131 included in the controller 130 . Also, in the description of the control method according to the present invention, content identical to or overlapping with the above description may be omitted.

도 5에 따르면, 본 발명에 따른 제어 방법은, 제1 영상 획득부(110) 및 제2 영상 획득부(120)에 대한 동작 명령 생성을 생성하고 전송하는 단계(S1100)로 개시될 수 있다. Referring to FIG. 5 , the control method according to the present invention may start with generating and transmitting operation commands for the first image acquiring unit 110 and the second image acquiring unit 120 ( S1100 ).

본 발명에 따른 제어 방법은, 제1 영상 획득부(110)로부터 타겟(10)을 촬영한 제1 영상을 수신하는 단계(S1210), 제2 영상 획득부(120)로부터 타겟(10)을 촬영한 제2 영상을 수신하는 단계(S1220), 제1 영상으로부터 깊이 정보에 기반한 ROI(Region of Interest) 이미지를 획득하는 단계(S1310) 및 제2 영상으로부터 2차원 정보를 획득하는 단계(S1320)를 더 포함할 수 있다. The control method according to the present invention includes receiving a first image obtained by photographing the target 10 from the first image obtaining unit 110 ( S1210 ), and photographing the target 10 from the second image obtaining unit 120 . Receiving a second image (S1220), obtaining an ROI (Region of Interest) image based on depth information from the first image (S1310), and obtaining two-dimensional information from the second image (S1320) may include more.

또한, 본 발명에 따른 제어 방법은, ROI 이미지 및 2차원 정보를 기초로 타겟(10)의 특징을 학습하여 인식하는 단계(S1400) 및 인식 결과를 기초로, 매니퓰레이터(11)가 타겟(10)에 대한 동작을 수행하도록 제어하는 단계(S1500)를 더 포함할 수 있다. In addition, the control method according to the present invention includes the step of recognizing and learning the characteristics of the target 10 based on the ROI image and the two-dimensional information (S1400) and based on the recognition result, the manipulator 11 controls the target 10 It may further include the step of controlling to perform the operation (S1500).

제1 영상 획득부(110)로부터 타겟(10)을 촬영한 제1 영상을 수신하는 단계(S1210)는 Hand-to-Eye 방식으로 촬영된 제1 영상을 수신하는 단계일 수 있다. 제2 영상 획득부(120)로부터 타겟(10)을 촬영한 제2 영상을 수신하는 단계(S1220)는 Hand-in-Eye 방식으로 촬영된 제2 영상을 수신하는 단계일 수 있다. 제1 영상으로부터 깊이 정보에 기반한 ROI(Region of Interest) 이미지를 획득하는 단계(S1310)는 깊이 정보를 기초로 타겟(10)을 포함하는 ROI 이미지를 획득할 수 있다. 제어부(130)는 제1 영상의 깊이 정보를 기초로, 깊이 이미지를 획득하고, 깊이 이미지 중 ROI 이미지를 획득할 수 있다. ROI 이미지를 획득하는 알고리즘은 YOLO 알고리즘일 수 있다. YOLO 알고리즘은 오브젝트 검출을 위한 알고리즘으로서, 영상 속 물체를 찾아내기 위한 알고리즘일 수 있다. YOLO 알고리즘은 깊이 정보를 기초로 타겟(10)을 검출하고 타겟(10)에 대한 ROI 이미지를 획득할 수 있다. 이에 대한 내용은 도 6에서 후술한다. Receiving the first image of the target 10 from the first image obtaining unit 110 (S1210) may be a step of receiving the first image captured by the hand-to-eye method. Receiving the second image of the target 10 from the second image acquisition unit 120 (S1220) may be a step of receiving the second image captured by the hand-in-eye method. In the step of obtaining a region of interest (ROI) image based on depth information from the first image ( S1310 ), an ROI image including the target 10 may be obtained based on the depth information. The controller 130 may acquire a depth image based on the depth information of the first image, and may acquire an ROI image from among the depth images. The algorithm for acquiring the ROI image may be a YOLO algorithm. The YOLO algorithm is an algorithm for object detection, and may be an algorithm for finding an object in an image. The YOLO algorithm may detect the target 10 based on the depth information and obtain an ROI image for the target 10 . This will be described later with reference to FIG. 6 .

제2 영상으로부터 2차원 정보를 획득하는 단계(S1320)는 제2 영상의 영상 박스(box)와 타겟(10)의 윤곽선을 기초로 2차원 정보를 획득하는 단계일 수 있다. 이에 대한 내용은 도 7에서 후술한다. The step of obtaining the two-dimensional information from the second image ( S1320 ) may be a step of obtaining the two-dimensional information based on an image box of the second image and the outline of the target 10 . This will be described later with reference to FIG. 7 .

도 6은 본 발명에 따른 제1 영상을 기초로 ROI 이미지를 획득하는 과정을 나타낸 도면이다. 6 is a diagram illustrating a process of acquiring an ROI image based on a first image according to the present invention.

도 6에 따르면, 제1 영상으로부터 깊이 정보에 기반한 ROI(Region of Interest) 이미지를 획득하는 단계(S1310)는 제1 영상(원본 이미지, Original Image)를 획득하는 단계(S1311), 제1 영상을 스레숄딩(thresholding)하는 단계(S1312), 스레숄딩(thresholding)된 제1 영상에 대한 객체 인식(Object Detection)으로 타겟(10)을 인식하는 단계(S1313), 인식 타겟(10)에 대한 깊이(Depth) 이미지를 획득하는 단계(S1314) 및 깊이 이미지로부터 타겟(10)에 대한 ROI 이미지를 획득하는 단계(S1315)를 포함할 수 있다. 스레숄딩(thresholding)이란 객체 인식을 위하여 타겟(10)의 픽셀 강도와 배경 강도의 차이를 이용하여, 영상을 분할하는 방법일 수 있다. 주로 스레숄딩(thresholding)은 Opencv로 수행될 수 있다. According to FIG. 6 , the step of obtaining an ROI (Region of Interest) image based on depth information from the first image (S1310) includes the step of obtaining a first image (original image, Original Image) (S1311), the first image The step of thresholding (S1312), the step of recognizing the target 10 by object detection for the thresholded first image (S1313), the depth of the recognition target 10 ( Depth) obtaining an image (S1314) and obtaining an ROI image for the target 10 from the depth image (S1315). Thresholding may be a method of segmenting an image by using a difference between the pixel intensity of the target 10 and the background intensity for object recognition. Mainly, thresholding can be performed with Opencv.

도 7은 본 발명에 따른 제2 영상을 기초로 2차원 정보를 획득하는 과정을 나타낸 도면이고, 도 8(a) 및 도 8(b)는 본 발명에 따른 제2 영상을 기초로 회전 각도를 획득하는 과정을 나타낸 도면이다. 7 is a view showing a process of acquiring two-dimensional information based on a second image according to the present invention, and FIGS. 8 (a) and 8 (b) are the rotation angles based on the second image according to the present invention. It is a diagram showing the process of obtaining.

도 7에 따르면, 제2 영상으로부터 2차원 정보를 획득하는 단계(S1320)는, 제2 영상을 스레숄딩(thresholding)하는 단계(S1321), 스레숄딩 이후 딥 러닝 알고리즘을 기반으로 타겟(10)의 윤곽선(contour)을 감지하는 단계(S1322) 및 윤곽선을 기초로 타겟(10)의 회전 각도를 획득하는 단계(S1323)를 포함할 수 있다. According to FIG. 7 , the step of obtaining two-dimensional information from the second image ( S1320 ) includes the step of thresholding the second image ( S1321 ) and the deep learning algorithm after the thresholding of the target 10 . It may include detecting a contour (S1322) and obtaining a rotation angle of the target 10 based on the contour (S1323).

도 8(a) 및 도 8(b)에 따르면, 윤곽선을 기초로 타겟(10)의 회전 각도를 획득하는 단계(S1323)는 제2 영상에 대한 영상 박스를 기준으로 기준선을 획득하는 단계, 복수의 윤곽선 중 대표 윤곽선을 획득하는 단계 및 대표 윤곽선과 기준선 사이의 2차원 각도를 획득하는 단계를 포함할 수 있다. 이때, 2차원 각도는 기준선을 기준으로 한 타겟(10)의 회전 각도일 수 있다. 8 (a) and 8 (b), the step of obtaining the rotation angle of the target 10 based on the outline (S1323) is a step of obtaining a reference line based on the image box for the second image, a plurality of It may include obtaining a representative contour among the contours of , and obtaining a two-dimensional angle between the representative contour and the reference line. In this case, the two-dimensional angle may be a rotation angle of the target 10 with respect to the reference line.

이때, 대표 윤곽선은 복수의 윤곽선 중 임의로 선택된 하나일 수 있다. 또한, 대표 윤곽선은 복수의 윤곽선 중 미리 정해진 기준에 따라 선택된 하나일 수 있다. 일 예로, 대표 윤곽선은 복수의 윤곽선 중 가장 길이가 긴 윤곽선일 수 있다. In this case, the representative outline may be one arbitrarily selected from among a plurality of outlines. In addition, the representative outline may be one selected according to a predetermined criterion among a plurality of outlines. As an example, the representative contour may be a contour having the longest length among the plurality of contours.

이때, 타겟(10)의 회전 각도

Figure pat00008
는 하기의 수학식 1을 기초로 생성될 수 있으며, 상술한 회전 방향은 회전 각도
Figure pat00009
가 0이 되는 방향일 수 있다. At this time, the rotation angle of the target 10
Figure pat00008
may be generated based on Equation 1 below, and the above-described rotation direction is a rotation angle
Figure pat00009
It may be a direction in which is 0.

[수학식 1][Equation 1]

Figure pat00010
Figure pat00010

(단, (only,

Figure pat00011
: YOLO에서 사용되는 Bounding Box 좌표,
Figure pat00011
: Bounding Box coordinates used in YOLO,

Figure pat00012
: 회전각도, 단위는 °)
Figure pat00012
: Rotation angle, unit is °)

또한, 도 8(a) 및 도 8(b)에 따른 타겟(10)의 회전 각도

Figure pat00013
는 하기의 수학식 2를 예시로 할 수 있다. Further, the angle of rotation of the target 10 according to FIGS. 8 ( a ) and 8 ( b ).
Figure pat00013
may be exemplified by Equation 2 below.

[수학식 2][Equation 2]

Figure pat00014
Figure pat00014

도 9는 본 발명에 따른 매니퓰레이터의 동작을 제어하는 과정을 나타낸 도면이다. 9 is a diagram illustrating a process of controlling the operation of the manipulator according to the present invention.

도 9에 따르면, 인식 결과를 기초로, 매니퓰레이터가 타겟(10)에 대한 동작을 수행하도록 제어하는 단계(S1500)는, 회전 각도를 기초로 매니퓰레이터의 회전 방향을 획득하는 단계(S1510) 및 회전 방향을 기초로 매니퓰레이터의 동작을 제어하는 단계(S1520)를 포함할 수 있다. According to FIG. 9 , the step of controlling the manipulator to perform an operation on the target 10 based on the recognition result ( S1500 ) includes obtaining the rotation direction of the manipulator based on the rotation angle ( S1510 ) and the rotation direction It may include controlling the operation of the manipulator based on ( S1520 ).

회전 각도를 기초로 매니퓰레이터의 회전 방향을 획득하는 단계(S1510)는 회전 각도

Figure pat00015
가 0°가 되는 방향일 수 있다. 이때, 도출되는 회전 방향은 2개의 방향일 수 있으며, 도 8에 따르면, 제어부(130)는 제1 방향 및 제2 방향 중 보다 작은 각도만큼 움직이는 방향을 회전 방향으로 선택할 수 있다. The step of obtaining the rotation direction of the manipulator based on the rotation angle (S1510) is the rotation angle.
Figure pat00015
It may be a direction in which 0° becomes. In this case, the derived rotation direction may be two directions, and according to FIG. 8 , the controller 130 may select a direction moving by a smaller angle among the first direction and the second direction as the rotation direction.

제어부(130)는 제2 영상의 기준선과 대표 윤곽선이 일치하도록 매니퓰레이터를 회전할 수 있다. 이러한 과정을 통하여, 제어부(130)는 매니퓰레이터의 동작을 제어하여 타겟(10)에 대하여 미리 정해진 동작을 수행하기 위한 위치로 매니퓰레이터를 움직일 수 있다. The controller 130 may rotate the manipulator so that the reference line of the second image and the representative outline coincide. Through this process, the controller 130 may control the operation of the manipulator to move the manipulator to a position for performing a predetermined operation with respect to the target 10 .

또한, 본 발명에 따른 제어 시스템은 하기와 같은 사양의 제어부(130) 및 매니퓰레이터를 포함할 수 있다. In addition, the control system according to the present invention may include the control unit 130 and the manipulator having the following specifications.

Figure pat00016
Figure pat00016

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 모델링하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 모델링되는 것도 포함한다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 명세서의 범위에 포함된다.The present invention described above can be modeled as computer readable code on a medium in which a program is recorded. The computer-readable medium includes all kinds of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. It also includes modeling in the form of a carrier wave (eg, transmission over the Internet). Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of this specification should be determined by a reasonable interpretation of the appended claims, and all modifications within the scope of equivalents of this specification are included in the scope of this specification.

앞에서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 서로 배타적이거나 구별되는 것은 아니다. 앞서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 각각의 구성 또는 기능이 병용되거나 조합될 수 있다.Any or other embodiments of the present invention described above are not mutually exclusive or distinct. Any of the above-described embodiments or other embodiments of the present invention may be combined or combined with each configuration or function.

상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as restrictive in all respects and should be considered as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.

10: 타겟
11: 매니퓰레이터
110: 제1 영상 획득부
120: 제2 영상 획득부
130: 제어부
10: target
11: Manipulator
110: first image acquisition unit
120: second image acquisition unit
130: control unit

Claims (8)

타겟을 비전 인식하는 매니퓰레이터 제어 시스템에 있어서,
상기 비전 인식을 위하여 상기 매니퓰레이터와 이격되어 상기 타겟을 촬영하는 제1 영상 획득부;
상기 비전 인식을 위하여 상기 매니퓰레이터에 설치되어 상기 타겟을 촬영하는 제2 영상 획득부; 및
상기 제1 영상 획득부 및 상기 제2 영상 획득부로부터 수신한 영상으로부터 상기 타겟의 특징을 학습하고, 상기 학습 결과를 기초로 상기 매니퓰레이터를 제어하는 제어부;를 포함하는, 매니퓰레이터 제어 시스템.
A manipulator control system for vision recognition of a target, comprising:
a first image acquisition unit spaced apart from the manipulator to capture the target in order to recognize the vision;
a second image acquisition unit installed on the manipulator to capture the target for the vision recognition; and
and a control unit configured to learn the characteristics of the target from the images received from the first image acquisition unit and the second image acquisition unit, and control the manipulator based on the learning result.
제1항에 있어서,
상기 제어부는,
상기 제1 영상 획득부로부터 제1 영상을 수신하고, Hand-to-Eye 방식을 통하여 상기 타겟의 깊이 정보를 상기 제1 영상으로부터 획득하는 것인, 매니퓰레이터 제어 시스템.
According to claim 1,
The control unit is
receiving a first image from the first image acquisition unit, and acquiring depth information of the target from the first image through a hand-to-eye method.
제1항에 있어서,
상기 제어부는,
상기 제2 영상 획득부로부터 제2 영상을 수신하고, Hand-in-Eye 방식을 통하여 상기 타겟의 2차원 정보를 상기 제2 영상으로부터 획득하는 것인, 매니퓰레이터 제어 시스템.
According to claim 1,
The control unit is
receiving a second image from the second image acquiring unit, and acquiring two-dimensional information of the target from the second image through a Hand-in-Eye method.
제3항에 있어서,
상기 2차원 정보는,
상기 매니퓰레이터의 회전 각도 및 회전 방향을 포함하는 것인, 매니퓰레이터 제어 시스템.
4. The method of claim 3,
The two-dimensional information,
and a rotation angle and a rotation direction of the manipulator.
매니퓰레이터와 이격된 제1 영상 획득부 및 상기 매니퓰레이터에 설치된 제2 영상 획득부를 통하여 타겟을 비전 인식하는 매니퓰레이터 제어 방법에 있어서,
상기 제1 영상 획득부로부터 상기 타겟을 촬영한 제1 영상을 수신하는 단계;
상기 제2 영상 획득부로부터 상기 타겟을 촬영한 제2 영상을 수신하는 단계;
상기 제1 영상으로부터 깊이 정보에 기반한 ROI(Region of Interest) 이미지를 획득하는 단계;
상기 제2 영상으로부터 2차원 정보를 획득하는 단계;
상기 ROI 이미지 및 상기 2차원 정보를 기초로 상기 타겟의 특징을 학습하여 인식하는 단계; 및
상기 인식 결과를 기초로, 상기 매니퓰레이터가 상기 타겟에 대한 동작을 제어하는 단계;를 포함하는, 매니퓰레이터 제어 방법.
A method for controlling a manipulator for vision-recognizing a target through a first image acquisition unit spaced apart from a manipulator and a second image acquisition unit installed in the manipulator, the method comprising:
receiving a first image of the target from the first image acquisition unit;
receiving a second image of the target from the second image acquisition unit;
obtaining an ROI (Region of Interest) image based on depth information from the first image;
obtaining two-dimensional information from the second image;
learning and recognizing the characteristics of the target based on the ROI image and the two-dimensional information; and
and controlling, by the manipulator, an operation of the target based on the recognition result.
제5항에 있어서,
상기 제1 영상으로부터 깊이 정보에 기반한 ROI(Region of Interest) 이미지를 획득하는 단계는,
상기 제1 영상을 스레숄딩(thresholding)하는 단계;
상기 스레숄딩 이후 딥 러닝 알고리즘을 기반으로 상기 타겟을 감지하는 단계;
상기 제1 영상속 감지된 상기 타겟에 대한 깊이(depth) 이미지를 획득하는 단계; 및
상기 깊이 이미지를 기초로 상기 ROI 이미지를 획득하는 단계;를 포함하는 것인, 매니퓰레이터 제어 방법.
6. The method of claim 5,
The step of obtaining an ROI (Region of Interest) image based on depth information from the first image includes:
thresholding the first image;
detecting the target based on a deep learning algorithm after the thresholding;
acquiring a depth image of the detected target in the first image; and
Acquiring the ROI image based on the depth image; will include, a manipulator control method.
제5항에 있어서,
상기 제2 영상으로부터 2차원 정보를 획득하는 단계는,
상기 제2 영상을 스레숄딩(thresholding)하는 단계;
상기 스레숄딩 이후 딥 러닝 알고리즘을 기반으로 상기 타겟의 윤곽선(contour)을 감지하는 단계; 및
상기 윤곽선을 기초로 상기 타겟의 회전 각도를 획득하는 단계;를 포함하는 것인, 매니퓰레이터 제어 방법.
6. The method of claim 5,
The step of obtaining the two-dimensional information from the second image,
thresholding the second image;
detecting a contour of the target based on a deep learning algorithm after the thresholding; and
Acquiring the rotation angle of the target based on the outline; will include a manipulator control method.
제7항에 있어서,
상기 매니퓰레이터가 상기 타겟에 대한 동작을 제어하는 단계는,
상기 회전 각도를 기초로 상기 매니퓰레이터의 회전 방향을 획득하는 단계; 및
상기 회전 방향을 기초로 상기 매니퓰레이터의 동작을 제어하는 단계;를 포함하는 것인, 매니퓰레이터 제어 방법.
8. The method of claim 7,
The step of the manipulator controlling the operation of the target comprises:
obtaining a rotation direction of the manipulator based on the rotation angle; and
and controlling the operation of the manipulator based on the rotation direction.
KR1020200183917A 2020-12-24 2020-12-24 Control system and control method for manipulator KR102483351B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200183917A KR102483351B1 (en) 2020-12-24 2020-12-24 Control system and control method for manipulator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200183917A KR102483351B1 (en) 2020-12-24 2020-12-24 Control system and control method for manipulator

Publications (2)

Publication Number Publication Date
KR20220092288A true KR20220092288A (en) 2022-07-01
KR102483351B1 KR102483351B1 (en) 2022-12-30

Family

ID=82396943

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200183917A KR102483351B1 (en) 2020-12-24 2020-12-24 Control system and control method for manipulator

Country Status (1)

Country Link
KR (1) KR102483351B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120082126A (en) * 2011-01-13 2012-07-23 삼성전자주식회사 Apparatus and method for extracting feature of depth image
JP2016052695A (en) * 2014-09-03 2016-04-14 キヤノン株式会社 Robot device and control method of robot device
KR20190075416A (en) 2017-12-21 2019-07-01 한국과학기술원 Digital agent embedded mobile manipulator and method of operating thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120082126A (en) * 2011-01-13 2012-07-23 삼성전자주식회사 Apparatus and method for extracting feature of depth image
JP2016052695A (en) * 2014-09-03 2016-04-14 キヤノン株式会社 Robot device and control method of robot device
KR20190075416A (en) 2017-12-21 2019-07-01 한국과학기술원 Digital agent embedded mobile manipulator and method of operating thereof

Also Published As

Publication number Publication date
KR102483351B1 (en) 2022-12-30

Similar Documents

Publication Publication Date Title
US10946515B2 (en) Deep machine learning methods and apparatus for robotic grasping
CN110719828B (en) Method performed by data center robot and data center robot system
CN110633629A (en) Power grid inspection method, device, equipment and storage medium based on artificial intelligence
US20140088765A1 (en) Method for invalidating sensor measurements after a picking action in a robot system
CN107170011B (en) robot vision tracking method and system
CN110666805A (en) Industrial robot sorting method based on active vision
CN113103235B (en) Method for vertically operating cabinet surface equipment based on RGB-D image
Zheng et al. Industrial part localization and grasping using a robotic arm guided by 2D monocular vision
US12106516B2 (en) Pose estimation refinement for aerial refueling
US20170046961A1 (en) Electronic device and unmanned aerial vehicle control method
WO2024087962A1 (en) Truck bed orientation recognition system and method, and electronic device and storage medium
US10035264B1 (en) Real time robot implementation of state machine
CN112419403A (en) Indoor unmanned aerial vehicle positioning method based on two-dimensional code array
KR102483351B1 (en) Control system and control method for manipulator
KR102523770B1 (en) Machine vision-based quality management system and method for electric parts using deep learning
KR102536030B1 (en) System and method for preventing invasion of wild animal using drones
CN112907661B (en) Mobile object positioning method, device, electronic equipment, system and medium
KR20220092746A (en) Method and system for detecting unlearned objects based on stereo camera
CN108733076B (en) Method and device for grabbing target object by unmanned aerial vehicle and electronic equipment
CN207901217U (en) A kind of AGV robots based on more mesh cameras inclination angle target identification
KR102596992B1 (en) SYSTEM FOR ENFORCEMENT OF unauthorized PARKED VEHICLE BASED ON AUTONOMOUS DRIVING
Meng et al. A method to recognize and track runway in the image sequences based on template matching
CN105196297B (en) A kind of icon is intelligently tinted system and its workflow
CN114862963A (en) Bonding positioning method, device, equipment and storage medium
JP2022106671A (en) Fuel receptacle and boom tip position and pose estimation for aerial refueling

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant