KR101919463B1 - Gripper robot control system for picking of atypical form package - Google Patents

Gripper robot control system for picking of atypical form package Download PDF

Info

Publication number
KR101919463B1
KR101919463B1 KR1020160157407A KR20160157407A KR101919463B1 KR 101919463 B1 KR101919463 B1 KR 101919463B1 KR 1020160157407 A KR1020160157407 A KR 1020160157407A KR 20160157407 A KR20160157407 A KR 20160157407A KR 101919463 B1 KR101919463 B1 KR 101919463B1
Authority
KR
South Korea
Prior art keywords
unit
package
picking
robot
image data
Prior art date
Application number
KR1020160157407A
Other languages
Korean (ko)
Other versions
KR20180058440A (en
Inventor
정상권
김상봉
Original Assignee
한국폴리텍7대학 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국폴리텍7대학 산학협력단 filed Critical 한국폴리텍7대학 산학협력단
Priority to KR1020160157407A priority Critical patent/KR101919463B1/en
Publication of KR20180058440A publication Critical patent/KR20180058440A/en
Application granted granted Critical
Publication of KR101919463B1 publication Critical patent/KR101919463B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Abstract

본 발명은 비정형 소화물 피킹이 가능한 물류 로봇 제어 시스템에 대해 개시한다. 본 발명에 따른 비정형 소화물 피킹이 가능한 물류 로봇 제어 시스템은 입체 영상 데이터와 이미지 데이터 및 거리 측정 데이터를 추출하는 소화물 검출부, 입체 영상 데이터와 이미지 데이터 및 거리 측정 데이터를 분석하여 소화물의 위치와 소화물의 파지 위치를 탐지하고 탐지 결과에 따라 파지 제어 신호를 출력하는 중앙 처리부, 및 파지 제어 신호에 따라 피킹 로봇이 소화물의 파지 위치를 파지하여 이동시킬 수 있도록 구동하는 로봇 구동 제어부를 포함하는바, 3D 비젼과 레이저 검출 모듈을 이용하여 비정형 소화물을 자동 인지하고 소화물의 파지 위치를 정확히 분석하여 해당 소화물을 정확하게 파지 및 이동시킬 수 있는 효과를 이룰 수 있다. The present invention discloses a logistics robot control system capable of atypical picking. A control system for a robot that can pick up atypical digits according to the present invention includes a package detector for extracting stereoscopic image data, image data, and distance measurement data, analyzing stereoscopic image data, image data, and distance measurement data, And a robot driving control unit for driving the picking robot to grasp and move the gripping position of the package according to the gripping control signal, By using the laser detection module, it is possible to recognize the atypical package automatically and accurately analyze the position of the package, so that the package can be grasped and moved accurately.

Description

비정형 소화물 피킹이 가능한 물류 로봇 제어 시스템{GRIPPER ROBOT CONTROL SYSTEM FOR PICKING OF ATYPICAL FORM PACKAGE}TECHNICAL FIELD [0001] The present invention relates to a robot control system capable of picking up atypical digests,

본 발명은 물류 피킹 가능한 로봇의 제어 시스템에 관한 것으로, 상세하게는 3D 비젼과 레이저 검출 모듈을 이용하여 비정형 소화물을 자동 인지하고, 소화물의 파지 위치를 정확히 분석하여 해당 소화물을 파지 및 이동시킬 수 있도록 하는 비정형 소화물 피킹이 가능한 물류 로봇 제어 시스템에 관한 것이다.More particularly, the present invention relates to a control system for a robot capable of picking up a product, and more particularly, to a control system of a robot capable of picking up a product, To a robot control system capable of picking irregular packages.

물류 적재 및 보관 장소 등과 같은 물류센터에서는 매우 다양한 품종의 물류와 소화물들이 이송 및 적재된다. 근래에는 이송 컨베이어나 운반 장치를 통해 이동되고 있는 물류들을 파지하고, 미리 설정된 위치로 분류하는 피킹 로봇이 적용되어, 물류 이송 시간과 인력을 줄이는데 큰 도움이 되고 있다. In logistics centers such as logistics storage and storage, a wide variety of logistics and parcels are transported and loaded. In recent years, a picking robot for gripping and sorting the goods being transported through the transporting conveyor or the transporting device has been applied to reduce the transporting time and manpower.

하지만, 마켓이나 쇼핑몰 등의 물류센터에서는 다품종의 소화물들이 낱개 단위로 이송 및 처리되는 경우가 많기 때문에, 피킹 로봇들의 활용도가 현저하게 저하되고 있다. 즉, 종래의 피킹 로봇들은 소화물 탐지 및 형상 적응형 파지 기술의 한계로 인해 다품종의 비정형 소화물들의 처리가 어려운 상황이다. 종래 기술에 따른 피킹 작업 도구는 다양한 형상 및 재질의 객체를 범용적으로 파지하기에는 구조적인 한계를 가지고 있으며, 물류센터의 피킹용 파지 신뢰성을 보장하기 어렵기 때문이다. 이에 따라, 낱개 단위로 이송되는 다품종의 소화물 처리 과정에서는 더욱 많은 인력과 시간이 소요될 수밖에 없다. However, since many kinds of parcels are transported and processed in a single unit at a distribution center such as a market or a shopping mall, utilization of the picking robots is remarkably lowered. That is, conventional picking robots have difficulty in processing various kinds of irregular packages due to limitation of package detection and shape adaptive gripping technology. Since the picking tool according to the prior art has structural limitations in general-purpose gripping of objects of various shapes and materials, and it is difficult to ensure the grip reliability of the picking for the picking center. Accordingly, in the process of processing a package of a variety of goods to be transported in a single unit, it takes more manpower and time.

특히, 온라인 쇼핑몰의 물류 프로세스에서는 다품종 소화물이 주류이기 때문에, 가장 많은 인력과 시간이 소요되는 피킹 프로세스 즉, 로케이션 확인 및 소화물 이/적재 등의 자동화는 더더욱 절실히 요구되고 있다. Especially, in the logistics process of the online shopping mall, since many kinds of parcels are mainstream, the peaking process which requires the greatest manpower and time, that is, the automation of the location confirmation and the loading / unloading, is more urgently required.

낱개 단위로 포장되는 소화물, 크기와 형상이 다양한 소화물, 박스포장, 비닐포장, 플라스틱포장 등과 같이 다양한 형태로 포장된 소화물 등을 모두 자동 피킹 처리하기 위해서는 다품종 소화물 피킹 작업에 범용적으로 적용될 수 있는 피킹 로봇이 개발되어야 한다. 이를 위해서는 탐지 센서 내장형 흡/부착 유연 피킹툴(Picking Tool) 및 모바일 플랫폼과 연계된 통합 피킹 운영 제어 기술 등의 개발이 필요하다. In order to automatically pick all the packages packed in various sizes, such as packaged packages, packaged packages of various sizes and shapes, box packages, plastic packages, plastic packages, etc., a picking operation Robots must be developed. To this end, it is necessary to develop a picking tool with a built-in detection sensor and an integrated picking operation control technology in conjunction with a mobile platform.

하지만, 무엇보다도 가장 중요하게 먼저 개발 및 상용화되도록 하야하는 기술은 소화물 인식 기술이다. 지금까지는 소화물 인식 기술의 한계로 인하여 피킹 작업 자동화 기술 자체가 미비하게 개발되거나, 물류 이송용 피킹 로봇의 개발 자체가 미진한 상태이기도 하다. 따라서, 더더욱 신속하고 정확하게 소화물을 파지하고 이/적재할 수 있도록 하는 소화물 탐지 및 제어 모듈의 개발이 필요한 상황이다. However, first of all, the most important technology that needs to be developed and commercialized is packet recognition technology. Up until now, due to limitations of package recognition technology, the technology of automating the picking operation itself has been insufficient, and the development of picking robots for transporting goods has not been developed yet. Therefore, it is necessary to develop a package detection and control module that can more quickly and accurately grasp and load packages.

한국공개특허 제2014-0081177호Korean Patent Publication No. 2014-0081177

본 발명은 상기와 같은 다양한 문제점들을 해결하기 위한 것으로, 3D 비젼과 레이저 검출 모듈을 이용하여 비정형 소화물을 자동 인지하고, 소화물의 파지 위치를 정확히 분석하여, 해당 소화물을 정확하게 파지 및 이동시킬 수 있도록 하는 비정형 소화물 피킹이 가능한 물류 로봇 제어 시스템을 제공하는데 그 목적이 있다. SUMMARY OF THE INVENTION The present invention has been made to solve various problems as described above, and it is an object of the present invention to provide a 3D vision and a laser detection module that automatically recognize irregular parcels, accurately analyze the grip positions of parcels, The present invention provides a control system for a logistics robot capable of picking up irregular packages.

특히, 다품종 소화물들에 대한 피킹 작업에 범용적으로 적용될 수 있는 피킹 툴 및 소화물 인식 기술을 통해 피킹 로봇의 활용도를 높이고, 인력과 시간 소모를 최소화할 수 있는 물류 로봇 제어 시스템을 제공하는데 그 목적이 있다. Particularly, it is an object of the present invention to provide a control system of a logistics robot which can utilize a picking robot and minimize manpower and time consumption through a picking tool and a package recognition technology which can be applied universally to picking operations for multi-item packages. have.

아울러, 입체 영상 카메라와 이미지 촬영 카메라 및 레이저 센서를 이용하여 피킹 로봇과 해당 소화물 간의 거리를 입체적으로 정확하게 감지하고, 해당 소화물의 파지 위치까지 자동 분석하여 소화물 피킹 시간은 줄이되 정확도는 높일 수 있는 물류 로봇 제어 시스템을 제공하는데 그 목적이 있다. In addition, a stereoscopic image camera, an image capturing camera, and a laser sensor are used to accurately detect the distance between the picking robot and the corresponding package in three dimensions and automatically analyze the package to the gripping position, thereby reducing the picking time and improving the accuracy. And a control system.

상기와 같은 목적을 달성하기 위한 본 발명의 실시 예에 따른 비정형 소화물 피킹이 가능한 물류 로봇 제어 시스템은 입체 영상 데이터와 이미지 데이터 및 거리 측정 데이터를 추출하는 소화물 검출부, 입체 영상 데이터와 이미지 데이터 및 거리 측정 데이터를 분석하여 소화물의 위치와 소화물의 파지 위치를 탐지하고 탐지 결과에 따라 파지 제어 신호를 출력하는 중앙 처리부, 및 파지 제어 신호에 따라 피킹 로봇이 소화물의 파지 위치를 파지하여 이동시킬 수 있도록 구동하는 로봇 구동 제어부를 포함한다. According to an aspect of the present invention, there is provided a control system for a robot that can pick up atypical digits, comprising: a package detector for extracting stereoscopic image data, image data, and distance measurement data; A central processing unit for analyzing the data to detect the position of the package and the grip position of the package, and outputting a grip control signal according to the detection result, and a central processing unit for operating the gripping robot to grasp the grip position of the package according to the grip control signal And a robot drive control unit.

또한, 상기와 같은 목적을 달성하기 위해 소화물 검출부는 피킹 로봇의 파지 범위 내 영상을 촬영하여 적어도 한 프레임 단위로 입체 영상 신호를 출력하는 입체 영상 추출부, 피킹 로봇의 파지 범위 내 영상을 촬영하여 적어도 한 프레임 단위로 이미지 신호를 출력하는 이미지 촬영부, 피킹 로봇의 파지 범위까지 레이저 신호를 출사시켜 거리 신호를 출력하는 거리 측정부, 및 적어도 한 프레임 단위의 3D 입체 영상 신호와 이미지 신호 및 거리 신호를 디지털 변환하여 3D 입체 영상 데이터, 이미지 데이터, 거리 데이터를 적어도 한 프레임 단위로 각각 출력하는 신호 변환 저장부를 포함한다. In order to achieve the above object, a parcel detecting unit includes a stereoscopic image extracting unit for picking up an image within a grip range of a picking robot and outputting a stereoscopic image signal in units of at least one frame, A distance measurement unit for outputting a distance signal by emitting a laser signal to a grasping range of the picking robot, and a distance measuring unit for measuring a distance between the 3D stereoscopic image signal and the image signal and the distance signal And a signal conversion storage unit for outputting the 3D stereoscopic image data, the image data, and the distance data at least every one frame.

이와 아울러, 상기의 중앙 처리부는 입체 영상 데이터, 이미지 데이터, 거리 데이터를 적어도 한 프레임 단위로 입력받아 서로 조합하여 실시간 분석함으로써 소화물의 중심점 위치를 분석하는 소화물 탐지부, 소화물의 중심점 위치를 기준으로 소화물의 외관 형상과 크기 및 외관 형상과의 거리 데이터를 산출하여 소화물의 파지 가능한 위치들을 추출하는 파지 위치 추출부, 소화물의 외관 형상과 크기 및 외관 형상과의 거리 데이터 분석을 통해 파지 가능한 파지 위치들 중 하나의 파지 위치를 설정하는 파지 위치 설정부, 및 하나의 파지 위치 파지 설정 결과에 따라 피킹 로봇으로 파지 가능하도록 파지 제어 신호를 생성 및 출력함과 아울러, 파지한 소화물을 미리 설정된 위치로 이동시킬 수 있도록 이동 제어신호를 더 출력하는 파지 제어부를 포함한다. In addition, the central processing unit may include a package detection unit for receiving the stereoscopic image data, the image data, and the distance data in units of at least one frame, analyzing the position of the center point of the package by real- A grip position extracting unit for calculating distance data between the outer shape of the package and the outer shape of the package to extract gripable positions of the package and distance data between the outer shape, size and outer shape of the package, A grip position setting unit for setting a grip position and a grip control signal for generating and outputting a grip control signal so as to be grasped by the picking robot according to a result of setting one grip position, And a grip control section for further outputting a movement control signal do.

상기와 같은 다양한 기술 특징을 갖는 본 발명의 실시 예에 따른 비정형 소화물 피킹이 가능한 물류 로봇 제어 시스템은 3D 비젼과 레이저 검출 모듈을 이용하여 비정형 소화물을 자동 인지한다. 그리고 소화물의 파지 위치를 정확히 분석하여, 해당 소화물을 정확하게 파지 및 이동시킬 수 있는 효과가 있다. According to an embodiment of the present invention having various technical features as described above, a control system for a robot that can pick up atypical digits automatically detects irregular packages using 3D vision and a laser detection module. In addition, an accurate analysis of the grip position of the package allows the package to be grasped and moved accurately.

특히, 다품종 소화물들에 대한 피킹 작업에 범용적으로 적용될 수 있는 피킹 툴 및 소화물 인식 기술을 통해 피킹 로봇의 활용도를 높이고, 인력과 시간 소모를 최소화할 수 있는 효과가 있다. 이렇게 피킹 무인화가 가능한 소화물 피킹 로봇 시스템이 개발되면, 물류 피킹 자동화 현장에서 90% 이상의 물류 처리 자동화가 가능할 것으로 예상된다. In particular, the picking tool and the package recognition technology, which can be generally applied to the picking operation for a multi-item package, increase the utilization of the picking robot and minimize labor and time consumption. If a picking robot system capable of picking unmanned is developed, it is expected that more than 90% of the logistics processing automation will be possible in the field of automatic picking automation.

아울러, 본 발명에서는 입체 영상 카메라와 이미지 촬영 카메라 및 레이저 센서를 이용하여 피킹 로봇과 해당 소화물 간의 거리를 입체적으로 정확하게 감지하게 된다. 그리고 해당 소화물의 파지 위치까지 자동 분석함으로써, 소화물 피킹 시간은 줄이되 정확도는 높일 수 있게 된다. 이에 따라, 본 발명으로는 물류 처리량 증대, 물류 비용, 피킹 오류율 감소 등 경제적 효과를 더불어 예상할 수 있다. In addition, in the present invention, the distance between the picking robot and the package is precisely detected in three dimensions using a stereoscopic image camera, an image capturing camera, and a laser sensor. By automatically analyzing the position of the package to the gripping position, it is possible to reduce the picking time but improve the accuracy. Accordingly, the present invention can anticipate economical effects such as an increase in the throughput of the logistics, a cost of the logistics, and a decrease in the peaking error rate.

도 1은 본 발명의 실시 예에 따른 비정형 소화물 피킹이 가능한 물류 로봇 제어 시스템을 구체적으로 나타낸 구성도이다.
도 2는 도 1에 도시된 소화물 검출부 및 중앙 처리부 구성을 구체적으로 나타낸 구성 블록도이다.
도 3은 입체 영상 추출 및 소화물 탐지 과정을 구체적으로 설명하기 위한 이미지 도면이다.
도 4는 도 2에 도시된 소화물 탐지부의 소화물 위치 탐지 과정을 구체적으로 설명하기 위한 이미지 도면이다.
도 5는 도 2에 도시된 파지 위치 추출부의 소화물 파지 위치 추출 과정을 구체적으로 설명하기 위한 이미지 도면이다.
도 6은 도 2에 도시된 파지 위치 설정부의 소화물 파지 위치 설정 과정을 구체적으로 설명하기 위한 이미지 도면이다.
도 7은 본 발명에 따른 소화물 탐지 정확성과 파지 위치 추출 정확성을 실험 결과로 나타낸 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram specifically illustrating a control system for a logistics robot capable of picking up atypical digests according to an embodiment of the present invention; FIG.
FIG. 2 is a block diagram specifically illustrating the configuration of the package detection unit and the central processing unit shown in FIG. 1;
3 is an image diagram for explaining a stereoscopic image extraction and a package detection process in detail.
FIG. 4 is an image diagram for explaining a package position detection process of the package detection unit shown in FIG. 2; FIG.
FIG. 5 is an image diagram for explaining the procedure of extracting a parcel position of a parcel by the parcel position extracting unit shown in FIG. 2;
FIG. 6 is an image diagram for explaining the procedure of setting a parcel position of a parcel by the parcel position setting unit shown in FIG. 2;
FIG. 7 is a graph showing the results of the parcel detection accuracy and the grip position extraction accuracy according to the present invention.

이하, 본 발명의 다양한 실시 예들이 첨부된 도면을 참조하여 기재된다. 실시 예 및 이에 사용된 용어들은 본 발명에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성 요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. Hereinafter, various embodiments of the present invention will be described with reference to the accompanying drawings. It is to be understood that the embodiments and terminology used herein are not intended to limit the invention to the particular embodiments, but are to be construed to cover various modifications, equivalents, and / or alternatives of the embodiments. In connection with the description of the drawings, like reference numerals may be used for similar components. The singular expressions may include plural expressions unless the context clearly dictates otherwise.

도 1은 본 발명의 실시 예에 따른 비정형 소화물 피킹이 가능한 물류 로봇 제어 시스템을 구체적으로 나타낸 구성도이다. BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram specifically illustrating a control system for a logistics robot capable of picking up atypical digests according to an embodiment of the present invention; FIG.

도 1에 도시된 물류 로봇 제어 시스템은 3D 입체 영상 데이터와 이미지 데이터 및 거리 측정 데이터를 추출하는 소화물 검출부(100), 3D 입체 영상 데이터와 이미지 데이터 및 거리 측정 데이터를 분석하여 소화물의 위치와 소화물의 파지 위치를 탐지하고 탐지 결과에 따라 파지 제어 신호를 출력하는 중앙 처리부(200), 및 파지 제어 신호에 따라 피킹 로봇(400)이 소화물의 파지 위치를 파지하여 이동시킬 수 있도록 구동하는 로봇 구동 제어부(300)를 포함한다. The control system shown in FIG. 1 includes a package detecting unit 100 for extracting 3D stereoscopic image data, image data, and distance measurement data, and a controller 110 for analyzing 3D stereoscopic image data, image data, and distance measurement data, A central processing unit 200 for detecting a grip position and outputting a grip control signal according to the detection result, and a robot drive control unit (not shown) for driving the picking robot 400 so as to grasp and move the grip position of the package according to the grip control signal 300).

소화물 검출부(100)는 3D 영상, 컬러 영상, 거리 측정 등을 위한 다양한 감지 센서와 각각의 센싱 신호들을 변환하는 변환부, 및 미니 컴퓨터 등으로 구성될 수 있다. 이에, 피킹 로봇(400)의 주변부에 별개로 구성되거나 일부 구성 요소들이 피킹 로봇(400)의 내외장 케이스 등에 구비되도록 구성될 수 있다. The package detection unit 100 may include various sensors for 3D image, color image, distance measurement, etc., a conversion unit for converting the respective sensing signals, and a minicomputer. Accordingly, the picking robot 400 may be configured separately from the periphery, or some components may be provided on the inner and outer case of the picking robot 400 or the like.

구체적으로, 소화물 검출부(100)는 3D 입체 영상을 출력할 수 있는 스테레오 카메라, 컬러 이미지를 추출할 수 있는 CCD 및 RGB 카메라, 자신과 마주하는 해당 물체들 간의 거리 측정이 가능한 레이저 센서 등을 통해 3D 입체 영상 데이터와 이미지 데이터 및 거리 측정 데이터를 추출한다. 소화물 검출부(100)에서 추출되는 3D 입체 영상 데이터와 이미지 데이터 및 거리 측정 데이터는 피킹 로봇(400)이 피킹할 수 있는 범위 내의 소화물 및 그 배경에 대한 데이터들이다. Specifically, the package detection unit 100 detects a 3D image through a stereo camera capable of outputting a 3D stereoscopic image, a CCD and RGB camera capable of extracting a color image, and a laser sensor capable of measuring a distance between the objects facing the stereoscopic image, Extracts stereoscopic image data, image data, and distance measurement data. The 3D stereoscopic image data, the image data, and the distance measurement data extracted by the package detector 100 are data on the parcels within the range that the picking robot 400 can pick and the background data.

중앙 처리부(200)는 적어도 하나의 MCU(micro controller unit)을 포함하는 CPU(Central Processing Unit) 등으로 구성될 수 있다. 이에, 중앙 처리부(200)는 피킹 로봇(400) 외부에 별개로 구성될 수 있지만, 피킹 로봇(400)에 내장되도록 구비될 수도 있다. The central processing unit 200 may include a central processing unit (CPU) including at least one micro controller unit (MCU). The central processing unit 200 may be separately provided outside the picking robot 400, but may be provided in the picking robot 400.

이러한 중앙 처리부(200)는 소화물 검출부(100)에서 실시간 추출되는 3D 입체 영상 데이터와 이미지 데이터 및 거리 측정 데이터를 실시간으로 분석한다. 그리고 분석 결과에 따라 소화물의 중심점 위치를 분석하고 중심점 위치를 기준으로 소화물의 외관 형상과 크기 및 거리 데이터를 산출한다. 이렇게 소화물의 외관 형상과 크기 및 거리 데이터가 산출되면, 이를 토대로 피킹 로봇(400)으로 파지 가능한 소화물의 파지 위치를 탐지한다. 탐지 결과에 따라서는 피킹 로봇(400)으로 파지 가능하도록 파지 제어 신호를 출력한다. 아울러, 파지한 소화물을 미리 설정된 위치로 이동시킬 수 있도록 이동 제어신호를 더 출력하기도 한다. The central processing unit 200 analyzes 3D stereoscopic image data, image data, and distance measurement data extracted in real time from the package detector 100 in real time. Based on the analysis result, the center point position of the package is analyzed and the appearance shape, size and distance data of the package are calculated based on the center point position. When the exterior shape, size, and distance data of the package are calculated, the gripping position of the package that can be gripped by the picking robot 400 is detected based on the external shape, size, and distance data. And outputs a grasping control signal so as to be grasped by the picking robot 400 according to the detection result. In addition, a movement control signal may be further output to move the gripped piece to a predetermined position.

로봇 구동 제어부(300)는 적어도 하나의 미니 컴퓨터나 MCU를 포함하여 구성되는바 피킹 로봇(400)에 내장되도록 구비될 수 있다. 이러한 로봇 구동 제어부(300)는 중앙 처리부(200)로부터의 파지 제어 신호에 따라 피킹 로봇(400)이 소화물의 파지 위치를 파지할 수 있도록 피킹 로봇(400)의 각종 모터들과 유압 펌프 등 구동 요소들을 구동한다. 그리고 피킹이 완료되면 중앙 처리부(200)로부터의 이동 제어신호에 따라 피킹한 소화물을 이동시키도록 피킹 로봇(400)의 구동 요소들을 구동 제어한다. The robot driving control unit 300 may be built in a barping robot 400 including at least one mini computer or an MCU. The robot driving control unit 300 controls various motors of the picking robot 400 and driving elements such as a hydraulic pump so that the picking robot 400 can grasp the gripping position of the package according to the gripping control signal from the central processing unit 200. [ Lt; / RTI > When the picking is completed, the picking robot 400 drives and controls the picking robot 400 so as to move the picked up pile according to the movement control signal from the central processing unit 200.

도 2는 도 1에 도시된 소화물 검출부 및 중앙 처리부 구성을 구체적으로 나타낸 구성 블록도이다. FIG. 2 is a block diagram specifically illustrating the configuration of the package detection unit and the central processing unit shown in FIG. 1;

먼저, 도 2에 도시된 소화물 검출부(100)는 피킹 로봇(400)의 파지 범위 내 영상을 촬영하여 적어도 한 프레임 단위로 3D 입체 영상 신호를 출력하는 입체 영상 추출부(110), 피킹 로봇(400)의 파지 범위 내 영상을 촬영하여 적어도 한 프레임 단위로 이미지 신호를 출력하는 이미지 촬영부(120), 피킹 로봇(400)의 파지 범위까지 레이저 신호를 출사시켜 거리 신호를 출력하는 거리 측정부(130), 및 적어도 한 프레임 단위의 3D 입체 영상 신호와 이미지 신호 및 거리 신호를 디지털 변환하여 3D 입체 영상 데이터, 이미지 데이터, 거리 데이터를 적어도 한 프레임 단위로 각각 출력하는 신호 변환 저장부(140)를 포함한다. 2 includes a stereoscopic image extracting unit 110 for picking up an image within a holding range of the picking robot 400 and outputting a 3D stereoscopic image signal in at least one frame unit, a picking robot 400 A distance measuring unit 130 for emitting a laser signal up to the grasping range of the picking robot 400 and outputting a distance signal, ), And a signal conversion storage unit (140) for digitally converting the 3D stereoscopic image signal, the image signal, and the distance signal of at least one frame unit and outputting 3D stereoscopic image data, image data, and distance data at least every one frame unit do.

입체 영상 추출부(110)는 적어도 하나의 스테레오 카메라를 구비하여 구성된다. 적어도 하나의 스테레오 카메라는 피킹 로봇(400)의 외부 측면이나 피킹 로봇(400)의 케이스 등에 구비될 수 있다. 이에, 적어도 하나의 스테레오 카메라는 피킹 로봇(400)의 파지 범위 내 영상을 적어도 한 프레임 단위로 촬영하여, 적어도 한 프레임 단위의 3D 입체 영상 신호가 신호 변환 저장부(140)로 출력되도록 한다. 여기서, 스트레오 카메라는 RGV-D 카메라 센서를 통해 3D 입체 영상을 촬영하는바, 더 좋은 질과 깊이정보를 생산하는 능력에 기인한다. 이에 스테레오 카메라는 피킹 로봇(400)의 몸체나 정면부에 구성됨에 바람직하다. The stereoscopic image extracting unit 110 includes at least one stereo camera. At least one stereo camera may be provided on the outer side of the picking robot 400, the case of the picking robot 400, or the like. At least one stereo camera captures an image within the holding range of the picking robot 400 at least one frame and outputs at least one frame of 3D stereoscopic video signal to the signal conversion storage unit 140. Here, the stereo camera shoots a 3D stereoscopic image through the RGV-D camera sensor, resulting from its ability to produce better quality and depth information. Accordingly, the stereo camera is preferably configured on the body or the front portion of the picking robot 400.

이미지 촬영부(120)는 적어도 하나의 CCD 센서나 RGB 카메라 등을 포함하도록 구성된다. 이러한 CCD 센서나 RGB 카메라는 피킹 로봇(400)의 외부 측면이나 피킹 로봇(400)의 케이스 등에 구비될 수 있다. CCD 센서나 RGB 카메라 등은 피킹 로봇(400)의 파지 범위 내 영상을 매 프레임 단위로 촬영하여, 이미지 신호가 적어도 한 프레임 단위로 신호 변환 저장부(140)에 공급되도록 한다. 이에, CCD 센서나 RGB 카메라는 피킹 로봇(400)의 몸체나 정면부에 구성됨에 바람직하다. The image capturing unit 120 is configured to include at least one CCD sensor, an RGB camera, and the like. The CCD sensor or the RGB camera may be provided on the outer side of the picking robot 400 or the case of the picking robot 400. [ The CCD sensor, the RGB camera, or the like captures an image within the holding range of the picking robot 400 in units of frames, and supplies the image signal to the signal conversion storage unit 140 at least every one frame. Accordingly, the CCD sensor and the RGB camera are preferably formed on the body or the front portion of the picking robot 400.

거리 측정부(130)는 적어도 하나의 레이저 센서를 포함하여 구성된다. 적어도 하나의 레이저 센서는 피킹 로봇(400)의 외부 측면이나 피킹 로봇(400)의 케이스 등에 구비된다. 이에, 적어도 하나의 레이저 센서는 피킹 로봇(400)의 몸체와 피킹 로봇(400)의 파지 범위 내에 이송되는 소화물까지의 거리를 실시간 측정한다. 그리고 실시간 측정된 거리 신호를 매 프레임 단위로 신호 변환 저장부(140)에 공급한다. The distance measuring unit 130 includes at least one laser sensor. At least one laser sensor is provided on the outer side of the picking robot 400, the case of the picking robot 400, and the like. The at least one laser sensor real-time measures the distance from the body of the picking robot 400 to the package to be delivered within the gripping range of the picking robot 400 in real time. And supplies the real-time distance signal to the signal conversion storage unit 140 on a frame-by-frame basis.

신호 변환 저장부(140)는 적어도 하나의 AD 변환기기와 RS-232 인터페이스 기기 등의 근거리 통신 모듈을 포함하여 구성된다. 이에, 신호 변환 저장부(140)는 적어도 한 프레임 단위의 3D 입체 영상 신호와 이미지 신호 및 거리 신호를 디지털 데이터로 변환한다. 그리고 RS-232 인터페이스 기기 등의 근거리 통신 모듈을 통해 3D 입체 영상 데이터, 이미지 데이터, 거리 데이터를 적어도 한 프레임 단위로 각각 중앙 처리부(200)에 공급한다. The signal conversion storage unit 140 includes at least one AD conversion device and a short-range communication module such as an RS-232 interface device. Accordingly, the signal conversion storage unit 140 converts the 3D stereoscopic image signal, the image signal, and the distance signal of at least one frame unit into digital data. And supplies the 3D stereoscopic image data, the image data, and the distance data to the central processing unit 200 in units of at least one frame through a short-range communication module such as an RS-232 interface device.

도 2에 도시된 바와 같이, 중앙 처리부(100)는 소화물 탐지부(210), 파지 위치 추출부(220), 파지 위치 설정부(230), 및 파지 제어부(240)를 포함한다. 2, the central processing unit 100 includes a package detection unit 210, a grip position extraction unit 220, a grip position setting unit 230, and a grip control unit 240.

소화물 탐지부(210)는 3D 입체 영상 데이터, 이미지 데이터, 거리 데이터를 적어도 한 프레임 단위로 입력받아 서로 조합하여 실시간 분석함으로써 소화물의 중심점 위치를 분석한다. 이를 위해, 소화물 탐지부(210)는 3D 입체 영상 데이터를 미리 설정된 맵핑 함수에 기반하여 이미지 데이터와 깊이 맵(Depth Map)으로 맵핑한다. The package detection unit 210 analyzes the center point position of the package by receiving the 3D stereoscopic image data, the image data, and the distance data in units of at least one frame and performing real-time analysis by combining them. To this end, the package detection unit 210 maps the 3D stereoscopic image data to image data and a depth map based on a preset mapping function.

도 3은 입체 영상 추출 및 소화물 탐지 과정을 구체적으로 설명하기 위한 이미지 도면이다. 3 is an image diagram for explaining a stereoscopic image extraction and a package detection process in detail.

도 3을 참조하면, 소화물 탐지부(210)는 목표 소화물을 정확하게 탐지하기 위해 목적물의 형상추출용 SURF 알고리즘(Speeded Up Robust Features algorithm) 및 형상 합정용 FLANN 알고리즘(Fast Library for Approximate Nearest Neighbors algorithm)을 순차적으로 적용한다. Referring to FIG. 3, the package detector 210 includes a SURF algorithm (Fast Up Robust Features algorithm) and a Fast Library for Approximate Nearest Neighbors algorithm (FLANN algorithm) to accurately detect target packages Apply sequentially.

구체적으로, 소화물 탐지부(210)는 맵핑 함수에 기반하여 3D 입체 영상 데이터를 이미지 데이터와 깊이 맵(Depth Map)으로 맵핑하되, 맵핑 영상에서 X점과 σ의 Hessian 행렬을 하기의 수학식 1과 같이 정의한다. Specifically, the package detector 210 maps the 3D stereoscopic image data to the image data and the depth map based on the mapping function, and calculates the Hessian matrix of the point X and the σ in the mapping image using Equation 1 and Equation As well.

[수학식 1][Equation 1]

Figure 112016115151623-pat00001
Figure 112016115151623-pat00001

여기서, Lxx, Lyy, Lxy, Lyx는 좌표점 (x,y)의 영상에 대한 다음의 수학식 2와 같은 가우시안 2차 도함수의 콘벌류션들이다. Here, L xx , L yy , L xy , and L yx are constants of the Gaussian second derivatives such as the following Equation 2 for the image of the coordinate point (x, y).

[수학식 2]&Quot; (2) "

Figure 112016115151623-pat00002
Figure 112016115151623-pat00002

도 4는 도 2에 도시된 소화물 탐지부의 소화물 위치 탐지 과정을 구체적으로 설명하기 위한 이미지 도면이다. FIG. 4 is an image diagram for explaining a package position detection process of the package detection unit shown in FIG. 2; FIG.

도 4와 같이, 소화물 탐지부(210)는 상기 수학식 2의 이산 가우시안 도함수 필터와 그 상응한 box 필터의 근사치를 이용하여 (x,y)의 영상에 대한 위치 좌표를 설정하게 된다. As shown in FIG. 4, the package detector 210 sets the position coordinates of the image of (x, y) using the approximate values of the discrete Gaussian derivative filter and the corresponding box filter of Equation (2).

(x,y)의 영상에 대한 위치 좌표를 설정하기 위한 근사 가우시안 편 Hessian 행렬식은 하기의 수학식 3과 같이 정의할 수 있다. The approximate Gaussian Hessian determinant for setting the positional coordinates of the image of (x, y) can be defined as Equation (3) below.

[수학식 3]&Quot; (3) "

Figure 112016115151623-pat00003
Figure 112016115151623-pat00003

여기서, Box 필터의 규모크기는 σ이 1.2 크기를 갖는 가우시안 도함수 default 9×9 크기로 시작하여, 15×15, 21×21, 27×27 등으로 점차 증가시켜 그 규모를 넓힐 수 있다. Here, the scale size of the Box filter starts from the Gaussian derivative having a default size of 9 × 9 having σ of 1.2, and can be gradually increased to 15 × 15, 21 × 21, 27 × 27, and the like.

근사 가우시안 편 Hessian 행렬의 행렬식은 각 규모(Scale)에서 계산되며, 3×3 인접 범위에서 비최대억제(non-maximum suppression)는 최대값을 발견하여 더욱더 선명한 에지를 발견하기 위해 적용된다. 이 경우 SURF 포인트들의 규모 값은 최대값으로 얻어진다. 그리고 얻어진 SURF 포인트의 방향은 HWR(Harr-Wavelet Response)을 사용하여 x,y 방향 모두에서 얻어지며, 지배적인 지향 방향(Dominant Orientation Direction)이 결정된다. 이 방향으로 SURF 포인트에 중심이 된 크기 정상각이 구성된다. 이후에는 두 영상으로부터 얻은 파일 디스크립터들을 비교함으로써, 합정 짝(matching pair)이 얻어지며, 합정을 위해 FLANN 알고리즘이 사용된다. Approximate Gaussian determinants of the Hessian matrix are computed on each scale, and non-maximum suppression in a 3 × 3 contiguous range is applied to find even more sharp edges by finding the maximum value. In this case, the scale value of the SURF points is obtained as a maximum value. Then, the direction of the obtained SURF point is obtained in both the x and y directions using the HWR (Harr-Wavelet Response), and the dominant orientation direction is determined. A magnitude normal angle centered at the SURF point in this direction is constructed. Then, by comparing the file descriptors obtained from the two images, a matching pair is obtained, and the FLANN algorithm is used for matching.

도 5는 도 2에 도시된 파지 위치 추출부의 소화물 파지 위치 추출 과정을 구체적으로 설명하기 위한 이미지 도면이다. 그리고 도 6은 도 2에 도시된 파지 위치 설정부의 소화물 파지 위치 설정 과정을 구체적으로 설명하기 위한 이미지 도면이다. FIG. 5 is an image diagram for explaining the procedure of extracting a parcel position of a parcel by the parcel position extracting unit shown in FIG. 2; And FIG. 6 is an image diagram for explaining the procedure of setting a parcel position of a parcel by the parcel position setting unit shown in FIG.

도 5 및 도 6을 각각 참조하면, 파지 위치 추출부(220)는 소화물의 중심점 위치를 기준으로 소화물의 외관 형상과 크기 및 외관 형상과의 거리 데이터를 산출하여 소화물의 파지 가능한 위치들을 추출한다. 5 and 6, the gripping position extracting unit 220 calculates distance data between the outer shape, the size, and the outer shape of the package based on the position of the center point of the package, and extracts possible positions of the package.

이를 위해, 파지 위치 추출부(220)는 사각 표상(Rectangle Representation) 알고리즘을 이용해 깊이 맵으로 맵핑된 데이터에서 소화물의 중심점 위치를 기준으로 두 개의 포인트를 추출한다. 그리고 소화물의 중심점 위치를 기준으로 소화물의 외관 형상과 크기 및 외관 형상과의 거리 데이터를 산출한다. 여기서, 사각 표상 알고리즘은 직교, 단조 또는 블록 다각형의 최대 직사각형을 구하는 주지된 알고리즘으로서, 본 발명에서는 직사각형을 구하기 위해 우선되는 두개의 포인트를 임의로 추출하기 위해 이용된다. 기본적으로 직사각형을 구하거나 이루기 위해서는 기본적으로 두개의 포인트가 구해져야 하기 때문이다. 구체적으로, 파지 위치 추출부(220)는 맵핑 데이터에서 파지 대상 물체의 중심점 위치를 기준으로 두 개의 포인트를 추출한다. 그리고 파지 대상 물체의 중심점 위치를 기준으로 파지 대상 물체의 외관 형상과 크기 및 외관 형상과의 거리 데이터를 산출한다. 이때, 두 개의 포인트를 기준으로 최대 깊이를 탐색하여 소화물의 외관 형상과 크기 및 외관 형상과의 거리 데이터를 산출함으로써, 소화물의 파지 가능한 위치들을 추출하게 된다. For this, the grip position extracting unit 220 extracts two points based on the position of the center point of the package in the data mapped to the depth map, using a Rectangle Representation algorithm. Then, distance data between the outer shape and size of the package and the outer shape are calculated based on the position of the central point of the package. Here, the rectangular representation algorithm is a well-known algorithm for obtaining a maximum rectangle of an orthogonal, monotone or block polygon, and is used in the present invention to arbitrarily extract two points that are preferred to obtain a rectangle. Basically, two points need to be found basically in order to get or get a rectangle. Specifically, the grip position extracting unit 220 extracts two points based on the center point position of the object to be gripped in the mapping data. Then, the distance data between the outer shape, the size, and the outer shape of the object to be gripped is calculated based on the center point position of the object to be gripped. At this time, the maximum depth is searched based on the two points, and the distance data between the outer shape, the size, and the outer shape of the package is calculated to extract the positions where the package can be gripped.

좀 더 구체적으로 설명하면, 파지 위치 추출부(220)는 먼저 사각 표상 알고리즘을 이용해 각 이미지 데이터로부터 얻어낸 깊이 맵 데이터를 기반으로 두 개의 포인트를 추출한다. 이로써 두 개의 포인트를 기준으로 최대 깊이를 탐색하여 소화물의 외관 형상과 크기 및 외관 형상과의 거리 데이터를 산출할 수 있다. More specifically, the grip position extracting unit 220 first extracts two points based on the depth map data obtained from each image data by using a rectangular representation algorithm. Thus, the maximum depth can be searched based on two points to calculate the distance data between the outer shape, the size, and the outer shape of the package.

이후, 파지 위치 추출부(220)는 깊이 맵 데이터를 기반으로 두 개의 포인트들을 정하고, 두 개의 포인트를 중심점으로 하여 주변부까지 순차적으로 깊이 데이터들을 추출하면서 소화물의 외관과 소화물의 배경을 구분할 수 있다. 여기서, 두 포인트 간의 거리는 피킹 로봇(400)의 그리퍼 그립 범위 내의 거리가 될 수 있다. 따라서, 두 포인트 간의 거리보다 작은 거리의 소화물 외관의 범위는 파지 가능한 위치들이 될 수 있다. Then, the grip position extracting unit 220 determines two points based on the depth map data, and extracts the depth data sequentially from the two points to the peripheral portion, thereby distinguishing the appearance of the package from the background of the package. Here, the distance between the two points may be a distance within the gripper grip range of the picking robot 400. Thus, the range of package appearance at distances less than the distance between two points can be gripping positions.

다음으로, 도 6을 좀 더 구체적으로 참조하면, 파지 위치 설정부(230)의 경우는 소화물의 외관 형상과 크기 및 외관 형상과의 거리 데이터 분석을 통해 파지 가능한 파지 위치들 중 하나의 파지 위치를 설정한다. 6, in the case of the grip position setting unit 230, one of the grip positions that can be grasped through the distance data analysis between the outer shape, the size, and the outer shape of the package Setting.

구체적으로, 파지 위치 설정부(230)는 피킹 로봇(400)의 그리퍼 그립 범위 내의 포인트 거리보다 더 좁은 범위의 외관 포인트들을 랜덤하게 샘플링한다. 그리고 각 샘플링된 포인트들을 매개 변수로 연결하여 그리퍼 그립 범위의 각도와 그리퍼 그립 범위의 폭과 가장 매칭되는 연결 포인트들을 설정한다. 이에, 그리퍼 그립 범위의 각도와 그리퍼 그립 범위의 폭과 가장 매칭되는 연결 포인트들의 연결선과 대응되는 소화물의 외관부위를 파지 위치로 설정한다. Specifically, the grip position setting unit 230 randomly samples the appearance points within a narrower range than the point distance within the gripper grip range of the picking robot 400. [ Then, connect each sampled point as a parameter to set the connection points that best match the width of the gripper grip range and the angle of the gripper grip range. Accordingly, the gripping position is set to the outer surface of the package corresponding to the connecting line of the connecting points, which most closely matches the angle of the gripper grip range and the width of the gripper grip range.

이후, 파지 제어부(240)는 하나의 파지 위치 파지 설정 결과에 따라 피킹 로봇(400)으로 파지 가능하도록 파지 제어 신호를 생성 및 출력함과 아울러 파지한 소화물을 미리 설정된 위치로 이동시킬 수 있도록 이동 제어신호를 더 출력한다. Then, the grip control unit 240 generates and outputs a grip control signal so as to be grasped by the picking robot 400 according to one grip position setting result, And further outputs a signal.

도 7은 본 발명에 따른 소화물 탐지 정확성과 파지 위치 추출 정확성을 실험 결과로 나타낸 도면이다. FIG. 7 is a graph showing the results of the parcel detection accuracy and the grip position extraction accuracy according to the present invention.

도 7에 도시된 바와 같이, 목표 소화물을 미리 설정된 횟수로 인지하고, 인지된 소화물의 파지 위치를 자동 설정하도록 시뮬레이션 및 실험한바, 그 정확도가 기존의 2D 이미지 버젼으로만 수행했을 때보다 더 높아짐을 확인할 수 있다. As shown in FIG. 7, simulation and experiment are performed to recognize the target parcels a predetermined number of times and automatically set the grip position of the recognized parcels, and the accuracy thereof is higher than that of the conventional 2D image version Can be confirmed.

중앙 처리부(200)에는 물류센터에서 이전부터 미리 취급하고 있는 상품을 대상으로 크기, 형상, 포장형태가 다양한 비정형 소화물을 미리 다수 설정한 후, 미리 설정된 비정형 소화물들의 이미지가 저장되도록 할 수 있다. 이에, 중앙 처리부(200)에는 미리 설정된 다수의 이미지와 실제 검출되는 비정형 소화물의 입체 영상 이미지가 실시간 비교되도록 함으로써, 해당 소화물의 파지 위치가 빠르게 검출되도록 할 수 있다. In the central processing unit 200, a plurality of amorphous packages having a variety of sizes, shapes, and packaging types may be set in advance for a product previously handled at a distribution center, and then an image of predetermined amorphous packages may be stored. Thus, the central processing unit 200 can quickly detect the grip position of the package by real-time comparison between a plurality of images previously set and the stereoscopic image of the amorphous package actually detected.

이상 상술한 바와 같이, 본 발명의 실시 예에 따른 비정형 소화물 피킹이 가능한 물류 로봇 제어 시스템은 3D 비젼과 레이저 검출 모듈을 이용하여 비정형 소화물을 자동 인지한다. 그리고 소화물의 파지 위치를 정확히 분석하여, 해당 소화물을 정확하게 파지 및 이동시킬 수 있게 된다. As described above, the control system for a robot that can pick up atypical digits according to an embodiment of the present invention automatically recognizes an irregular package using a 3D vision and a laser detection module. By accurately analyzing the grip position of the package, the package can be grasped and moved accurately.

특히, 다품종 소화물들에 대한 피킹 작업에 범용적으로 적용될 수 있는 피킹 툴 및 소화물 인식 기술을 통해 피킹 로봇의 활용도를 높이고, 인력과 시간 소모를 최소화할 수 있다. 이렇게 피킹 무인화가 가능한 소화물 피킹 로봇 시스템이 개발되면, 물류 피킹 자동화 현장에서 90% 이상의 물류 처리 자동화가 가능할 것이다. Particularly, the picking tool and the package recognition technology, which can be universally applied to the picking operation for the multi-item packages, can enhance the utilization of the picking robot and minimize labor and time consumption. When a picking robot system capable of picking unmanned is developed, it will be possible to automate more than 90% of logistics processing in the field of automation of picking.

아울러, 본 발명에서는 입체 영상 카메라와 이미지 촬영 카메라 및 레이저 센서를 이용하여 피킹 로봇과 해당 소화물 간의 거리를 입체적으로 적확하게 감지하게 된다. 그리고 해당 소화물의 파지 위치까지 자동 분석함으로써, 소화물 피킹 시간은 줄이되 정확도는 높일 수 있게 된다. 이에 따라, 본 발명으로는 물류 처리량 증대, 물류 비용, 피킹 오류율 감소 등 경제적 효과를 더불어 예상할 수 있다. In addition, in the present invention, the distance between the picking robot and the package is accurately sensed in three dimensions using a stereoscopic image camera, an image photographing camera, and a laser sensor. By automatically analyzing the position of the package to the gripping position, it is possible to reduce the picking time but improve the accuracy. Accordingly, the present invention can anticipate economical effects such as an increase in the throughput of the logistics, a cost of the logistics, and a decrease in the peaking error rate.

본 명세서 및 도면에 개시된 다양한 실시 예들은 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 다양한 실시 예들의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 다양한 실시 예들의 범위는 여기에서 설명된 실시 예들 이외에도 본 발명의 다양한 실시 예들의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 다양한 실시 예들의 범위에 포함되는 것으로 해석되어야 한다. The various embodiments disclosed in the present specification and drawings are only specific examples for the purpose of understanding and are not intended to limit the scope of various embodiments of the present invention. Accordingly, the scope of various embodiments of the present invention should not be limited by the above-described embodiments, and all changes or modifications derived from the technical ideas of various embodiments of the present invention are included in the scope of various embodiments of the present invention Should be interpreted.

100: 소화물 검출부
110: 입체 영상 추출부
120: 이미지 촬영부
130: 거리 측정부
140: 신호 변환 저장부
200: 중앙 처리부
210: 소화물 탐지부
220: 파지 위치 추출부
230: 파지 위치 설정부
240: 파지 제어부
100:
110: stereoscopic image extracting unit
120: Image shooting unit
130: distance measuring unit
140: Signal conversion storage section
200: central processing unit
210:
220: a grip position extracting unit
230: grip position setting unit
240:

Claims (9)

입체 영상 데이터와 이미지 데이터 및 거리 측정 데이터를 추출하는 소화물 검출부;
상기 입체 영상 데이터와 이미지 데이터 및 거리 측정 데이터를 분석하여 소화물의 중심점 위치와 상기 소화물의 파지 위치를 탐지하고 탐지 결과에 따라 파지 제어 신호를 출력하는 중앙 처리부; 및
상기 파지 제어 신호에 따라 피킹 로봇이 상기 소화물의 파지 위치를 파지하여 이동시킬 수 있도록 구동하는 로봇 구동 제어부를 포함하며,
상기 중앙 처리부는
상기 소화물의 중심점 위치를 기준으로 상기 피킹 로봇의 그리퍼 그립 범위 내의 거리를 갖는 두 개의 포인트를 추출하고, 상기 입체 영상 데이터와 상기 이미지 데이터 및 상기 거리 측정 데이터를 분석하여 얻어진 깊이 맵 데이터를 이용해 상기 두 개의 포인트를 기준으로 최대 깊이를 탐색하여 상기 소화물 외관 형상과의 거리를 산출하는 파지 위치 추출부; 및
상기 그리퍼 그립 범위 내의 두개의 포인트 거리보다 더 좁은 범위의 외관 포인트들을 상기 깊이 맵 데이터를 기반으로 샘플링하여 상기 샘플링된 포인트들을 연결함으로써, 연결선에 대응되는 소화물의 외관부위를 파지 위치로 설정하는 파지 위치 설정부를 포함하는 비정형 소화물 피킹이 가능한 물류 로봇 제어 시스템.
A parcel detection unit for extracting stereoscopic image data, image data, and distance measurement data;
A central processing unit for analyzing the stereoscopic image data, image data, and distance measurement data to detect a center point position of the parcel and a grip position of the parcel, and output a grip control signal according to the detection result; And
And a robot driving control unit for driving the picking robot to grasp and move the grip position of the package according to the grip control signal,
The central processing unit
Extracting two points having a distance within a gripper grip range of the picking robot based on a position of a center point of the package, analyzing the three-dimensional image data, the image data, and the distance measurement data, A grip position extracting unit for searching a maximum depth based on the points and calculating a distance from the external shape of the package; And
A plurality of outward points in a range narrower than the two point distances in the gripper grip range are sampled based on the depth map data and the sampled points are connected to each other to define a gripping position A control system for a logistics robot capable of picking up atypical digits including a setting unit.
제 1 항에 있어서,
상기 소화물 검출부는
상기 피킹 로봇의 파지 범위 내 영상을 촬영하여 적어도 한 프레임 단위로 3D 입체 영상 신호를 출력하는 입체 영상 추출부;
상기 피킹 로봇의 파지 범위 내 영상을 촬영하여 적어도 한 프레임 단위로 이미지 신호를 출력하는 이미지 촬영부;
상기 피킹 로봇의 파지 범위까지 레이저 신호를 출사시켜 거리 신호를 출력하는 거리 측정부; 및
상기 적어도 한 프레임 단위의 입체 영상 신호와 이미지 신호 및 거리 신호를 디지털 변환하여 상기 입체 영상 데이터, 상기 이미지 데이터, 상기 거리 측정 데이터를 적어도 한 프레임 단위로 각각 출력하는 신호 변환 저장부;
를 포함하는 비정형 소화물 피킹이 가능한 물류 로봇 제어 시스템.
The method according to claim 1,
The package detector
A stereoscopic image extracting unit for picking up an image within a grip range of the picking robot and outputting a 3D stereoscopic image signal in at least one frame unit;
An image photographing unit photographing an image within a holding range of the picking robot and outputting an image signal in at least one frame unit;
A distance measurement unit for emitting a laser signal to a grasping range of the picking robot and outputting a distance signal; And
A signal conversion storage unit for digitally converting the stereoscopic image signal, the image signal, and the distance signal of the at least one frame unit and outputting the stereoscopic image data, the image data, and the distance measurement data at least every one frame;
A robot control system capable of picking up atypical digits including at least one robot;
제 2 항에 있어서,
상기 입체 영상 추출부는
RGV-D 카메라 센서를 포함하는 적어도 하나의 스테레오 카메라를 구비하며, 상기 적어도 하나의 스테레오 카메라는 상기 피킹 로봇의 파지 범위 내 영상을 적어도 한 프레임 단위로 촬영하여, 상기 적어도 한 프레임 단위의 입체 영상 신호가 신호 변환 저장부로 출력되도록 하는 비정형 소화물 피킹이 가능한 물류 로봇 제어 시스템.
3. The method of claim 2,
The stereoscopic image extracting unit
And at least one stereo camera including an RGV-D camera sensor, wherein the at least one stereo camera photographs an image within a holding range of the picking robot in at least one frame unit, And a signal conversion storage unit for outputting the signal to the signal conversion storage unit.
제 2 항에 있어서,
상기 거리 측정부는
적어도 하나의 레이저 센서를 포함하여 구성되며, 상기 적어도 하나의 레이저 센서는 상기 피킹 로봇의 몸체와 상기 피킹 로봇의 파지 범위 내에 이송되는 소화물까지의 거리를 실시간 측정하여 상기 실시간으로 측정된 거리 신호를 매 프레임 단위로 상기 신호 변환 저장부에 공급하는 비정형 소화물 피킹이 가능한 물류 로봇 제어 시스템.
3. The method of claim 2,
The distance measuring unit
Wherein the at least one laser sensor real-time measures the distance from the body of the picking robot to the package to be delivered within the gripping range of the picking robot, And the at least one amorphous packet to be supplied to the signal conversion storage unit in units of frames.
상기 제 3 또는 제 4 항에 있어서,
상기 신호 변환 저장부는
적어도 하나의 AD 변환기기와 RS-232 인터페이스 기기를 포함하며, 상기 신호 변환 저장부는 상기 적어도 한 프레임 단위의 입체 영상 신호와 이미지 신호 및 거리 신호를 디지털 데이터로 변환하고,
상기 RS-232 인터페이스 기기를 통해 3D의 상기 입체 영상 데이터, 상기 이미지 데이터, 상기 거리 측정 데이터를 적어도 한 프레임 단위로 상기 중앙 처리부에 공급하는 비정형 소화물 피킹이 가능한 물류 로봇 제어 시스템.
The method according to claim 3 or 4,
The signal conversion storage unit
Wherein the signal conversion storage unit converts at least one frame of the stereoscopic image signal, the image signal, and the distance signal into digital data,
Wherein the stereoscopic image data, the image data, and the distance measurement data of 3D are supplied to the central processing unit by at least one frame unit through the RS-232 interface device.
제 1 항에 있어서,
상기 중앙 처리부는
상기 입체 영상 데이터, 상기 이미지 데이터, 상기 거리 측정 데이터를 적어도 한 프레임 단위로 입력받아 서로 조합하여 실시간 분석함으로써 상기 소화물의 중심점 위치를 분석하는 소화물 탐지부; 및
상기 파지 위치 설정 결과에 따라 상기 피킹 로봇으로 파지 가능하도록 파지 제어 신호를 생성 및 출력함과 아울러, 상기 파지한 소화물을 미리 설정된 위치로 이동시킬 수 있도록 이동 제어신호를 더 출력하는 파지 제어부;
를 더 포함하는 비정형 소화물 피킹이 가능한 물류 로봇 제어 시스템.
The method according to claim 1,
The central processing unit
A parcel detection unit for analyzing the center point position of the parcel by inputting the stereoscopic image data, the image data, and the distance measurement data in units of at least one frame, And
A grasping control unit for generating and outputting a grasping control signal so as to be grasped by the picking robot according to the grasping position setting result and further outputting a movement control signal for moving the grasped gripper to a preset position;
Wherein the at least one at least one of the at least two at least two of the plurality of at least two of the at least one at least two of the at least one at least two of the at least one robot is selected.
제 6 항에 있어서,
상기 소화물 탐지부는
목표 소화물을 정확하게 탐지하기 위해 목적물의 형상추출용 SURF 알고리즘(Speeded Up Robust Features algorithm) 및 형상 합정용 FLANN 알고리즘(Fast Library for Approximate Nearest Neighbors algorithm)을 순차적으로 적용하며,
맵핑 함수에 기반하여 입체 영상 데이터를 이미지 데이터와 깊이 맵(Depth Map)으로 맵핑하는 비정형 소화물 피킹이 가능한 물류 로봇 제어 시스템.
The method according to claim 6,
The package detection unit
In order to accurately detect the target package, the SURF algorithm (Fast Up Robust Features algorithm) and the FLANN algorithm (Fast Library for Approximate Nearest Neighbors algorithm)
A logistic robot control system capable of atypical picking which maps stereoscopic image data to image data and depth map based on mapping function.
삭제delete 제 7 항에 있어서,
상기 파지 위치 설정부는
상기 외관 포인트들을 랜덤하게 샘플링하고, 상기 각 샘플링된 포인트들을 매개 변수로 연결하여 그리퍼 그립 범위의 각도와 그리퍼 그립 범위의 폭과 가장 매칭되는 연결 포인트들을 설정하며,
상기 그리퍼 그립 범위의 각도와 그리퍼 그립 범위의 폭과 가장 매칭되는 연결 포인트들의 연결선과 대응되는 소화물의 외관부위를 파지 위치로 설정하는 비정형 소화물 피킹이 가능한 물류 로봇 제어 시스템.
8. The method of claim 7,
The grip position setting unit
Randomly sampling the appearance points and connecting the sampled points as parameters to set connection points that best match an angle of the gripper grip range and a width of the gripper grip range,
Wherein a gripping position is set at a gripping position corresponding to an angle of the gripper grip range and a connection line of connection points most matching with a width of the gripper grip range.
KR1020160157407A 2016-11-24 2016-11-24 Gripper robot control system for picking of atypical form package KR101919463B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160157407A KR101919463B1 (en) 2016-11-24 2016-11-24 Gripper robot control system for picking of atypical form package

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160157407A KR101919463B1 (en) 2016-11-24 2016-11-24 Gripper robot control system for picking of atypical form package

Publications (2)

Publication Number Publication Date
KR20180058440A KR20180058440A (en) 2018-06-01
KR101919463B1 true KR101919463B1 (en) 2019-02-08

Family

ID=62634868

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160157407A KR101919463B1 (en) 2016-11-24 2016-11-24 Gripper robot control system for picking of atypical form package

Country Status (1)

Country Link
KR (1) KR101919463B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020231319A1 (en) * 2019-05-15 2020-11-19 Unibap Ab Robot cell setup system and process

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102317041B1 (en) * 2019-12-03 2021-10-26 한국전자기술연구원 Gripping System of object and method thereof
CN111201895A (en) * 2019-12-25 2020-05-29 上海点甜农业专业合作社 Picking robot
KR102316229B1 (en) * 2020-02-12 2021-10-22 (주)아스토 Gripper with electrostatic adhesion and method for picking up atypical objects using thereof
CN111590560A (en) * 2020-04-24 2020-08-28 郭子睿 Method for remotely operating manipulator through camera
KR102431382B1 (en) * 2020-05-12 2022-08-11 한국철도기술연구원 Apparatus and method for controlling object loading
CN111937591B (en) * 2020-08-27 2022-10-11 上海大学 Multi-degree-of-freedom fruit and vegetable picking robot

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010120141A (en) * 2008-11-21 2010-06-03 Ihi Corp Picking device for workpieces loaded in bulk and method for controlling the same
JP4959520B2 (en) 2007-11-26 2012-06-27 三菱電機株式会社 Position and orientation recognition apparatus and method, and component picking system
JP5839929B2 (en) * 2010-11-19 2016-01-06 キヤノン株式会社 Information processing apparatus, information processing system, information processing method, and program
JP6052871B2 (en) 2012-11-30 2016-12-27 国立大学法人横浜国立大学 Object moving apparatus, method, program, and recording medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140081177A (en) 2012-12-21 2014-07-01 주식회사 맥스로텍 The Gantry feeder high-efficiency gripper control system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4959520B2 (en) 2007-11-26 2012-06-27 三菱電機株式会社 Position and orientation recognition apparatus and method, and component picking system
JP2010120141A (en) * 2008-11-21 2010-06-03 Ihi Corp Picking device for workpieces loaded in bulk and method for controlling the same
JP5201411B2 (en) 2008-11-21 2013-06-05 株式会社Ihi Bulk picking device and control method thereof
JP5839929B2 (en) * 2010-11-19 2016-01-06 キヤノン株式会社 Information processing apparatus, information processing system, information processing method, and program
JP6052871B2 (en) 2012-11-30 2016-12-27 国立大学法人横浜国立大学 Object moving apparatus, method, program, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020231319A1 (en) * 2019-05-15 2020-11-19 Unibap Ab Robot cell setup system and process

Also Published As

Publication number Publication date
KR20180058440A (en) 2018-06-01

Similar Documents

Publication Publication Date Title
KR101919463B1 (en) Gripper robot control system for picking of atypical form package
CN111776759B (en) Robotic system with automated package registration mechanism and method of operation thereof
CN109230580B (en) Unstacking robot system and unstacking robot method based on mixed material information acquisition
CN111844019B (en) Method and device for determining grabbing position of machine, electronic device and storage medium
JP7349094B2 (en) Robot system with piece loss management mechanism
JP6140204B2 (en) Transport robot system with 3D sensor
US11396101B2 (en) Operating system, control device, and computer program product
CN110580725A (en) Box sorting method and system based on RGB-D camera
US9576363B2 (en) Object picking system, object detecting device, object detecting method
CN113351522B (en) Article sorting method, device and system
US11288814B2 (en) System and method of object detection based on image data
JP2023024980A (en) Robot system comprising sizing mechanism for image base and method for controlling robot system
JP2016078180A (en) Abnormality cause estimating device, picking device, and abnormality cause estimating method for picking device
CN113269112A (en) Method and device for identifying capture area, electronic equipment and storage medium
JP2017170567A (en) Workpiece recognition method and random picking method
EP4207068A1 (en) Target object detection method and apparatus, and electronic device, storage medium and program
EP4245480A1 (en) Measuring system, measuring device, measuring method, and measuring program
CN113284129A (en) Box pressing detection method and device based on 3D bounding box
JP5332873B2 (en) Bag-like workpiece recognition device and method
JP7218881B1 (en) ROBOT SYSTEM WITH OBJECT UPDATE MECHANISM AND METHOD FOR OPERATING ROBOT SYSTEM
US20230286165A1 (en) Systems and methods for robotic system with object handling
CN116197888B (en) Method and device for determining position of article, electronic equipment and storage medium
US20230010196A1 (en) Picking system
CN116197886A (en) Image data processing method, device, electronic equipment and storage medium
CN115258510A (en) Robot system with object update mechanism and method for operating the robot system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant