KR102043898B1 - 물류 센터의 피킹 자동화 시스템 및 이를 이용한 피킹 자동화 방법 - Google Patents

물류 센터의 피킹 자동화 시스템 및 이를 이용한 피킹 자동화 방법 Download PDF

Info

Publication number
KR102043898B1
KR102043898B1 KR1020180035407A KR20180035407A KR102043898B1 KR 102043898 B1 KR102043898 B1 KR 102043898B1 KR 1020180035407 A KR1020180035407 A KR 1020180035407A KR 20180035407 A KR20180035407 A KR 20180035407A KR 102043898 B1 KR102043898 B1 KR 102043898B1
Authority
KR
South Korea
Prior art keywords
learning
contact point
information
picking
image
Prior art date
Application number
KR1020180035407A
Other languages
English (en)
Other versions
KR20190113140A (ko
Inventor
김영주
이상덕
박재현
이석
Original Assignee
한국철도기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국철도기술연구원 filed Critical 한국철도기술연구원
Priority to KR1020180035407A priority Critical patent/KR102043898B1/ko
Publication of KR20190113140A publication Critical patent/KR20190113140A/ko
Application granted granted Critical
Publication of KR102043898B1 publication Critical patent/KR102043898B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G43/00Control devices, e.g. for safety, warning or fault-correcting
    • B65G43/08Control devices operated by article or material being fed, conveyed or discharged
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • B65G47/91Devices for picking-up and depositing articles or materials incorporating pneumatic, e.g. suction, grippers
    • B65G47/917Devices for picking-up and depositing articles or materials incorporating pneumatic, e.g. suction, grippers control arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06T3/0031
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2201/00Indexing codes relating to handling devices, e.g. conveyors, characterised by the type of product or load being conveyed or handled
    • B65G2201/02Articles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/02Control or detection
    • B65G2203/0208Control or detection relating to the transported articles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/04Detection means
    • B65G2203/041Camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Mechanical Engineering (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

물류 센터의 피킹 자동화 시스템 및 이를 이용한 피킹 자동화 방법에서, 상기 피킹 자동화 시스템은 학습부, 영상 입력부 및 연산부를 포함한다. 상기 학습부는 인공 신경망을 이용하여, 물체 영역 검출, 물체 접촉점 정보 및 물체 분류에 대한 학습을 수행한다. 상기 영상 입력부는 피킹(picking) 대상이 되는 물체에 대한 2차원 및 3차원 이미지를 획득한다. 상기 연산부는 상기 수행된 학습 내용을 바탕으로 상기 획득된 이미지를 이용하여 피킹 대상이 되는 상기 물체의 영역, 상기 물체의 접촉점의 위치, 및 피킹시 상기 물체에 대한 접근 방향 중 적어도 하나에 대한 정보를 연산한다.

Description

물류 센터의 피킹 자동화 시스템 및 이를 이용한 피킹 자동화 방법{AUTO PICKING SYSTEM AND METHOD FOR AUTOMATICALLY PICKING USING THE SAME}
본 발명은 피킹 자동화 시스템 및 이를 이용한 피킹 자동화 방법에 관한 것으로, 더욱 상세하게는 물류 센터에서 다양한 물체를 피킹(picking)하는 공정을 자동화하기 위해 카메라를 이용하여 획득된 이미지 정보를 바탕으로 물체를 인식하고 인식된 물체를 피킹할 수 있는 물류 센터의 피킹 자동화 시스템 및 이를 이용한 피킹 자동화 방법에 관한 것이다.
물류 센터에서 수행되는 작업은 크게, 이송, 피킹 및 분배 공정으로 구분할 수 있는데, 이 중 피킹(picking) 공정은 가장 시간이 많이 필요한 공정으로, 이러한 피킹 공정을 자동화하기 위한 다양한 기술들이 개발되어 왔다.
이러한 피킹 공정의 자동화에서는, 물체 인식 기술이 기본적으로 필요한데, 종래의 물체 인식 기술에서는, 도 1에 도시된 바와 같은 특징 정합(feature matching)에 기반 하는 것이 일반적이었다. 즉, 특징 정합 기반의 물체 인식에서는, 촬영된 이미지로부터 추출된 물체의 특징을 데이터베이스에 존재하는 여러 물체들의 특징과 비교하여 오차를 계산하고, 계산된 오차를 바탕으로 물체의 종류를 파악하는 것을 특징으로 한다.
그러나 이러한 특징 정합 기반의 물체 인식에서는, 인식하고자 하는 물체의 특징에 대한 방대한 양의 데이터베이스가 필요하며, 새롭게 인식되어야 하는 추가 물체에 대응하는 것이 어려운 문제가 있다.
그리하여, 제품의 종류가 제한적인 생산 공정 등에서의 적용은 가능하나, 물류센터와 같이 취급하여야 하는 물품의 종류가 다양한 경우에는 적용이 어려운 한계가 있다.
나아가, 물류센터에서의 피킹 공정을 위해서는 이러한 물체 인식 외에, 물체의 파지를 위한 접촉점에 대한 정보도 획득하여야 하지만, 촬영된 이미지와 데이터베이스들 사이에서 이러한 접촉점에 대한 정보를 획득하기 위해서는 충분한 데이터베이스를 구축하여야 하며 접촉점 도출을 위한 방대한 양의 연산이 수행되어야 하는 문제가 있다.
대한민국 등록특허 제10-1197125호
이에, 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 인공지능을 기반으로 접촉점과 접근 방향을 연산함으로써 복잡한 연산과정을 단순화하면서도 정확한 피킹을 수행할 수 있어 피킹 공정의 속도를 향상시킬 수 있는 물류 센터의 피킹 자동화 시스템에 관한 것이다.
본 발명의 다른 목적은 상기 피킹 자동화 시스템을 이용한 피킹 자동화 방법에 관한 것이다.
상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 피킹 자동화 시스템은 학습부, 영상 입력부 및 연산부를 포함한다. 상기 학습부는 인공 신경망을 이용하여, 물체 영역 검출, 물체 접촉점 정보 및 물체 분류에 대한 학습을 수행한다. 상기 영상 입력부는 피킹(picking) 대상이 되는 물체에 대한 2차원 및 3차원 이미지를 획득한다. 상기 연산부는 상기 수행된 학습 내용을 바탕으로 상기 획득된 이미지를 이용하여 피킹 대상이 되는 상기 물체의 영역, 상기 물체의 접촉점의 위치, 및 피킹시 상기 물체에 대한 접근 방향 중 적어도 하나에 대한 정보를 획득한다.
일 실시예에서, 상기 학습부는, 2차원 이미지를 이용하여 상기 학습을 수행할 수 있다.
일 실시예에서, 상기 학습부는, 상기 물체 영역 검출, 물체 접촉점 정보 및 물체 분류에 대하여 순차적으로 학습하거나, 일률적으로 한 번에 학습할 수 있다.
일 실시예에서, 상기 연산부는, 상기 영상 입력부에서 획득한 3차원 이미지를 상기 학습부가 학습한 2차원 이미지에 투영하는 이미지 투영부, 및 상기 학습부에서 학습된 물체 접촉점 정보를 바탕으로, 상기 투영된 3차원 이미지에서 접촉점을 계산하는 접촉점 계산부를 포함할 수 있다.
일 실시예에서, 상기 연산부는, 상기 계산된 접촉점 주위의 일정 영역에서의 점군집 데이터를 기반으로 접촉면을 산출하고, 상기 접촉면과 수직한 법선 벡터를 계산하는 접근 방향 계산부를 더 포함할 수 있다.
일 실시예에서, 상기 연산부는, 상기 계산된 접촉점을 바탕으로, 기 설정된 접근 방향에 관한 정보를 바탕으로 접근 방향에 대한 정보를 제공하는 접근 방향 계산부를 더 포함할 수 있다.
상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 피킹 자동화 방법에서, 인공 신경망을 이용하여, 물체 영역 검출, 물체 접촉점 정보 및 물체 분류에 대한 학습을 수행한다. 피킹(picking) 대상이 되는 물체에 대한 2차원 및 3차원 이미지를 획득한다. 상기 수행된 학습 내용을 바탕으로 상기 획득된 이미지를 이용하여 피킹 대상이 되는 상기 물체의 접촉점의 위치를 연산한다. 상기 물체의 피킹시 상기 물체에 대한 접근 방향에 대한 정보를 연산하거나 기 설정된 접근 방향에 대한 정보를 적용한다. 상기 연산된 상기 접촉점 및 상기 접근 방향을 바탕으로 상기 물체를 파지한다.
일 실시예에서, 상기 학습을 수행하는 단계는, 학습의 대상이 되는 물체 대한 2차원 이미지를 획득하는 단계, 상기 2차원 이미지로부터 상기 물체의 영역을 검출하는 것을 학습하는 단계, 상기 물체에서 피킹이 수행되는 접촉점을 연산하는 것을 학습하는 단계, 및 분류기(classifier)를 이용하여 상기 물체를 분류하는 것을 학습하는 단계를 포함할 수 있다.
일 실시예에서, 상기 학습을 수행하는 단계는, 상기 물체의 영역을 검출하는 학습 단계, 상기 접촉점을 연산하는 학습 단계, 및 상기 물체를 분류하는 학습 단계를 별도의 인공 신경망으로 학습시키며, 새로운 제품이 추가되면, 선택에 따라 추가된 제품에 대한 접촉점을 연산하는 학습 단계만 추가로 학습할 수 있다.
일 실시예에서, 상기 학습을 수행하는 단계는, 상기 물체의 영역을 검출하는 학습 단계, 상기 접촉점을 연산하는 학습 단계, 및 상기 물체를 분류하는 학습 단계를 하나의 인공 신경망으로 학습시킬 수 있다.
일 실시예에서, 상기 물체의 접촉점의 위치를 연산하는 단계는, 상기 획득된 3차원 이미지를 상기 학습을 수행하는 단계에서 사용되는 2차원 이미지에 투영하는 단계, 및 상기 학습부에서 학습된 물체 접촉점 정보를 바탕으로, 상기 투영된 3차원 이미지에서 접촉점을 계산하는 단계를 포함할 수 있다.
일 실시예에서, 상기 접촉점을 계산하는 단계에서, 영상 입력부에서 상기 물체에 대하여 획득된 3차원 이미지의 깊이 정보, 및 상기 영상 입력부의 위치정보를 바탕으로 상기 접촉점의 3차원 위치를 계산할 수 있다.
일 실시예에서, 상기 물체의 접근 방향에 대한 정보는, 상기 계산된 물체의 접촉점 주위의 일정 영역에서 점군집 데이터를 기반으로 접촉면을 산출하는 단계, 상기 접촉면과 수직한 법선 벡터를 계산하는 단계, 및 상기 법선 벡터를 상기 접근 방향으로 선정하는 단계를 통해 연산될 수 있다.
본 발명의 실시예들에 의하면, 인공 신경망을 이용한 학습을 바탕으로, 실제 피킹 대상이 되는 물체의 접촉점 위치 및 접근 방향에 대한 정보를 연산할 수 있으므로, 종래 접촉점 위치 및 접근 방향에 대한 정보를 획득하기 위한 방대한 량의 연산을 수행하지 않을 수 있어, 피킹 속도를 보다 향상시킬 수 있다.
특히, 학습부에서는 2차원 이미지를 이용하여 학습을 수행하되, 물체 영역 검출, 물체 접촉점 정보 및 물체 분류에 대한 학습을 수행함으로써, 3차원 이미지를 통한 학습보다 용이한 학습이 수행되며, 실제 피킹을 위해 필요한 공정 각각에 대한 학습을 수행할 수 있어 피킹에서의 적용성이 우수하다.
한편, 2차원 이미지를 이용한 학습의 결과를 적용하기 위해, 실제 물체에 대한 3차원 정보는 2차원 이미지로 투영되어야 하지만, 3차원 정보에 이미 해당 물체에 대한 깊이 정보가 포함되고 있으므로, 2차원 이미지에 대한 학습으로도 필요한 연산을 충분히 수행할 수 있다.
나아가, 접근 방향에 대한 정보 획득을 위해, 접촉점을 연산한 이후, 접촉점 주위에서만 점군집 데이터를 기반으로 접촉면을 산출하면 충분하므로, 종래 계측된 물체의 모든 형상에 대하여 점군집 데이터를 기반으로 접촉점 및 접근 방향에 대한 정보를 획득하는 것과 대비하여 연산 시간을 줄일 수 있어 피킹 공정을 신속히 수행할 수 있다.
도 1은 종래기술에 의한 특징 정합 기반의 물체 인식의 예를 도시한 이미지이다.
도 2는 본 발명의 일 실시예에 의한 물류 센터의 피킹 자동화 시스템을 도시한 블록도이다.
도 3은 도 2의 피킹 자동화 시스템을 이용한 피킹 자동화 방법을 도시한 흐름도이다.
도 4는 도 3의 학습부의 학습 단계를 도시한 흐름도이다.
도 5는 도 4의 학습 단계의 일 예를 도시한 이미지이다.
도 6은 도 4의 학습 단계의 다른 예를 도시한 이미지이다.
도 7은 도 3의 접촉점 연산 단계를 도시한 흐름도이다.
도 8a 및 도 8b는 도 7의 접촉점 연산 단계의 예를 도시한 이미지들이다.
도 9는 도 3의 접근 방향 연산 단계를 도시한 흐름도이다.
도 10은 도 9의 접근 방향 연산 단계의 예를 도시한 이미지이다.
도 11은 도 3의 그리퍼의 파지 단계의 예를 도시한 이미지이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 실시예들을 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다.
상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함하다" 또는 "이루어진다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다.
도 2는 본 발명의 일 실시예에 의한 물류 센터의 피킹 자동화 시스템을 도시한 블록도이다.
도 2를 참조하면, 본 실시예에 의한 피킹 자동화 시스템(10)은 학습부(100), 영상 입력부(200) 및 연산부(300)를 포함한다.
상기 학습부(100)는 인공 신경망을 이용하여 학습을 수행하되, 수행되는 학습은, 물체 영역 검출 학습(101), 물체 접촉점 정보 학습(102) 및 물체 분류 학습(103)을 포함한다.
상기 학습부(100)에서의 학습이란, 후술되는 연산부(300)에서의 연산을 수행하기 위한 전제로서, 물체의 인식을 용이하게 수행할 수 있는 인공지능 학습을 의미하며, 학습 데이터를 바탕으로 학습을 수행하게 된다.
상기 학습 데이터는, 본 학습이 물체의 피킹을 용이하게 수행하기 위한 학습이므로, 피킹의 대상이 되는, 즉 물류센터에서 취급되는 다양한 상품들의 이미지에 대한 촬영 정보이다.
이 경우, 상기 이미지는 2차원 이미지로서, 상기 이미지에는 다양한 상품들의 종류별, 접촉점의 위치에 대한 정보가 포함되어야 한다.
이러한 인공지능 기법의 예로서는, CNN(Convolution Neural Network)을 이용할 수 있으며, 종래 CNN을 이용하여 이미지 내에서 대상체(object)들의 위치나 대상체들을 분류하는 기법들은 다수 개발된 상태이고, 이에 따라 본 실시예에서의 상기 학습부(100)는 이러한 CNN을 이용하여 학습을 수행하게 된다.
보다 구체적인 상기 학습부(100)의 학습 단계에 대하여는 후술한다.
상기 영상 입력부(200)는 물류센터에서 피킹(picking)의 대상이 되는 물체에 대한 2차원 및 3차원 이미지를 획득한다. 상기 영상 입력부(200)는 카메라(201) 및 거리센서(202)를 포함하여, 상기 카메라(201)를 통해 상기 2차원 및 3차원 이미지를 획득할 수 있으며, 이와 동시에 상기 거리센서(202)를 통해 상기 물체까지의 거리 또는 깊이 정보를 획득하게 된다.
한편, 실제 물류센터에서는 상기 피킹의 대상이 되는 물체는 다른 물체들과 섞인 상태로 위치하게 되므로, 상기 영상 입력부(200)를 통해 획득되는 이미지는 다양한 물체들이 포함된 이미지일 수 있다.
따라서, 상기 연산부(300)에서는 상기 획득된 이미지로부터 피킹의 대상이 되는 물체를 식별하고 해당 물체를 피킹하기 위한 정보를 연산하게 된다.
이 경우, 상기 피킹 대상 물체를 피킹하기 위한 정보는, 물체를 식별 및 특정하여 피킹하기 위해 필요한 정보로서, 피킹 대상 물체의 영역, 피킹 대상 물체의 접촉점의 위치, 피킹 대상 물체의 피킹을 위한 접근 방향 등을 포함한다.
즉, 상기 연산부(300)는 상기와 같은 피킹 대상 물체를 피킹하기 위한 정보로서, 물체의 영역, 물체의 접촉점의 위치 및 물체에 대한 접근 방향에 대한 정보를 획득하며, 이러한 획득에서 상기 학습부(100)에서의 학습 결과를 이용하게 된다.
이와 달리, 상기 연산부(300)는 상기 물체의 영역, 상기 물체의 접촉점의 위치, 및 피킹시 상기 물체에 대한 접근 방향 중 적어도 하나에 대한 정보를 연산할 수 있으며, 다른 정보는 기 설정되거나 기 연산된 결과를 사용할 수도 있다.
즉, 상기 연산부(300)에서는 상기 물체에 대한 접근 방향에 대한 정보를 직접 연산하지는 않고, 상기 물체의 접촉점의 위치에 대한 정보가 연산되면, 상기 연산된 접촉점에 대한 정보를 바탕으로 기 설정된 접근 방향에 대한 정보를 바탕으로 상기 물체에 대한 접근 방향에 대한 정보를 제공할 수도 있다.
이를 위해, 도시하지는 않았으나, 별도의 데이터베이스에, 물체의 접촉점의 위치에 따라 해당 접촉점으로의 최적 접근 방향에 대한 정보가 기 저장될 수 있으며, 이에 따라, 접촉점에 대한 정보가 연산되면 상기 데이터베이스로부터 최적 접근 방향에 대한 정보를 적용할 수도 있다.
다만, 이하에서는 상기 연산부(300)가 상기 물체에 대한 접근 방향에 대한 정보를 연산하는 것에 대하여 상세히 설명한다.
보다 구체적으로, 상기 연산부(300)는 이미지 투영부(301), 접촉점 계산부(302) 및 접근 방향 계산부(303)를 포함한다.
그리하여, 상기 이미지 투영부(301)에서는, 상기 영상 입력부(200)에서 획득된 3차원 이미지를, 상기 학습부(100)가 학습한 2차원 이미지에 투영한다. 이 경우, 상기 영상 입력부(200)에서 2차원 이미지도 동시에 획득하므로, 2차원 이미지가 획득되는 경우라면 상기 학습부(100)가 학습한 2차원 이미지에 투영은 필요 없으며 대응시키는 것으로 충분할 수 있다.
상기 학습부(100)에서는 학습의 용이성을 위해 2차원 이미지로 학습을 수행하였는바, 상기 이미지 투영부(301)에서는 3차원 이미지를 2차원 이미지로 투영하는 것이 필요하다.
상기 접촉점 계산부(302)는 상기 학습부(200)에서 학습된 물체 접촉점 정보를 바탕으로, 상기 투영된 3차원 이미지에서 접촉점을 계산한다. 이 경우, 상기 학습부(200)는 이미 특정 물체의 접촉점에 대한 정보를 학습한 상태이므로, 투영된 3차원 이미지로부터 피킹 대상이 되는 물체가 식별 또는 특정되면, 해당 물체에 최적의 접촉점이 어디인지를 즉각적으로 연산하여 도출할 수 있다.
따라서, 종래에서와 같이, 방대한 량의 데이터 처리를 생략할 수 있으며, 접촉점에 대한 정보를 즉각적으로 추출할 수 있다.
상기 접근 방향 계산부(303)는 상기 추출된 접촉점에 대한 정보를 바탕으로 접촉면을 산출하여 법선 벡터를 계산한다.
즉, 상기 접근 방향 계산부(303)는 상기 접촉점 계산부(302)에서 계산된 접촉점에 대한 정보를 바탕으로 상기 접촉점 주위의 일정 영역에서의 점군집 데이터를 추출한다. 이후, 상기 접촉점 주위의 점군집 데이터를 기반으로 접촉면을 산출하고, 상기 접촉면과 수직한 법선 벡터를 계산한다.
비록 상기 접근 방향 계산부(303)에서는 점군집 데이터를 바탕으로 접촉면을 산출하는 연산을 수행하여야 하지만, 접촉점 주위의 일정 영역에서의 점군집 데이터만을 고려하면 충분한 것으로, 종래의 물체 전체의 형상이나 위치를 추출하기 위한 점군집 데이터를 연산과 비교하면 연산량은 상대적으로 매우 적다고 할 수 있다.
이상과 같이, 상기 접근 방향 계산부(303)에서 법선 벡터를 계산하면, 그리퍼는 상기 계산된 법선 벡터의 반대방향으로 접근하여 물체를 파지하여 피킹을 수행하게 된다.
한편, 앞서 설명한 바와 같이, 상기 접근 방향 계산부(303)에서는, 별도의 연산을 수행하지 않고, 상기 데이터베이스를 통해 연산된 접촉점에 대한 정보로부터 기 설정된 최적의 접근 방향에 대한 정보를 제공할 수도 있다.
이하에서는, 상기 피킹 자동화 시스템(10)을 이용한 피킹 자동화 방법에 대하여 보다 상세하게 설명한다.
도 3은 도 2의 피킹 자동화 시스템을 이용한 피킹 자동화 방법을 도시한 흐름도이다. 도 4는 도 3의 학습부의 학습 단계를 도시한 흐름도이다. 도 5는 도 4의 학습 단계의 일 예를 도시한 이미지이다. 도 6은 도 4의 학습 단계의 다른 예를 도시한 이미지이다. 도 7은 도 3의 접촉점 연산 단계를 도시한 흐름도이다. 도 8a 및 도 8b는 도 7의 접촉점 연산 단계의 예를 도시한 이미지들이다. 도 9는 도 3의 접근 방향 연산 단계를 도시한 흐름도이다. 도 10은 도 9의 접근 방향 연산 단계의 예를 도시한 이미지이다. 도 11은 도 3의 그리퍼의 파지 단계의 예를 도시한 이미지이다.
도 3 및 도 4를 참조하면, 본 실시예에 의한 피킹 자동화 방법에서는, 우선, 상기 학습부(100)에서 학습을 수행한다(단계 S10). 이 경우, 수행되는 학습은 앞서 설명한 바와 같이, 인공 신경망을 이용하여 물체 영역을 검출하는 학습, 물체 접촉점 정보를 획득하는 학습, 물체 분류에 대한 학습일 수 있다.
보다 구체적으로, 도 4 및 도 5를 참조하면, 상기 학습 수행 단계에서는(단계 S10), 우선, 학습의 대상이 되는 물체에 대한 2차원 이미지를 획득한다(단계 S11).
여기서, 학습의 대상되는 물체(20)는 실제 물류센터에서 피킹의 대상이 될 수 있는 물체인 것이 바람직하며, 다양한 종류의 물체들에 대한 학습을 각각 수행하는 것이 필요하다.
또한, 상기 물체(20)에 대하여 획득되는 2차원 이미지는, 반드시 본 실시예에서의 상기 영상 입력부(200)를 통해 획득되는 2차원 이미지가 아니어도 무방하며 별도의 영상 획득부(미도시)를 통해 획득되는 2차원 이미지일 수 있고, 나아가 학습을 위해 별도로 촬영되어 저장된 데이터 베이스에 포함된 2차원 이미지일 수 있다.
이 후, 도 4 및 도 5를 참조하면, 상기 학습부(100)에서는, 상기 2차원 이미지로부터 상기 물체(20)의 영역을 검출하는 것을 학습한다(단계 S12).
즉, 상기 학습부(100)에서는 'object network', 즉, 존재하는 물체(object)에서 해당 물체의 영역을 검출하는 것에 대한 내용을 학습한다. 이는 도 5에 도시된 바와 같이, 2차원 이미지 상의 물체(20)에 대한 정보로부터 해당 물체(20)의 영역(30)을 검출하는 방법에 대한 내용을 학습하는 것을 의미한다.
이러한 'object network'에 대한 학습을 통해, 상기 학습부(100)는 특정 물체가 포함된 2차원 이미지가 입력되면 해당 이미지로부터 특정 물체가 차지하는 영역을 검출할 수 있게 된다.
이 후, 도 4 및 도 5를 참조하면, 상기 학습부(100)에서는, 상기 물체(20)에서 피킹이 수행되는 접촉점을 연산하는 것을 학습한다(단계 S13).
즉, 상기 학습부(100)에서는 '접촉점 network', 즉, 특정 물체에 대하여 해당 물체를 피킹하기 위한 접촉점을 추출하는 것에 대한 내용을 학습한다. 이는 도 5에 도시된 바와 같이, 피킹의 대상이 되는 물체(20)의 영역(30)이 검출된 경우 해당 물체(20)의 피킹시 접촉점(40)을 추출하는 방법에 대한 내용을 학습하는 것을 의미한다.
이러한 '접촉점 network'에 대한 학습을 통해, 상기 학습부(100)는 특정 물체가 차지하는 영역이 검출되면, 해당 영역의 물체에 대하여 피킹시 접촉점을 검출할 수 있게 된다.
이 후, 도 4 및 도 5를 참조하면, 상기 학습부(100)에서는, 분류기(classifier)를 이용하여 상기 물체(20)를 분류하는 것을 학습한다.
즉, 상기 학습부(100)에서는 상기 물체(20)에 대한 인식을 바탕으로, 물체의 종류, 형태, 크기 등의 외형으로부터 물체를 종류별, 형태별, 크기별 등으로 분류하는 방법에 대하여 학습하게 되며, 이러한 학습을 통해 상기 학습부(100)는 물체의 분류법을 터득하게 된다.
한편, 도 5를 참조하여 설명한 상기 학습방법에서는, 각각의 학습단계, 즉 'object network'학습, '접촉점 network'학습, 및 '분류 학습'을 별도의 네트워크를 통해 학습시키는 것을 특징으로 한다.
따라서, 상기 학습부(100)는 새로운 제품(물체)에 대한 학습시, 상기 각각의 학습단계들을 모두 학습하지 않고, 여타의 학습이 불필요하다면 선택에 따라'접촉점 network'학습만을 수행시킬 수 있다. 이에 따라, 상기 학습부(100)의 학습의 결과는 선택에 따라 보다 용이하게 업데이트될 수 있어, 학습 시간을 절감시킬 수 있다.
이와 달리, 도 6에 도시된 바와 같이, 상기 학습단계들, 즉 'object network'학습, '접촉점 network'학습, 및 '분류 학습'을 하나의 학습단계로 묶어 학습을 수행시킬 수 있다.
상기 학습부(100)의 학습의 단계에 대하여 도 4에서는 'object network'학습, '접촉점 network'학습, 및 '분류 학습'을 구분하여 각각 수행되는 것을 설명하였으나, 상기 각각의 학습단계들은 하나의 학습단계로서 수행될 수 있다.
즉, 도 6을 참조하면, 2차원 이미지가 획득된 이후(단계 S11), 상기 2차원 이미지에 포함된 물체(20)의 영역(30)을 검출하고, 상기 검출된 영역(30)에서 상기 물체(20)의 접촉점(40)을 연산하며, 상기 물체(20)를 종류, 형상, 크기 등을 기준으로 분류하는 것을 일련의 과정으로서 하나의 학습 네트워크를 통해 학습시킬 수 있고, 이에 따라 상기 학습부(100)는 상기 일련의 과정을 하나의 학습 네트워크로 학습받을 수 있다.
이와 같은 학습 방법에서는, 새로운 제품에 대하여 학습 데이터를 갱신하기 위해서는 새로운 제품(물체)에 대한 2차원 이미지, 물체(20)의 영역(30), 접촉점(40) 및 분류에 대한 정보를 모두 이용하여 학습을 시키는 것이 필요하게 된다.
이상과 같이, 상기 학습부(100)에서는, 인공 신경망을 이용하여 학습을 수행하게 되며, 다양한 종류의 물체나 제품에 대하여, 물체의 영역을 검출하는 방법, 피킹이 수행되는 접촉점을 연산하는 방법 및 물체를 분류하는 방법에 대한 학습 내용을 축적하게 된다.
이와 같은, 학습부(100)에서의 학습 단계가 종료되면, 도 3을 참조하면, 상기 영상 입력부(200)를 통해 물류센터에서 피킹의 대상이 되는 물체에 대한 2차원 및 3차원 이미지를 획득한다(단계 S20).
이 경우, 상기 2차원 및 3차원 이미지는 카메라(201) 등의 영상 촬영 장치를 통해 획득될 수 있으며, 이미지에 대한 정보 외에, 거리 센서(202) 등을 통해 상기 영상 입력부(200)로부터 피킹의 대상이 되는 물체에 대한 거리 또는 깊이 정보도 동시에 획득한다.
한편, 상기 영상 입력부(200)를 통해 획득된 2차원 이미지는, 앞서 설명한 바와 같이, 상기 학습부(100)에서의 학습용 이미지로 활용될 수도 있다.
이 후, 도 3 및 도 7을 참조하면, 상기 연산부(300)는 접촉점을 연산한다(단계 S20). 즉, 상기 연산부(300)에서는, 상기 영상 입력부(200)에서 획득된 이미지로부터 피킹의 대상이되는 물체의 접촉점의 위치를 연산하는데, 이러한 연산에서 상기 학습부(100)를 통해 수행된 학습 내용을 적용하게 된다.
이를 위해, 상기 학습부(100)에서의 학습 정보 및 학습 결과는 상기 연산부(300)로 제공되어 상기 연산부(300)가 연산에 그대로 활용할 수 있으며, 이와 달리, 상기 학습부(100)는 상기 연산부(300)와 일체로서 상기 학습부(100)의 학습 정보 및 학습 결과는 상기 연산부(300)에 의해 그대로 활용될 수도 있다.
보다 구체적으로, 상기 접촉점의 연산 단계(단계 S20)에서는, 도 7 및 도 8a를 참조하면, 상기 연산부(300)의 이미지 투영부(301)에서는, 상기 영상 입력부(200)를 통해 획득된 3차원 이미지를 상기 학습을 수행하는 단계에서 사용되는 2차원 이미지에 투영한다(단계 S31).
상기 학습부(100)에서 수행된 학습에서는, 이미 설명한 바와 같이, 2차원 이미지를 바탕으로 각각의 학습단계를 수행하였으므로, 상기 학습부(100)에서의 학습 결과를 그대로 적용하기 위해서는 상기 영상 입력부(200)를 통해 획득된 3차원 이미지는 우선 2차원 이미지로 투영되도록 변형되어야 한다.
이 경우, 상기 영상 입력부(200)를 통해 획득되는 이미지가 2차원 이미지라면 별도의 이미지 투영 단계는 생략될 수 있다.
이 후, 도 7, 도 8a 및 도8b를 참조하면, 상기 연산부(300)의 접촉점 계산부(302)에서는, 상기 학습부(200)에서 학습된 물체 접촉점 정보를 바탕으로, 상기 투영된 3차원 이미지에서 접촉점을 계산한다(단계 S32).
즉, 상기 접촉점 계산부(302)는 학습의 결과를 그대로 적용하여, 상기 투영된 2차원 이미지(도 8a 참조)로부터 피킹 대상이 되는 물체의 영역(30)을 검출하고, 검출된 물체의 영역(30)에서 접촉점(40)을 추출 또는 계산한다.
나아가, 상기 접촉점 계산부(302)에서는 상기 학습의 결과를 그대로 적용하여, 도 8b에 도시된 바와 같이, 상기 물체를 그 종류, 형상, 크기 등의 기준으로 분류할 수도 있다.
한편, 상기 접촉점 계산부(302)에서는 2차원 이미지로 투영된 상태에서 접촉점을 계산한 상태이므로, 이를 3차원 이미지에서의 접촉점의 위치로 변환할 필요가 있다.
따라서, 상기 접촉점 계산부(302)에서는, 상기 영상 입력부(200)의 거리센서(202) 등을 통해 입력된 피킹 대상이 되는 물체까지의 깊이 또는 거리 정보를, 상기 2차원 이미지로 투영된 상태에서의 접촉점 위치 정보에 추가하여, 상기 피킹 대상이 되는 물체의 3차원 이미지에서의 접촉점의 위치, 즉 실제 피킹 대상이 되는 물체의 접촉점의 공간 좌표 상의 위치를 계산한다.
이와 같이, 상기 접촉점 계산부(302)를 통해 피킹 대상 물체의 3차원 공간 상의 접촉점의 위치 정보가 획득되면, 도 3 및 도 9를 참조하면, 상기 연산부(300)의 접근방향 계산부(303)에서는 상기 피킹 대상이 되는 물체로의 접근 방향을 연산한다(단계 S40).
보다 구체적으로, 도 9 및 도 10을 참조하면, 상기 접근방향의 연산 단계(단계 S40)에서는, 우선, 상기 계산된 물체의 접촉점 주위의 일정 영역에서 점군집 데이터를 기반으로 접촉면을 산출한다(단계 S41).
일반적으로 접촉점은 접촉면에 포함되는 임의의 점이므로, 상기 접촉점이 포함되는 접촉면을 도출하기 위해서는 접촉점 주위의 점군집 데이터를 활용하여 상기 점군집 데이터가 형성하는 접촉면을 계산하는 것이 필요하다.
이에 따라, 도 10에 도시된 바와 같이, 상기 접촉점(40) 주위의 일정 영역에서의 점군집 데이터(50)가 소정의 접촉면(55)을 형성한다면, 해당 접촉면(55)을 계산할 수 있다. 또한, 이렇게 계산된 상기 접촉면(55)은 상기 물체(20)에서 상기 접촉점이 위치하는 부분을 형성하는 면으로 정의될 수 있다.
본 실시예에서는, 앞선 단계를 통해 도출된 물체의 접촉점(40) 주위의 일정 영역에 대하여만 점군집 데이터(50)를 이용하여 접촉면(55)을 산출하므로, 불필요한 연산을 최소화하면서도 접촉 방향을 연산하기 위한 정확한 데이터를 획득할 수 있다.
이 후, 도 9 및 도 10을 참조하면, 상기 도출된 접촉면(55)과 수직한 법선 벡터(60)를 계산한다(단계 S42). 상기 법선벡터(60)는 상기 접촉면(55)에 수직인 벡터로서 상기 접촉점(40)으로부터 시작되는 벡터로 정의될 수 있다.
이 후, 도 9 및 도 10을 참조하면, 상기 법선 벡터의 방향을 상기 접근 방향으로 선정한다(단계 S43).
즉, 상기 물체(20)의 피킹을 위한 접근 방향은 상기 법선 벡터 방향, 즉 상기 법선 벡터와 반대 방향으로 상기 법선 벡터에 평행하며 상기 접촉면(55)을 향하는 방향으로 선정된다.
한편, 앞서 설명한 바와 같이, 별도의 데이터베이스에, 물체의 접촉점의 위치에 따라 해당 접촉점으로의 최적 접근 방향에 대한 정보가 기 저장될 수 있으며, 이에 따라, 상기 접촉점(40)에 대한 정보가 연산되면 상기 데이터베이스로부터 최적 접근 방향에 대한 정보를 적용할 수도 있다. 이에 따라, 상기 물체에 대한 접근 방향에 대한 정보가 선정된다.
이와 같이, 상기 접근 방향이 선정되면, 도 3 및 도 11을 참조하면, 상기 접근 방향을 따라, 상기 접촉점을 향해, 그리퍼(70)가 접근하여 피킹 대상이 되는 물체(20)를 파지하게 된다(단계 S50).
이렇게 파지된 상기 물체(20)는 상기 그리퍼(70)에 파지된 상태로 필요한 위치로 이동하게 된다.
상기와 같은 본 발명의 실시예들에 의하면, 인공 신경망을 이용한 학습을 바탕으로, 실제 피킹 대상이 되는 물체의 접촉점 위치 및 접근 방향에 대한 정보를 연산할 수 있으므로, 종래 접촉점 위치 및 접근 방향에 대한 정보를 획득하기 위한 방대한 량의 연산을 수행하지 않을 수 있어, 피킹 속도를 보다 향상시킬 수 있다.
특히, 학습부에서는 2차원 이미지를 이용하여 학습을 수행하되, 물체 영역 검출, 물체 접촉점 정보 및 물체 분류에 대한 학습을 수행함으로써, 3차원 이미지를 통한 학습보다 용이한 학습이 수행되며, 실제 피킹을 위해 필요한 공정 각각에 대한 학습을 수행할 수 있어 피킹에서의 적용성이 우수하다.
한편, 2차원 이미지를 이용한 학습의 결과를 적용하기 위해, 실제 물체에 대한 3차원 정보는 2차원 이미지로 투영되어야 하지만, 3차원 정보에 이미 해당 물체에 대한 깊이 정보가 포함되고 있으므로, 2차원 이미지에 대한 학습으로도 필요한 연산을 충분히 수행할 수 있다.
나아가, 접근 방향에 대한 정보 획득을 위해, 접촉점을 연산한 이후, 접촉점 주위에서만 점군집 데이터를 기반으로 접촉면을 산출하면 충분하므로, 종래 계측된 물체의 모든 형상에 대하여 점군집 데이터를 기반으로 접촉점 및 접근 방향에 대한 정보를 획득하는 것과 대비하여 연산 시간을 줄일 수 있어 피킹 공정을 신속히 수행할 수 있다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
본 발명에 따른 물류 센터의 피킹 자동화 시스템 및 이를 이용한 피킹 자동화 방법은 물류센터에 사용될 수 있는 산업상 이용 가능성을 갖는다.
10 : 피킹 자동화 시스템 20 : 물체
30 : 영역 40 : 접촉점
50 : 점군집 데이터 60 : 법선벡터
70 : 그리퍼 100 : 학습부
200 : 영상 입력부 300 : 연산부

Claims (13)

  1. 인공 신경망을 이용하여, 물체 영역 검출, 물체 접촉점 정보 및 물체 분류에 대한 학습을, 2차원 이미지를 이용하여 수행하는 학습부;
    피킹(picking) 대상이 되는 물체에 대한 2차원 및 3차원 이미지를 획득하는 영상 입력부; 및
    상기 수행된 학습 내용을 바탕으로 상기 획득된 이미지를 이용하여 피킹 대상이 되는 상기 물체의 영역, 상기 물체의 접촉점의 위치, 및 피킹시 상기 물체에 대한 접근 방향 중 적어도 하나에 대한 정보를 획득하는 연산부를 포함하고,
    상기 연산부는, 상기 영상 입력부에서 획득한 3차원 이미지를 상기 학습부가 학습한 2차원 이미지에 투영하는 이미지 투영부를 포함하는 피킹 자동화 시스템.
  2. 삭제
  3. 제1항에 있어서, 상기 학습부는,
    상기 물체 영역 검출, 물체 접촉점 정보 및 물체 분류에 대하여 순차적으로 학습하거나, 일률적으로 한 번에 학습하는 것을 특징으로 하는 피킹 자동화 시스템.
  4. 제1항에 있어서, 상기 연산부는,
    상기 학습부에서 학습된 물체 접촉점 정보를 바탕으로, 상기 투영된 3차원 이미지에서 접촉점을 계산하는 접촉점 계산부를 더 포함하는 것을 특징으로 하는 피킹 자동화 시스템.
  5. 제4항에 있어서, 상기 연산부는,
    상기 계산된 접촉점 주위의 일정 영역에서의 점군집 데이터를 기반으로 접촉면을 산출하고, 상기 접촉면과 수직한 법선 벡터를 계산하는 접근 방향 계산부를 더 포함하는 것을 특징으로 하는 피킹 자동화 시스템.
  6. 제4항에 있어서, 상기 연산부는,
    상기 계산된 접촉점을 바탕으로, 기 설정된 접근 방향에 관한 정보를 바탕으로 접근 방향에 대한 정보를 제공하는 접근 방향 계산부를 더 포함하는 것을 특징으로 하는 피킹 자동화 시스템.
  7. 인공 신경망을 이용하여, 물체 영역 검출, 물체 접촉점 정보 및 물체 분류에 대한 학습을 수행하는 단계;
    피킹(picking) 대상이 되는 물체에 대한 2차원 및 3차원 이미지를 획득하는 단계;
    상기 수행된 학습 내용을 바탕으로 상기 획득된 이미지를 이용하여 피킹 대상이 되는 상기 물체의 접촉점의 위치를 연산하는 단계;
    상기 물체의 피킹시 상기 물체에 대한 접근 방향에 대한 정보를 연산하거나 기 설정된 접근 방향에 대한 정보를 적용하는 단계; 및
    상기 연산된 상기 접촉점 및 상기 접근 방향을 바탕으로 상기 물체를 파지하는 단계를 포함하고,
    상기 학습을 수행하는 단계는,
    학습의 대상이 되는 물체 대한 2차원 이미지를 획득하는 단계;
    상기 2차원 이미지로부터 상기 물체의 영역을 검출하는 것을 학습하는 단계;
    상기 물체에서 피킹이 수행되는 접촉점을 연산하는 것을 학습하는 단계; 및
    분류기(classifier)를 이용하여 상기 물체를 분류하는 것을 학습하는 단계를 포함하는 것을 특징으로 하는 피킹 자동화 방법.
  8. 삭제
  9. 제7항에 있어서, 상기 학습을 수행하는 단계는,
    상기 물체의 영역을 검출하는 학습 단계, 상기 접촉점을 연산하는 학습 단계, 및 상기 물체를 분류하는 학습 단계를 별도의 인공 신경망으로 학습시키며,
    새로운 제품이 추가되면, 선택에 따라 추가된 제품에 대한 접촉점을 연산하는 학습 단계만 추가로 학습하는 것을 특징으로 하는 피킹 자동화 방법.
  10. 제7항에 있어서, 상기 학습을 수행하는 단계는,
    상기 물체의 영역을 검출하는 학습 단계, 상기 접촉점을 연산하는 학습 단계, 및 상기 물체를 분류하는 학습 단계를 하나의 인공 신경망으로 학습시키는 것을 특징으로 하는 피킹 자동화 방법.
  11. 제7항에 있어서, 상기 물체의 접촉점의 위치를 연산하는 단계는,
    상기 획득된 3차원 이미지를 상기 학습을 수행하는 단계에서 사용되는 2차원 이미지에 투영하는 단계; 및
    상기 학습된 물체 접촉점 정보를 바탕으로, 상기 투영된 3차원 이미지에서 접촉점을 계산하는 단계를 포함하는 것을 특징으로 하는 피킹 자동화 방법.
  12. 제11항에 있어서, 상기 접촉점을 계산하는 단계에서,
    영상 입력부에서 상기 물체에 대하여 획득된 3차원 이미지의 깊이 정보, 및 상기 영상 입력부의 위치정보를 바탕으로 상기 접촉점의 3차원 위치를 계산하는 것을 특징으로 하는 피킹 자동화 방법.
  13. 제11항에 있어서, 상기 물체의 접근 방향에 대한 정보는,
    상기 계산된 물체의 접촉점 주위의 일정 영역에서 점군집 데이터를 기반으로 접촉면을 산출하는 단계;
    상기 접촉면과 수직한 법선 벡터를 계산하는 단계; 및
    상기 법선 벡터를 상기 접근 방향으로 선정하는 단계를 통해 연산되는 것을 특징으로 하는 피킹 자동화 방법.
KR1020180035407A 2018-03-27 2018-03-27 물류 센터의 피킹 자동화 시스템 및 이를 이용한 피킹 자동화 방법 KR102043898B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180035407A KR102043898B1 (ko) 2018-03-27 2018-03-27 물류 센터의 피킹 자동화 시스템 및 이를 이용한 피킹 자동화 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180035407A KR102043898B1 (ko) 2018-03-27 2018-03-27 물류 센터의 피킹 자동화 시스템 및 이를 이용한 피킹 자동화 방법

Publications (2)

Publication Number Publication Date
KR20190113140A KR20190113140A (ko) 2019-10-08
KR102043898B1 true KR102043898B1 (ko) 2019-11-12

Family

ID=68208956

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180035407A KR102043898B1 (ko) 2018-03-27 2018-03-27 물류 센터의 피킹 자동화 시스템 및 이를 이용한 피킹 자동화 방법

Country Status (1)

Country Link
KR (1) KR102043898B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102135387B1 (ko) 2020-04-01 2020-07-17 곽근규 물류 관리시스템 및 관리방법

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102431382B1 (ko) * 2020-05-12 2022-08-11 한국철도기술연구원 적재 제어 장치 및 적재 제어 방법
WO2022239878A1 (ko) * 2021-05-10 2022-11-17 코가플렉스 주식회사 로봇의 파지 방법 및 로봇의 파지를 위한 학습 방법
KR102547408B1 (ko) * 2021-06-29 2023-06-22 롯데정보통신 주식회사 화물 분류 방법 및 장치
CN113963044B (zh) * 2021-09-30 2024-04-30 北京工业大学 一种基于rgbd相机的货物箱智能装载方法及系统
KR102619659B1 (ko) * 2021-11-11 2024-01-05 한국철도기술연구원 택배화물 취급 자동화를 위한 화물정보 인식 장치 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101260367B1 (ko) * 2011-09-26 2013-05-07 한국과학기술연구원 범주 인식에 의한 파지점 생성방법 및 그 방법에 대한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
JP2017030135A (ja) * 2015-07-31 2017-02-09 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101197125B1 (ko) 2012-03-20 2012-11-07 한국기계연구원 물체 파지 시스템 및 물체 파지 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101260367B1 (ko) * 2011-09-26 2013-05-07 한국과학기술연구원 범주 인식에 의한 파지점 생성방법 및 그 방법에 대한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
JP2017030135A (ja) * 2015-07-31 2017-02-09 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102135387B1 (ko) 2020-04-01 2020-07-17 곽근규 물류 관리시스템 및 관리방법

Also Published As

Publication number Publication date
KR20190113140A (ko) 2019-10-08

Similar Documents

Publication Publication Date Title
KR102043898B1 (ko) 물류 센터의 피킹 자동화 시스템 및 이를 이용한 피킹 자동화 방법
US10430650B2 (en) Image processing system
CN108701234A (zh) 车牌识别方法及云系统
JP4709668B2 (ja) 3次元物体認識システム
JP6912215B2 (ja) 対象物の姿勢等を検出する検出方法、検出プログラム
CN112836558B (zh) 机械臂末端调整方法、装置、系统、设备及介质
US11941892B2 (en) Method and device for providing data for creating a digital map
CN109508707B (zh) 基于单目视觉的机器人稳定抓取物体的抓取点获取方法
CN108921929A (zh) 一种识别系统及训练方法及单张单目图像的识别方法
CN110298879B (zh) 一种待抓取物体位姿的确定方法、装置及电子设备
JP2009216503A (ja) 三次元位置姿勢計測方法および装置
US20150371102A1 (en) Method for recognizing and locating object
CN111275758A (zh) 混合型3d视觉定位方法、装置、计算机设备及存储介质
CN113313725B (zh) 含能材料药桶的桶口识别方法及系统
JP7178803B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2020021212A (ja) 情報処理装置、情報処理方法及びプログラム
Liu et al. Deep-learning based robust edge detection for point pair feature-based pose estimation with multiple edge appearance models
JPH07103715A (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
CN113724329A (zh) 融合平面与立体信息的目标姿态估计方法、系统和介质
Hameed et al. Pose estimation of objects using digital image processing for pick-and-place applications of robotic arms
JP6863946B2 (ja) 画像処理装置
JP7277116B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2018124177A (ja) 床面判断方法
CN109146885B (zh) 图像分割方法、设备和计算机可读存储介质
CN116188540A (zh) 一种基于点云信息的目标识别和位姿估计方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant