KR20230100051A - Deep learning-based smart automatic logistics warehousing system linked to user terminals - Google Patents
Deep learning-based smart automatic logistics warehousing system linked to user terminals Download PDFInfo
- Publication number
- KR20230100051A KR20230100051A KR1020210189601A KR20210189601A KR20230100051A KR 20230100051 A KR20230100051 A KR 20230100051A KR 1020210189601 A KR1020210189601 A KR 1020210189601A KR 20210189601 A KR20210189601 A KR 20210189601A KR 20230100051 A KR20230100051 A KR 20230100051A
- Authority
- KR
- South Korea
- Prior art keywords
- storage unit
- unit
- deep learning
- pallet
- drawer
- Prior art date
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 53
- 238000000034 method Methods 0.000 claims abstract description 11
- 230000008569 process Effects 0.000 claims abstract description 8
- 230000002068 genetic effect Effects 0.000 claims description 8
- 238000003825 pressing Methods 0.000 claims description 3
- 230000003190 augmentative effect Effects 0.000 description 20
- 239000011521 glass Substances 0.000 description 19
- 238000012546 transfer Methods 0.000 description 17
- 230000033001 locomotion Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 12
- 230000002093 peripheral effect Effects 0.000 description 11
- 239000003550 marker Substances 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000004804 winding Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000007788 liquid Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000003467 diminishing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G1/00—Storing articles, individually or in orderly arrangement, in warehouses or magazines
- B65G1/02—Storage devices
- B65G1/04—Storage devices mechanical
- B65G1/137—Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed
- B65G1/1373—Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed for fulfilling orders in warehouses
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G1/00—Storing articles, individually or in orderly arrangement, in warehouses or magazines
- B65G1/02—Storage devices
- B65G1/04—Storage devices mechanical
- B65G1/0407—Storage devices mechanical using stacker cranes
- B65G1/0421—Storage devices mechanical using stacker cranes with control for stacker crane operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G2201/00—Indexing codes relating to handling devices, e.g. conveyors, characterised by the type of product or load being conveyed or handled
- B65G2201/02—Articles
- B65G2201/0267—Pallets
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Warehouses Or Storage Devices (AREA)
Abstract
사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템은 하부 일단에는 물품을 꺼내거나 삽입할 수 있도록 출납부가 마련되어 있고, 내부 전면과 배면에는 팔레트를 삽입하여 수납할 수 있도록 일정한 간격으로 거치레일이 형성된 저장부와, 상기 저장부의 내부 중앙에 위치되어 상기 저장부의 수직 및 수평방면으로 이송되고, 상기 저장부에 상기 팔레트를 출납부로 이동하거나 상기 팔레트를 수납하는 스태커와, 상기 저장부의 출납부에 마련되어 수납되는 물품을 촬영하여 크기를 측정하는 촬영부와, 상기 저장부의 출납부에 마련되어 수납되는 물품의 무게를 측정하는 감지부와, 상기 스태커, 상기 촬영부, 상기 감지부의 동작을 제어하며, 상기 촬영부와 상기 감지부에 의해 측정된 정보를 기반으로 딥러닝 알고리즘을 적용하여 상기 물품이 수납되는 위치를 자동선정하는 엣지 제어부와, 챗봇 형태로 필요한 정보를 대화형으로 처리하여 할당된 엣지 제어부의 동작을 제어하는 사용자 단말기를 포함한다.The deep learning-based smart automatic logistics warehouse system linked with the user terminal has a drawer at the bottom to take out or insert items, and on the front and back of the inside, there are rails at regular intervals to insert and store pallets. A storage unit formed in the storage unit, a stacker that is located in the center of the storage unit and transported in vertical and horizontal directions of the storage unit, moves the pallet to the storage unit or stores the pallet, and is provided and stored in the storage unit. A photographing unit for photographing and measuring the size of an item to be stored, a sensor provided in the drawer of the storage unit and measuring the weight of the stored item, and controlling the operation of the stacker, the photographing unit, and the sensor, Based on the information measured by the sensor, a deep learning algorithm is applied to automatically select the location where the item is stored, and the edge controller interactively processes necessary information in the form of a chatbot to control the operation of the assigned edge controller It includes a user terminal that
Description
본 발명은 자동적재창고에 관한 것으로, 보다 상세하게는 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템에 관한 것이다.The present invention relates to an automated warehouse, and more particularly, to a deep learning-based smart automated logistics warehouse system that works with a user terminal.
일반적으로 물품을 보관하기 위한 창고는 분할된 복수 개의 공간이 배열된 형태로 구성되어 있으며, 보관 물품의 종류가 많아질수록 작업자가 보관 위치를 빠르게 찾기 어려운 문제점이 있었다.In general, a warehouse for storing goods is configured in a form in which a plurality of divided spaces are arranged, and as the number of kinds of stored goods increases, it is difficult for a worker to quickly find a storage location.
기술의 발전으로 컴퓨터시스템을 이용하여 제품명의 검색 또는 바코드 인식과 같은 방법을 통해 보관 위치를 작업자가 쉽게 찾을 수 있는 시스템이 적용되고 있으나, 여전히 작업자가 물품을 직접 가져와야 하는 문제점으로 인해 안전사고의 위험과 적재 공간을 크게 확장하기 어려운 문제점이 있었다.With the development of technology, a system that allows workers to easily find the storage location through methods such as product name search or barcode recognition using a computer system is being applied, but there is still a risk of safety accidents due to the problem that workers have to bring items directly. There was a problem in that it was difficult to greatly expand the loading space.
이에 따라, 한국공개특허 제10-2016-0067639호 "자동창고 시스템"과 같이 컴퓨터를 이용하여 적재물을 보관 위치를 설정하고 일정한 위치에 보관된 적재물을 빠른 시간 내에 검색하여 자동으로 출납하기 위한 기술이 개발되었다.Accordingly, there is a technology for setting the storage location of the load using a computer, searching for the load stored in a certain position in a short time, and automatically withdrawing and withdrawing the load, such as Korean Patent Publication No. 10-2016-0067639 "Automatic Warehouse System". has been developed
종래의 자동창고 시스템은 자동창고 컴퓨터 프로그래밍에 의해 항상 지정된 위치에 위치하도록 관리되고 있으며, 적재물의 크기가 변경되더라도 할당된 공간이 변경되지 않아, 저장 공간을 비효율적으로 사용하는 문제점이 있었다.Conventional automatic warehouse systems are always managed to be located at designated locations by automatic warehouse computer programming, and the allocated space does not change even if the size of the load is changed, so there is a problem of inefficient use of storage space.
즉, 종래의 자동창고 시스템은 최단거리에 위치한 팔레트를 지정하여 적재하거나, 각 팔레트의 순번을 지정하여 프로그래밍 상 순차적으로 적재하거나, 하중과 무관하게 이동속도를 고정시켜 적재한다.That is, in the conventional automated warehouse system, pallets located in the shortest distance are designated and loaded, or the order of each pallet is designated and sequentially loaded according to programming, or the moving speed is fixed regardless of the load.
본 발명은 상기와 같은 기술적 과제를 해결하기 위해 제안된 것으로, 사용자 단말기를 통해 챗봇 형태로 필요한 정보를 대화형으로 처리하여 할당된 엣지 제어부의 동작을 제어하는 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템을 제공한다.The present invention has been proposed to solve the above technical problem, and is a deep learning-based smart automation interlocking with a user terminal that controls the operation of an assigned edge control unit by interactively processing necessary information in the form of a chatbot through a user terminal. Provides a logistics warehouse system.
상기 문제점을 해결하기 위한 본 발명의 일 실시예에 따르면, 하부 일단에는 물품을 꺼내거나 삽입할 수 있도록 출납부가 마련되어 있고, 내부 전면과 배면에는 팔레트를 삽입하여 수납할 수 있도록 일정한 간격으로 거치레일이 형성된 저장부와, 상기 저장부의 내부 중앙에 위치되어 상기 저장부의 수직 및 수평방면으로 이송되고, 상기 저장부에 상기 팔레트를 출납부로 이동하거나 상기 팔레트를 수납하는 스태커와, 상기 저장부의 출납부에 마련되어 수납되는 물품을 촬영하여 크기를 측정하는 촬영부와, 상기 저장부의 출납부에 마련되어 수납되는 물품의 무게를 측정하는 감지부와, 상기 스태커, 상기 촬영부, 상기 감지부의 동작을 제어하며, 상기 촬영부와 상기 감지부에 의해 측정된 정보를 기반으로 딥러닝 알고리즘을 적용하여 상기 물품이 수납되는 위치를 자동선정하는 엣지 제어부와, 챗봇 형태로 필요한 정보를 대화형으로 처리하여 할당된 엣지 제어부의 동작을 제어하는 사용자 단말기를 포함하는 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템이 제공된다.According to one embodiment of the present invention for solving the above problem, a drawer is provided at one end of the lower end to take out or insert items, and on the inner front and rear surfaces there are mounting rails at regular intervals so that pallets can be inserted and stored. A storage unit formed in the storage unit, a stacker that is located in the center of the storage unit and transported in vertical and horizontal directions of the storage unit, moves the pallet to the storage unit or stores the pallet, and is provided and stored in the storage unit. A photographing unit for photographing and measuring the size of an item to be stored, a sensor provided in the drawer of the storage unit and measuring the weight of the stored item, and controlling the operation of the stacker, the photographing unit, and the sensor, Based on the information measured by the sensor, a deep learning algorithm is applied to automatically select the location where the item is stored, and the edge controller interactively processes necessary information in the form of a chatbot to control the operation of the assigned edge controller Provided is a deep learning-based smart automatic logistics warehouse system that is linked with a user terminal including a user terminal.
또한, 본 발명에서 딥러닝 알고리즘은 유전 알고리즘(Genetic Algorithm, GA)을 적용하는 것을 특징으로 한다.In addition, the deep learning algorithm in the present invention is characterized by applying a genetic algorithm (Genetic Algorithm, GA).
또한, 본 발명에서 저장부의 출납부의 양측에 각각 형성되며 상기 팔레트에 거치된 상기 적재물을 상기 팔레트의 중앙에 위치되도록 외면을 가압하여 정렬하는 정렬부를 더 포함하는 것을 특징으로 한다.In addition, in the present invention, it is characterized in that it further comprises an alignment unit that is formed on both sides of the drawer of the storage unit and aligns the load mounted on the pallet by pressing the outer surface to be located in the center of the pallet.
또한, 본 발명에서 감지부는, 출납부에 형성되어 상기 출납부에 거치된 상기 팔레트의 무게를 측정하여 상기 팔레트에 적재되는 상기 적재물의 무게를 측정하는 다수 개의 무게센서로 이루어지는 것을 특징으로 한다.Further, in the present invention, the sensing unit is formed in the drawer and is characterized in that it consists of a plurality of weight sensors for measuring the weight of the load loaded on the pallet by measuring the weight of the pallet mounted on the drawer.
본 발명의 실시예에 따른 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템은, 사용자 단말기를 통해 챗봇 형태로 필요한 정보를 대화형으로 처리하여 할당된 엣지 제어부의 동작을 제어할 수 있다.The deep learning-based smart automated logistics warehouse system linked with the user terminal according to an embodiment of the present invention can interactively process necessary information in the form of a chatbot through the user terminal to control the operation of the assigned edge control unit.
또한, 시스템은 복수의 주변 카메라의 촬영정보를 토대로 시스템 주위를 이동하는 객체의 화재 위험도를 자동추정하고 화재위험도를 고려하여 물품의 수납위치를 자동조절할 수 있다.In addition, the system can automatically estimate the fire risk of an object moving around the system based on the photographing information of a plurality of surrounding cameras and automatically adjust the storage position of the article in consideration of the fire risk.
또한, 시스템은 적재 및 오더 피킹 작업시 최단시간에 작업을 진행하기 위한 딥러닝 알고리즘이 적용된다. 즉, 엣지 제어부에서 수신된 정보를 기반으로 딥러닝 알고리즘을 적용하여 물품이 수납되는 위치를 자동선정한다.In addition, the system applies a deep learning algorithm to perform work in the shortest time during loading and order picking. That is, based on the information received from the edge controller, a deep learning algorithm is applied to automatically select a storage location.
딥러닝 알고리즘은 적재 데이터 분석과 학습을 통한 적재 장소 최적화를 진행하는데, 적재수량, 하중, 소요랑 예측을 하여 자율운행 학습을 진행한다.The deep learning algorithm optimizes the loading site through analysis and learning of loading data, and autonomous driving learning is performed by predicting the loading quantity, load, and required amount.
즉, 시간대별 입고/출고 소요량 예측 및 이동시간을 단축시킬 수 있으며, 최소작업공간으로 작업편리성 부여 및 입출고 병목현상을 해결한다.In other words, it is possible to predict the amount of warehousing/shipping by time and shorten the movement time, and to provide work convenience and solve the warehousing and warehousing bottleneck with the minimum work space.
또한, 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템은 딥러닝 기반 최적의 동선을 파악하고, 순차적재 및 사전 프로그래밍화 된 로직에 의한 적재가 아니라 물류의 전반적인 흐름을 파악하여 적재장소를 지정함으로써 효율 극대화 가능하다. In addition, the deep learning-based smart automatic logistics warehouse system linked with the user terminal identifies the optimal movement line based on deep learning, and identifies the overall flow of logistics rather than sequential and pre-programmed logic to determine the loading location. Efficiency can be maximized by specifying
또한, 하중에 따른 속도 조절이 가능하므로 이동시간 최소화를 실현할 수 있으며, 기간별, 사용빈도별 최적위치 선정으로 불필요한 동선을 최소화시킨다.In addition, since the speed can be adjusted according to the load, the travel time can be minimized, and unnecessary movement is minimized by selecting the optimal location for each period and frequency of use.
도 1은 본 발명의 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템의 개념도
도 2는 본 발명의 실시예에 따른 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템의 구성도
도 2a는 도 2의 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템의 세부 구성도
도 3은 도 2의 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템의 동작 비교도
도 4는 도 2의 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템에서 실시예에 따른 스태커형 적재창고의 사시도
도 5는 적재창고의 스태커를 나타낸 사시도
도 6은 적재창고의 스태커 포크를 나타낸 사시도
도 7은 적재창고의 스태커 포크가 동작된 모습을 나타낸 사시도1 is a conceptual diagram of a smart automatic logistics warehouse system based on deep learning that works with a user terminal of the present invention
Figure 2 is a configuration diagram of a deep learning-based smart automatic logistics warehouse system linked with a user terminal according to an embodiment of the present invention
Figure 2a is a detailed configuration diagram of a deep learning-based smart automatic logistics warehouse system linked with the user terminal of FIG.
Figure 3 is a comparison of the operation of the deep learning-based smart automatic logistics warehouse system linked with the user terminal of Figure 2
Figure 4 is a perspective view of a stacker-type warehouse according to an embodiment in a deep learning-based smart automatic logistics warehouse system linked with the user terminal of FIG. 2
5 is a perspective view showing a stacker of a loading warehouse
6 is a perspective view showing a stacker fork of a loading warehouse
7 is a perspective view showing the operation of the stacker fork of the loading warehouse
이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여, 본 발명의 실시예를 첨부한 도면을 참조하여 설명하기로 한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings in order to describe in detail enough for those skilled in the art to easily implement the technical idea of the present invention.
도 1은 본 발명의 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템의 개념도이고, 도 2는 본 발명의 실시예에 따른 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템의 구성도이고, 도 2a는 도 2의 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템의 세부 구성도이고, 도 3은 도 2의 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템의 동작 비교도이다.1 is a conceptual diagram of a deep learning-based smart automated logistics warehouse system interworking with a user terminal of the present invention, and FIG. 2 is a configuration of a deep learning-based smart automated logistics warehouse system interworking with a user terminal according to an embodiment of the present invention. FIG. 2A is a detailed configuration diagram of a deep learning-based smart automated logistics warehouse system linked with the user terminal of FIG. 2, and FIG. 3 is a deep learning-based smart automated logistics warehouse system linked with the user terminal of FIG. 2 It is an action comparison.
도 1 내지 도 3을 참조하면, 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템은 적재 및 오더 피킹 작업시 최단시간에 작업을 진행하기 위한 딥러닝 알고리즘이 적용된다.Referring to FIGS. 1 to 3 , the deep learning-based smart automatic logistics warehouse system that works in conjunction with a user terminal applies a deep learning algorithm to perform work in the shortest time during loading and order picking.
딥러닝 알고리즘은 적재 데이터 분석과 학습을 통한 적재 장소 최적화를 진행하는데, 적재수량, 하중, 소요랑 예측을 하여 자율운행 학습을 진행한다.The deep learning algorithm optimizes the loading site through analysis and learning of loading data, and autonomous driving learning is performed by predicting the loading quantity, load, and required amount.
즉, 시간대별 입고/출고 소요량 예측 및 학습을 이동시간 단축시킬 수 있으며, 최소작업공간으로 작업편리성 부여 및 입출고 병목현상을 해결한다.In other words, it is possible to reduce the travel time for prediction and learning of warehousing/shipping requirements by time zone, and to provide work convenience with a minimum work space and to solve the warehousing/shipping bottleneck.
본 실시예에서 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템은,In this embodiment, the deep learning-based smart automatic logistics warehouse system that works with the user terminal,
제1 자동물류 적재창고 그룹(1), 제2 자동물류 적재창고 그룹(2), 관리서버(3)를 포함하여 구성된다.It is configured to include a first automatic logistics loading warehouse group (1), a second automatic logistics loading warehouse group (2), and a management server (3).
관리서버(3)는 제1 자동물류 적재창고 그룹(1)의 엣지 제어부와, 제2 자동물류 적재창고 그룹(2)의 엣지 제어부로부터 모든 데이터를 취합한 후, 각 엣지 제어부의 연산량을 고려하여 각각의 엣지 제어부의 데이터 처리용량을 독립적으로 설정할 수 있다.The
즉, 관리서버(3)는 제1 엣지 제어부가 촬영부의 데이터를 수신하여 딥러닝 할 때, 연산량이 기준값보다 초과하는 경우, 일부 데이터를 전송받아 분산 딥러닝 처리한 후 중간 결과물을 제1 엣지 제어부에 전송하여 최종결과는 제1 엣지 제어부에서 도출하도록 처리한다.That is, when the first edge control unit receives data from the photographing unit and conducts deep learning, the
기본적으로 엣지 제어부는 자동물류 적재창고 그룹이 설치된 현장에 직접적으로 설치되므로, 현장에서 미리 할당된 기능을 수행함으로서, 관리서버(3)의 연산량을 감소시켜 처리속도를 향상시킬 수 있다.Basically, since the edge control unit is directly installed at the site where the automatic logistics warehouse group is installed, processing speed can be improved by reducing the amount of operation of the
사용자 단말기(4)는 챗봇 형태로 필요한 정보를 대화형으로 처리하여 할당된 엣지 제어부(600)의 동작을 제어할 수 있다.The
여기에서 사용자 단말기(4)는 휴대폰, 스마트폰, 스마트 패드 등과 같이 사용자가 휴대하면서 사용할 수 있는 기기를 총칭하는 것이며, 본 실시예에서는 스마트폰으로 구성된 사용자 단말기로 가정하고 설명하기로 한다.Here, the
상황판(5)은 물류적재 진행상황과 복수의 엣지 제어부(600)의 처리사항을 동시에 표시하는 대형 스크린으로, 작업공간 내에 설치된 대형 화면을 통해 모든 진행상황을 모니터링 할 수 있다.The
증강현실안경(6)은 화면자체가 사용자의 액션에 따라 가변적으로 변환되는 장치를 총칭하는 것으로 정의한다. 증강현실안경(6)은 사용자가 착용하여 상황판(5)을 응시할 경우, 상황판에 표시된 물류적재 진행상황을 가상현실 또는 증강현실화 하여 사용자의 시야에 표시한다.The augmented
엣지 제어부(600)는 모니터가 구비된 업무용 컴퓨터로 구성될 수 있는데, 모니터가 다중 모니터 - 평면형 모니터가 다수 개 소정의 각도를 두고 배치됨 - 이거나 곡면형 모니터일 경우, 증강현실안경(6)은 애플리케이션의 화면을 하나의 촬영영상으로 촬영하지 못할 수 있다. 이러한 경우 증강현실안경(6)은 파노라마 촬영을 선택할 수 있도록 설정된다.The
파노라마 촬영이 선택될 경우, 증강현실안경(6) 착용자는 모니터를 회전시켜서 360도 원형 이미지를 촬영하거나, 모니터 방향으로 몸 또는 고개를 회전시키면서 360도 원형 이미지(곡면 이미지)를 촬영할 수 있다.When panoramic shooting is selected, the wearer of the augmented
촬영된 360도 원형 이미지는 관리서버(3)로 전송되어 영상처리되는데, 관리서버(3)는 원형 이미지에서 평면 이미지를 생성하기 위한 부분 왜곡 해소 및 부분 이미지 처리를 위해 원형 이미지를 분할한다. 즉, 분할된 원형 이미지의 단위(원형 분할 단위 이미지)는 해상도, 원호, 픽셀, 이미지 왜곡 등을 고려하여 분할될 수 있다.The photographed 360-degree circular image is transmitted to the
원형 분할 단위 이미지를 기반으로 평면 이미지를 생성하는 방법은 다음과 같다.A method of generating a flat image based on a circular segmentation unit image is as follows.
우선, 원형 분할 단위 이미지의 픽셀 구조를 파악할 수 있다. 픽셀 구조가 파악된 원형 분할 단위 이미지에 대한 기준 초점 픽셀을 추출할 수 있다. 기준 초점 픽셀은 확장 또는 축소가 필요하지 않은 픽셀일 수 있다. 픽셀 구조는 기준 초점 픽셀을 기준으로 축소해야 하는 픽셀과 확장해야 하는 픽셀로 구분될 수 있다.First, a pixel structure of a circular division unit image may be grasped. Reference focus pixels for the circular segmentation unit image of which the pixel structure is determined may be extracted. A reference focus pixel may be a pixel that does not require expansion or contraction. The pixel structure may be divided into pixels to be reduced and pixels to be expanded based on the reference focus pixel.
평면 분할 단위 이미지를 생성하기 위한 부분 왜곡 해소를 위해 픽셀 당 보정 처리를 수행할 수 있다. 예를 들어, 기준 초점 픽셀을 기준으로 확장된 영역에 대해서는 축소 면적을 결정하여 축소를 수행하고, 축소된 영역에 대해서는 확장 영역을 결정하고 보간을 통해 확장을 수행할 수 있다. 해상도, 원호, 픽셀, 이미지 왜곡 등을 고려한 추가적인 이미지 처리를 통해 평면 분할 단위 이미지를 추출할 수 있다. 이러한 방법을 통해 복수의 원형 분할 단위 이미지가 복수의 평면 분할 단위 이미지로 생성될 수 있다.A correction process per pixel may be performed to eliminate partial distortion for generating a plane division unit image. For example, reduction may be performed by determining a reduction area for an area expanded based on a reference focus pixel, and expansion may be performed through interpolation after determining an expansion area for the reduced area. A plane segmentation unit image may be extracted through additional image processing in consideration of resolution, arc, pixel, image distortion, and the like. Through this method, a plurality of circular division unit images may be generated as a plurality of planar division unit images.
즉, 관리서버(3)는 파노라마 촬영영상이 전송될 경우, 상술한 바와 같이 복수의 평면 분할 단위 이미지를 생성한 후, 화면의 객체 또는 마커를 식별하므로 자동식별 확률이 더욱 높아진다.That is, when a panoramic image is transmitted, the
관리서버(3)는 증강현실안경(6)에서 전송되는 이미지를 수신하여, 실시간으로 객체를 인식하는 이미지 프로세서를 진행한다. 관리서버(3)는 인식된 객체정보를 증강현실안경(6)으로 피드백한다. 즉, 객체인식을 진행하는 과정이 관리서버(3)에서 진행되고, 관리서버(3)는 인식된 결과만을 객체정보로써 증강현실안경(6)에 피드백함으로써 증강현실안경(6)의 연산부하가 감소되는 효과가 발생한다. 이때, 증강현실안경(6)은 이미지를 송신하는 동시에 처리를 원하는 영상처리명령까지 관리서버(3)에 전송하고, 그 결과값만을 피드백 받을 수 있다.The
이와 같이, 관리서버(3)는 인식된 객체정보를 증강현실안경(6)으로 피드백 하는데, 각각의 객체정보는 객체 종류별로 미리 할당된 식별코드 및 각 객체의 중심영역에 대한 시간별 위치정보를 포함한다. In this way, the
예를 들면, 화면의 영상(주변 카메라 촬영영상)에서 지게차 번호판이라는 객체가 인식될 경우, 지게차 번호판에 미리 할당된 식별코드와, 지게차 번호판의 중심영역의 위치(좌표)에 대한 시간별 위치정보가 전송된다.For example, when an object called a forklift license plate is recognized from an image on the screen (a video taken by a surrounding camera), an identification code pre-assigned to the forklift license plate and location information by time about the location (coordinates) of the center area of the forklift license plate are transmitted do.
참고적으로, 식별코드는 객체코드 및 부가코드를 포함하는데, 객체코드는 지게차 번호판이라는 형상에 부여된 코드이고, 부가코드는 지게차 번호판의 번호 등과 같은 부가 데이터 정보를 코드화한 것으로 정의된다.For reference, the identification code includes an object code and an additional code. The object code is a code given to the shape of a forklift license plate, and the additional code is defined as coded additional data information such as a forklift license plate number.
따라서 증강현실안경(6) 입장에서는 이미지 프로세싱작업을 직접 처리하지 않고도 관리서버(3)로부터 전송되는 객체정보를 수신하여, 지게차 번호판이라는 객체의 인식된 번호와, 그 이동위치를 파악할 수 있다. 관리서버(300)는 증강현실안경(6)의 요청에 의해 복수의 객체를 동시에 인식하고, 각각의 위치를 실시간 추적 가능하다. 이러한 요청사항은 사용자 단말기(4)에 챗봇형태로 입력가능하다.Therefore, from the point of view of the
또한, 관리서버(3)는 촬영영상 중에서 영상의 변화가 없는 부분을 피드백하고, 증강현실안경(6)은 영상의 변화가 없는 부분은 자동 제거함으로써 자체 저장 용량(증강현실안경(6)의 메모리 용량)을 감소시킬 수 있다.In addition, the
또한, 관리서버(3)는 영상을 복수의 영역으로 구분한 후, 객체의 움직임 속도를 고려하여 각 영역별 저장 영상 프레임을 가변시킬 수 있는 정보를 증강현실안경(6)으로 피드백 할 수 있다.In addition, the
한편, 증강현실안경(6)은 미리 설정된 촬영영역을 복수의 서브영역으로 분할한 후, 각 영역별 감지시간, 감지객체, 감지 이벤트를 독립적으로 미리 설정할 수 있다. 따라서 엣지 제어부(100)의 모니터가 복수 개 일 경우, 각 모니터를 서브영역으로 분할한 후 각 서브영역별로 감시하고자 하는 객체 이벤트 등을 독립적으로 설정할 수 있다.On the other hand, the
이때, 증강현실안경(6)의 처리속도가 빠를 경우, 자체적으로 객체인식동작 등을 수행하고 결과를 터치 패널에 표시할 수도 있으나, 관리서버(3)에 영상 및 객체인식 명령을 송신하고, 관리서버(3)에서 객체인식 동작을 진행한 후 결과만을 증강현실안경(6)으로 피드백 하는 방식이 바람직하다.At this time, if the processing speed of the
또한, 사용자 단말기(4)의 애플리케이션에 지도가 표시되고 지도상의 마커가 해당 사용자에게 강조해야하는 부분일 경우 가상객체로 표시될 수 있다. 즉, 실제영상정보에 대응되는 가상객체가 표시되며 가상객체가 터치될 경우, 미리 설정된 가상객체의 정보가 상세히 표시될 수 있다.In addition, when a map is displayed in an application of the
예를 들면, 알림 아이콘이 가상객체로 표시되고 해당부분을 터치하면 사용자에게 제공할 상세한 정보가 표시된다.For example, a notification icon is displayed as a virtual object, and detailed information to be provided to the user is displayed when a corresponding part is touched.
또한, 엣지 제어부는 복수의 주변 카메라의 촬영정보를 토대로 시스템 주위를 이동하는 객체, 예를 들면 지게차의 화재를 자동 추정할 수 있다. 이때, 메인 제어부는 지게차의 엔진룸의 온도 뿐만 아니라 배기가스의 방출량 및 방출누적시간을 토대로 화재위험을 경고할 수 있다. 이때 엣지 제어부는 딥러닝 알고리즘을 통해 지게차의 화재위험을 검출할 경우, 지게차 주변에 적재된 적재물을 지게차에서 가장 원거리에 있는 위치로 이동하도록 제어한다.In addition, the edge control unit may automatically estimate a fire in an object moving around the system, for example, a forklift, based on photographing information of a plurality of peripheral cameras. At this time, the main control unit may warn of the risk of fire based on the temperature of the engine room of the forklift as well as the emission amount and emission accumulation time of the exhaust gas. At this time, when the edge control unit detects a fire risk of the forklift through a deep learning algorithm, it controls the load loaded around the forklift to be moved to the farthest position from the forklift.
이때, 엣지 제어부는 적재물의 종류에 대한 정보를 취합하고 있으므로, 적재물에 대한 화재위험도를 고려하여 가연성, 인화성 물질을 우선순위로 원거리로 이동시킬 수 있다. 또한, 엣지 제어부는 소정의 위치에 배치된 소화액이 포함된 적재물을 화재위험이 있는 지역으로 가장 가까이 이동시켜서 화재전파를 지연시키도록 제어할 수 있다.At this time, since the edge control unit collects information on the type of load, it can move flammable and inflammable materials to a distance with priority in consideration of the fire risk of the load. In addition, the edge control unit may control the fire propagation to be delayed by moving the load containing the fire extinguishing liquid disposed at a predetermined location closest to the fire risk area.
관리서버(3)는 제1 엣지 제어부가 주변 카메라의 촬영 데이터를 수신하여 객체인식 할 때, 연산량이 기준값보다 초과하는 경우, 일부 데이터를 전송받아 분산처리한 후 중간 결과물을 제1 엣지 제어부에 전송하여 최종결과는 제1 엣지 제어부에서 도출하도록 처리한다.The
참고적으로 복수의 주변 카메라의 각 주변 카메라는 촬영영상을 이웃하는 주변 카메라에 순차적으로 전달하여 엣지 제어부에서 가장 가까운 주변 카메라가 무선으로 엣지 제어부에 전달하도록 구성되는 것이 바람직하다. 즉, 각 주변 카메라는 이웃하는 주변 카메라의 촬영영상을 무선중계하는 방식으로 엣지 제어부에 데이터를 전달한다.For reference, it is preferable that each peripheral camera of the plurality of peripheral cameras sequentially transfers captured images to neighboring peripheral cameras so that a peripheral camera closest to the edge controller wirelessly transmits captured images to the edge controller. That is, each peripheral camera transmits data to the edge control unit in a manner of wirelessly relaying images taken by neighboring peripheral cameras.
도 3은 도 2의 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템의 동작 비교도이다.3 is a comparison diagram of operation of a deep learning-based smart automated logistics warehouse system linked with the user terminal of FIG. 2 .
도 3을 참조하면, 본 발명의 실시예에 따른 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템은, 적재 및 오더 피킹 작업시 최단시간에 작업을 진행하기 위한 딥러닝 알고리즘이 적용된다. 즉, 엣지 제어부에서 수신된 정보를 기반으로 딥러닝 알고리즘을 적용하여 물품이 수납되는 위치를 자동선정한다.Referring to FIG. 3 , a deep learning-based smart automated logistics warehouse system that works with a user terminal according to an embodiment of the present invention applies a deep learning algorithm to perform work in the shortest time during loading and order picking. That is, based on the information received from the edge controller, a deep learning algorithm is applied to automatically select a storage location.
딥러닝 알고리즘은 적재 데이터 분석과 학습을 통한 적재 장소 최적화를 진행하는데, 적재수량, 하중, 소요랑 예측을 하여 자율운행 학습을 진행한다.The deep learning algorithm optimizes the loading site through analysis and learning of loading data, and autonomous driving learning is performed by predicting the loading quantity, load, and required amount.
즉, 시간대별 입고/출고 소요량 예측 및 이동시간을 단축시킬 수 있으며, 최소작업공간으로 작업편리성 부여 및 입출고 병목현상을 해결한다.In other words, it is possible to predict the amount of warehousing/shipping by time and shorten the movement time, and to provide work convenience and solve the warehousing and warehousing bottleneck with the minimum work space.
또한, 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템은 딥러닝 기반 최적의 동선을 파악하고, 순차적재 및 사전 프로그래밍화 된 로직에 의한 적재가 아니라 물류의 전반적인 흐름을 파악하여 적재장소를 지정함으로써 효율 극대화 가능하다. In addition, the deep learning-based smart automatic logistics warehouse system linked with the user terminal identifies the optimal movement line based on deep learning, and identifies the overall flow of logistics rather than sequential and pre-programmed logic to determine the loading location. Efficiency can be maximized by specifying
또한, 하중에 따른 물품의 이동속도 조절이 가능하므로 이동시간 최소화를 실현할 수 있으며, 기간별, 사용빈도별 최적위치 선정으로 불필요한 동선을 최소화시킨다.In addition, since it is possible to adjust the movement speed of items according to the load, it is possible to realize the minimization of movement time, and to minimize unnecessary movement lines by selecting the optimal location for each period and frequency of use.
본원발명에서 딥러닝 알고리즘은, 일반적으로 알려진 개미집단 최적화 알고리즘과 국부 최적값에 빠지는 단점을 보완하여 돌연변이를 통해 새로운 경로를 제공하여 전역 최적값으로 넘어갈 수 있는 기회를 제공하는 유전 알고리즘(Genetic Algorithm, GA)을 같이 적용할 수 있다.In the present invention, the deep learning algorithm is a genetic algorithm (Genetic Algorithm, GA) can be applied together.
도 4는 도 2의 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템에서 실시예에 따른 스태커형 적재창고의 사시도이고, 도 5는 적재창고의 스태커를 나타낸 사시도이고, 도 6은 적재창고의 스태커 포크를 나타낸 사시도이고, 도 7은 적재창고의 스태커 포크가 동작된 모습을 나타낸 사시도이다.Figure 4 is a perspective view of a stacker-type warehouse according to an embodiment in the deep learning-based smart automatic logistics warehouse system linked with the user terminal of Figure 2, Figure 5 is a perspective view showing a stacker of the warehouse, Figure 6 is a warehouse It is a perspective view showing the stacker fork of, and FIG. 7 is a perspective view showing the operation of the stacker fork of the loading warehouse.
도 4 내지 도 7에 도시된 바와 같이, 본 발명에 따른 적재창고는 하부 일단에는 물품을 꺼내거나 삽입할 수 있도록 출납부(120)가 마련되어 있고, 내부 전면과 배면에는 팔레트(10)를 삽입하여 수납할 수 있도록 일정한 간격으로 거치레일(110)이 형성된 저장부(100)와, 저장부(100)의 내부 중앙에 위치되어 저장부(100)의 수직 및 수평방면으로 이송되고, 저장부(100)에 수납된 팔레트(10)를 출납부(120)로 이동하거나 팔레트(10)를 저장부(100)에 수납하는 스태커(200)와, 저장부(100)의 출납부(120)에 마련되어 수납되는 물품을 촬영하여 크기를 측정하는 촬영부(300)와, 저장부(100)의 출납부(120)에 마련되어 수납되는 물품의 무게를 측정하는 감지부(400)와, 스태커(200), 촬영부(300), 감지부(400)의 동작을 제어하며, 촬영부(300)와 감지부(400)에 의해 측정된 정보를 기반으로 딥러닝 알고리즘을 적용하여 기반으로 물품이 수납되는 위치를 선정하는 엣지 제어부(600)를 포함하는 것을 특징으로 한다. 여기에서 딥러닝 알고리즘은 유전 알고리즘(Genetic Algorithm, GA)을 적용할 수 있다.As shown in Figures 4 to 7, the loading warehouse according to the present invention has a
저장부(100)의 출납부(120)의 양측에 각각 형성되며 팔레트(10)에 거치된 적재물을 팔레트(10)의 중앙에 위치되도록 외면을 가압하여 정렬하는 정렬부(500)를 더 포함하는 것을 특징으로 한다.It is formed on both sides of the
저장부(100)는 내부가 비어져 있는 사각형 형태의 프레임으로 형성되어 있으며, 하부 일단에는 저장부(100) 내부에 형성된 적재물이 적층된 팔레트(10)를 꺼내거나 수납하기 위한 컨베이어벨트로 이루어진 출납부(120)가 형성되어 있다.The
이때 저장부(100)의 내부 전면과 배면에는 각각 팔레트(10)가 수납되어 저장될 수 있도록 다수 개의 거치레일(110)이 형성되어 있으며, 저장부(100)의 내부에 다수 개의 팔레트(10)가 수납되어 있어 스태커(200)에 의해 하나씩 출납부(120)로 노출시켜 수납되는 적재물을 팔레트(10) 상부에 거치시킨 후 스태커(200)에 의해 저장부(100) 내부로 수납할 수 있게 된다.At this time, a plurality of mounting
거치레일(110)은 팔레트(10)의 양측 하부면을 지지할 수 있도록 형성되어 있기 때문에 적재물의 크기에 맞춰 팔레트(10)가 삽입되는 위치를 변경함으로써 적재물이 수납되는 공간을 조절할 수 있게 된다.Since the mounting
스태커(200)는 저장부(100)의 중앙에 위치되어 수평 또는 수직 방면으로 이동될 수 있도록 형성되고, 저장부(100)의 전면 또는 배면에 형성되어 있는 거치레일(110)을 향해 슬라이딩되어 팔레트(10)를 인출 또는 삽입하기 위해 사용된다.The
이를 위해 스태커(200)는 저장부(100)의 내부에 형성되어 엣지 제어부(600)에 의해 수직으로 승강되도록 형성되는 제1이송부(210)와, 제1이송부(210)에 형성되어 저장부(100)의 일단 또는 타단을 향해 수평으로 이동되는 제2이송부(220)와, 제1이송부(210)에 형성되어 저장부(100)의 전면 또는 배면 방면으로 슬라이딩된 후 팔레트(10)를 파지하여 제1이송부(210)의 상부로 위치시키는 포크(230)로 이루어진다.To this end, the
이때 제1이송부(210) 및 제2이송부(220)는 수치제어에 의해 승강되는 위치를 판단하여 설정된 위치에 수납된 팔레트(10)가 인출 또는 삽입될 수 있도록 하는 것이 바람직하며, 포크(230)는 팔레트(10)의 전면 하부에 형성된 홈에 삽입될 수 있도록 길이가 신축될 수 있도록 형성되어 있다.At this time, it is preferable that the
제1이송부(210)는 와이어(211)를 통해 권취모터(212)와 연결되어 있으며, 권취모터(212)는 와이어(212)와 연결된 권취릴(213)을 회전시킴으로써 와이어(212)의 권취 방향에 따라 승강될 수 있도록 형성되어 있으며, 제2이송부(220)는 이송모터(234)에 의해 레일을 따라 수평방향으로 이송될 수 있도록 형성되어 있다.The
포크(230)는 제1이송부(210)의 상부에 고정되어 있는 베이스 스테이지(231)가 형성되어 있고, 베이스 스테이지(231) 상부에 제1스테이지(232)와 제2스테이지(233)가 순차적으로 결합되어 있다.The
제1스테이지(232)는 베이스 스테이지(231)의 일단과 타단 방면만 구속되어 이동될 수 있도록 형성되고, 제2스테이지(233)는 제1스테이지(232)의 일단 또는 타단 방향을 향해 돌출되어 팔레트(10) 내부로 삽입될 수 있게 된다.The
제2스테이지(233)가 팔레트(10)에 삽입되면 제1이송부(210)가 상승되어 팔레트(10)를 거치레일(110)로부터 이격시키고, 제2스테이지(233) 및 제1스테이지(232)가 베이스 스테이지(231)의 중앙으로 위치되면서 팔레트(10)를 제1이송부(210) 상부로 위치시킬 수 있게 된다.When the
촬영부(300)는 저장부(100) 내부로 저장되는 적재물의 크기를 측정하기 위한 것으로 카메라를 이용하여 적재물을 촬영하고, 촬영된 정보를 기반으로 적재물의 크기를 3차원으로 측정하여 저장되는 공간을 할당하기 위해 사용된다.The photographing unit 300 is for measuring the size of the load stored in the
이를 위해 촬영부(300)는 출납부(120)의 상부에 위치되어 팔레트(10)의 상부에 적재된 적재물의 상부면 크기를 측정하는 제1카메라(310)와, 스태커(200)에 형성되어 팔레트(10)의 상부에 적재된 적재물의 전면을 촬영하여 전면 크기를 측정하는 제2카메라(320)와, 팔레트(10)에 형성되어 제1카메라(310)와 제2카메라(320)가 적재물을 촬영할 때 함께 촬영되어 기준치수를 결정하는 기준마커(330)로 이루어지는 것을 특징으로 한다.To this end, the photographing unit 300 includes a first camera 310 located above the
촬영부(300)의 제1카메라(310)는 출납부(120)의 상부에 위치되어 있기 때문에 항상 출납부(120)에 위치된 팔레트(10)의 상부에 적재된 적재물의 가로와 세로 크기를 측정할 수 있게 되며, 제2카메라(320)는 출납부(120)의 측면에 형성되어 적재물의 높이 방향을 촬영함으로써 적재물에 대한 3차원의 크기를 측정할 수 있게 된다.Since the first camera 310 of the photographing unit 300 is located above the
이때 팔레트(10)에는 촬영된 이미지에서 기준 치수를 설정하기 위한 기준마커(330)가 다수개가 형성되어 있으며, 제1카메라(310)와 제2카메라(320)는 적재물을 촬영할 때 함께 촬영된 기준마커(330)의 크기를 기준으로 적재물의 크기를 산정할 수 있게 된다.At this time, a plurality of reference markers 330 for setting reference dimensions in the photographed image are formed on the
이때 기준마커(330)의 크기는 1cm 또는 10cm단위로 형성되어 있는 것이 바람직하며, 이러한 치수는 적재되는 적재물의 크기에 따라 달라질 수 있게 된다.At this time, it is preferable that the size of the reference marker 330 is formed in units of 1 cm or 10 cm, and this size may vary depending on the size of the loaded object.
엣지 제어부(600)는 측정된 적재물의 크기에 맞춰 저장부(100)에 저장되는 위치를 할당하게 되며, 이때 적재물의 크기는 엣지 제어부(600)에 저장되어 다음 적재물이 수납될 때 수납되어 있는 적재물의 공간을 제외한 영역에서부터 공간을 할당할 수 있게 된다.The
즉, 치수를 통해 정확한 위치를 파악할 수 있으므로 공간을 최대한으로 활용할 수 있게 된다.In other words, since the exact location can be determined through the dimensions, the space can be utilized to the maximum.
감지부(400)는 팔레트(10)에 적재된 적재물의 중량을 측정하여 고중량은 저장부(100)의 하부에 위치되도록 하고 저중량은 저장부(100)의 상부에 위치되도록 함으로써 저장부(100)의 무게중심이 하부에 위치되도록 하여 저장부(100)가 쓰러지거나 스태커(200)가 구동할 때 파손되는 것을 최소화하기 위해 사용된다.The sensing unit 400 measures the weight of loads loaded on the
이를 위해 감지부(400)는 출납부(120)에 형성되어 출납부(120)에 거치된 팔레트(10)의 무게를 측정하고 빈 팔레트를 기준으로 팔레트(10)에 적재되는 적재물의 무게를 측정하는 다수 개의 무게센서(410)로 이루어지는 것을 특징으로 한다.To this end, the detector 400 is formed on the
출납부(120)는 다수 개의 봉이 회전되도록 형성되는 컨베이어 벨트로 이루어져 있는데, 각각의 봉에 무게센서(410)를 형성시켜 팔레트(10)가 거치된 후 적재물의 중량에 의해 하부 방면으로 가압되면 무게센서(410)가 중량을 측정하여 적재물의 무게를 측정할 수 있게 된다.The
이때 무게가 팔레트(10)에 적재되는 허용범위 또는 스태커(200)가 구동하기 위한 허용범위를 초과하는 경우 엣지 제어부(600)에 의해 수납이 되지 않도록 스태커(200)가 정지되고 경고 알람이 발생되도록 제어될 수 있게 된다.At this time, if the weight exceeds the allowable range to be loaded on the
정렬부(500)는 출납부(120)의 양측에 위치되어 팔레트(10)의 상부에 적재되는 적재물의 위치를 중앙에 위치되도록 하기 위한 것으로, 양측에는 중앙을 향해 슬라이드 되어 이동되는 가압대(510)가 형성되어 있고, 가압대(510)가 이송되기 위한 가압레일(520)이 출납부(120) 내부에 형성되어 있다.The aligning unit 500 is located on both sides of the
즉, 촬영부(300)에 의해 적재물을 촬영할 때 적재물의 위치가 촬영범위를 벗어나거나 기준마커(330)를 가리는 경우 정렬부(500)에 의해 적재물을 팔레트(10)의 중앙에 위치시켜 촬영이 용이한 자세로 정렬시킬 수 있게 된다.That is, when the position of the load is out of the shooting range or the reference marker 330 is covered when the load is photographed by the photographing unit 300, the alignment unit 500 locates the load at the center of the
또한 정렬부(500)는 팔레트(10)를 선택적으로 정렬시킬 수 있으며, 이를 통해 스태커(200)의 포크(230)가 팔레트(10)에 형성된 홈에 정확하게 삽입될 수 있도록 제어할 수도 있게 된다.In addition, the aligning unit 500 can selectively align the
참고적으로, 엣지 제어부(600)는 현장에 설치된 개인용 컴퓨터 또는 업무용 컴퓨터로 구성될 수 있는데, 컴퓨터에 설치된 제어 애플리케이션은 미리 등록된 스마트폰에 설치된 제어 애플리케이션과 연동되어 동작할 수 있다.For reference, the
따라서 관리자는 자신의 스마트폰에 설치된 제어 애플리케이션을 통해 시스템의 동작상태를 실시간으로 확인할 수 있다.Therefore, the administrator can check the operating status of the system in real time through the control application installed on his/her smartphone.
또한, 제어 애플리케이션은 각 팔레트의 적재물의 종류, 보관상태, 보관누적시간, 입고시간, 예상출고시간 등을 데이터베이스 형태로 관리하여 최적화된 정보를 제공할 수 있다.In addition, the control application can provide optimized information by managing the type of load of each pallet, storage status, accumulated storage time, warehousing time, expected shipping time, etc. in the form of a database.
제어 애플리케이션은 팔레트에 적재물을 적재하는 동안의 진동상태를 표시할 수 있다. 즉, 적재물의 이동경로에 따른 진동크기를 표시하고, 미리 설정된 진동크기를 초과할 경우, 해당 구간의 상태를 유의구간으로 지정한 후, 다른 적재물의 적재과정에서 이동속도를 자동 감속시키도록 자동 제어할 수 있다. 이러한 판단은 학습된 딥러닝 알고리즘에 의해서 결정될 수 있다.The control application can display vibration conditions during loading of pallets. That is, the magnitude of vibration according to the moving path of the load is displayed, and if the magnitude of vibration exceeds the preset level, the state of the corresponding section is designated as a significant section, and then automatically controlled to automatically reduce the movement speed during the loading process of other loads. can This determination may be determined by a learned deep learning algorithm.
또한, 복수의 주변 카메라가 구비될 수 있으며, 촬영된 정보는 엣지 제어부로 전송된다.In addition, a plurality of peripheral cameras may be provided, and photographed information is transmitted to the edge controller.
주변 카메라는 시스템의 주변을 촬영하는데, 적재물이 이동하는 상태를 촬영할 뿐만 아니라, 주위의 작업자의 행위, 지게차 이동상태 까지 촬영하도록 동작한다.The peripheral camera captures the surroundings of the system. It not only captures the moving state of the load, but also operates to record the actions of nearby workers and the moving state of the forklift.
엣지 제어부로 전송된 영상은 관리자의 휴대용 단말기(스마트폰)로 전송될 수 있는데, 휴대용 단말기의 화면에 표시된 적재물의 실제영상정보에 대응되는 가상객체가 표시될 수 있다. 가상객체가 터치될 경우, 터치된 부위에 해당하는 미리 설정된 가상객체의 움직임이 재생될 수 있다. The image transmitted to the edge control unit may be transmitted to the manager's portable terminal (smart phone), and a virtual object corresponding to the actual image information of the load displayed on the screen of the portable terminal may be displayed. When a virtual object is touched, a motion of a preset virtual object corresponding to the touched part may be reproduced.
예를 들면, (패키징된) 적재물의 아이콘이 가상객체로 표시되고 해당부분을 터치하면 적재물의 3D 모델링 이미지가 회전하면서 표시될 수 있다.For example, an icon of a (packaged) load is displayed as a virtual object, and when a corresponding part is touched, a 3D modeling image of the load may be rotated and displayed.
이와 같이, 휴대용 단말기의 화면에 실제영상정보에 대응되는 가상객체가 표시될 경우, 선택된 가상객체의 좌표는 실제영상정보에 대한 공간 좌표계에서 휴대용 단말기의 모바일 좌표계로 변경되고, 선택 해제된 가상객체의 좌표는 휴대용 단말기의 모바일 좌표계에서 실제영상정보에 대한 공간 좌표계로 변경될 수 있다.As such, when a virtual object corresponding to real image information is displayed on the screen of the portable terminal, the coordinates of the selected virtual object are changed from the spatial coordinate system for the real image information to the mobile coordinate system of the portable terminal, and the coordinates of the deselected virtual object Coordinates can be changed from the mobile coordinate system of the portable terminal to the spatial coordinate system for real image information.
한편, 복수의 주변 카메라는 가시영상 촬영부, 열화상 촬영부, 레이더 센서부를 포함하는데, 그 각각의 카메라는 내부의 모터를 이용하여 회전(PAN), 방향기울기(TILT), 줌(ZOOM) 조정이 가능하도록 구성되는 것이 바람직하며, 가시영상 촬영부, 열화상 촬영부, 레이더 센서부는 모두 동일한 촬영영역을 감지하도록 설정되는 것이 가장 바람직하다.Meanwhile, the plurality of peripheral cameras include a visible image capture unit, a thermal image capture unit, and a radar sensor unit, and each camera adjusts rotation (PAN), directional tilt (TILT), and zoom (ZOOM) using an internal motor. Preferably, the visible image capturing unit, the thermal image capturing unit, and the radar sensor unit are all configured to detect the same capturing area.
만약 가시영상 촬영부, 열화상 촬영부, 레이더 센서부가 서로 다른 촬영영역을 감지할 경우, 엣지 제어부는 가시영상 촬영부, 열화상 촬영부, 레이더 센서부가 각각 감지하는 영역 중에서 공통영역만을 자동으로 촬영영역으로 설정하여 영상을 처리하는 동작을 진행한다.If the visible image capture unit, the thermal image capture unit, and the radar sensor unit detect different shooting areas, the edge control unit automatically captures only the common area among the areas detected by the visible image capture unit, the thermal image capture unit, and the radar sensor unit. Set it as an area and proceed with the operation of processing the image.
참고적으로, 엣지 제어부는 복수의 주변 카메라의 촬영정보를 토대로 시스템 주위를 이동하는 객체, 예를 들면 지게차의 화재를 자동 추정할 수 있다. 이때, 메인 제어부는 지게차의 엔진룸의 온도 뿐만 아니라 배기가스의 방출량 및 방출누적시간을 토대로 화재위험을 경고할 수 있다. 이때 엣지 제어부는 딥러닝 알고리즘을 통해 지게차의 화재위험을 검출할 경우, 지게차 주변에 적재된 적재물을 지게차에서 가장 원거리에 있는 위치로 이동하도록 제어한다.For reference, the edge control unit may automatically estimate a fire in an object moving around the system, for example, a forklift, based on photographing information of a plurality of peripheral cameras. At this time, the main control unit may warn of the risk of fire based on the temperature of the engine room of the forklift as well as the emission amount and emission accumulation time of the exhaust gas. At this time, when the edge control unit detects a fire risk of the forklift through a deep learning algorithm, it controls the load loaded around the forklift to be moved to the farthest position from the forklift.
이때, 엣지 제어부는 적재물의 종류에 대한 정보를 취합하고 있으므로, 적재물에 대한 화재위험도를 고려하여 가연성, 인화성 물질을 우선순위로 원거리로 이동시킬 수 있다. 또한, 엣지 제어부는 소정의 위치에 배치된 소화액이 포함된 적재물을 화재위험이 있는 지역으로 가장 가까이 이동시켜서 화재전파를 지연시키도록 제어할 수 있다.At this time, since the edge control unit collects information on the type of load, it can move flammable and inflammable materials to a distance with priority in consideration of the fire risk of the load. In addition, the edge control unit may control the fire propagation to be delayed by moving the load containing the fire extinguishing liquid disposed at a predetermined location closest to the fire risk area.
또한, 엣지 제어부는 지게차의 속도를 추정할 때, 가시영상의 픽셀변화량 및 레이더 센서부의 측정값 뿐만 아니라 열화상 촬영부에서 감지된 배기가스 방출량 및 배기가스 온도변화량을 추가로 고려하여 지게차의 속도 변화량을 추정할 수도 있다. In addition, when estimating the speed of the forklift, the edge control unit additionally considers the pixel change amount of the visible image and the measured value of the radar sensor unit as well as the amount of exhaust gas emission and temperature change of the exhaust gas detected by the thermal imaging unit to determine the change in speed of the forklift can also be estimated.
상술한 바와 같이, 본 발명에 따른 적재창고에 의하면, 팔레트에 적재된 적재물의 사이즈를 자동으로 측정하여 저장공간을 효율적으로 사용할 수 있으며, 적재물의 무게를 측정하여 하중이 무거운 적재물은 하단에 위치하도록 하여 하중에 의한 장비의 틀어짐이나 부하를 감소시킬 수 있고, 팔레트 상부에 거치된 적재물의 위치가 틀어지지 않도록 팔레트의 중앙에 자동으로 정렬시킬 수 있는 효과가 있다.As described above, according to the loading warehouse according to the present invention, the storage space can be efficiently used by automatically measuring the size of the loads loaded on the pallet, and the weight of the loads is measured so that the heavy loads are located at the bottom. By doing so, it is possible to reduce the distortion or load of the equipment due to the load, and there is an effect of automatically aligning the center of the pallet so that the position of the load mounted on the upper part of the pallet is not distorted.
또한, 본 발명의 실시예에 따른 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템은, 복수의 주변 카메라의 촬영정보를 토대로 시스템 주위를 이동하는 객체의 화재 위험도를 자동추정하고 화재위험도를 고려하여 물품의 수납위치를 자동조절할 수 있다In addition, the deep learning-based smart automatic logistics warehouse system linked with the user terminal according to an embodiment of the present invention automatically estimates the fire risk of objects moving around the system based on the shooting information of a plurality of surrounding cameras and calculates the fire risk. It is possible to automatically adjust the storage position of the item by taking into account
또한, 시스템은 적재 및 오더 피킹 작업시 최단시간에 작업을 진행하기 위한 딥러닝 알고리즘이 적용된다. 즉, 엣지 제어부에서 수신된 정보를 기반으로 딥러닝 알고리즘을 적용하여 물품이 수납되는 위치를 자동선정한다.In addition, the system applies a deep learning algorithm to perform work in the shortest time during loading and order picking. That is, based on the information received from the edge controller, a deep learning algorithm is applied to automatically select a storage location.
딥러닝 알고리즘은 적재 데이터 분석과 학습을 통한 적재 장소 최적화를 진행하는데, 적재수량, 하중, 소요랑 예측을 하여 자율운행 학습을 진행한다.The deep learning algorithm optimizes the loading site through analysis and learning of loading data, and autonomous driving learning is performed by predicting the loading quantity, load, and required amount.
즉, 시간대별 입고/출고 소요량 예측 및 이동시간을 단축시킬 수 있으며, 최소작업공간으로 작업편리성 부여 및 입출고 병목현상을 해결한다.In other words, it is possible to predict the amount of warehousing/shipping by time and shorten the movement time, and to provide work convenience and solve the warehousing and warehousing bottleneck with the minimum work space.
또한, 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템은 딥러닝 기반 최적의 동선을 파악하고, 순차적재 및 사전 프로그래밍화 된 로직에 의한 적재가 아니라 물류의 전반적인 흐름을 파악하여 적재장소를 지정함으로써 효율 극대화 가능하다. In addition, the deep learning-based smart automatic logistics warehouse system linked with the user terminal identifies the optimal movement line based on deep learning, and identifies the overall flow of logistics rather than sequential and pre-programmed logic to determine the loading location. Efficiency can be maximized by specifying
또한, 하중에 따른 속도 조절이 가능하므로 이동시간 최소화를 실현할 수 있으며, 기간별, 사용빈도별 최적위치 선정으로 불필요한 동선을 최소화시킨다.In addition, since the speed can be adjusted according to the load, the travel time can be minimized, and unnecessary movement is minimized by selecting the optimal location for each period and frequency of use.
이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As such, those skilled in the art to which the present invention pertains will be able to understand that the present invention may be embodied in other specific forms without changing its technical spirit or essential features. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. The scope of the present invention is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.
10 : 팔레트
100 : 저장부
110 : 거치레일
120 : 출납부
200 : 스태커
210 : 제1이송부
211 : 와이어
212 : 권취모터
213 : 권취릴
220 : 제2이송부
221 : 이송모터
230 : 포크
231 : 베이스 스테이지
232 : 제1 스테이지
233 : 제2 스테이지
234 : 구동모터
300 : 촬영부
310 : 제1카메라
320 : 제2카메라
330 : 기준마커
400 : 감지부
410 : 무게센서
500 : 정렬부
510 : 가압대
520 : 가압레일
600 : 엣지 제어부10 : Palette
100: storage unit
110: rail
120: cashier
200: Stacker
210: first transfer unit
211: wire
212: winding motor
213: winding reel
220: second transfer unit
221: transfer motor
230: fork
231: base stage
232: first stage
233: second stage
234: drive motor
300: shooting unit
310: first camera
320: second camera
330: reference marker
400: sensing unit
410: weight sensor
500: alignment unit
510: Pressure stand
520: pressurized rail
600: edge control
Claims (4)
상기 저장부의 내부 중앙에 위치되어 상기 저장부의 수직 및 수평방면으로 이송되고, 상기 저장부에 상기 팔레트를 출납부로 이동하거나 상기 팔레트를 수납하는 스태커;
상기 저장부의 출납부에 마련되어 수납되는 물품을 촬영하여 크기를 측정하는 촬영부;
상기 저장부의 출납부에 마련되어 수납되는 물품의 무게를 측정하는 감지부;
상기 스태커, 상기 촬영부, 상기 감지부의 동작을 제어하며, 상기 촬영부와 상기 감지부에 의해 측정된 정보를 기반으로 딥러닝 알고리즘을 적용하여 상기 물품이 수납되는 위치를 자동선정하는 엣지 제어부; 및
챗봇 형태로 필요한 정보를 대화형으로 처리하여 할당된 엣지 제어부의 동작을 제어하는 사용자 단말기;
를 포함하는 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템.
A drawer is provided at one end of the lower part to take out or insert goods, and a storage unit with rails formed at regular intervals so that pallets can be inserted and stored on the inside front and back sides;
a stacker located at the inner center of the storage unit, transported in vertical and horizontal directions of the storage unit, and moving the pallet to the storage unit or receiving the pallet;
a photographing unit provided in the drawer of the storage unit and measuring the size of the stored goods by photographing them;
a sensing unit provided in the drawer of the storage unit to measure the weight of stored items;
an edge control unit that controls operations of the stacker, the photographing unit, and the sensing unit, and automatically selects a location where the product is accommodated by applying a deep learning algorithm based on information measured by the photographing unit and the sensing unit; and
A user terminal that interactively processes necessary information in the form of a chatbot and controls the operation of the assigned edge control unit;
Deep learning-based smart automatic logistics warehouse system that works with user terminals including
상기 딥러닝 알고리즘은 유전 알고리즘(Genetic Algorithm, GA)을 적용하는 것을 특징으로 하는 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템.
According to claim 1,
The deep learning algorithm is a deep learning-based smart automated logistics warehouse system that works with a user terminal, characterized in that by applying a genetic algorithm (Genetic Algorithm, GA).
상기 저장부의 출납부의 양측에 각각 형성되며 상기 팔레트에 거치된 상기 적재물을 상기 팔레트의 중앙에 위치되도록 외면을 가압하여 정렬하는 정렬부;를 더 포함하는 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템.
According to claim 1,
An alignment unit formed on both sides of the drawer of the storage unit and aligning the loads mounted on the pallet by pressing the outer surface to be located in the center of the pallet; warehouse system.
상기 감지부는,
상기 출납부에 형성되어 상기 출납부에 거치된 상기 팔레트의 무게를 측정하여 상기 팔레트에 적재되는 상기 적재물의 무게를 측정하는 다수 개의 무게센서;로 이루어지는 것을 특징으로 하는 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템.According to claim 1,
the sensor,
A plurality of weight sensors formed in the drawer and measuring the weight of the pallet placed in the drawer and measuring the weight of the load loaded on the pallet; Logistics warehouse system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210189601A KR20230100051A (en) | 2021-12-28 | 2021-12-28 | Deep learning-based smart automatic logistics warehousing system linked to user terminals |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210189601A KR20230100051A (en) | 2021-12-28 | 2021-12-28 | Deep learning-based smart automatic logistics warehousing system linked to user terminals |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230100051A true KR20230100051A (en) | 2023-07-05 |
Family
ID=87159084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210189601A KR20230100051A (en) | 2021-12-28 | 2021-12-28 | Deep learning-based smart automatic logistics warehousing system linked to user terminals |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230100051A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160067639A (en) | 2014-12-04 | 2016-06-14 | 주식회사 에스에프에이 | Automated warehouse system |
-
2021
- 2021-12-28 KR KR1020210189601A patent/KR20230100051A/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160067639A (en) | 2014-12-04 | 2016-06-14 | 주식회사 에스에프에이 | Automated warehouse system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11049067B2 (en) | Workflow management system integrating robots | |
US9129250B1 (en) | Automated inventory management | |
AU2017255410B2 (en) | Pallet detection using units of physical length | |
EP3516445B1 (en) | Adaptive process for guiding human-performed inventory tasks | |
JP7471615B2 (en) | Automatic transport system | |
US11312576B2 (en) | Goods picking system and method | |
JP2018162122A (en) | Conveyance device, program, and conveyance system | |
US20220292444A1 (en) | Inventory checking apparatus, backend apparatus, inventory checking management system, and inventory checking method | |
JP2009015684A (en) | Vehicle dispatching system and method | |
CN111661548B (en) | Article sorting method, apparatus, device and storage medium | |
KR20230100051A (en) | Deep learning-based smart automatic logistics warehousing system linked to user terminals | |
CN113859834B (en) | Container identification method, device, equipment and storage medium | |
KR20240022739A (en) | Deep learning-based smart automatic logistics warehousing system to estimate fire risk | |
CN108602620B (en) | Warehouse entry/exit work support system, warehouse entry/exit work support method, and storage medium | |
KR20230102751A (en) | Deep learning-based smart automatic logistics warehousing system with improved processing speed | |
KR102668615B1 (en) | Deep learning-based smart automatic logistics warehousing system linked with the surrounding environment | |
JP6919718B2 (en) | Management server, management system, management method, and program | |
US11367176B2 (en) | Commodity management device and commodity management system | |
US20210303852A1 (en) | System and method of automatically selecting one or more storage lockers based on dynamically acquired delivered item volume and locker volume compatibility and availability | |
WO2023073780A1 (en) | Device for generating learning data, method for generating learning data, and machine learning device and machine learning method using learning data | |
EP4307231A1 (en) | System and method for localizing articles in an intralogistics environment | |
CN219916366U (en) | Management system of stock position logistics | |
JP7414197B2 (en) | Virtual gauge display program and device | |
JP7371577B2 (en) | Mobile robot, server device, and transportation method | |
TW202411905A (en) | A visualized storage supporting warehouse management system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right |