KR20230100051A - Deep learning-based smart automatic logistics warehousing system linked to user terminals - Google Patents

Deep learning-based smart automatic logistics warehousing system linked to user terminals Download PDF

Info

Publication number
KR20230100051A
KR20230100051A KR1020210189601A KR20210189601A KR20230100051A KR 20230100051 A KR20230100051 A KR 20230100051A KR 1020210189601 A KR1020210189601 A KR 1020210189601A KR 20210189601 A KR20210189601 A KR 20210189601A KR 20230100051 A KR20230100051 A KR 20230100051A
Authority
KR
South Korea
Prior art keywords
storage unit
unit
deep learning
pallet
drawer
Prior art date
Application number
KR1020210189601A
Other languages
Korean (ko)
Inventor
국연호
박상록
김세창
서희정
박영배
김경욱
윤광식
황정철
이동배
백효승
Original Assignee
주식회사 인스턴
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 인스턴 filed Critical 주식회사 인스턴
Priority to KR1020210189601A priority Critical patent/KR20230100051A/en
Publication of KR20230100051A publication Critical patent/KR20230100051A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/04Storage devices mechanical
    • B65G1/137Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed
    • B65G1/1373Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed for fulfilling orders in warehouses
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/04Storage devices mechanical
    • B65G1/0407Storage devices mechanical using stacker cranes
    • B65G1/0421Storage devices mechanical using stacker cranes with control for stacker crane operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2201/00Indexing codes relating to handling devices, e.g. conveyors, characterised by the type of product or load being conveyed or handled
    • B65G2201/02Articles
    • B65G2201/0267Pallets

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Warehouses Or Storage Devices (AREA)

Abstract

사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템은 하부 일단에는 물품을 꺼내거나 삽입할 수 있도록 출납부가 마련되어 있고, 내부 전면과 배면에는 팔레트를 삽입하여 수납할 수 있도록 일정한 간격으로 거치레일이 형성된 저장부와, 상기 저장부의 내부 중앙에 위치되어 상기 저장부의 수직 및 수평방면으로 이송되고, 상기 저장부에 상기 팔레트를 출납부로 이동하거나 상기 팔레트를 수납하는 스태커와, 상기 저장부의 출납부에 마련되어 수납되는 물품을 촬영하여 크기를 측정하는 촬영부와, 상기 저장부의 출납부에 마련되어 수납되는 물품의 무게를 측정하는 감지부와, 상기 스태커, 상기 촬영부, 상기 감지부의 동작을 제어하며, 상기 촬영부와 상기 감지부에 의해 측정된 정보를 기반으로 딥러닝 알고리즘을 적용하여 상기 물품이 수납되는 위치를 자동선정하는 엣지 제어부와, 챗봇 형태로 필요한 정보를 대화형으로 처리하여 할당된 엣지 제어부의 동작을 제어하는 사용자 단말기를 포함한다.The deep learning-based smart automatic logistics warehouse system linked with the user terminal has a drawer at the bottom to take out or insert items, and on the front and back of the inside, there are rails at regular intervals to insert and store pallets. A storage unit formed in the storage unit, a stacker that is located in the center of the storage unit and transported in vertical and horizontal directions of the storage unit, moves the pallet to the storage unit or stores the pallet, and is provided and stored in the storage unit. A photographing unit for photographing and measuring the size of an item to be stored, a sensor provided in the drawer of the storage unit and measuring the weight of the stored item, and controlling the operation of the stacker, the photographing unit, and the sensor, Based on the information measured by the sensor, a deep learning algorithm is applied to automatically select the location where the item is stored, and the edge controller interactively processes necessary information in the form of a chatbot to control the operation of the assigned edge controller It includes a user terminal that

Description

사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템{Deep learning-based smart automatic logistics warehousing system linked to user terminals}Deep learning-based smart automatic logistics warehousing system linked to user terminals}

본 발명은 자동적재창고에 관한 것으로, 보다 상세하게는 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템에 관한 것이다.The present invention relates to an automated warehouse, and more particularly, to a deep learning-based smart automated logistics warehouse system that works with a user terminal.

일반적으로 물품을 보관하기 위한 창고는 분할된 복수 개의 공간이 배열된 형태로 구성되어 있으며, 보관 물품의 종류가 많아질수록 작업자가 보관 위치를 빠르게 찾기 어려운 문제점이 있었다.In general, a warehouse for storing goods is configured in a form in which a plurality of divided spaces are arranged, and as the number of kinds of stored goods increases, it is difficult for a worker to quickly find a storage location.

기술의 발전으로 컴퓨터시스템을 이용하여 제품명의 검색 또는 바코드 인식과 같은 방법을 통해 보관 위치를 작업자가 쉽게 찾을 수 있는 시스템이 적용되고 있으나, 여전히 작업자가 물품을 직접 가져와야 하는 문제점으로 인해 안전사고의 위험과 적재 공간을 크게 확장하기 어려운 문제점이 있었다.With the development of technology, a system that allows workers to easily find the storage location through methods such as product name search or barcode recognition using a computer system is being applied, but there is still a risk of safety accidents due to the problem that workers have to bring items directly. There was a problem in that it was difficult to greatly expand the loading space.

이에 따라, 한국공개특허 제10-2016-0067639호 "자동창고 시스템"과 같이 컴퓨터를 이용하여 적재물을 보관 위치를 설정하고 일정한 위치에 보관된 적재물을 빠른 시간 내에 검색하여 자동으로 출납하기 위한 기술이 개발되었다.Accordingly, there is a technology for setting the storage location of the load using a computer, searching for the load stored in a certain position in a short time, and automatically withdrawing and withdrawing the load, such as Korean Patent Publication No. 10-2016-0067639 "Automatic Warehouse System". has been developed

종래의 자동창고 시스템은 자동창고 컴퓨터 프로그래밍에 의해 항상 지정된 위치에 위치하도록 관리되고 있으며, 적재물의 크기가 변경되더라도 할당된 공간이 변경되지 않아, 저장 공간을 비효율적으로 사용하는 문제점이 있었다.Conventional automatic warehouse systems are always managed to be located at designated locations by automatic warehouse computer programming, and the allocated space does not change even if the size of the load is changed, so there is a problem of inefficient use of storage space.

즉, 종래의 자동창고 시스템은 최단거리에 위치한 팔레트를 지정하여 적재하거나, 각 팔레트의 순번을 지정하여 프로그래밍 상 순차적으로 적재하거나, 하중과 무관하게 이동속도를 고정시켜 적재한다.That is, in the conventional automated warehouse system, pallets located in the shortest distance are designated and loaded, or the order of each pallet is designated and sequentially loaded according to programming, or the moving speed is fixed regardless of the load.

KRKR 10-2016-006763910-2016-0067639 AA

본 발명은 상기와 같은 기술적 과제를 해결하기 위해 제안된 것으로, 사용자 단말기를 통해 챗봇 형태로 필요한 정보를 대화형으로 처리하여 할당된 엣지 제어부의 동작을 제어하는 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템을 제공한다.The present invention has been proposed to solve the above technical problem, and is a deep learning-based smart automation interlocking with a user terminal that controls the operation of an assigned edge control unit by interactively processing necessary information in the form of a chatbot through a user terminal. Provides a logistics warehouse system.

상기 문제점을 해결하기 위한 본 발명의 일 실시예에 따르면, 하부 일단에는 물품을 꺼내거나 삽입할 수 있도록 출납부가 마련되어 있고, 내부 전면과 배면에는 팔레트를 삽입하여 수납할 수 있도록 일정한 간격으로 거치레일이 형성된 저장부와, 상기 저장부의 내부 중앙에 위치되어 상기 저장부의 수직 및 수평방면으로 이송되고, 상기 저장부에 상기 팔레트를 출납부로 이동하거나 상기 팔레트를 수납하는 스태커와, 상기 저장부의 출납부에 마련되어 수납되는 물품을 촬영하여 크기를 측정하는 촬영부와, 상기 저장부의 출납부에 마련되어 수납되는 물품의 무게를 측정하는 감지부와, 상기 스태커, 상기 촬영부, 상기 감지부의 동작을 제어하며, 상기 촬영부와 상기 감지부에 의해 측정된 정보를 기반으로 딥러닝 알고리즘을 적용하여 상기 물품이 수납되는 위치를 자동선정하는 엣지 제어부와, 챗봇 형태로 필요한 정보를 대화형으로 처리하여 할당된 엣지 제어부의 동작을 제어하는 사용자 단말기를 포함하는 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템이 제공된다.According to one embodiment of the present invention for solving the above problem, a drawer is provided at one end of the lower end to take out or insert items, and on the inner front and rear surfaces there are mounting rails at regular intervals so that pallets can be inserted and stored. A storage unit formed in the storage unit, a stacker that is located in the center of the storage unit and transported in vertical and horizontal directions of the storage unit, moves the pallet to the storage unit or stores the pallet, and is provided and stored in the storage unit. A photographing unit for photographing and measuring the size of an item to be stored, a sensor provided in the drawer of the storage unit and measuring the weight of the stored item, and controlling the operation of the stacker, the photographing unit, and the sensor, Based on the information measured by the sensor, a deep learning algorithm is applied to automatically select the location where the item is stored, and the edge controller interactively processes necessary information in the form of a chatbot to control the operation of the assigned edge controller Provided is a deep learning-based smart automatic logistics warehouse system that is linked with a user terminal including a user terminal.

또한, 본 발명에서 딥러닝 알고리즘은 유전 알고리즘(Genetic Algorithm, GA)을 적용하는 것을 특징으로 한다.In addition, the deep learning algorithm in the present invention is characterized by applying a genetic algorithm (Genetic Algorithm, GA).

또한, 본 발명에서 저장부의 출납부의 양측에 각각 형성되며 상기 팔레트에 거치된 상기 적재물을 상기 팔레트의 중앙에 위치되도록 외면을 가압하여 정렬하는 정렬부를 더 포함하는 것을 특징으로 한다.In addition, in the present invention, it is characterized in that it further comprises an alignment unit that is formed on both sides of the drawer of the storage unit and aligns the load mounted on the pallet by pressing the outer surface to be located in the center of the pallet.

또한, 본 발명에서 감지부는, 출납부에 형성되어 상기 출납부에 거치된 상기 팔레트의 무게를 측정하여 상기 팔레트에 적재되는 상기 적재물의 무게를 측정하는 다수 개의 무게센서로 이루어지는 것을 특징으로 한다.Further, in the present invention, the sensing unit is formed in the drawer and is characterized in that it consists of a plurality of weight sensors for measuring the weight of the load loaded on the pallet by measuring the weight of the pallet mounted on the drawer.

본 발명의 실시예에 따른 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템은, 사용자 단말기를 통해 챗봇 형태로 필요한 정보를 대화형으로 처리하여 할당된 엣지 제어부의 동작을 제어할 수 있다.The deep learning-based smart automated logistics warehouse system linked with the user terminal according to an embodiment of the present invention can interactively process necessary information in the form of a chatbot through the user terminal to control the operation of the assigned edge control unit.

또한, 시스템은 복수의 주변 카메라의 촬영정보를 토대로 시스템 주위를 이동하는 객체의 화재 위험도를 자동추정하고 화재위험도를 고려하여 물품의 수납위치를 자동조절할 수 있다.In addition, the system can automatically estimate the fire risk of an object moving around the system based on the photographing information of a plurality of surrounding cameras and automatically adjust the storage position of the article in consideration of the fire risk.

또한, 시스템은 적재 및 오더 피킹 작업시 최단시간에 작업을 진행하기 위한 딥러닝 알고리즘이 적용된다. 즉, 엣지 제어부에서 수신된 정보를 기반으로 딥러닝 알고리즘을 적용하여 물품이 수납되는 위치를 자동선정한다.In addition, the system applies a deep learning algorithm to perform work in the shortest time during loading and order picking. That is, based on the information received from the edge controller, a deep learning algorithm is applied to automatically select a storage location.

딥러닝 알고리즘은 적재 데이터 분석과 학습을 통한 적재 장소 최적화를 진행하는데, 적재수량, 하중, 소요랑 예측을 하여 자율운행 학습을 진행한다.The deep learning algorithm optimizes the loading site through analysis and learning of loading data, and autonomous driving learning is performed by predicting the loading quantity, load, and required amount.

즉, 시간대별 입고/출고 소요량 예측 및 이동시간을 단축시킬 수 있으며, 최소작업공간으로 작업편리성 부여 및 입출고 병목현상을 해결한다.In other words, it is possible to predict the amount of warehousing/shipping by time and shorten the movement time, and to provide work convenience and solve the warehousing and warehousing bottleneck with the minimum work space.

또한, 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템은 딥러닝 기반 최적의 동선을 파악하고, 순차적재 및 사전 프로그래밍화 된 로직에 의한 적재가 아니라 물류의 전반적인 흐름을 파악하여 적재장소를 지정함으로써 효율 극대화 가능하다. In addition, the deep learning-based smart automatic logistics warehouse system linked with the user terminal identifies the optimal movement line based on deep learning, and identifies the overall flow of logistics rather than sequential and pre-programmed logic to determine the loading location. Efficiency can be maximized by specifying

또한, 하중에 따른 속도 조절이 가능하므로 이동시간 최소화를 실현할 수 있으며, 기간별, 사용빈도별 최적위치 선정으로 불필요한 동선을 최소화시킨다.In addition, since the speed can be adjusted according to the load, the travel time can be minimized, and unnecessary movement is minimized by selecting the optimal location for each period and frequency of use.

도 1은 본 발명의 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템의 개념도
도 2는 본 발명의 실시예에 따른 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템의 구성도
도 2a는 도 2의 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템의 세부 구성도
도 3은 도 2의 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템의 동작 비교도
도 4는 도 2의 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템에서 실시예에 따른 스태커형 적재창고의 사시도
도 5는 적재창고의 스태커를 나타낸 사시도
도 6은 적재창고의 스태커 포크를 나타낸 사시도
도 7은 적재창고의 스태커 포크가 동작된 모습을 나타낸 사시도
1 is a conceptual diagram of a smart automatic logistics warehouse system based on deep learning that works with a user terminal of the present invention
Figure 2 is a configuration diagram of a deep learning-based smart automatic logistics warehouse system linked with a user terminal according to an embodiment of the present invention
Figure 2a is a detailed configuration diagram of a deep learning-based smart automatic logistics warehouse system linked with the user terminal of FIG.
Figure 3 is a comparison of the operation of the deep learning-based smart automatic logistics warehouse system linked with the user terminal of Figure 2
Figure 4 is a perspective view of a stacker-type warehouse according to an embodiment in a deep learning-based smart automatic logistics warehouse system linked with the user terminal of FIG. 2
5 is a perspective view showing a stacker of a loading warehouse
6 is a perspective view showing a stacker fork of a loading warehouse
7 is a perspective view showing the operation of the stacker fork of the loading warehouse

이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여, 본 발명의 실시예를 첨부한 도면을 참조하여 설명하기로 한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings in order to describe in detail enough for those skilled in the art to easily implement the technical idea of the present invention.

도 1은 본 발명의 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템의 개념도이고, 도 2는 본 발명의 실시예에 따른 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템의 구성도이고, 도 2a는 도 2의 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템의 세부 구성도이고, 도 3은 도 2의 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템의 동작 비교도이다.1 is a conceptual diagram of a deep learning-based smart automated logistics warehouse system interworking with a user terminal of the present invention, and FIG. 2 is a configuration of a deep learning-based smart automated logistics warehouse system interworking with a user terminal according to an embodiment of the present invention. FIG. 2A is a detailed configuration diagram of a deep learning-based smart automated logistics warehouse system linked with the user terminal of FIG. 2, and FIG. 3 is a deep learning-based smart automated logistics warehouse system linked with the user terminal of FIG. 2 It is an action comparison.

도 1 내지 도 3을 참조하면, 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템은 적재 및 오더 피킹 작업시 최단시간에 작업을 진행하기 위한 딥러닝 알고리즘이 적용된다.Referring to FIGS. 1 to 3 , the deep learning-based smart automatic logistics warehouse system that works in conjunction with a user terminal applies a deep learning algorithm to perform work in the shortest time during loading and order picking.

딥러닝 알고리즘은 적재 데이터 분석과 학습을 통한 적재 장소 최적화를 진행하는데, 적재수량, 하중, 소요랑 예측을 하여 자율운행 학습을 진행한다.The deep learning algorithm optimizes the loading site through analysis and learning of loading data, and autonomous driving learning is performed by predicting the loading quantity, load, and required amount.

즉, 시간대별 입고/출고 소요량 예측 및 학습을 이동시간 단축시킬 수 있으며, 최소작업공간으로 작업편리성 부여 및 입출고 병목현상을 해결한다.In other words, it is possible to reduce the travel time for prediction and learning of warehousing/shipping requirements by time zone, and to provide work convenience with a minimum work space and to solve the warehousing/shipping bottleneck.

본 실시예에서 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템은,In this embodiment, the deep learning-based smart automatic logistics warehouse system that works with the user terminal,

제1 자동물류 적재창고 그룹(1), 제2 자동물류 적재창고 그룹(2), 관리서버(3)를 포함하여 구성된다.It is configured to include a first automatic logistics loading warehouse group (1), a second automatic logistics loading warehouse group (2), and a management server (3).

관리서버(3)는 제1 자동물류 적재창고 그룹(1)의 엣지 제어부와, 제2 자동물류 적재창고 그룹(2)의 엣지 제어부로부터 모든 데이터를 취합한 후, 각 엣지 제어부의 연산량을 고려하여 각각의 엣지 제어부의 데이터 처리용량을 독립적으로 설정할 수 있다.The management server 3 collects all data from the edge control unit of the first automatic logistics warehouse group 1 and the edge control unit of the second automatic logistics warehouse group 2, and then considers the amount of operation of each edge control unit. The data processing capacity of each edge controller can be set independently.

즉, 관리서버(3)는 제1 엣지 제어부가 촬영부의 데이터를 수신하여 딥러닝 할 때, 연산량이 기준값보다 초과하는 경우, 일부 데이터를 전송받아 분산 딥러닝 처리한 후 중간 결과물을 제1 엣지 제어부에 전송하여 최종결과는 제1 엣지 제어부에서 도출하도록 처리한다.That is, when the first edge control unit receives data from the photographing unit and conducts deep learning, the management server 3 receives some data, performs distributed deep learning processing, and outputs an intermediate result to the first edge control unit when the amount of calculation exceeds the reference value. and the final result is processed to be derived by the first edge control unit.

기본적으로 엣지 제어부는 자동물류 적재창고 그룹이 설치된 현장에 직접적으로 설치되므로, 현장에서 미리 할당된 기능을 수행함으로서, 관리서버(3)의 연산량을 감소시켜 처리속도를 향상시킬 수 있다.Basically, since the edge control unit is directly installed at the site where the automatic logistics warehouse group is installed, processing speed can be improved by reducing the amount of operation of the management server 3 by performing pre-assigned functions at the site.

사용자 단말기(4)는 챗봇 형태로 필요한 정보를 대화형으로 처리하여 할당된 엣지 제어부(600)의 동작을 제어할 수 있다.The user terminal 4 can interactively process necessary information in the form of a chatbot to control the operation of the assigned edge controller 600 .

여기에서 사용자 단말기(4)는 휴대폰, 스마트폰, 스마트 패드 등과 같이 사용자가 휴대하면서 사용할 수 있는 기기를 총칭하는 것이며, 본 실시예에서는 스마트폰으로 구성된 사용자 단말기로 가정하고 설명하기로 한다.Here, the user terminal 4 is a general term for a device that a user can carry and use, such as a mobile phone, a smart phone, a smart pad, and the like.

상황판(5)은 물류적재 진행상황과 복수의 엣지 제어부(600)의 처리사항을 동시에 표시하는 대형 스크린으로, 작업공간 내에 설치된 대형 화면을 통해 모든 진행상황을 모니터링 할 수 있다.The status board 5 is a large screen that simultaneously displays the progress of logistics loading and processing items of the plurality of edge controllers 600, and all progress can be monitored through the large screen installed in the work space.

증강현실안경(6)은 화면자체가 사용자의 액션에 따라 가변적으로 변환되는 장치를 총칭하는 것으로 정의한다. 증강현실안경(6)은 사용자가 착용하여 상황판(5)을 응시할 경우, 상황판에 표시된 물류적재 진행상황을 가상현실 또는 증강현실화 하여 사용자의 시야에 표시한다.The augmented reality glasses 6 are defined as a general term for a device in which a screen itself is variably transformed according to a user's action. When the user wears the augmented reality glasses 6 and gazes at the dashboard 5, the logistics loading progress displayed on the dashboard is converted into virtual reality or augmented reality and displayed in the user's field of view.

엣지 제어부(600)는 모니터가 구비된 업무용 컴퓨터로 구성될 수 있는데, 모니터가 다중 모니터 - 평면형 모니터가 다수 개 소정의 각도를 두고 배치됨 - 이거나 곡면형 모니터일 경우, 증강현실안경(6)은 애플리케이션의 화면을 하나의 촬영영상으로 촬영하지 못할 수 있다. 이러한 경우 증강현실안경(6)은 파노라마 촬영을 선택할 수 있도록 설정된다.The edge control unit 600 may be composed of a work computer equipped with a monitor. If the monitor is a multi-monitor - a plurality of flat monitors are arranged at a predetermined angle - or a curved monitor, the augmented reality glasses 6 may be applied to the application. It may not be possible to capture the screen of a single recording image. In this case, the augmented reality glasses 6 are set to select panoramic shooting.

파노라마 촬영이 선택될 경우, 증강현실안경(6) 착용자는 모니터를 회전시켜서 360도 원형 이미지를 촬영하거나, 모니터 방향으로 몸 또는 고개를 회전시키면서 360도 원형 이미지(곡면 이미지)를 촬영할 수 있다.When panoramic shooting is selected, the wearer of the augmented reality glasses 6 may rotate the monitor to capture a 360-degree circular image or rotate the body or head in the direction of the monitor to capture a 360-degree circular image (curved surface image).

촬영된 360도 원형 이미지는 관리서버(3)로 전송되어 영상처리되는데, 관리서버(3)는 원형 이미지에서 평면 이미지를 생성하기 위한 부분 왜곡 해소 및 부분 이미지 처리를 위해 원형 이미지를 분할한다. 즉, 분할된 원형 이미지의 단위(원형 분할 단위 이미지)는 해상도, 원호, 픽셀, 이미지 왜곡 등을 고려하여 분할될 수 있다.The photographed 360-degree circular image is transmitted to the management server 3 and processed, and the management server 3 divides the circular image for partial distortion relief and partial image processing to generate a flat image from the circular image. That is, the unit of the divided circular image (circular division unit image) may be divided in consideration of resolution, arc, pixel, image distortion, and the like.

원형 분할 단위 이미지를 기반으로 평면 이미지를 생성하는 방법은 다음과 같다.A method of generating a flat image based on a circular segmentation unit image is as follows.

우선, 원형 분할 단위 이미지의 픽셀 구조를 파악할 수 있다. 픽셀 구조가 파악된 원형 분할 단위 이미지에 대한 기준 초점 픽셀을 추출할 수 있다. 기준 초점 픽셀은 확장 또는 축소가 필요하지 않은 픽셀일 수 있다. 픽셀 구조는 기준 초점 픽셀을 기준으로 축소해야 하는 픽셀과 확장해야 하는 픽셀로 구분될 수 있다.First, a pixel structure of a circular division unit image may be grasped. Reference focus pixels for the circular segmentation unit image of which the pixel structure is determined may be extracted. A reference focus pixel may be a pixel that does not require expansion or contraction. The pixel structure may be divided into pixels to be reduced and pixels to be expanded based on the reference focus pixel.

평면 분할 단위 이미지를 생성하기 위한 부분 왜곡 해소를 위해 픽셀 당 보정 처리를 수행할 수 있다. 예를 들어, 기준 초점 픽셀을 기준으로 확장된 영역에 대해서는 축소 면적을 결정하여 축소를 수행하고, 축소된 영역에 대해서는 확장 영역을 결정하고 보간을 통해 확장을 수행할 수 있다. 해상도, 원호, 픽셀, 이미지 왜곡 등을 고려한 추가적인 이미지 처리를 통해 평면 분할 단위 이미지를 추출할 수 있다. 이러한 방법을 통해 복수의 원형 분할 단위 이미지가 복수의 평면 분할 단위 이미지로 생성될 수 있다.A correction process per pixel may be performed to eliminate partial distortion for generating a plane division unit image. For example, reduction may be performed by determining a reduction area for an area expanded based on a reference focus pixel, and expansion may be performed through interpolation after determining an expansion area for the reduced area. A plane segmentation unit image may be extracted through additional image processing in consideration of resolution, arc, pixel, image distortion, and the like. Through this method, a plurality of circular division unit images may be generated as a plurality of planar division unit images.

즉, 관리서버(3)는 파노라마 촬영영상이 전송될 경우, 상술한 바와 같이 복수의 평면 분할 단위 이미지를 생성한 후, 화면의 객체 또는 마커를 식별하므로 자동식별 확률이 더욱 높아진다.That is, when a panoramic image is transmitted, the management server 3 generates a plurality of plane division unit images as described above, and then identifies an object or marker on the screen, so the automatic identification probability is further increased.

관리서버(3)는 증강현실안경(6)에서 전송되는 이미지를 수신하여, 실시간으로 객체를 인식하는 이미지 프로세서를 진행한다. 관리서버(3)는 인식된 객체정보를 증강현실안경(6)으로 피드백한다. 즉, 객체인식을 진행하는 과정이 관리서버(3)에서 진행되고, 관리서버(3)는 인식된 결과만을 객체정보로써 증강현실안경(6)에 피드백함으로써 증강현실안경(6)의 연산부하가 감소되는 효과가 발생한다. 이때, 증강현실안경(6)은 이미지를 송신하는 동시에 처리를 원하는 영상처리명령까지 관리서버(3)에 전송하고, 그 결과값만을 피드백 받을 수 있다.The management server 3 receives the image transmitted from the augmented reality glasses 6 and proceeds with an image processor that recognizes an object in real time. The management server 3 feeds back the recognized object information to the augmented reality glasses 6 . That is, the process of object recognition proceeds in the management server 3, and the management server 3 feeds back only the recognized result as object information to the augmented reality glasses 6, thereby reducing the computational load of the augmented reality glasses 6. a diminishing effect occurs. At this time, the augmented reality glasses 6 transmit the image and at the same time transmit the image processing command desired to be processed to the management server 3, and only the resultant value can be fed back.

이와 같이, 관리서버(3)는 인식된 객체정보를 증강현실안경(6)으로 피드백 하는데, 각각의 객체정보는 객체 종류별로 미리 할당된 식별코드 및 각 객체의 중심영역에 대한 시간별 위치정보를 포함한다. In this way, the management server 3 feeds back the recognized object information to the augmented reality glasses 6, and each object information includes an identification code pre-allocated for each object type and location information for each object's central area by time. do.

예를 들면, 화면의 영상(주변 카메라 촬영영상)에서 지게차 번호판이라는 객체가 인식될 경우, 지게차 번호판에 미리 할당된 식별코드와, 지게차 번호판의 중심영역의 위치(좌표)에 대한 시간별 위치정보가 전송된다.For example, when an object called a forklift license plate is recognized from an image on the screen (a video taken by a surrounding camera), an identification code pre-assigned to the forklift license plate and location information by time about the location (coordinates) of the center area of the forklift license plate are transmitted do.

참고적으로, 식별코드는 객체코드 및 부가코드를 포함하는데, 객체코드는 지게차 번호판이라는 형상에 부여된 코드이고, 부가코드는 지게차 번호판의 번호 등과 같은 부가 데이터 정보를 코드화한 것으로 정의된다.For reference, the identification code includes an object code and an additional code. The object code is a code given to the shape of a forklift license plate, and the additional code is defined as coded additional data information such as a forklift license plate number.

따라서 증강현실안경(6) 입장에서는 이미지 프로세싱작업을 직접 처리하지 않고도 관리서버(3)로부터 전송되는 객체정보를 수신하여, 지게차 번호판이라는 객체의 인식된 번호와, 그 이동위치를 파악할 수 있다. 관리서버(300)는 증강현실안경(6)의 요청에 의해 복수의 객체를 동시에 인식하고, 각각의 위치를 실시간 추적 가능하다. 이러한 요청사항은 사용자 단말기(4)에 챗봇형태로 입력가능하다.Therefore, from the point of view of the augmented reality glasses 6, the object information transmitted from the management server 3 can be received without directly processing the image processing work, and the recognized number of the object called the forklift license plate and the moving position can be grasped. The management server 300 simultaneously recognizes a plurality of objects at the request of the augmented reality glasses 6, and can track each location in real time. These requests can be input to the user terminal 4 in the form of a chatbot.

또한, 관리서버(3)는 촬영영상 중에서 영상의 변화가 없는 부분을 피드백하고, 증강현실안경(6)은 영상의 변화가 없는 부분은 자동 제거함으로써 자체 저장 용량(증강현실안경(6)의 메모리 용량)을 감소시킬 수 있다.In addition, the management server 3 feeds back the part without change in the image among the captured images, and the augmented reality glasses 6 automatically removes the part without change in the image, thereby providing its own storage capacity (memory of the augmented reality glasses 6). capacity) may be reduced.

또한, 관리서버(3)는 영상을 복수의 영역으로 구분한 후, 객체의 움직임 속도를 고려하여 각 영역별 저장 영상 프레임을 가변시킬 수 있는 정보를 증강현실안경(6)으로 피드백 할 수 있다.In addition, the management server 3 divides the image into a plurality of regions, and then feeds back information capable of varying the stored image frame for each region to the augmented reality glasses 6 in consideration of the movement speed of the object.

한편, 증강현실안경(6)은 미리 설정된 촬영영역을 복수의 서브영역으로 분할한 후, 각 영역별 감지시간, 감지객체, 감지 이벤트를 독립적으로 미리 설정할 수 있다. 따라서 엣지 제어부(100)의 모니터가 복수 개 일 경우, 각 모니터를 서브영역으로 분할한 후 각 서브영역별로 감시하고자 하는 객체 이벤트 등을 독립적으로 설정할 수 있다.On the other hand, the augmented reality glasses 6 may divide a pre-set shooting area into a plurality of sub-areas, and then independently preset sensing time, sensing objects, and sensing events for each area. Accordingly, when the edge control unit 100 has a plurality of monitors, each monitor can be divided into sub-regions, and then an object event to be monitored can be independently set for each sub-region.

이때, 증강현실안경(6)의 처리속도가 빠를 경우, 자체적으로 객체인식동작 등을 수행하고 결과를 터치 패널에 표시할 수도 있으나, 관리서버(3)에 영상 및 객체인식 명령을 송신하고, 관리서버(3)에서 객체인식 동작을 진행한 후 결과만을 증강현실안경(6)으로 피드백 하는 방식이 바람직하다.At this time, if the processing speed of the augmented reality glasses 6 is fast, the object recognition operation may be performed on its own and the result may be displayed on the touch panel, but the image and object recognition commands are transmitted to the management server 3 and managed. It is preferable that the server 3 performs an object recognition operation and then feeds back only the results to the augmented reality glasses 6 .

또한, 사용자 단말기(4)의 애플리케이션에 지도가 표시되고 지도상의 마커가 해당 사용자에게 강조해야하는 부분일 경우 가상객체로 표시될 수 있다. 즉, 실제영상정보에 대응되는 가상객체가 표시되며 가상객체가 터치될 경우, 미리 설정된 가상객체의 정보가 상세히 표시될 수 있다.In addition, when a map is displayed in an application of the user terminal 4 and a marker on the map is a part to be emphasized to the user, it may be displayed as a virtual object. That is, a virtual object corresponding to real image information is displayed, and when the virtual object is touched, preset information of the virtual object may be displayed in detail.

예를 들면, 알림 아이콘이 가상객체로 표시되고 해당부분을 터치하면 사용자에게 제공할 상세한 정보가 표시된다.For example, a notification icon is displayed as a virtual object, and detailed information to be provided to the user is displayed when a corresponding part is touched.

또한, 엣지 제어부는 복수의 주변 카메라의 촬영정보를 토대로 시스템 주위를 이동하는 객체, 예를 들면 지게차의 화재를 자동 추정할 수 있다. 이때, 메인 제어부는 지게차의 엔진룸의 온도 뿐만 아니라 배기가스의 방출량 및 방출누적시간을 토대로 화재위험을 경고할 수 있다. 이때 엣지 제어부는 딥러닝 알고리즘을 통해 지게차의 화재위험을 검출할 경우, 지게차 주변에 적재된 적재물을 지게차에서 가장 원거리에 있는 위치로 이동하도록 제어한다.In addition, the edge control unit may automatically estimate a fire in an object moving around the system, for example, a forklift, based on photographing information of a plurality of peripheral cameras. At this time, the main control unit may warn of the risk of fire based on the temperature of the engine room of the forklift as well as the emission amount and emission accumulation time of the exhaust gas. At this time, when the edge control unit detects a fire risk of the forklift through a deep learning algorithm, it controls the load loaded around the forklift to be moved to the farthest position from the forklift.

이때, 엣지 제어부는 적재물의 종류에 대한 정보를 취합하고 있으므로, 적재물에 대한 화재위험도를 고려하여 가연성, 인화성 물질을 우선순위로 원거리로 이동시킬 수 있다. 또한, 엣지 제어부는 소정의 위치에 배치된 소화액이 포함된 적재물을 화재위험이 있는 지역으로 가장 가까이 이동시켜서 화재전파를 지연시키도록 제어할 수 있다.At this time, since the edge control unit collects information on the type of load, it can move flammable and inflammable materials to a distance with priority in consideration of the fire risk of the load. In addition, the edge control unit may control the fire propagation to be delayed by moving the load containing the fire extinguishing liquid disposed at a predetermined location closest to the fire risk area.

관리서버(3)는 제1 엣지 제어부가 주변 카메라의 촬영 데이터를 수신하여 객체인식 할 때, 연산량이 기준값보다 초과하는 경우, 일부 데이터를 전송받아 분산처리한 후 중간 결과물을 제1 엣지 제어부에 전송하여 최종결과는 제1 엣지 제어부에서 도출하도록 처리한다.The management server 3 transmits intermediate results to the first edge control unit after receiving and distributing some data when the first edge control unit receives photographic data from surrounding cameras and recognizes an object, when the amount of operation exceeds the reference value. Then, the final result is processed to be derived by the first edge control unit.

참고적으로 복수의 주변 카메라의 각 주변 카메라는 촬영영상을 이웃하는 주변 카메라에 순차적으로 전달하여 엣지 제어부에서 가장 가까운 주변 카메라가 무선으로 엣지 제어부에 전달하도록 구성되는 것이 바람직하다. 즉, 각 주변 카메라는 이웃하는 주변 카메라의 촬영영상을 무선중계하는 방식으로 엣지 제어부에 데이터를 전달한다.For reference, it is preferable that each peripheral camera of the plurality of peripheral cameras sequentially transfers captured images to neighboring peripheral cameras so that a peripheral camera closest to the edge controller wirelessly transmits captured images to the edge controller. That is, each peripheral camera transmits data to the edge control unit in a manner of wirelessly relaying images taken by neighboring peripheral cameras.

도 3은 도 2의 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템의 동작 비교도이다.3 is a comparison diagram of operation of a deep learning-based smart automated logistics warehouse system linked with the user terminal of FIG. 2 .

도 3을 참조하면, 본 발명의 실시예에 따른 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템은, 적재 및 오더 피킹 작업시 최단시간에 작업을 진행하기 위한 딥러닝 알고리즘이 적용된다. 즉, 엣지 제어부에서 수신된 정보를 기반으로 딥러닝 알고리즘을 적용하여 물품이 수납되는 위치를 자동선정한다.Referring to FIG. 3 , a deep learning-based smart automated logistics warehouse system that works with a user terminal according to an embodiment of the present invention applies a deep learning algorithm to perform work in the shortest time during loading and order picking. That is, based on the information received from the edge controller, a deep learning algorithm is applied to automatically select a storage location.

딥러닝 알고리즘은 적재 데이터 분석과 학습을 통한 적재 장소 최적화를 진행하는데, 적재수량, 하중, 소요랑 예측을 하여 자율운행 학습을 진행한다.The deep learning algorithm optimizes the loading site through analysis and learning of loading data, and autonomous driving learning is performed by predicting the loading quantity, load, and required amount.

즉, 시간대별 입고/출고 소요량 예측 및 이동시간을 단축시킬 수 있으며, 최소작업공간으로 작업편리성 부여 및 입출고 병목현상을 해결한다.In other words, it is possible to predict the amount of warehousing/shipping by time and shorten the movement time, and to provide work convenience and solve the warehousing and warehousing bottleneck with the minimum work space.

또한, 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템은 딥러닝 기반 최적의 동선을 파악하고, 순차적재 및 사전 프로그래밍화 된 로직에 의한 적재가 아니라 물류의 전반적인 흐름을 파악하여 적재장소를 지정함으로써 효율 극대화 가능하다. In addition, the deep learning-based smart automatic logistics warehouse system linked with the user terminal identifies the optimal movement line based on deep learning, and identifies the overall flow of logistics rather than sequential and pre-programmed logic to determine the loading location. Efficiency can be maximized by specifying

또한, 하중에 따른 물품의 이동속도 조절이 가능하므로 이동시간 최소화를 실현할 수 있으며, 기간별, 사용빈도별 최적위치 선정으로 불필요한 동선을 최소화시킨다.In addition, since it is possible to adjust the movement speed of items according to the load, it is possible to realize the minimization of movement time, and to minimize unnecessary movement lines by selecting the optimal location for each period and frequency of use.

본원발명에서 딥러닝 알고리즘은, 일반적으로 알려진 개미집단 최적화 알고리즘과 국부 최적값에 빠지는 단점을 보완하여 돌연변이를 통해 새로운 경로를 제공하여 전역 최적값으로 넘어갈 수 있는 기회를 제공하는 유전 알고리즘(Genetic Algorithm, GA)을 같이 적용할 수 있다.In the present invention, the deep learning algorithm is a genetic algorithm (Genetic Algorithm, GA) can be applied together.

도 4는 도 2의 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템에서 실시예에 따른 스태커형 적재창고의 사시도이고, 도 5는 적재창고의 스태커를 나타낸 사시도이고, 도 6은 적재창고의 스태커 포크를 나타낸 사시도이고, 도 7은 적재창고의 스태커 포크가 동작된 모습을 나타낸 사시도이다.Figure 4 is a perspective view of a stacker-type warehouse according to an embodiment in the deep learning-based smart automatic logistics warehouse system linked with the user terminal of Figure 2, Figure 5 is a perspective view showing a stacker of the warehouse, Figure 6 is a warehouse It is a perspective view showing the stacker fork of, and FIG. 7 is a perspective view showing the operation of the stacker fork of the loading warehouse.

도 4 내지 도 7에 도시된 바와 같이, 본 발명에 따른 적재창고는 하부 일단에는 물품을 꺼내거나 삽입할 수 있도록 출납부(120)가 마련되어 있고, 내부 전면과 배면에는 팔레트(10)를 삽입하여 수납할 수 있도록 일정한 간격으로 거치레일(110)이 형성된 저장부(100)와, 저장부(100)의 내부 중앙에 위치되어 저장부(100)의 수직 및 수평방면으로 이송되고, 저장부(100)에 수납된 팔레트(10)를 출납부(120)로 이동하거나 팔레트(10)를 저장부(100)에 수납하는 스태커(200)와, 저장부(100)의 출납부(120)에 마련되어 수납되는 물품을 촬영하여 크기를 측정하는 촬영부(300)와, 저장부(100)의 출납부(120)에 마련되어 수납되는 물품의 무게를 측정하는 감지부(400)와, 스태커(200), 촬영부(300), 감지부(400)의 동작을 제어하며, 촬영부(300)와 감지부(400)에 의해 측정된 정보를 기반으로 딥러닝 알고리즘을 적용하여 기반으로 물품이 수납되는 위치를 선정하는 엣지 제어부(600)를 포함하는 것을 특징으로 한다. 여기에서 딥러닝 알고리즘은 유전 알고리즘(Genetic Algorithm, GA)을 적용할 수 있다.As shown in Figures 4 to 7, the loading warehouse according to the present invention has a drawer 120 provided at one end of the lower end to take out or insert goods, and the pallet 10 is inserted and stored on the inside front and rear surfaces. The storage unit 100 in which the mounting rails 110 are formed at regular intervals so as to be located in the center of the storage unit 100 and transferred to the vertical and horizontal directions of the storage unit 100, the storage unit 100 The stacker 200 for moving the pallet 10 stored in the drawer 120 or storing the pallet 10 in the storage unit 100, and the goods provided in the drawer 120 of the storage unit 100 to be stored A photographing unit 300 for photographing and measuring the size, a detector 400 provided in the drawer 120 of the storage unit 100 to measure the weight of items to be stored, a stacker 200, and a photographing unit 300 , Edge control unit that controls the operation of the sensing unit 400 and selects a position where an item is stored based on applying a deep learning algorithm based on the information measured by the photographing unit 300 and the sensing unit 400 ( 600). Here, the deep learning algorithm can apply a genetic algorithm (Genetic Algorithm, GA).

저장부(100)의 출납부(120)의 양측에 각각 형성되며 팔레트(10)에 거치된 적재물을 팔레트(10)의 중앙에 위치되도록 외면을 가압하여 정렬하는 정렬부(500)를 더 포함하는 것을 특징으로 한다.It is formed on both sides of the drawer 120 of the storage unit 100 and further includes an alignment unit 500 for aligning the loads mounted on the pallet 10 by pressing the outer surface to be located in the center of the pallet 10. to be characterized

저장부(100)는 내부가 비어져 있는 사각형 형태의 프레임으로 형성되어 있으며, 하부 일단에는 저장부(100) 내부에 형성된 적재물이 적층된 팔레트(10)를 꺼내거나 수납하기 위한 컨베이어벨트로 이루어진 출납부(120)가 형성되어 있다.The storage unit 100 is formed of a rectangular frame with a hollow inside, and at one end of the lower end is a drawer made of a conveyor belt for taking out or receiving pallets 10 stacked with loads formed inside the storage unit 100. (120) is formed.

이때 저장부(100)의 내부 전면과 배면에는 각각 팔레트(10)가 수납되어 저장될 수 있도록 다수 개의 거치레일(110)이 형성되어 있으며, 저장부(100)의 내부에 다수 개의 팔레트(10)가 수납되어 있어 스태커(200)에 의해 하나씩 출납부(120)로 노출시켜 수납되는 적재물을 팔레트(10) 상부에 거치시킨 후 스태커(200)에 의해 저장부(100) 내부로 수납할 수 있게 된다.At this time, a plurality of mounting rails 110 are formed on the inner front and rear surfaces of the storage unit 100 so that the pallets 10 can be accommodated and stored, respectively, and a plurality of pallets 10 inside the storage unit 100 are stored, so that the loads to be stored are exposed to the drawer 120 one by one by the stacker 200, and then stored on top of the pallet 10, and then stored into the storage unit 100 by the stacker 200.

거치레일(110)은 팔레트(10)의 양측 하부면을 지지할 수 있도록 형성되어 있기 때문에 적재물의 크기에 맞춰 팔레트(10)가 삽입되는 위치를 변경함으로써 적재물이 수납되는 공간을 조절할 수 있게 된다.Since the mounting rails 110 are formed to support the lower surfaces of both sides of the pallet 10, the space in which the loads are accommodated can be adjusted by changing the insertion position of the pallet 10 according to the size of the loads.

스태커(200)는 저장부(100)의 중앙에 위치되어 수평 또는 수직 방면으로 이동될 수 있도록 형성되고, 저장부(100)의 전면 또는 배면에 형성되어 있는 거치레일(110)을 향해 슬라이딩되어 팔레트(10)를 인출 또는 삽입하기 위해 사용된다.The stacker 200 is located in the center of the storage unit 100 and is formed to be movable in a horizontal or vertical direction, and is slid toward a mounting rail 110 formed on the front or rear surface of the storage unit 100 to palletize. (10) is used to withdraw or insert.

이를 위해 스태커(200)는 저장부(100)의 내부에 형성되어 엣지 제어부(600)에 의해 수직으로 승강되도록 형성되는 제1이송부(210)와, 제1이송부(210)에 형성되어 저장부(100)의 일단 또는 타단을 향해 수평으로 이동되는 제2이송부(220)와, 제1이송부(210)에 형성되어 저장부(100)의 전면 또는 배면 방면으로 슬라이딩된 후 팔레트(10)를 파지하여 제1이송부(210)의 상부로 위치시키는 포크(230)로 이루어진다.To this end, the stacker 200 is formed inside the storage unit 100 and formed in the first transfer unit 210 formed to be vertically elevated by the edge control unit 600, and formed on the first transfer unit 210 to store the ( 100) is formed on the second transfer unit 220 that moves horizontally toward one end or the other end, and the first transfer unit 210 slides toward the front or back of the storage unit 100 and then grips the pallet 10 It consists of a fork 230 positioned above the first transfer unit 210.

이때 제1이송부(210) 및 제2이송부(220)는 수치제어에 의해 승강되는 위치를 판단하여 설정된 위치에 수납된 팔레트(10)가 인출 또는 삽입될 수 있도록 하는 것이 바람직하며, 포크(230)는 팔레트(10)의 전면 하부에 형성된 홈에 삽입될 수 있도록 길이가 신축될 수 있도록 형성되어 있다.At this time, it is preferable that the first transfer unit 210 and the second transfer unit 220 determine the lifting position by numerical control so that the pallet 10 stored in the set position can be withdrawn or inserted, and the fork 230 is formed so that the length can be stretched so that it can be inserted into the groove formed in the lower front surface of the pallet 10.

제1이송부(210)는 와이어(211)를 통해 권취모터(212)와 연결되어 있으며, 권취모터(212)는 와이어(212)와 연결된 권취릴(213)을 회전시킴으로써 와이어(212)의 권취 방향에 따라 승강될 수 있도록 형성되어 있으며, 제2이송부(220)는 이송모터(234)에 의해 레일을 따라 수평방향으로 이송될 수 있도록 형성되어 있다.The first transfer unit 210 is connected to the take-up motor 212 through a wire 211, and the take-up motor 212 rotates the take-up reel 213 connected to the wire 212 to wind the wire 212 in the winding direction. It is formed so that it can be raised and lowered according to, and the second transfer unit 220 is formed so that it can be transferred in a horizontal direction along the rail by the transfer motor 234.

포크(230)는 제1이송부(210)의 상부에 고정되어 있는 베이스 스테이지(231)가 형성되어 있고, 베이스 스테이지(231) 상부에 제1스테이지(232)와 제2스테이지(233)가 순차적으로 결합되어 있다.The fork 230 has a base stage 231 fixed to the top of the first transfer unit 210, and a first stage 232 and a second stage 233 are sequentially formed on the top of the base stage 231. are combined

제1스테이지(232)는 베이스 스테이지(231)의 일단과 타단 방면만 구속되어 이동될 수 있도록 형성되고, 제2스테이지(233)는 제1스테이지(232)의 일단 또는 타단 방향을 향해 돌출되어 팔레트(10) 내부로 삽입될 수 있게 된다.The first stage 232 is formed so that only one end and the other end of the base stage 231 can be constrained and moved, and the second stage 233 protrudes toward one end or the other end of the first stage 232 to palletize. (10) It can be inserted inside.

제2스테이지(233)가 팔레트(10)에 삽입되면 제1이송부(210)가 상승되어 팔레트(10)를 거치레일(110)로부터 이격시키고, 제2스테이지(233) 및 제1스테이지(232)가 베이스 스테이지(231)의 중앙으로 위치되면서 팔레트(10)를 제1이송부(210) 상부로 위치시킬 수 있게 된다.When the second stage 233 is inserted into the pallet 10, the first transfer unit 210 is raised to separate the pallet 10 from the mounting rail 110, and the second stage 233 and the first stage 232 As is positioned at the center of the base stage 231, the pallet 10 can be positioned above the first transfer unit 210.

촬영부(300)는 저장부(100) 내부로 저장되는 적재물의 크기를 측정하기 위한 것으로 카메라를 이용하여 적재물을 촬영하고, 촬영된 정보를 기반으로 적재물의 크기를 3차원으로 측정하여 저장되는 공간을 할당하기 위해 사용된다.The photographing unit 300 is for measuring the size of the load stored in the storage unit 100, and a space stored by photographing the load using a camera and measuring the size of the load in three dimensions based on the photographed information. is used to assign

이를 위해 촬영부(300)는 출납부(120)의 상부에 위치되어 팔레트(10)의 상부에 적재된 적재물의 상부면 크기를 측정하는 제1카메라(310)와, 스태커(200)에 형성되어 팔레트(10)의 상부에 적재된 적재물의 전면을 촬영하여 전면 크기를 측정하는 제2카메라(320)와, 팔레트(10)에 형성되어 제1카메라(310)와 제2카메라(320)가 적재물을 촬영할 때 함께 촬영되어 기준치수를 결정하는 기준마커(330)로 이루어지는 것을 특징으로 한다.To this end, the photographing unit 300 includes a first camera 310 located above the drawer 120 and measuring the size of the upper surface of the load loaded on the pallet 10, and the stacker 200 formed on the pallet. A second camera 320 for measuring the size of the front of the load loaded on the top of the 10 is photographed, and the first camera 310 and the second camera 320 are formed on the pallet 10 to detect the load. It is characterized in that it is made of a reference marker 330 that is photographed together when photographing and determines the reference size.

촬영부(300)의 제1카메라(310)는 출납부(120)의 상부에 위치되어 있기 때문에 항상 출납부(120)에 위치된 팔레트(10)의 상부에 적재된 적재물의 가로와 세로 크기를 측정할 수 있게 되며, 제2카메라(320)는 출납부(120)의 측면에 형성되어 적재물의 높이 방향을 촬영함으로써 적재물에 대한 3차원의 크기를 측정할 수 있게 된다.Since the first camera 310 of the photographing unit 300 is located above the drawer 120, it can always measure the horizontal and vertical sizes of loads loaded on the top of the pallet 10 located in the drawer 120. The second camera 320 is formed on the side of the drawer 120 and takes pictures in the height direction of the load, thereby measuring the three-dimensional size of the load.

이때 팔레트(10)에는 촬영된 이미지에서 기준 치수를 설정하기 위한 기준마커(330)가 다수개가 형성되어 있으며, 제1카메라(310)와 제2카메라(320)는 적재물을 촬영할 때 함께 촬영된 기준마커(330)의 크기를 기준으로 적재물의 크기를 산정할 수 있게 된다.At this time, a plurality of reference markers 330 for setting reference dimensions in the photographed image are formed on the pallet 10, and the first camera 310 and the second camera 320 are photographed together when photographing the load. Based on the size of the marker 330, it is possible to calculate the size of the load.

이때 기준마커(330)의 크기는 1cm 또는 10cm단위로 형성되어 있는 것이 바람직하며, 이러한 치수는 적재되는 적재물의 크기에 따라 달라질 수 있게 된다.At this time, it is preferable that the size of the reference marker 330 is formed in units of 1 cm or 10 cm, and this size may vary depending on the size of the loaded object.

엣지 제어부(600)는 측정된 적재물의 크기에 맞춰 저장부(100)에 저장되는 위치를 할당하게 되며, 이때 적재물의 크기는 엣지 제어부(600)에 저장되어 다음 적재물이 수납될 때 수납되어 있는 적재물의 공간을 제외한 영역에서부터 공간을 할당할 수 있게 된다.The edge controller 600 allocates a location to be stored in the storage unit 100 according to the measured size of the load. At this time, the size of the load is stored in the edge controller 600 and stored when the next load is stored. It becomes possible to allocate space from the area excluding the space of .

즉, 치수를 통해 정확한 위치를 파악할 수 있으므로 공간을 최대한으로 활용할 수 있게 된다.In other words, since the exact location can be determined through the dimensions, the space can be utilized to the maximum.

감지부(400)는 팔레트(10)에 적재된 적재물의 중량을 측정하여 고중량은 저장부(100)의 하부에 위치되도록 하고 저중량은 저장부(100)의 상부에 위치되도록 함으로써 저장부(100)의 무게중심이 하부에 위치되도록 하여 저장부(100)가 쓰러지거나 스태커(200)가 구동할 때 파손되는 것을 최소화하기 위해 사용된다.The sensing unit 400 measures the weight of loads loaded on the pallet 10 so that the high weight is located at the lower part of the storage unit 100 and the lower weight is located at the upper part of the storage unit 100 so that the storage unit 100 It is used to minimize damage when the storage unit 100 collapses or when the stacker 200 is driven by positioning the center of gravity of the lower part.

이를 위해 감지부(400)는 출납부(120)에 형성되어 출납부(120)에 거치된 팔레트(10)의 무게를 측정하고 빈 팔레트를 기준으로 팔레트(10)에 적재되는 적재물의 무게를 측정하는 다수 개의 무게센서(410)로 이루어지는 것을 특징으로 한다.To this end, the detector 400 is formed on the drawer 120 to measure the weight of the pallet 10 mounted on the drawer 120 and to measure the weight of loads loaded on the pallet 10 based on the empty pallet. It is characterized in that it consists of a dog weight sensor (410).

출납부(120)는 다수 개의 봉이 회전되도록 형성되는 컨베이어 벨트로 이루어져 있는데, 각각의 봉에 무게센서(410)를 형성시켜 팔레트(10)가 거치된 후 적재물의 중량에 의해 하부 방면으로 가압되면 무게센서(410)가 중량을 측정하여 적재물의 무게를 측정할 수 있게 된다.The drawer 120 is composed of a conveyor belt formed so that a plurality of rods are rotated. A weight sensor 410 is formed on each rod so that when the pallet 10 is placed and pressed downward by the weight of the load, the weight sensor 410 measures the weight so that the weight of the load can be measured.

이때 무게가 팔레트(10)에 적재되는 허용범위 또는 스태커(200)가 구동하기 위한 허용범위를 초과하는 경우 엣지 제어부(600)에 의해 수납이 되지 않도록 스태커(200)가 정지되고 경고 알람이 발생되도록 제어될 수 있게 된다.At this time, if the weight exceeds the allowable range to be loaded on the pallet 10 or the allowable range for the stacker 200 to drive, the stacker 200 is stopped so that the stacker 200 is not accommodated by the edge control unit 600 and a warning alarm is generated. can be controlled.

정렬부(500)는 출납부(120)의 양측에 위치되어 팔레트(10)의 상부에 적재되는 적재물의 위치를 중앙에 위치되도록 하기 위한 것으로, 양측에는 중앙을 향해 슬라이드 되어 이동되는 가압대(510)가 형성되어 있고, 가압대(510)가 이송되기 위한 가압레일(520)이 출납부(120) 내부에 형성되어 있다.The aligning unit 500 is located on both sides of the drawer 120 to center the position of the load loaded on the upper part of the pallet 10, and on both sides, a support stand 510 that slides and moves toward the center is formed, and a pressure rail 520 for transferring the pressure table 510 is formed inside the drawer 120.

즉, 촬영부(300)에 의해 적재물을 촬영할 때 적재물의 위치가 촬영범위를 벗어나거나 기준마커(330)를 가리는 경우 정렬부(500)에 의해 적재물을 팔레트(10)의 중앙에 위치시켜 촬영이 용이한 자세로 정렬시킬 수 있게 된다.That is, when the position of the load is out of the shooting range or the reference marker 330 is covered when the load is photographed by the photographing unit 300, the alignment unit 500 locates the load at the center of the pallet 10 so that the photograph can be performed. It can be easily aligned.

또한 정렬부(500)는 팔레트(10)를 선택적으로 정렬시킬 수 있으며, 이를 통해 스태커(200)의 포크(230)가 팔레트(10)에 형성된 홈에 정확하게 삽입될 수 있도록 제어할 수도 있게 된다.In addition, the aligning unit 500 can selectively align the pallets 10, and through this, it is possible to control the forks 230 of the stacker 200 to be accurately inserted into the grooves formed in the pallets 10.

참고적으로, 엣지 제어부(600)는 현장에 설치된 개인용 컴퓨터 또는 업무용 컴퓨터로 구성될 수 있는데, 컴퓨터에 설치된 제어 애플리케이션은 미리 등록된 스마트폰에 설치된 제어 애플리케이션과 연동되어 동작할 수 있다.For reference, the edge control unit 600 may be configured with a personal computer or business computer installed in the field, and a control application installed in the computer may operate in conjunction with a control application installed in a pre-registered smartphone.

따라서 관리자는 자신의 스마트폰에 설치된 제어 애플리케이션을 통해 시스템의 동작상태를 실시간으로 확인할 수 있다.Therefore, the administrator can check the operating status of the system in real time through the control application installed on his/her smartphone.

또한, 제어 애플리케이션은 각 팔레트의 적재물의 종류, 보관상태, 보관누적시간, 입고시간, 예상출고시간 등을 데이터베이스 형태로 관리하여 최적화된 정보를 제공할 수 있다.In addition, the control application can provide optimized information by managing the type of load of each pallet, storage status, accumulated storage time, warehousing time, expected shipping time, etc. in the form of a database.

제어 애플리케이션은 팔레트에 적재물을 적재하는 동안의 진동상태를 표시할 수 있다. 즉, 적재물의 이동경로에 따른 진동크기를 표시하고, 미리 설정된 진동크기를 초과할 경우, 해당 구간의 상태를 유의구간으로 지정한 후, 다른 적재물의 적재과정에서 이동속도를 자동 감속시키도록 자동 제어할 수 있다. 이러한 판단은 학습된 딥러닝 알고리즘에 의해서 결정될 수 있다.The control application can display vibration conditions during loading of pallets. That is, the magnitude of vibration according to the moving path of the load is displayed, and if the magnitude of vibration exceeds the preset level, the state of the corresponding section is designated as a significant section, and then automatically controlled to automatically reduce the movement speed during the loading process of other loads. can This determination may be determined by a learned deep learning algorithm.

또한, 복수의 주변 카메라가 구비될 수 있으며, 촬영된 정보는 엣지 제어부로 전송된다.In addition, a plurality of peripheral cameras may be provided, and photographed information is transmitted to the edge controller.

주변 카메라는 시스템의 주변을 촬영하는데, 적재물이 이동하는 상태를 촬영할 뿐만 아니라, 주위의 작업자의 행위, 지게차 이동상태 까지 촬영하도록 동작한다.The peripheral camera captures the surroundings of the system. It not only captures the moving state of the load, but also operates to record the actions of nearby workers and the moving state of the forklift.

엣지 제어부로 전송된 영상은 관리자의 휴대용 단말기(스마트폰)로 전송될 수 있는데, 휴대용 단말기의 화면에 표시된 적재물의 실제영상정보에 대응되는 가상객체가 표시될 수 있다. 가상객체가 터치될 경우, 터치된 부위에 해당하는 미리 설정된 가상객체의 움직임이 재생될 수 있다. The image transmitted to the edge control unit may be transmitted to the manager's portable terminal (smart phone), and a virtual object corresponding to the actual image information of the load displayed on the screen of the portable terminal may be displayed. When a virtual object is touched, a motion of a preset virtual object corresponding to the touched part may be reproduced.

예를 들면, (패키징된) 적재물의 아이콘이 가상객체로 표시되고 해당부분을 터치하면 적재물의 3D 모델링 이미지가 회전하면서 표시될 수 있다.For example, an icon of a (packaged) load is displayed as a virtual object, and when a corresponding part is touched, a 3D modeling image of the load may be rotated and displayed.

이와 같이, 휴대용 단말기의 화면에 실제영상정보에 대응되는 가상객체가 표시될 경우, 선택된 가상객체의 좌표는 실제영상정보에 대한 공간 좌표계에서 휴대용 단말기의 모바일 좌표계로 변경되고, 선택 해제된 가상객체의 좌표는 휴대용 단말기의 모바일 좌표계에서 실제영상정보에 대한 공간 좌표계로 변경될 수 있다.As such, when a virtual object corresponding to real image information is displayed on the screen of the portable terminal, the coordinates of the selected virtual object are changed from the spatial coordinate system for the real image information to the mobile coordinate system of the portable terminal, and the coordinates of the deselected virtual object Coordinates can be changed from the mobile coordinate system of the portable terminal to the spatial coordinate system for real image information.

한편, 복수의 주변 카메라는 가시영상 촬영부, 열화상 촬영부, 레이더 센서부를 포함하는데, 그 각각의 카메라는 내부의 모터를 이용하여 회전(PAN), 방향기울기(TILT), 줌(ZOOM) 조정이 가능하도록 구성되는 것이 바람직하며, 가시영상 촬영부, 열화상 촬영부, 레이더 센서부는 모두 동일한 촬영영역을 감지하도록 설정되는 것이 가장 바람직하다.Meanwhile, the plurality of peripheral cameras include a visible image capture unit, a thermal image capture unit, and a radar sensor unit, and each camera adjusts rotation (PAN), directional tilt (TILT), and zoom (ZOOM) using an internal motor. Preferably, the visible image capturing unit, the thermal image capturing unit, and the radar sensor unit are all configured to detect the same capturing area.

만약 가시영상 촬영부, 열화상 촬영부, 레이더 센서부가 서로 다른 촬영영역을 감지할 경우, 엣지 제어부는 가시영상 촬영부, 열화상 촬영부, 레이더 센서부가 각각 감지하는 영역 중에서 공통영역만을 자동으로 촬영영역으로 설정하여 영상을 처리하는 동작을 진행한다.If the visible image capture unit, the thermal image capture unit, and the radar sensor unit detect different shooting areas, the edge control unit automatically captures only the common area among the areas detected by the visible image capture unit, the thermal image capture unit, and the radar sensor unit. Set it as an area and proceed with the operation of processing the image.

참고적으로, 엣지 제어부는 복수의 주변 카메라의 촬영정보를 토대로 시스템 주위를 이동하는 객체, 예를 들면 지게차의 화재를 자동 추정할 수 있다. 이때, 메인 제어부는 지게차의 엔진룸의 온도 뿐만 아니라 배기가스의 방출량 및 방출누적시간을 토대로 화재위험을 경고할 수 있다. 이때 엣지 제어부는 딥러닝 알고리즘을 통해 지게차의 화재위험을 검출할 경우, 지게차 주변에 적재된 적재물을 지게차에서 가장 원거리에 있는 위치로 이동하도록 제어한다.For reference, the edge control unit may automatically estimate a fire in an object moving around the system, for example, a forklift, based on photographing information of a plurality of peripheral cameras. At this time, the main control unit may warn of the risk of fire based on the temperature of the engine room of the forklift as well as the emission amount and emission accumulation time of the exhaust gas. At this time, when the edge control unit detects a fire risk of the forklift through a deep learning algorithm, it controls the load loaded around the forklift to be moved to the farthest position from the forklift.

이때, 엣지 제어부는 적재물의 종류에 대한 정보를 취합하고 있으므로, 적재물에 대한 화재위험도를 고려하여 가연성, 인화성 물질을 우선순위로 원거리로 이동시킬 수 있다. 또한, 엣지 제어부는 소정의 위치에 배치된 소화액이 포함된 적재물을 화재위험이 있는 지역으로 가장 가까이 이동시켜서 화재전파를 지연시키도록 제어할 수 있다.At this time, since the edge control unit collects information on the type of load, it can move flammable and inflammable materials to a distance with priority in consideration of the fire risk of the load. In addition, the edge control unit may control the fire propagation to be delayed by moving the load containing the fire extinguishing liquid disposed at a predetermined location closest to the fire risk area.

또한, 엣지 제어부는 지게차의 속도를 추정할 때, 가시영상의 픽셀변화량 및 레이더 센서부의 측정값 뿐만 아니라 열화상 촬영부에서 감지된 배기가스 방출량 및 배기가스 온도변화량을 추가로 고려하여 지게차의 속도 변화량을 추정할 수도 있다. In addition, when estimating the speed of the forklift, the edge control unit additionally considers the pixel change amount of the visible image and the measured value of the radar sensor unit as well as the amount of exhaust gas emission and temperature change of the exhaust gas detected by the thermal imaging unit to determine the change in speed of the forklift can also be estimated.

상술한 바와 같이, 본 발명에 따른 적재창고에 의하면, 팔레트에 적재된 적재물의 사이즈를 자동으로 측정하여 저장공간을 효율적으로 사용할 수 있으며, 적재물의 무게를 측정하여 하중이 무거운 적재물은 하단에 위치하도록 하여 하중에 의한 장비의 틀어짐이나 부하를 감소시킬 수 있고, 팔레트 상부에 거치된 적재물의 위치가 틀어지지 않도록 팔레트의 중앙에 자동으로 정렬시킬 수 있는 효과가 있다.As described above, according to the loading warehouse according to the present invention, the storage space can be efficiently used by automatically measuring the size of the loads loaded on the pallet, and the weight of the loads is measured so that the heavy loads are located at the bottom. By doing so, it is possible to reduce the distortion or load of the equipment due to the load, and there is an effect of automatically aligning the center of the pallet so that the position of the load mounted on the upper part of the pallet is not distorted.

또한, 본 발명의 실시예에 따른 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템은, 복수의 주변 카메라의 촬영정보를 토대로 시스템 주위를 이동하는 객체의 화재 위험도를 자동추정하고 화재위험도를 고려하여 물품의 수납위치를 자동조절할 수 있다In addition, the deep learning-based smart automatic logistics warehouse system linked with the user terminal according to an embodiment of the present invention automatically estimates the fire risk of objects moving around the system based on the shooting information of a plurality of surrounding cameras and calculates the fire risk. It is possible to automatically adjust the storage position of the item by taking into account

또한, 시스템은 적재 및 오더 피킹 작업시 최단시간에 작업을 진행하기 위한 딥러닝 알고리즘이 적용된다. 즉, 엣지 제어부에서 수신된 정보를 기반으로 딥러닝 알고리즘을 적용하여 물품이 수납되는 위치를 자동선정한다.In addition, the system applies a deep learning algorithm to perform work in the shortest time during loading and order picking. That is, based on the information received from the edge controller, a deep learning algorithm is applied to automatically select a storage location.

딥러닝 알고리즘은 적재 데이터 분석과 학습을 통한 적재 장소 최적화를 진행하는데, 적재수량, 하중, 소요랑 예측을 하여 자율운행 학습을 진행한다.The deep learning algorithm optimizes the loading site through analysis and learning of loading data, and autonomous driving learning is performed by predicting the loading quantity, load, and required amount.

즉, 시간대별 입고/출고 소요량 예측 및 이동시간을 단축시킬 수 있으며, 최소작업공간으로 작업편리성 부여 및 입출고 병목현상을 해결한다.In other words, it is possible to predict the amount of warehousing/shipping by time and shorten the movement time, and to provide work convenience and solve the warehousing and warehousing bottleneck with the minimum work space.

또한, 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템은 딥러닝 기반 최적의 동선을 파악하고, 순차적재 및 사전 프로그래밍화 된 로직에 의한 적재가 아니라 물류의 전반적인 흐름을 파악하여 적재장소를 지정함으로써 효율 극대화 가능하다. In addition, the deep learning-based smart automatic logistics warehouse system linked with the user terminal identifies the optimal movement line based on deep learning, and identifies the overall flow of logistics rather than sequential and pre-programmed logic to determine the loading location. Efficiency can be maximized by specifying

또한, 하중에 따른 속도 조절이 가능하므로 이동시간 최소화를 실현할 수 있으며, 기간별, 사용빈도별 최적위치 선정으로 불필요한 동선을 최소화시킨다.In addition, since the speed can be adjusted according to the load, the travel time can be minimized, and unnecessary movement is minimized by selecting the optimal location for each period and frequency of use.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As such, those skilled in the art to which the present invention pertains will be able to understand that the present invention may be embodied in other specific forms without changing its technical spirit or essential features. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. The scope of the present invention is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

10 : 팔레트
100 : 저장부
110 : 거치레일
120 : 출납부
200 : 스태커
210 : 제1이송부
211 : 와이어
212 : 권취모터
213 : 권취릴
220 : 제2이송부
221 : 이송모터
230 : 포크
231 : 베이스 스테이지
232 : 제1 스테이지
233 : 제2 스테이지
234 : 구동모터
300 : 촬영부
310 : 제1카메라
320 : 제2카메라
330 : 기준마커
400 : 감지부
410 : 무게센서
500 : 정렬부
510 : 가압대
520 : 가압레일
600 : 엣지 제어부
10 : Palette
100: storage unit
110: rail
120: cashier
200: Stacker
210: first transfer unit
211: wire
212: winding motor
213: winding reel
220: second transfer unit
221: transfer motor
230: fork
231: base stage
232: first stage
233: second stage
234: drive motor
300: shooting unit
310: first camera
320: second camera
330: reference marker
400: sensing unit
410: weight sensor
500: alignment unit
510: Pressure stand
520: pressurized rail
600: edge control

Claims (4)

하부 일단에는 물품을 꺼내거나 삽입할 수 있도록 출납부가 마련되어 있고, 내부 전면과 배면에는 팔레트를 삽입하여 수납할 수 있도록 일정한 간격으로 거치레일이 형성된 저장부;
상기 저장부의 내부 중앙에 위치되어 상기 저장부의 수직 및 수평방면으로 이송되고, 상기 저장부에 상기 팔레트를 출납부로 이동하거나 상기 팔레트를 수납하는 스태커;
상기 저장부의 출납부에 마련되어 수납되는 물품을 촬영하여 크기를 측정하는 촬영부;
상기 저장부의 출납부에 마련되어 수납되는 물품의 무게를 측정하는 감지부;
상기 스태커, 상기 촬영부, 상기 감지부의 동작을 제어하며, 상기 촬영부와 상기 감지부에 의해 측정된 정보를 기반으로 딥러닝 알고리즘을 적용하여 상기 물품이 수납되는 위치를 자동선정하는 엣지 제어부; 및
챗봇 형태로 필요한 정보를 대화형으로 처리하여 할당된 엣지 제어부의 동작을 제어하는 사용자 단말기;
를 포함하는 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템.
A drawer is provided at one end of the lower part to take out or insert goods, and a storage unit with rails formed at regular intervals so that pallets can be inserted and stored on the inside front and back sides;
a stacker located at the inner center of the storage unit, transported in vertical and horizontal directions of the storage unit, and moving the pallet to the storage unit or receiving the pallet;
a photographing unit provided in the drawer of the storage unit and measuring the size of the stored goods by photographing them;
a sensing unit provided in the drawer of the storage unit to measure the weight of stored items;
an edge control unit that controls operations of the stacker, the photographing unit, and the sensing unit, and automatically selects a location where the product is accommodated by applying a deep learning algorithm based on information measured by the photographing unit and the sensing unit; and
A user terminal that interactively processes necessary information in the form of a chatbot and controls the operation of the assigned edge control unit;
Deep learning-based smart automatic logistics warehouse system that works with user terminals including
제1항에 있어서,
상기 딥러닝 알고리즘은 유전 알고리즘(Genetic Algorithm, GA)을 적용하는 것을 특징으로 하는 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템.
According to claim 1,
The deep learning algorithm is a deep learning-based smart automated logistics warehouse system that works with a user terminal, characterized in that by applying a genetic algorithm (Genetic Algorithm, GA).
제1항에 있어서,
상기 저장부의 출납부의 양측에 각각 형성되며 상기 팔레트에 거치된 상기 적재물을 상기 팔레트의 중앙에 위치되도록 외면을 가압하여 정렬하는 정렬부;를 더 포함하는 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템.
According to claim 1,
An alignment unit formed on both sides of the drawer of the storage unit and aligning the loads mounted on the pallet by pressing the outer surface to be located in the center of the pallet; warehouse system.
제1항에 있어서,
상기 감지부는,
상기 출납부에 형성되어 상기 출납부에 거치된 상기 팔레트의 무게를 측정하여 상기 팔레트에 적재되는 상기 적재물의 무게를 측정하는 다수 개의 무게센서;로 이루어지는 것을 특징으로 하는 사용자 단말기와 연동되는 딥러닝 기반 스마트 자동물류 적재창고 시스템.
According to claim 1,
the sensor,
A plurality of weight sensors formed in the drawer and measuring the weight of the pallet placed in the drawer and measuring the weight of the load loaded on the pallet; Logistics warehouse system.
KR1020210189601A 2021-12-28 2021-12-28 Deep learning-based smart automatic logistics warehousing system linked to user terminals KR20230100051A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210189601A KR20230100051A (en) 2021-12-28 2021-12-28 Deep learning-based smart automatic logistics warehousing system linked to user terminals

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210189601A KR20230100051A (en) 2021-12-28 2021-12-28 Deep learning-based smart automatic logistics warehousing system linked to user terminals

Publications (1)

Publication Number Publication Date
KR20230100051A true KR20230100051A (en) 2023-07-05

Family

ID=87159084

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210189601A KR20230100051A (en) 2021-12-28 2021-12-28 Deep learning-based smart automatic logistics warehousing system linked to user terminals

Country Status (1)

Country Link
KR (1) KR20230100051A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160067639A (en) 2014-12-04 2016-06-14 주식회사 에스에프에이 Automated warehouse system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160067639A (en) 2014-12-04 2016-06-14 주식회사 에스에프에이 Automated warehouse system

Similar Documents

Publication Publication Date Title
US11049067B2 (en) Workflow management system integrating robots
US9129250B1 (en) Automated inventory management
AU2017255410B2 (en) Pallet detection using units of physical length
EP3516445B1 (en) Adaptive process for guiding human-performed inventory tasks
JP7471615B2 (en) Automatic transport system
US11312576B2 (en) Goods picking system and method
JP2018162122A (en) Conveyance device, program, and conveyance system
US20220292444A1 (en) Inventory checking apparatus, backend apparatus, inventory checking management system, and inventory checking method
JP2009015684A (en) Vehicle dispatching system and method
CN111661548B (en) Article sorting method, apparatus, device and storage medium
KR20230100051A (en) Deep learning-based smart automatic logistics warehousing system linked to user terminals
CN113859834B (en) Container identification method, device, equipment and storage medium
KR20240022739A (en) Deep learning-based smart automatic logistics warehousing system to estimate fire risk
CN108602620B (en) Warehouse entry/exit work support system, warehouse entry/exit work support method, and storage medium
KR20230102751A (en) Deep learning-based smart automatic logistics warehousing system with improved processing speed
KR102668615B1 (en) Deep learning-based smart automatic logistics warehousing system linked with the surrounding environment
JP6919718B2 (en) Management server, management system, management method, and program
US11367176B2 (en) Commodity management device and commodity management system
US20210303852A1 (en) System and method of automatically selecting one or more storage lockers based on dynamically acquired delivered item volume and locker volume compatibility and availability
WO2023073780A1 (en) Device for generating learning data, method for generating learning data, and machine learning device and machine learning method using learning data
EP4307231A1 (en) System and method for localizing articles in an intralogistics environment
CN219916366U (en) Management system of stock position logistics
JP7414197B2 (en) Virtual gauge display program and device
JP7371577B2 (en) Mobile robot, server device, and transportation method
TW202411905A (en) A visualized storage supporting warehouse management system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right