KR102547258B1 - 인공지능 모델 기반 물류 처리를 위한 배송 물품의 적재 공간 내 위치 식별 및 적재 최적화 정보 제공 방법, 장치 및 시스템 - Google Patents
인공지능 모델 기반 물류 처리를 위한 배송 물품의 적재 공간 내 위치 식별 및 적재 최적화 정보 제공 방법, 장치 및 시스템 Download PDFInfo
- Publication number
- KR102547258B1 KR102547258B1 KR1020230018528A KR20230018528A KR102547258B1 KR 102547258 B1 KR102547258 B1 KR 102547258B1 KR 1020230018528 A KR1020230018528 A KR 1020230018528A KR 20230018528 A KR20230018528 A KR 20230018528A KR 102547258 B1 KR102547258 B1 KR 102547258B1
- Authority
- KR
- South Korea
- Prior art keywords
- weight
- article
- space
- loaded
- loading
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 85
- 238000012545 processing Methods 0.000 title claims abstract description 29
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 27
- 238000005457 optimization Methods 0.000 title claims abstract description 20
- 238000012384 transportation and delivery Methods 0.000 claims abstract description 49
- 230000008859 change Effects 0.000 claims abstract description 13
- 238000013528 artificial neural network Methods 0.000 claims description 122
- 238000005259 measurement Methods 0.000 claims description 61
- 230000033001 locomotion Effects 0.000 claims description 44
- 238000004891 communication Methods 0.000 description 108
- 230000008569 process Effects 0.000 description 51
- 230000006870 function Effects 0.000 description 35
- 238000004458 analytical method Methods 0.000 description 20
- 238000013527 convolutional neural network Methods 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 17
- 238000010801 machine learning Methods 0.000 description 16
- 238000004422 calculation algorithm Methods 0.000 description 15
- 238000007726 management method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 12
- 230000002787 reinforcement Effects 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 10
- 238000011176 pooling Methods 0.000 description 9
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 8
- 229910052802 copper Inorganic materials 0.000 description 8
- 239000010949 copper Substances 0.000 description 8
- 238000000605 extraction Methods 0.000 description 7
- 238000003062 neural network model Methods 0.000 description 7
- 230000004913 activation Effects 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000003278 mimic effect Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- QVFWZNCVPCJQOP-UHFFFAOYSA-N chloralodol Chemical compound CC(O)(C)CC(C)OC(O)C(Cl)(Cl)Cl QVFWZNCVPCJQOP-UHFFFAOYSA-N 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01G—WEIGHING
- G01G19/00—Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
- G06Q10/043—Optimisation of two dimensional placement, e.g. cutting of clothes or wood
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Software Systems (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Strategic Management (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- General Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- General Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Data Mining & Analysis (AREA)
- Development Economics (AREA)
- General Health & Medical Sciences (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
일실시예에 따르면, 장치에 의해 수행되는, 인공지능 모델 기반 물류 처리를 위한 배송 물품의 적재 공간 내 위치 식별 및 적재 최적화 정보 제공 방법에 있어서, 제1 운송차의 적재 공간 내에 설치되어 있는 카메라를 통해 상기 제1 운송차의 적재 공간에 적재되어 있는 배송 물품들에 대한 촬영이 수행되고 있는 경우, 제1 시점에 상기 제1 운송차의 적재 공간에 적재되어 있는 배송 물품들을 촬영하여 제1 이미지가 생성되면, 상기 카메라로부터 상기 제1 이미지를 획득하는 단계; 상기 제1 이미지를 인코딩 하여 제1 입력 신호를 생성하는 단계; 상기 제1 입력 신호를 제1 인공 신경망에 입력하고, 상기 제1 인공 신경망의 입력에 대한 결과에 기초하여, 제1 출력 신호를 획득하는 단계; 상기 제1 출력 신호를 기초로, 상기 제1 시점에 적재되어 있는 물품들의 종류 및 위치를 분석하는 단계; 상기 제1 시점 이후인 제2 시점에 코드 인식기를 통해 제1 물품에 부착되어 있는 제1 식별 코드가 인식되면, 상기 코드 인식기로부터 상기 제1 식별 코드에 대한 인식 정보를 획득하는 단계; 상기 제2 시점 이후인 제3 시점에 상기 제1 운송차의 적재 공간에 적재되어 있는 배송 물품들을 촬영하여 제2 이미지가 생성되면, 상기 카메라로부터 상기 제2 이미지를 획득하는 단계; 상기 제2 이미지를 인코딩 하여 제2 입력 신호를 생성하는 단계; 상기 제2 입력 신호를 상기 제1 인공 신경망에 입력하고, 상기 제1 인공 신경망의 입력에 대한 결과에 기초하여, 제2 출력 신호를 획득하는 단계; 상기 제2 출력 신호를 기초로, 상기 제3 시점에 적재되어 있는 물품들의 종류 및 위치를 분석하는 단계; 상기 제1 시점에 적재되어 있는 물품들의 종류 및 위치와 상기 제3 시점에 적재되어 있는 물품들의 종류 및 위치를 비교하여, 상기 제1 시점과 상기 제3 시점 간에 물품이 적재된 상태에 변화가 생긴 구역이 있는지 확인하는 단계; 및 제1 구역에 물품이 추가로 적재되어 상기 제1 구역에 적재된 물품에 변화가 생긴 것으로 확인되면, 상기 제1 구역에 상기 제1 물품이 적재된 것으로 식별하는 단계를 포함하는, 인공지능 모델 기반 물류 처리를 위한 배송 물품의 적재 공간 내 위치 식별 및 적재 최적화 정보 제공 방법이 제공된다.
Description
아래 실시예들은 인공지능 모델을 기반으로 물류 처리를 위해 배송 물품의 적재 공간 내의 위치를 식별하고 적재 최적화 정보를 제공하기 위한 기술에 관한 것이다.
인터넷 상거래 시장이 급격히 성장하면서, 택배 서비스를 이용한 물동량이 급증하고 있다. 택배 서비스는 산업용 물류 유통 시스템과 달리 규격화되지 않은 물품들을 취급하므로, 이렇게 크기가 제각각인 물품들을 얼마나 빨리, 많이, 효율적으로 운반하느냐에 따라 물류 비용과 배송 시간이 달라질 수 있다.
이러한 택배 서비스는 지역 별로 설치되어 있는 물류 창고까지 운반된 후, 물류 창고에서 배송지까지 개별적으로 배송될 수 있다.
배송지까지 배송되기 위해 물품들은 운송차에 적재되어야 하는데, 많은 물품들을 운송차에 적재하는 경우, 어느 물품이 어느 위치에 적재되어 있는지 확인하는데 소요되는 시간과 비용, 인력 측면에서 큰 손실을 피할 수 있다.
따라서, 적재 공간 내에서 어느 물품이 어느 위치에 적재되어 있는지 파악할 수 있고, 적재 순서에 대한 최적화 정보를 제공하여 적재 업무의 효율성을 증대시킬 수 있는 기술의 구현이 요구되고 있다.
일실시예에 따르면, 인공지능 모델을 기반으로 물류 처리를 위해 배송 물품의 적재 공간 내의 위치를 식별하고 적재 최적화 정보를 제공하기 위한 것을 그 목적으로 한다.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
일실시예에 따르면, 장치에 의해 수행되는, 인공지능 모델 기반 물류 처리를 위한 배송 물품의 적재 공간 내 위치 식별 및 적재 최적화 정보 제공 방법에 있어서, 제1 운송차의 적재 공간 내에 설치되어 있는 카메라를 통해 상기 제1 운송차의 적재 공간에 적재되어 있는 배송 물품들에 대한 촬영이 수행되고 있는 경우, 제1 시점에 상기 제1 운송차의 적재 공간에 적재되어 있는 배송 물품들을 촬영하여 제1 이미지가 생성되면, 상기 카메라로부터 상기 제1 이미지를 획득하는 단계; 상기 제1 이미지를 인코딩 하여 제1 입력 신호를 생성하는 단계; 상기 제1 입력 신호를 제1 인공 신경망에 입력하고, 상기 제1 인공 신경망의 입력에 대한 결과에 기초하여, 제1 출력 신호를 획득하는 단계; 상기 제1 출력 신호를 기초로, 상기 제1 시점에 적재되어 있는 물품들의 종류 및 위치를 분석하는 단계; 상기 제1 시점 이후인 제2 시점에 코드 인식기를 통해 제1 물품에 부착되어 있는 제1 식별 코드가 인식되면, 상기 코드 인식기로부터 상기 제1 식별 코드에 대한 인식 정보를 획득하는 단계; 상기 제2 시점 이후인 제3 시점에 상기 제1 운송차의 적재 공간에 적재되어 있는 배송 물품들을 촬영하여 제2 이미지가 생성되면, 상기 카메라로부터 상기 제2 이미지를 획득하는 단계; 상기 제2 이미지를 인코딩 하여 제2 입력 신호를 생성하는 단계; 상기 제2 입력 신호를 상기 제1 인공 신경망에 입력하고, 상기 제1 인공 신경망의 입력에 대한 결과에 기초하여, 제2 출력 신호를 획득하는 단계; 상기 제2 출력 신호를 기초로, 상기 제3 시점에 적재되어 있는 물품들의 종류 및 위치를 분석하는 단계; 상기 제1 시점에 적재되어 있는 물품들의 종류 및 위치와 상기 제3 시점에 적재되어 있는 물품들의 종류 및 위치를 비교하여, 상기 제1 시점과 상기 제3 시점 간에 물품이 적재된 상태에 변화가 생긴 구역이 있는지 확인하는 단계; 및 제1 구역에 물품이 추가로 적재되어 상기 제1 구역에 적재된 물품에 변화가 생긴 것으로 확인되면, 상기 제1 구역에 상기 제1 물품이 적재된 것으로 식별하는 단계를 포함하는, 인공지능 모델 기반 물류 처리를 위한 배송 물품의 적재 공간 내 위치 식별 및 적재 최적화 정보 제공 방법이 제공된다.
상기 인공지능 모델 기반 물류 처리를 위한 배송 물품의 적재 공간 내 위치 식별 및 적재 최적화 정보 제공 방법은, 상기 제1 운송차의 적재 공간이 내측 공간인 제1 공간과 외측 공간인 제2 공간으로 구분되어 있는 경우, 상기 제2 시점의 직후인 제2-1 시점에 상기 제1 공간의 바닥에 설치된 제1 센서를 통해 상기 제1 공간에 적재되어 있는 물품들의 무게인 제1 무게가 측정되면, 상기 제1 센서로부터 상기 제1 무게에 대한 측정 정보를 획득하고, 상기 제2-1 시점에 상기 제2 공간의 바닥에 설치된 제2 센서를 통해 상기 제2 공간에 적재되어 있는 물품들의 무게인 제2 무게가 측정되면, 상기 제2 센서로부터 상기 제2 무게에 대한 측정 정보를 획득하는 단계; 상기 제3 시점의 직후인 제3-1 시점에 상기 제1 센서를 통해 상기 제1 공간에 적재되어 있는 물품들의 무게인 제3 무게가 측정되면, 상기 제1 센서로부터 상기 제3 무게에 대한 측정 정보를 획득하고, 상기 제3-1 시점에 상기 제2 센서를 통해 상기 제2 공간에 적재되어 있는 물품들의 무게인 제4 무게가 측정되면, 상기 제2 센서로부터 상기 제4 무게에 대한 측정 정보를 획득하는 단계; 상기 제1 무게 및 상기 제3 무게를 비교하여, 무게에 차이가 있는지 여부를 확인하고, 상기 제2 무게 및 상기 제4 무게를 비교하여, 무게에 차이가 있는지 여부를 확인하는 단계; 상기 제1 무게 및 상기 제3 무게 간에 차이가 있는 것으로 확인되면, 상기 제3 무게에서 상기 제1 무게를 차감한 값으로 제5 무게를 산출하고, 상기 제2 무게 및 상기 제4 무게에 차이가 있는 것으로 확인되면, 상기 제4 무게에서 상기 제2 무게를 차감한 값으로 제6 무게를 산출하는 단계; 상기 제1 식별 코드를 기반으로, 상기 제1 식별 코드가 부착되어 있는 물품이 상기 제1 물품으로 확인되면, 상기 제1 물품의 무게가 제7 무게로 등록되어 있는 것을 확인하는 단계; 상기 제5 무게가 산출된 경우, 상기 제5 무게 및 상기 제7 무게를 비교하여, 무게가 일치하는지 여부를 확인하고, 상기 제6 무게가 산출된 경우, 상기 제6 무게 및 상기 제7 무게를 비교하여, 무게가 일치하는지 여부를 확인하는 단계; 및 상기 제5 무게 및 상기 제7 무게가 일치하는 것으로 확인되면, 상기 제1 공간 내에 상기 제1 물품이 적재된 것으로 식별하고, 상기 제6 무게 및 상기 제7 무게가 일치하는 것으로 확인되면, 상기 제2 공간 내에 상기 제1 물품이 적재된 것으로 식별하는 단계를 더 포함할 수 있다.
상기 인공지능 모델 기반 물류 처리를 위한 배송 물품의 적재 공간 내 위치 식별 및 적재 최적화 정보 제공 방법은, 미리 설정된 제1 기준 기간 이내에 상기 코드 인식기를 통해 제2 물품에 부착되어 있는 제2 식별 코드와 제3 물품에 부착되어 있는 제3 식별 코드가 각각 인식되면, 상기 코드 인식기로부터 상기 제2 식별 코드에 대한 인식 정보와 상기 제3 식별 코드에 대한 인식 정보를 같이 획득하는 단계; 상기 제2 식별 코드를 기반으로, 상기 제2 식별 코드가 부착되어 있는 물품이 상기 제2 물품으로 확인되면, 상기 제2 물품의 배송지가 제1 주소로 등록되어 있는 것을 확인하고, 상기 제3 식별 코드를 기반으로, 상기 제3 식별 코드가 부착되어 있는 물품이 상기 제3 물품으로 확인되면, 상기 제3 물품의 배송지가 제2 주소로 등록되어 있는 것을 확인하는 단계; 상기 제1 운송차의 주 이동 경로에 기초하여, 상기 제1 운송차의 현재 위치 및 상기 제1 주소의 위치 순으로 제1 동선을 생성하고, 상기 제1 운송차의 현재 위치 및 상기 제2 주소의 위치 순으로 제2 동선을 생성하는 단계; 상기 제1 동선의 거리와 상기 제2 동선의 거리 간의 차이값을 산출하는 단계; 상기 차이값이 미리 설정된 기준 범위를 벗어나는 것으로 확인된 경우, 상기 제1 동선의 거리와 상기 제2 동선의 거리를 비교하여, 상기 제1 동선의 거리가 상기 제2 동선의 거리 보다 짧은 것으로 확인되면, 상기 제3 물품 및 상기 제2 물품 순으로 물품의 적재 순서를 설정하고, 상기 제2 동선의 거리가 상기 제1 동선의 거리 보다 짧은 것으로 확인되면, 상기 제2 물품 및 상기 제3 물품 순으로 물품의 적재 순서를 설정하는 단계; 상기 차이값이 상기 기준 범위 내에 포함되는 것으로 확인된 경우, 상기 제2 물품의 무게와 상기 제3 물품의 무게를 비교하여, 상기 제2 물품의 무게가 상기 제3 물품의 무게 보다 무거운 것으로 확인되면, 상기 제3 물품 및 상기 제2 물품 순으로 물품의 적재 순서를 설정하고, 상기 제3 물품의 무게가 상기 제2 물품의 무게 보다 무거운 것으로 확인되면, 상기 제2 물품 및 상기 제3 물품 순으로 물품의 적재 순서를 설정하는 단계; 및 물품의 적재 순서가 설정되면, 물품의 적재 순서에 대한 알림 메시지를 제1 기사 단말로 전송하는 단계를 더 포함할 수 있다.
일실시예에 따르면, 배송 물품의 적재 공간 내의 위치를 식별하여, 적재 공간 내에서 어느 물품이 어느 위치에 적재되어 있는지 용이하게 파악하도록 도와줄 수 있고, 적재 순서에 대한 최적화 정보를 제공하여, 적재 업무의 효율성을 증대시킬 수 있는 효과가 있다.
한편, 실시예들에 따른 효과들은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 인공지능 모델을 기반으로 물류 처리를 위한 배송 물품의 적재 공간 내 위치를 식별하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 적재 공간 내 물품의 위치를 식별한 결과를 나타낸 도면이다.
도 4는 일실시예에 따른 복수의 공간으로 구분되어 있는 제1 운송차의 적재 공간을 나타낸 도면이다.
도 5는 일실시예에 따른 제1 공간 내에 물품이 적재된 것을 식별하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 제2 공간 내에 물품이 적재된 것을 식별하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 복수의 물품 적재 시 적재 순서에 대한 최적화 정보를 제공하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 통신 거리를 통해 물품이 적재된 위치를 식별하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 통신 모듈과 태그 간의 RSSI 값을 측정하는 과정을 설명하기 위한 도면이다.
도 10은 일실시예에 따른 물품이 적재된 위치를 식별하는 과정을 설명하기 위한 도면이다.
도 11은 일실시예에 따른 제품 재고의 유통관리를 수행하는 과정을 설명하기 위한 순서도이다.
도 12는 일실시예에 따른 제품의 재고량이 출고되지 않고 남아있을 수 있는 확률을 예측하여 제품의 유통관리 상태를 설정하는 과정을 설명하기 위한 순서도이다.
도 13은 일실시예에 따른 제1 인공 신경망을 설명하기 위한 도면이다.
도 14는 일실시예에 따른 제2 인공 신경망의 학습을 설명하기 위한 도면이다.
도 15는 일실시예에 따른 제3 인공 신경망의 학습을 설명하기 위한 도면이다.
도 16은 일실시예에 따른 장치의 구성의 예시도이다.
도 2는 일실시예에 따른 인공지능 모델을 기반으로 물류 처리를 위한 배송 물품의 적재 공간 내 위치를 식별하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 적재 공간 내 물품의 위치를 식별한 결과를 나타낸 도면이다.
도 4는 일실시예에 따른 복수의 공간으로 구분되어 있는 제1 운송차의 적재 공간을 나타낸 도면이다.
도 5는 일실시예에 따른 제1 공간 내에 물품이 적재된 것을 식별하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 제2 공간 내에 물품이 적재된 것을 식별하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 복수의 물품 적재 시 적재 순서에 대한 최적화 정보를 제공하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 통신 거리를 통해 물품이 적재된 위치를 식별하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 통신 모듈과 태그 간의 RSSI 값을 측정하는 과정을 설명하기 위한 도면이다.
도 10은 일실시예에 따른 물품이 적재된 위치를 식별하는 과정을 설명하기 위한 도면이다.
도 11은 일실시예에 따른 제품 재고의 유통관리를 수행하는 과정을 설명하기 위한 순서도이다.
도 12는 일실시예에 따른 제품의 재고량이 출고되지 않고 남아있을 수 있는 확률을 예측하여 제품의 유통관리 상태를 설정하는 과정을 설명하기 위한 순서도이다.
도 13은 일실시예에 따른 제1 인공 신경망을 설명하기 위한 도면이다.
도 14는 일실시예에 따른 제2 인공 신경망의 학습을 설명하기 위한 도면이다.
도 15는 일실시예에 따른 제3 인공 신경망의 학습을 설명하기 위한 도면이다.
도 16은 일실시예에 따른 장치의 구성의 예시도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.
실시예에서 인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 규칙(Rule) 기반의 스마트 시스템과 달리 기계가 스스로 학습하고 판단하는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 판매자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 규칙 기반의 스마트 시스템은 점차 심층 학습(Deep Learning) 기반 인공지능 시스템으로 대체되고 있다.
인공지능 기술은 기계 학습 및 기계 학습을 활용한 요소기술들로 구성된다. 기계 학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 심층 학습 등의 기계 학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.
인공지능 기술이 응용되는 다양한 분야는 다음과 같다. 언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다. 동작 제어는 차량의 자율 주행, 로봇의 움직임을 제어하는 기술로서, 움직임 제어(항법, 충돌, 주행), 조작 제어(행동 제어) 등을 포함한다.
일반적으로 기계 학습 알고리즘을 실생활에 적용하기 위해서는 기계 학습의 기본 방법론의 특성상 Trial and Error 방식으로 학습을 수행하게 된다. 특히, 심층 학습의 경우 수십만 번의 반복 실행을 필요로 한다. 이를 실제 물리적인 외부 환경에서 실행하기는 불가능하여 대신 실제 물리적인 외부 환경을 컴퓨터상에서 가상으로 구현하여 시뮬레이션을 통해 학습을 수행한다.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 1을 참조하면, 일실시예에 따른 시스템은 통신망을 통해 서로 통신 가능한 카메라(100), 코드 인식기(200), 복수의 센서(300), 복수의 통신 모듈(400), 제1 기사 단말(500) 및 장치(600)를 포함할 수 있다.
먼저, 통신망은 유선 및 무선 등과 같이 그 통신 양태를 가리지 않고 구성될 수 있으며, 서버와 서버 간의 통신과 서버와 단말 간의 통신이 수행되도록 다양한 형태로 구현될 수 있다.
카메라(100)는 제1 운송차의 적재 공간 내에 설치되어, 제1 운송차의 적재 공간에 대한 촬영을 수행하여 영상 정보를 생성하는 기기로, 예를 들면, 제1 운송차의 적재 공간에 대한 촬영을 수행하여 3D 영상 정보를 생성하는 3D 카메라로 구현될 수 있다.
카메라(100)는 제1 운송차의 적재 공간의 출입문 쪽에 설치되어, 제1 운송차의 적재 공간의 내부에 대한 촬영을 수행할 수 있으며, 이를 통해, 제1 운송차의 적재 공간에 적재되어 있는 배송 물품들을 촬영하여 영상 정보를 생성할 수 있다.
카메라(100)는 영상 촬영을 위한 Full HD(High Definition) 화질의 카메라 장비로서, 30내지 60프레임을 기준으로 하는 촬영 장비일 수 있다. 카메라는 노출, 셔터스피드, 감도를 자동으로 조절할 수 있으며, 사용자 편의에 따라 수동 조절이 가능할 수 있다.
카메라(100)는 촬영 구역 내의 이동 객체 검출 기능을 가지는 모션 디텍터 카메라, 열 감지를 가지는 적외선 카메라, 물품에 부착된 식별 코드를 촬영하는 고화질 RGB 카메라, 보다 신뢰성이 있는 레이더가 부착된 카메라, 자동추적을 수행하기 위한 팬틸트 카메라, IP 통신을 수행할 수 있는 네트워크 카메라 등의 다양한 형태로 구현될 수도 있다.
카메라(100)는 장치(600)와 네트워크를 통해 연결될 수 있으며, 장치(600)로부터 수신된 제어 신호에 의해 동작할 수 있다.
코드 인식기(200)는 물품에 부착된 식별 코드를 인식하는 기기이고, 물품에 부착되는 식별 코드는 바코드, QR 코드 등으로 구성될 수 있다.
제1 운송차를 운행하는 제1 기사는 제1 운송차의 운송 공간에 배송 물품을 적재하기 전에, 코드 인식기(200)를 통해 물품에 부착된 식별 코드를 인식할 수 있으며, 식별 코드의 인식 후 물품이 제1 운송차의 운송 공간에 적재될 수 있다.
코드 인식기(200)는 장치(600)와 네트워크를 통해 연결될 수 있으며, 장치(600)로부터 수신된 제어 신호에 의해 동작할 수 있다.
코드 인식기(200)는 별도의 기기로 구현될 수 있고, 후술할 제1 기사 단말(500)과 하나의 기기로 구현될 수도 있다.
복수의 센서(300)는 제1 운송차의 운송 공간 내에 설치되는 무게 센서로, 제1 운송차의 운송 공간이 복수의 공간으로 구분되어 있는 경우, 각 공간에 적재된 물품의 무게를 측정할 수 있다.
예를 들어, 제1 운송차의 적재 공간이 출입문을 기준으로 내측 공간인 제1 공간과 외측 공간인 제2 공간으로 구분되어 있는 경우, 제1 공간의 바닥에는 제1 센서(310)가 설치되어 있고, 제2 공간의 바닥에는 제2 센서(320)가 설치되어 있으며, 제1 센서(310)는 제1 공간에 적재되어 있는 물품들의 무게를 측정하고, 제2 센서(320)는 제2 공간에 적재되어 있는 물품들의 무게를 측정할 수 있다.
복수의 센서(300) 각각은 공간 별로 적재된 물품의 무게를 측정하여 무게 측정을 통해 측정 정보를 생성할 수 있고, 생성된 측정 정보를 장치(600)로 전송할 수 있다.
복수의 센서(300)는 장치(600)와 네트워크를 통해 연결될 수 있으며, 장치(600)로부터 수신된 제어 신호에 의해 동작할 수 있다.
한편, 설명의 편의를 위해 도 1에서는 복수의 센서(300) 중 제1 센서(310) 및 제2 센서(320)만을 도시하였으나, 센서들의 수는 실시예에 따라 얼마든지 달라질 수 있다. 즉, 제1 운송차의 적재 공간이 몇 개의 공간으로 구분되어 있는지에 따라 센서들의 수도 달라질 수 있다. 예를 들어, 제1 운송차의 적재 공간이 n개의 공간으로 구분되어 있는 경우, n개의 공간 각각에 센서가 배치되어 센서들의 수는 n개일 수 있다.
복수의 통신 모듈(400)은 제1 운송차의 적재 공간 내에 설치되어 있는 통신 모듈로, 제1 통신 모듈(410), 제2 통신 모듈(420), 제3 통신 모듈(430) 및 제4 통신 모듈(440)을 포함할 수 있다.
제1 통신 모듈(410)은 제1 운송차의 적재 공간의 바닥 중 어느 한 지점인 제1 지점에 설치되어 있고, 제2 통신 모듈(420)은 제1 운송차의 적재 공간의 좌측면 중 어느 한 지점인 제2 지점에 설치되어 있고, 제3 통신 모듈(430)은 제1 운송차의 적재 공간의 우측면 중 어느 한 지점인 제3 지점에 설치되어 있고, 제4 통신 모듈(440)은 제1 운송차의 천장 중 어느 한 지점인 제4 지점에 설치되어 있다.
복수의 통신 모듈(400) 각각은 무선 통신 기능을 갖춘 연산 장치로 구현될 수 있으며, 와이파이, 지그비, 로라, 블루투스, WSN(Wireless Sensor Network) 등을 통해 무선 통신을 수행할 수 있고, 특히, RFID(Radio Frequency Identification)를 통해 무선 통신을 수행하여 물품에 부착된 태그를 인식할 수 있다.
복수의 통신 모듈(400)은 장치(600)와 네트워크를 통해 연결될 수 있으며, 장치(600)로부터 수신된 제어 신호에 의해 동작할 수 있다.
제1 기사 단말(500)은 제1 운송차를 운행하는 제1 기사가 사용하는 단말로, 통신 기능을 갖춘 연산 장치로 구현될 수 있으며, 예를 들면, 휴대전화기, 데스크톱 PC, 랩탑 PC, 태블릿 PC, 스마트폰 등으로 구현될 수 있으나, 이에 제한되지는 않으며, 외부 서버와 연결될 수 있는 다양한 형태의 통신 장치로 구현될 수도 있다.
제1 기사 단말(500)은 장치(600)와 네트워크를 통해 연결될 수 있으며, 장치(600)로부터 수신된 제어 신호에 의해 동작할 수 있다.
장치(600)는 장치(600)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 장치(600)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 장치(600)는 추론 기능을 수행하는 적어도 하나 이상의 인공 신경망을 구비할 수 있다.
장치(600)는 카메라(100)와 무선 통신을 통해 연결되어, 데이터를 송수신할 수 있다. 이를 통해, 장치(600)는 카메라(100)에 대한 전체적인 동작을 제어할 수 있다.
장치(600)는 코드 인식기(200)와 무선 통신을 통해 연결되어, 데이터를 송수신할 수 있다. 이를 통해, 장치(600)는 코드 인식기(200)에 대한 전체적인 동작을 제어할 수 있다.
장치(600)는 복수의 센서(300)와 무선 통신을 통해 연결되어, 데이터를 송수신할 수 있다. 이를 통해, 장치(600)는 복수의 센서(300) 각각에 대한 전체적인 동작을 제어할 수 있다.
장치(600)는 복수의 통신 모듈(400)과 무선 통신을 통해 연결되어, 데이터를 송수신할 수 있다. 이를 통해, 장치(600)는 복수의 통신 모듈(400) 각각에 대한 전체적인 동작을 제어할 수 있다.
장치(600)는 제1 기사 단말(500)과 무선으로 통신하도록 구성될 수 있으며, 제1 기사 단말(500)의 전체적인 동작을 제어하고, 제1 기사 단말(500)의 화면에 어느 정보를 표시할 것인지에 대해 제어할 수 있다.
장치(600)는 배송 물품의 적재 공간 내 위치를 식별하고 적재 최적화 정보를 제공하는 서버로 구현되어, 인공지능 모델 기반 물류 처리를 위한 배송 물품의 적재 공간 내 위치 식별 및 적재 최적화 정보 제공 방법을 제공할 수 있다.
장치(600)는 인공지능을 기반으로 적재 공간에 적재되어 있는 물품들의 종류와 위치를 분석할 수 있다.
본 발명에서, 인공지능(Artificial Intelligence, AI)은 인간의 학습능력, 추론능력, 지각능력 등을 모방하고, 이를 컴퓨터로 구현하는 기술을 의미하고, 기계 학습, 심볼릭 로직(Symbolic Logic) 등의 개념을 포함할 수 있다. 기계 학습(Machine Learning, ML)은 입력 데이터들의 특징을 스스로 분류 또는 학습하는 알고리즘 기술이다. 인공지능의 기술은 기계 학습의 알고리즘으로써 입력 데이터를 분석하고, 그 분석의 결과를 학습하며, 그 학습의 결과에 기초하여 판단이나 예측을 할 수 있다. 또한, 기계 학습의 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술들 역시 인공지능의 범주로 이해될 수 있다. 예를 들어, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야가 포함될 수 있다.
기계 학습은 데이터를 처리한 경험을 이용해 신경망 모델을 훈련시키는 처리를 의미할 수 있다. 기계 학습을 통해 컴퓨터 소프트웨어는 스스로 데이터 처리 능력을 향상시키는 것을 의미할 수 있다. 신경망 모델은 데이터 사이의 상관 관계를 모델링하여 구축된 것으로서, 그 상관 관계는 복수의 파라미터에 의해 표현될 수 있다. 신경망 모델은 주어진 데이터로부터 특징들을 추출하고 분석하여 데이터 간의 상관 관계를 도출하는데, 이러한 과정을 반복하여 신경망 모델의 파라미터를 최적화해 나가는 것이 기계 학습이라고 할 수 있다. 예를 들어, 신경망 모델은 입출력 쌍으로 주어지는 데이터에 대하여, 입력과 출력 사이의 매핑(상관 관계)을 학습할 수 있다. 또는, 신경망 모델은 입력 데이터만 주어지는 경우에도 주어진 데이터 사이의 규칙성을 도출하여 그 관계를 학습할 수도 있다.
인공지능 학습모델 또는 신경망 모델은 인간의 뇌 구조를 컴퓨터 상에서 구현하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하며 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고받는 뉴런의 시냅틱(synaptic) 활동을 모의하여, 서로 간의 연결 관계를 가질 수 있다. 인공지능 학습모델에서 복수의 네트워크 노드들은 서로 다른 깊이의 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고받을 수 있다. 인공지능 학습모델은, 예를 들어, 인공 신경망 모델(Artificial Neural Network), 컨볼루션 신경망 모델(Convolution Neural Network: CNN) 등일 수 있다. 일 실시예로서, 인공지능 학습모델은, 지도학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning) 등의 방식에 따라 기계 학습될 수 있다. 기계 학습을 수행하기 위한 기계 학습 알고리즘에는, 의사결정트리(Decision Tree), 베이지안 망(Bayesian Network), 서포트 벡터 머신(Support Vector Machine), 인공 신경망(Artificial Neural Network), 에이다부스트(Ada-boost), 퍼셉트론(Perceptron), 유전자 프로그래밍(Genetic Programming), 군집화(Clustering) 등이 사용될 수 있다.
이중, CNN은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. CNN은 하나 또는 여러 개의 합성곱 계층과 그 위에 올려진 일반적인 인공 신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 CNN은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 다른 딥러닝 구조들과 비교해서, CNN은 영상, 음성 분야 모두에서 좋은 성능을 보여준다. CNN은 또한 표준 역전달을 통해 훈련될 수 있다. CNN은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다.
컨볼루션 네트워크는 묶인 파라미터들을 가지는 노드들의 집합들을 포함하는 신경 네트워크들이다. 사용 가능한 트레이닝 데이터의 크기 증가와 연산 능력의 가용성이, 구분적 선형 단위 및 드롭아웃 트레이닝과 같은 알고리즘 발전과 결합되어, 많은 컴퓨터 비전 작업들이 크게 개선되었다. 오늘날 많은 작업에 사용할 수 있는 데이터 세트들과 같은 엄청난 양의 데이터 세트에서는 초과 맞춤(outfitting)이 중요하지 않으며, 네트워크의 크기를 늘리면 테스트 정확도가 향상된다. 컴퓨팅 리소스들의 최적 사용은 제한 요소가 된다. 이를 위해, 심층 신경 네트워크들의 분산된, 확장 가능한 구현예가 사용될 수 있다.
도 2는 일실시예에 따른 인공지능 모델을 기반으로 물류 처리를 위한 배송 물품의 적재 공간 내 위치를 식별하는 과정을 설명하기 위한 순서도이고, 도 3은 일실시예에 따른 적재 공간 내 물품의 위치를 식별한 결과를 나타낸 도면이다.
도 2를 참조하면, 먼저, S201 단계에서, 장치(600)는 카메라(100)로부터 제1 이미지를 획득할 수 있다. 여기서, 제1 이미지는 제1 시점에 제1 운송차의 적재 공간에 적재되어 있는 배송 물품들을 촬영하여 생성된 이미지이다.
구체적으로, 제1 운송차의 적재 공간 내에는 카메라(100)가 설치되어 있으며, 카메라(100)는 제1 운송차의 적재 공간에 적재되어 있는 배송 물품들에 대한 촬영을 수행하여 영상 정보를 생성할 수 있다. 이때, 카메라(100)는 제1 시점에 제1 운송차의 적재 공간에 적재되어 있는 배송 물품들을 촬영하여 제1 이미지를 생성할 수 있고, 장치(600)는 카메라(100)에 의해 제1 이미지가 생성되면, 카메라(100)로부터 제1 이미지를 획득할 수 있다.
즉, 제1 운송차의 적재 공간 내에 설치되어 있는 카메라(100)를 통해 제1 운송차의 적재 공간에 적재되어 있는 배송 물품들에 대한 촬영이 수행되고 있는 경우, 제1 시점에 제1 운송차의 적재 공간에 적재되어 있는 배송 물품들을 촬영하여 제1 이미지가 생성되면, 장치(600)는 카메라(100)로부터 제1 이미지를 획득할 수 있다.
S202 단계에서, 장치(600)는 제1 이미지를 인코딩 하여 제1 입력 신호를 생성할 수 있다.
구체적으로, 장치(600)는 제1 이미지의 픽셀을 색 정보로 인코딩 하여 제1 입력 신호를 생성할 수 있다. 색 정보는 RGB 색상 정보, 명도 정보, 채도 정보를 포함할 수 있으나, 이에 국한하지 않는다. 장치(600)는 색 정보를 수치화된 값으로 환산할 수 있으며, 이 값을 포함한 데이터 시트 형태로 이미지를 인코딩할 수 있다.
S203 단계에서, 장치(600)는 제1 입력 신호를 제1 인공 신경망에 입력할 수 있다.
일실시예에 따르면, 제1 인공 신경망은 컨볼루션 신경망으로 구현되어, 컨볼루션 신경망은 특징 추출 신경망과 분류 신경망으로 구성되어 있으며, 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.
일실시예에 따르면, 분류 신경망은 은닉층과 출력층을 가지고 있다. 인공지능 모델 기반 물류 처리를 위한 배송 물품의 적재 공간 내 위치 식별을 위한 컨볼루션 신경망에서는 일반적으로 은닉층이 3개 이상 존재하며, 각 은닉층의 노드는 100개로 지정하나 경우에 따라 그 이상으로 정할 수 있다. 은닉층의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 컨볼루션 신경망의 출력층 노드는 총 50개로 할 수 있다. 컨볼루션 신경망에 대한 자세한 설명은 도 13을 참조하여 후술한다.
S204 단계에서, 장치(600)는 제1 인공 신경망의 입력의 대한 결과에 기초하여, 제1 인공 신경망의 출력값인 제1 출력 신호를 획득할 수 있다.
일실시예에 따르면, 컨볼루션 신경망의 50개 출력층 노드는 상위 25개의 출력층 노드와 하위 25개의 출력층 노드를 포함할 수 있다. 컨볼루션 신경망의 50개 출력층 노드 중 상위 25개의 출력층 노드는 물품의 종류를 지시할 수 있다. 하위 25개의 노드는 상위 25개의 노드에 대응하는 물품의 위치를 지시할 수 있다. 컨볼루션 신경망의 출력에 관한 자세한 설명은 도 13을 참조하여 후술한다.
S205 단계에서, 장치(600)는 제1 출력 신호를 기초로, 제1 시점에 적재되어 있는 물품들의 종류 및 위치를 분석할 수 있다. 즉, 장치(600)는 제1 시점에 제1 운송차의 적재 공간에 적재되어 있는 물품들을 각각 식별하고, 물품들 별로 적재 공간 내에서 위치가 어느 지점인지 각각 분석할 수 있다.
S206 단계에서, 장치(600)는 제1 시점 이후인 제2 시점에 코드 인식기(200)를 통해 제1 물품에 부착되어 있는 제1 식별 코드가 인식되면, 코드 인식기(200)로부터 제1 식별 코드에 대한 인식 정보를 획득할 수 있다. 여기서, 제1 식별 코드에 대한 인식 정보는 코드 인식기(200)가 제1 식별 코드를 인식한 것을 알려주기 위한 정보로, 제1 식별 코드를 포함할 수 있다.
장치(600)는 제1 식별 코드에 대한 인식 정보를 기반으로, 코드 인식기(200)에 제1 식별 코드가 인식된 것을 파악할 수 있고, 제1 식별 코드를 기반으로, 제1 식별 코드가 부착되어 있는 물품이 제1 물품인 것을 확인할 수 있다. 이를 위해, 제1 식별 코드의 인식을 통해 제1 물품 정보가 제공될 수 있으며, 제1 물품 정보는 제1 물품의 물품명, 카테고리, 무게, 부피, 배송지 등에 대한 정보를 포함할 수 있다.
즉, 장치(600)는 코드 인식기(200)로부터 제1 식별 코드에 대한 인식 정보를 획득하면, 제1 식별 코드를 기반으로, 제1 식별 코드가 부착되어 있는 물품이 제1 물품인 것을 확인할 수 있고, 제1 식별 코드의 인식을 통해 외부 서버 또는 데이터베이스로부터 제1 물품 정보를 획득한 후, 제1 물품 정보를 기반으로, 제1 물품의 물품명, 카테고리, 무게, 부피, 배송지 등을 확인할 수 있다.
일실시예에 따르면, 물품 정보는 물품을 보내고자 하는 발신자의 요청에 의해 입력되어 웹 상에 등록될 수 있으며, 물품 정보를 기반으로 식별 코드가 생성되어, 생성된 식별 코드가 물품에 부착될 수 있다. 물품에 부착된 식별 코드가 인식되면, 물품 정보를 제공하는 페이지로 연결될 수 있으며, 해당 페이지를 통해 물품 정보가 확인될 수 있다.
S207 단계에서, 장치(600)는 카메라(100)로부터 제2 이미지를 획득할 수 있다. 여기서, 제2 이미지는 제2 시점 이후인 제3 시점에 제1 운송차의 적재 공간에 적재되어 있는 배송 물품들을 촬영하여 생성된 이미지이다.
즉, 제1 운송차의 적재 공간 내에 설치되어 있는 카메라(100)를 통해 제1 운송차의 적재 공간에 적재되어 있는 배송 물품들에 대한 촬영이 수행되고 있는 경우, 제3 시점에 제1 운송차의 적재 공간에 적재되어 있는 배송 물품들을 촬영하여 제2 이미지가 생성되면, 장치(600)는 카메라(100)로부터 제2 이미지를 획득할 수 있다.
S208 단계에서, 장치(600)는 제2 이미지를 인코딩 하여 제2 입력 신호를 생성할 수 있다.
S209 단계에서, 장치(600)는 제2 입력 신호를 제1 인공 신경망에 입력할 수 있다.
S210 단계에서, 장치(600)는 제1 인공 신경망의 입력의 대한 결과에 기초하여, 제1 인공 신경망의 출력값인 제2 출력 신호를 획득할 수 있다.
S211 단계에서, 장치(600)는 제2 출력 신호를 기초로, 제3 시점에 적재되어 있는 물품들의 종류 및 위치를 분석할 수 있다. 즉, 장치(600)는 제3 시점에 제1 운송차의 적재 공간에 적재되어 있는 물품들을 각각 식별하고, 물품들 별로 적재 공간 내에서 위치가 어느 지점인지 각각 분석할 수 있다.
S212 단계에서, 장치(600)는 제1 시점에 적재되어 있는 물품들의 종류 및 위치와 제3 시점에 적재되어 있는 물품들의 종류 및 위치를 비교하여, 제1 시점과 제3 시점 간에 물품이 적재된 상태에 변화가 생긴 구역이 있는지 여부를 확인할 수 있다.
S212 단계에서 제1 시점과 제3 시점 간에 물품이 적재된 상태에 변화가 생긴 구역이 없는 것으로 확인되면, 물품이 아직 적재되지 않은 것으로 판단될 수 있으며, 일정 시간이 지난 이후 S207 단계로 되돌아가, 장치(600)는 제2 이미지를 획득하는 과정부터 다시 수행할 수 있다.
S212 단계에서 제1 시점과 제3 시점 간에 물품이 적재된 상태에 변화가 생긴 구역이 있는 것으로 확인되면, S213 단계에서, 장치(600)는 제1 구역에 물품이 추가로 적재되어 제1 구역에 적재된 물품에 변화가 생긴 것으로 확인할 수 있다.
예를 들어, 도 3의 (a)는 제1 시점에 제1 운송차의 적재 공간에 적재되어 있는 배송 물품들을 촬영하여 생성된 제1 이미지를 도시한 도면이고, 도 3의 (b)는 제3 시점에 제1 운송차의 적재 공간에 적재되어 있는 배송 물품들을 촬영하여 생성된 제2 이미지를 도시한 도면인 경우, 장치(600)는 제1 이미지에 기초하여, 제1 시점에 적재되어 있는 물품들의 종류 및 위치를 분석하고, 제2 이미지에 기초하여, 제3 시점에 적재되어 있는 물품들의 종류 및 위치를 분석한 후, 제1 시점에 적재되어 있는 물품들의 종류 및 위치와 제3 시점에 적재되어 있는 물품들의 종류 및 위치를 비교한 결과, 도 3의 (c)에 도시된 바와 같이, 물품이 추가로 적재되어 적재된 물품에 변화가 생긴 구역을 제1 구역으로 설정할 수 있다.
S214 단계에서, 장치(600)는 제1 구역에 물품이 추가로 적재되어 제1 구역에 적재된 물품에 변화가 생긴 것으로 확인되면, 제1 구역에 제1 물품이 적재된 것으로 식별할 수 있다.
즉, 장치(600)는 제2 시점에 제1 물품에 부착된 제1 식별 코드가 인식된 후, 제3 시점에 제1 구역에 물품이 추가로 적재된 것이 확인되면, 제1 구역에 제1 물품이 적재된 것으로 식별할 수 있다.
도 4는 일실시예에 따른 복수의 공간으로 구분되어 있는 제1 운송차의 적재 공간을 나타낸 도면이다.
도 4에 도시된 바와 같이, 제1 운송차의 적재 공간은 제1 공간 및 제2 공간으로 구분될 수 있다.
구체적으로, 제1 운송차의 적재 공간을 개폐하는 출입문이 제1 운송차의 가장 뒤쪽에 설치되어 있는 경우, 출입문을 기준으로 앞쪽 공간이 내측 공간으로 구분되고 뒤쪽 공간이 외측 공간으로 구분될 수 있으며, 내측 공간을 제1 공간으로 설정하고 외측 공간을 제2 공간으로 설정할 수 있다.
한편, 설명의 편의를 위해 제1 운송차의 적재 공간을 제1 공간 및 제2 공간으로 구분하였으나, 공간들의 수는 실시예에 따라 얼마든지 달라질 수 있다. 예를 들어, 제1 운송차의 적재 공간은 n개의 공간으로 구분되어, 제1 공간, 제2 공간, 제3 공간 등으로 구분될 수 있다.
도 5는 일실시예에 따른 제1 공간 내에 물품이 적재된 것을 식별하는 과정을 설명하기 위한 순서도이다.
도 5를 참조하면, 먼저, S501 단계에서, 장치(600)는 제1 센서(310)로부터 제1 무게에 대한 측정 정보를 획득할 수 있다. 여기서, 제1 무게에 대한 측정 정보는 제2-1 시점에 제1 센서(310)에서 측정한 무게가 제1 무게인 것을 알려주기 위한 정보로, 제1 무게에 대한 측정값을 포함할 수 있다.
구체적으로, 제1 공간의 바닥에는 제1 센서(310)가 설치되어 있으며, 제1 센서(310)는 제1 공간에 적재되어 있는 물품들의 무게를 측정하여 측정 정보를 생성할 수 있다. 이때, 제1 센서(310)는 제2 시점의 직후인 제2-1 시점에 제1 공간에 적재되어 있는 물품들의 무게를 제1 무게로 측정할 수 있고, 장치(600)는 제1 센서(310)에 의해 제1 무게가 측정되면, 제1 센서(310)로부터 제1 무게에 대한 측정 정보를 획득할 수 있다.
장치(600)는 제2 시점에 코드 인식기(200)로부터 제1 식별 코드에 대한 인식 정보를 획득하면, 제1 센서(310)로 무게 측정을 위한 제어 신호를 전송할 수 있고, 제1 센서(310)는 제2-1 시점에 제1 공간에 적재되어 있는 물품들의 무게를 측정하여, 제1 무게에 대한 측정 정보를 생성할 수 있고, 제1 무게에 대한 측정 정보를 장치(600)로 전송할 수 있다.
즉, 제2 시점의 직후인 제2-1 시점에 제1 공간의 바닥에 설치된 제1 센서(310)를 통해 제1 공간에 적재되어 있는 물품들의 무게인 제1 무게가 측정되면, 장치(600)는 제1 센서(310)로부터 제1 무게에 대한 측정 정보를 획득할 수 있다.
S502 단계에서, 장치(600)는 제1 센서(310)로부터 제3 무게에 대한 측정 정보를 획득할 수 있다. 여기서, 제3 무게에 대한 측정 정보는 제3-1 시점에 제1 센서(310)에서 측정한 무게가 제3 무게인 것을 알려주기 위한 정보로, 제3 무게에 대한 측정값을 포함할 수 있다.
장치(600)는 제3 시점에 카메라(100)로부터 제2 이미지를 획득하면, 제1 센서(310)로 무게 측정을 위한 제어 신호를 전송할 수 있고, 제1 센서(310)는 제3-1 시점에 제1 공간에 적재되어 있는 물품들의 무게를 측정하여, 제3 무게에 대한 측정 정보를 생성할 수 있고, 제3 무게에 대한 측정 정보를 장치(600)로 전송할 수 있다.
즉, 제3 시점의 직후인 제3-1 시점에 제1 공간의 바닥에 설치된 제1 센서(310)를 통해 제1 공간에 적재되어 있는 물품들의 무게인 제3 무게가 측정되면, 장치(600)는 제1 센서(310)로부터 제3 무게에 대한 측정 정보를 획득할 수 있다.
S503 단계에서, 장치(600)는 제1 무게 및 제3 무게를 비교하여, 제1 무게 및 제3 무게 간에 차이가 있는지 여부를 확인할 수 있다. 이때, 장치(600)는 제1 무게 및 제3 무게 간에 오차 범위를 벗어나 차이가 있는지 여부를 확인할 수 있고, 오차 범위는 실시예에 따라 상이하게 설정될 수 있다.
S503 단계에서 제1 무게 및 제3 무게 간에 차이가 없는 것으로 확인되면, 제1 공간에 물품이 아직 적재되지 않은 것으로 판단될 수 있으며, 일정 시간이 지난 이후 S502 단계로 되돌아가, 장치(600)는 제3 무게에 대한 측정 정보를 획득하는 과정부터 다시 수행할 수 있다.
S503 단계에서 제1 무게 및 제3 무게 간에 차이가 있는 것으로 확인되면, S504 단계에서, 장치(600)는 제3 무게에서 제1 무게를 차감한 값으로, 제5 무게를 산출할 수 있다.
장치(600)는 제5 무게가 음수인 것으로 확인되면, 제1 공간에 적재되어 있는 물품을 외부로 반출한 것으로 판단하여, 물품 외부 반출을 경고하는 알림 메시지를 제1 기사 단말(500)로 전송할 수 있다.
S505 단계에서, 장치(600)는 제1 물품의 무게가 제7 무게로 등록되어 있는 것을 확인할 수 있다.
구체적으로, 장치(600)는 제1 식별 코드를 기반으로, 제1 식별 코드가 부착되어 있는 물품이 제1 물품인 것을 확인할 수 있고, 제1 식별 코드와 연결된 페이지를 통해 제1 물품 정보를 획득한 후, 제1 물품 정보를 기반으로, 제1 물품의 무게가 제7 무게로 등록되어 있는 것을 확인할 수 있다.
S506 단계에서, 장치(600)는 제5 무게 및 제7 무게를 비교하여, 제5 무게 및 제7 무게가 일치하는지 여부를 확인할 수 있다.
S506 단계에서 제5 무게 및 제7 무게가 일치하지 않는 것으로 확인되면, 제1 공간에 제1 물품이 아닌 다른 물품이 적재된 것으로 판단될 수 있으며, 일정 시간이 지난 이후 S502 단계로 되돌아가, 장치(600)는 제3 무게에 대한 측정 정보를 획득하는 과정부터 다시 수행할 수 있다. 이때, 장치(600)는 기존의 제3 무게를 제1 무게로 설정하고, 새로 제3 무게를 확인하여 이후 과정을 수행할 수 있다.
장치(600)는 제1 공간에 제1 물품이 아닌 다른 물품이 적재된 것으로 판단되면, 적재된 물품의 확인이 필요한 것을 경고하는 알림 메시지를 제1 기사 단말(500)로 전송할 수 있다.
S506 단계에서 제5 무게 및 제7 무게가 일치하는 것으로 확인되면, S507 단계에서, 장치(600)는 제1 공간 내에 제1 물품이 적재된 것으로 식별할 수 있다.
즉, 장치(600)는 제2 시점에 제1 물품에 부착된 제1 식별 코드가 인식된 후, 제1 공간에 적재되어 있는 물품들의 무게가 제1 물품의 무게만큼 증가한 것으로 확인되면, 제1 공간 내에 제1 물품이 적재된 것으로 식별할 수 있다.
도 6은 일실시예에 따른 제2 공간 내에 물품이 적재된 것을 식별하는 과정을 설명하기 위한 순서도이다.
도 6을 참조하면, 먼저, S601 단계에서, 장치(600)는 제2 센서(320)로부터 제2 무게에 대한 측정 정보를 획득할 수 있다. 여기서, 제2 무게에 대한 측정 정보는 제2-1 시점에 제2 센서(320)에서 측정한 무게가 제2 무게인 것을 알려주기 위한 정보로, 제2 무게에 대한 측정값을 포함할 수 있다.
구체적으로, 제2 공간의 바닥에는 제2 센서(320)가 설치되어 있으며, 제2 센서(320)는 제2 공간에 적재되어 있는 물품들의 무게를 측정하여 측정 정보를 생성할 수 있다. 이때, 제2 센서(320)는 제2 시점의 직후인 제2-1 시점에 제2 공간에 적재되어 있는 물품들의 무게를 제2 무게로 측정할 수 있고, 장치(600)는 제2 센서(320)에 의해 제2 무게가 측정되면, 제2 센서(320)로부터 제2 무게에 대한 측정 정보를 획득할 수 있다.
장치(600)는 제2 시점에 코드 인식기(200)로부터 제1 식별 코드에 대한 인식 정보를 획득하면, 제2 센서(320)로 무게 측정을 위한 제어 신호를 전송할 수 있고, 제2 센서(320)는 제2-1 시점에 제2 공간에 적재되어 있는 물품들의 무게를 측정하여, 제2 무게에 대한 측정 정보를 생성할 수 있고, 제2 무게에 대한 측정 정보를 장치(600)로 전송할 수 있다.
즉, 제2 시점의 직후인 제2-1 시점에 제2 공간의 바닥에 설치된 제2 센서(320)를 통해 제2 공간에 적재되어 있는 물품들의 무게인 제2 무게가 측정되면, 장치(600)는 제2 센서(320)로부터 제2 무게에 대한 측정 정보를 획득할 수 있다.
S602 단계에서, 장치(600)는 제2 센서(320)로부터 제4 무게에 대한 측정 정보를 획득할 수 있다. 여기서, 제4 무게에 대한 측정 정보는 제3-1 시점에 제2 센서(320)에서 측정한 무게가 제4 무게인 것을 알려주기 위한 정보로, 제4 무게에 대한 측정값을 포함할 수 있다.
장치(600)는 제3 시점에 카메라(100)로부터 제2 이미지를 획득하면, 제2 센서(320)로 무게 측정을 위한 제어 신호를 전송할 수 있고, 제2 센서(320)는 제3-1 시점에 제2 공간에 적재되어 있는 물품들의 무게를 측정하여, 제4 무게에 대한 측정 정보를 생성할 수 있고, 제4 무게에 대한 측정 정보를 장치(600)로 전송할 수 있다.
즉, 제3 시점의 직후인 제3-1 시점에 제2 공간의 바닥에 설치된 제2 센서(320)를 통해 제2 공간에 적재되어 있는 물품들의 무게인 제4 무게가 측정되면, 장치(600)는 제2 센서(320)로부터 제4 무게에 대한 측정 정보를 획득할 수 있다.
S603 단계에서, 장치(600)는 제2 무게 및 제4 무게를 비교하여, 제2 무게 및 제4 무게 간에 차이가 있는지 여부를 확인할 수 있다. 이때, 장치(600)는 제2 무게 및 제4 무게 간에 오차 범위를 벗어나 차이가 있는지 여부를 확인할 수 있고, 오차 범위는 실시예에 따라 상이하게 설정될 수 있다.
S603 단계에서 제2 무게 및 제4 무게 간에 차이가 없는 것으로 확인되면, 제2 공간에 물품이 아직 적재되지 않은 것으로 판단될 수 있으며, 일정 시간이 지난 이후 S602 단계로 되돌아가, 장치(600)는 제4 무게에 대한 측정 정보를 획득하는 과정부터 다시 수행할 수 있다.
S603 단계에서 제2 무게 및 제4 무게 간에 차이가 있는 것으로 확인되면, S604 단계에서, 장치(600)는 제4 무게에서 제2 무게를 차감한 값으로, 제6 무게를 산출할 수 있다.
장치(600)는 제6 무게가 음수인 것으로 확인되면, 제2 공간에 적재되어 있는 물품을 외부로 반출한 것으로 판단하여, 물품 외부 반출을 경고하는 알림 메시지를 제1 기사 단말(500)로 전송할 수 있다.
S605 단계에서, 장치(600)는 제1 물품의 무게가 제7 무게로 등록되어 있는 것을 확인할 수 있다.
S606 단계에서, 장치(600)는 제6 무게 및 제7 무게를 비교하여, 제6 무게 및 제7 무게가 일치하는지 여부를 확인할 수 있다.
S606 단계에서 제6 무게 및 제7 무게가 일치하지 않는 것으로 확인되면, 제2 공간에 제1 물품이 아닌 다른 물품이 적재된 것으로 판단될 수 있으며, 일정 시간이 지난 이후 S602 단계로 되돌아가, 장치(600)는 제4 무게에 대한 측정 정보를 획득하는 과정부터 다시 수행할 수 있다. 이때, 장치(600)는 기존의 제4 무게를 제2 무게로 설정하고, 새로 제4 무게를 확인하여 이후 과정을 수행할 수 있다.
장치(600)는 제2 공간에 제1 물품이 아닌 다른 물품이 적재된 것으로 판단되면, 적재된 물품의 확인이 필요한 것을 경고하는 알림 메시지를 제1 기사 단말(500)로 전송할 수 있다.
S606 단계에서 제6 무게 및 제7 무게가 일치하는 것으로 확인되면, S607 단계에서, 장치(600)는 제2 공간 내에 제1 물품이 적재된 것으로 식별할 수 있다.
즉, 장치(600)는 제2 시점에 제1 물품에 부착된 제1 식별 코드가 인식된 후, 제2 공간에 적재되어 있는 물품들의 무게가 제1 물품의 무게만큼 증가한 것으로 확인되면, 제2 공간 내에 제1 물품이 적재된 것으로 식별할 수 있다.
도 7은 일실시예에 따른 복수의 물품 적재 시 적재 순서에 대한 최적화 정보를 제공하는 과정을 설명하기 위한 순서도이다.
도 7을 참조하면, 먼저, S701 단계에서, 장치(600)는 코드 인식기(200)로부터 제2 식별 코드에 대한 인식 정보와 제3 식별 코드에 대한 인식 정보를 같이 획득할 수 있다.
구체적으로, 코드 인식기(200)는 제2 물품에 부착되어 있는 제2 식별 코드가 인식된 시점부터 제1 기준 기간 이내에 제3 물품에 부착되어 있는 제3 식별 코드가 인식되면, 제2 물품 및 제3 물품을 한꺼번에 적재하는 것으로 파악하여, 제2 식별 코드에 대한 인식 정보와 제3 식별 코드에 대한 인식 정보를 같이 장치(600)로 전송할 수 있다. 여기서, 제1 기준 기간은 실시예에 따라 상이하게 설정될 수 있으며, 예를 들면, 5초로 설정될 수 있다.
즉, 제1 기준 기간 이내에 코드 인식기(200)를 통해 제2 물품에 부착되어 있는 제2 식별 코드와 제3 물품에 부착되어 있는 제3 식별 코드가 각각 인식되면, 장치(600)는 코드 인식기(200)로부터 제2 식별 코드에 대한 인식 정보와 제3 식별 코드에 대한 인식 정보를 같이 획득할 수 있다.
장치(600)는 제2 식별 코드에 대한 인식 정보와 제3 식별 코드에 대한 인식 정보가 같이 획득되면, 제2 식별 코드를 기반으로, 제2 식별 코드가 부착되어 있는 물품이 제2 물품인 것을 확인할 수 있고, 제3 식별 코드를 기반으로, 제3 식별 코드가 부착되어 있는 물품이 제3 물품인 것을 확인할 수 있고, 제2 물품과 제3 물품을 한꺼번에 적재하기 위해 제2 식별 코드 및 제3 식별 코드가 연속적으로 코드 인식기(200)에 인식되었으므로, 제2 물품 및 제3 물품에 대한 적재 최적화 정보의 제공이 필요한 것으로 판단할 수 있다.
S702 단계에서, 장치(600)는 제2 식별 코드를 기반으로, 제2 식별 코드가 부착되어 있는 물품이 제2 물품으로 확인되면, 제2 물품의 배송지가 제1 주소로 등록되어 있는 것을 확인하고, 제3 식별 코드를 기반으로, 제3 식별 코드가 부착되어 있는 물품이 제3 물품으로 확인되면, 제3 물품의 배송지가 제2 주소로 등록되어 있는 것을 확인할 수 있다.
구체적으로, 장치(600)는 제2 식별 코드를 기반으로, 제2 식별 코드가 부착되어 있는 물품이 제2 물품인 것을 확인할 수 있고, 제2 식별 코드와 연결된 페이지를 통해 제2 물품 정보를 획득한 후, 제2 물품 정보를 기반으로, 제2 물품의 배송지가 제1 주소로 등록되어 있는 것을 확인할 수 있다.
또한, 장치(600)는 제3 식별 코드를 기반으로, 제3 식별 코드가 부착되어 있는 물품이 제3 물품인 것을 확인할 수 있고, 제3 식별 코드와 연결된 페이지를 통해 제3 물품 정보를 획득한 후, 제3 물품 정보를 기반으로, 제3 물품의 배송지가 제2 주소로 등록되어 있는 것을 확인할 수 있다.
S703 단계에서, 장치(600)는 제1 운송차의 현재 위치 및 제1 주소의 위치 순으로 제1 동선을 생성하고, 제1 운송차의 현재 위치 및 제2 주소의 위치 순으로 제2 동선을 생성할 수 있다.
장치(600)는 제1 동선 및 제2 동선을 생성하는데 있어, 제1 운송차의 주 이동 경로에 기초하여, 제1 동선 및 제2 동선을 생성할 수 있다. 이를 위해, 제1 운송차에는 제1 운송차의 위치 기록을 저장하는 네비게이션이 구비되어 있으며, 장치(600)는 네비게이션으로부터 제1 운송차의 위치 기록을 획득한 후, 제1 운송차의 위치 기록을 기반으로 제1 운송차의 운행 경로를 분석할 수 있고, 미리 정해진 기간 동안 제1 운송차의 운행 경로를 분석하여, 제1 운송차가 주로 이동하는 경로를 파악한 후, 제1 운송차가 주로 이동하는 경로를 제1 운송차의 주 이동 경로로 설정할 수 있다.
장치(600)는 제1 운송차의 주 이동 경로에 기초하여, 제1 운송차의 현재 위치 및 제1 주소의 위치 순으로 제1 동선을 생성하고, 제1 운송차의 현재 위치 및 제2 주소의 위치 순으로 제2 동선을 생성할 수 있다.
예를 들어, 제1 운송차의 주 이동 경로가 A 지점, B 지점 및 C 지점 순으로 이동하는 경로인 경우, 장치(600)는 제1 운송차의 현재 위치가 D 지점으로 확인되고 제1 주소의 위치가 C 지점으로 확인되면, D 지점, A 지점, B 지점 및 C 지점 순으로 제1 동선을 생성할 수 있다.
즉, 장치(600)는 제1 운송차의 주 이동 경로를 기준으로 하여, 제1 운송차의 주 이동 경로를 최대한 벗어나지 않게 하면서 제1 운송차의 현재 위치에서 제1 주소의 위치로 이동할 수 있는 이동 경로를 제1 동선으로 생성하고, 제1 운송차의 주 이동 경로를 최대한 벗어나지 않게 하면서 제1 운송차의 현재 위치에서 제2 주소의 위치로 이동할 수 있는 이동 경로를 제2 동선으로 생성할 수 있다.
S704 단계에서, 장치(600)는 제1 동선의 거리 및 제2 동선의 거리 간의 차이값을 산출할 수 있다.
구체적으로, 장치(600)는 제1 동선의 거리 및 제2 동선의 거리를 비교하여, 제1 동선의 거리가 제2 동선의 거리 보다 긴 것으로 확인되면, 제1 동선의 거리에서 제2 동선의 거리를 차감하여 차이값을 산출할 수 있고, 제2 동선의 거리가 제1 동선의 거리 보다 긴 것으로 확인되면, 제2 동선의 거리에서 제1 동선의 거리를 차감하여 차이값을 산출할 수 있다.
S705 단계에서, 장치(600)는 차이값이 기준 범위를 벗어나는지 여부를 확인할 수 있다. 여기서, 기준 범위는 실시예에 따라 상이하게 설정될 수 있다.
S705 단계에서 차이값이 기준 범위를 벗어나는 것으로 확인되면, S706 단계에서, 장치(600)는 제1 동선의 거리가 제2 동선의 거리 보다 짧은지 여부를 확인할 수 있다.
S706 단계에서 제1 동선의 거리가 제2 동선의 거리 보다 짧은 것으로 확인되면, S707 단계에서, 장치(600)는 제3 물품 및 제2 물품 순으로 적재 순서를 설정할 수 있다.
즉, 장치(600)는 제1 동선의 거리와 제2 동선의 거리 간의 차이값이 기준 범위를 벗어나는 것으로 확인된 경우, 제1 동선의 거리와 제2 동선의 거리를 비교하여, 제1 동선의 거리가 제2 동선의 거리 보다 짧은 것으로 확인되면, 제3 물품 및 제2 물품 순으로 물품의 적재 순서를 설정할 수 있다. 이를 통해, 동선이 긴 제3 물품이 더 늦게 하차되기 때문에 먼저 적재되어 적재 공간의 안쪽에 위치하도록 유도할 수 있으며, 동선이 짧은 제2 물품이 더 빨리 하차되기 때문에 나중에 적재되어 적재 공간의 바깥족에 위치하도록 유도할 수 있다.
S706 단계에서 제1 동선의 거리가 제2 동선의 거리 보다 긴 것으로 확인되면, 제2 동선의 거리가 제1 동선의 거리 보다 짧은 것으로 확인될 수 있으며, S708 단계에서, 장치(600)는 제2 물품 및 제3 물품 순으로 적재 순서를 설정할 수 있다.
즉, 장치(600)는 제1 동선의 거리와 제2 동선의 거리 간의 차이값이 기준 범위를 벗어나는 것으로 확인된 경우, 제1 동선의 거리와 제2 동선의 거리를 비교하여, 제2 동선의 거리가 제1 동선의 거리 보다 짧은 것으로 확인되면, 제2 물품 및 제3 물품 순으로 물품의 적재 순서를 설정할 수 있다. 이를 통해, 동선이 긴 제2 물품이 더 늦게 하차되기 때문에 먼저 적재되어 적재 공간의 안쪽에 위치하도록 유도할 수 있으며, 동선이 짧은 제3 물품이 더 빨리 하차되기 때문에 나중에 적재되어 적재 공간의 바깥족에 위치하도록 유도할 수 있다.
S705 단계에서 차이값이 기준 범위 내에 포함되는 것으로 확인되면, S709 단계에서, 장치(600)는 제2 물품의 무게가 제3 물품의 무게 보다 무거운지 여부를 확인할 수 있다. 이때, 제2 물품의 무게는 제2 물품 정보를 통해 확인될 수 있고, 제3 물품의 무게는 제3 물품 정보를 통해 확인될 수 있다.
S709 단계에서 제2 물품의 무게가 제3 물품의 무게 보다 무거운 것으로 확인되면, S710 단계에서, 장치(600)는 제3 물품 및 제2 물품 순으로 적재 순서를 설정할 수 있다.
즉, 장치(600)는 제1 동선의 거리와 제2 동선의 거리 간의 차이값이 기준 범위 내에 포함되는 것으로 확인된 경우, 제2 물품의 무게와 제3 물품의 무게를 비교하여, 제2 물품의 무게가 제3 물품의 무게 보다 무거운 것으로 확인되면, 제3 물품 및 제2 물품 순으로 물품의 적재 순서를 설정할 수 있다. 이를 통해, 동선이 비슷한 경우 더 가벼운 제3 물품이 먼저 적재되어 적재 공간의 안쪽에 위치하도록 유도할 수 있으며, 더 무거운 제2 물품이 나중에 적재되어 적재 공간의 바깥족에 위치하도록 유도할 수 있다.
S709 단계에서 제2 물품의 무게가 제3 물품의 무게 보다 가벼운 것으로 확인되면, 제3 물품의 무게가 제2 물품의 무게 보다 무거운 것으로 확인될 수 있으며, S711 단계에서, 장치(600)는 제2 물품 및 제3 물품 순으로 적재 순서를 설정할 수 있다.
즉, 장치(600)는 제1 동선의 거리와 제2 동선의 거리 간의 차이값이 기준 범위 내에 포함되는 것으로 확인된 경우, 제2 물품의 무게와 제3 물품의 무게를 비교하여, 제3 물품의 무게가 제2 물품의 무게 보다 무거운 것으로 확인되면, 제2 물품 및 제3 물품 순으로 물품의 적재 순서를 설정할 수 있다. 이를 통해, 동선이 비슷한 경우 더 가벼운 제2 물품이 먼저 적재되어 적재 공간의 안쪽에 위치하도록 유도할 수 있으며, 더 무거운 제3 물품이 나중에 적재되어 적재 공간의 바깥족에 위치하도록 유도할 수 있다.
S712 단계에서, 장치(600)는 물품의 적재 순서가 설정되면, 물품의 적재 순서에 대한 알림 메시지를 제1 기사 단말(500)로 전송할 수 있다.
도 8은 일실시예에 따른 통신 거리를 통해 물품이 적재된 위치를 식별하는 과정을 설명하기 위한 순서도이고, 도 9는 일실시예에 따른 통신 모듈과 태그 간의 RSSI 값을 측정하는 과정을 설명하기 위한 도면이고, 도 10은 일실시예에 따른 물품이 적재된 위치를 식별하는 과정을 설명하기 위한 도면이다.
일실시예에 따르면, 복수의 통신 모듈(400)은 제1 통신 모듈(410), 제2 통신 모듈(420), 제3 통신 모듈(430) 및 제4 통신 모듈(440)을 포함할 수 있으며, 제1 통신 모듈(410)은 제1 운송차의 적재 공간의 바닥 중에서 제1 지점에 설치되어 있고, 제2 통신 모듈(420)은 제1 운송차의 적재 공간의 좌측면 중에서 제2 지점에 설치되어 있고, 제3 통신 모듈(430)은 제1 운송차의 적재 공간의 우측면 중에서 제3 지점에 설치되어 있고, 제4 통신 모듈(440)은 제1 운송차의 천장 중에서 제4 지점에 설치되어 있다.
적재될 물품에는 태그가 부착될 수 있으며, 태그가 부착된 물품이 제1 운송차의 적재 공간 내에 적재되면, 복수의 통신 모듈(400)은 무선 통신을 통해 물품에 부착된 태그를 인식할 수 있다.
복수의 통신 모듈(400)이 무선 통신을 통해 태그를 인식하게 되면, 복수의 통신 모듈(400)과 태그 간의 통신 세기인 RSSI 값이 측정될 수 있다. 여기서, RSSI(Receiver Signal Strength Indicator) 값은 미터와 같은 거리값으로 환산될 수 있다.
일실시예에 따르면, RSSI 값은 거리값과 다음과 같은 관계를 보일 수 있다.
( A : 1m 기준일 때 RSSI값, RSSI : 측정된 RSSI값, n : 경로손실계수 )
이를 거리에 대해서 정리하면 다음과 같다.
경로손실계수는 거리값에 따라 설정될 수 있으며, 예를 들어, 거리(D)≤5m인 경우 n=2.0, 5m<거리(D)≤10m인 경우 n=2.1, 10m<거리(D)인 경우 n=2.2로 설정될 수 있다.
일실시예에 따르면, 도 8에 도시된 각 단계는 도 2에 도시된 각 단계가 수행된 이후에 수행될 수 있다.
도 8을 참조하면, 먼저, S801 단계에서, 장치(600)는 제1 통신 모듈(410)을 통해 제1 물품에 부착되어 있는 제1 태그가 인식되어 제1 통신 모듈(410) 및 제1 태그 간의 RSSI 값인 제1 수치가 측정되면, 제1 통신 모듈(410)로부터 제1 수치에 대한 측정 정보를 획득할 수 있다. 여기서, 제1 수치에 대한 측정 정보는 제1 통신 모듈(410)에서 제1 통신 모듈(410)과 제1 태그 간의 RSSI 값을 측정한 수치가 제1 수치인 것을 알려주기 위한 정보로, 제1 수치에 대한 측정값을 포함할 수 있다.
구체적으로, 제1 태그가 부착된 제1 물품이 제1 운송차의 적재 공간 내에 적재되면, 제1 통신 모듈(410)은 제1 물품에 부착된 제1 태그를 인식할 수 있으며, 제1 태그가 인식되면, 제1 통신 모듈(410) 및 제1 태그 간의 RSSI 값인 제1 수치를 측정할 수 있으며, 장치(600)는 제1 통신 모듈(410)에 의해 제1 수치가 측정되면, 제1 통신 모듈(410)로부터 제1 수치에 대한 측정 정보를 획득할 수 있다.
즉, 도 9에 도시된 바와 같이, 제1 통신 모듈(410)이 제1 태그를 인식하게 되면, 제1 통신 모듈(410) 및 제1 태그 간의 RSSI 값인 제1 수치가 측정될 수 있다.
S802 단계에서, 장치(600)는 제2 통신 모듈(420)을 통해 제1 물품에 부착되어 있는 제1 태그가 인식되어 제2 통신 모듈(420) 및 제1 태그 간의 RSSI 값인 제2 수치가 측정되면, 제2 통신 모듈(420)로부터 제2 수치에 대한 측정 정보를 획득할 수 있다. 여기서, 제2 수치에 대한 측정 정보는 제2 통신 모듈(420)에서 제2 통신 모듈(420)과 제1 태그 간의 RSSI 값을 측정한 수치가 제2 수치인 것을 알려주기 위한 정보로, 제2 수치에 대한 측정값을 포함할 수 있다.
구체적으로, 제1 태그가 부착된 제1 물품이 제1 운송차의 적재 공간 내에 적재되면, 제2 통신 모듈(420)은 제1 물품에 부착된 제1 태그를 인식할 수 있으며, 제1 태그가 인식되면, 제2 통신 모듈(420) 및 제1 태그 간의 RSSI 값인 제2 수치를 측정할 수 있으며, 장치(600)는 제2 통신 모듈(420)에 의해 제2 수치가 측정되면, 제2 통신 모듈(420)로부터 제2 수치에 대한 측정 정보를 획득할 수 있다.
즉, 도 9에 도시된 바와 같이, 제2 통신 모듈(420)이 제1 태그를 인식하게 되면, 제2 통신 모듈(420) 및 제1 태그 간의 RSSI 값인 제2 수치가 측정될 수 있다.
S803 단계에서, 장치(600)는 제3 통신 모듈(430)을 통해 제1 물품에 부착되어 있는 제1 태그가 인식되어 제3 통신 모듈(430) 및 제1 태그 간의 RSSI 값인 제3 수치가 측정되면, 제3 통신 모듈(430)로부터 제3 수치에 대한 측정 정보를 획득할 수 있다. 여기서, 제3 수치에 대한 측정 정보는 제3 통신 모듈(430)에서 제3 통신 모듈(430)과 제1 태그 간의 RSSI 값을 측정한 수치가 제3 수치인 것을 알려주기 위한 정보로, 제3 수치에 대한 측정값을 포함할 수 있다.
구체적으로, 제1 태그가 부착된 제1 물품이 제1 운송차의 적재 공간 내에 적재되면, 제3 통신 모듈(430)은 제1 물품에 부착된 제1 태그를 인식할 수 있으며, 제1 태그가 인식되면, 제3 통신 모듈(430) 및 제1 태그 간의 RSSI 값인 제3 수치를 측정할 수 있으며, 장치(600)는 제3 통신 모듈(430)에 의해 제3 수치가 측정되면, 제3 통신 모듈(430)로부터 제3 수치에 대한 측정 정보를 획득할 수 있다.
즉, 도 9에 도시된 바와 같이, 제3 통신 모듈(430)이 제1 태그를 인식하게 되면, 제3 통신 모듈(430) 및 제1 태그 간의 RSSI 값인 제3 수치가 측정될 수 있다.
S804 단계에서, 장치(600)는 제4 통신 모듈(440)을 통해 제1 물품에 부착되어 있는 제1 태그가 인식되어 제4 통신 모듈(440) 및 제1 태그 간의 RSSI 값인 제4 수치가 측정되면, 제4 통신 모듈(440)로부터 제4 수치에 대한 측정 정보를 획득할 수 있다. 여기서, 제4 수치에 대한 측정 정보는 제4 통신 모듈(440)에서 제4 통신 모듈(440)과 제1 태그 간의 RSSI 값을 측정한 수치가 제4 수치인 것을 알려주기 위한 정보로, 제4 수치에 대한 측정값을 포함할 수 있다.
구체적으로, 제1 태그가 부착된 제1 물품이 제1 운송차의 적재 공간 내에 적재되면, 제4 통신 모듈(440)은 제1 물품에 부착된 제1 태그를 인식할 수 있으며, 제1 태그가 인식되면, 제4 통신 모듈(440) 및 제1 태그 간의 RSSI 값인 제4 수치를 측정할 수 있으며, 장치(600)는 제4 통신 모듈(440)에 의해 제4 수치가 측정되면, 제4 통신 모듈(440)로부터 제4 수치에 대한 측정 정보를 획득할 수 있다.
즉, 도 9에 도시된 바와 같이, 제4 통신 모듈(440)이 제1 태그를 인식하게 되면, 제4 통신 모듈(440) 및 제1 태그 간의 RSSI 값인 제4 수치가 측정될 수 있다.
S805 단계에서, 장치(600)는 제1 수치를 이용하여 제1 통신 모듈(410) 및 제1 태그 간의 통신 거리인 제1 거리를 산출할 수 있다.
S806 단계에서, 장치(600)는 제2 수치를 이용하여 제2 통신 모듈(420) 및 제1 태그 간의 통신 거리인 제2 거리를 산출할 수 있다.
S807 단계에서, 장치(600)는 제3 수치를 이용하여 제3 통신 모듈(430) 및 제1 태그 간의 통신 거리인 제3 거리를 산출할 수 있다.
S808 단계에서, 장치(600)는 제4 수치를 이용하여 제4 통신 모듈(440) 및 제1 태그 간의 통신 거리인 제4 거리를 산출할 수 있다.
S809 단계에서, 장치(600)는 제1 지점의 위치, 제2 지점의 위치, 제3 지점의 위치 및 제4 지점의 위치와 제1 거리, 제2 거리, 제3 거리 및 제4 거리를 이용하여, 제1 운송차의 적재 공간 내에서 제1 물품이 적재된 위치를 식별할 수 있다.
도 10에 도시된 바와 같이, 장치(600)는 삼각 측량법을 통해 제1 운송차의 적재 공간 내에서 제1 물품이 적재된 위치를 파악할 수 있다.
구체적으로, 장치(600)는 제1 통신 모듈(410)이 설치된 제1 지점을 중심으로 제1 거리 이내에 있는 영역을 제1 영역으로 설정하고, 제2 통신 모듈(420)이 설치된 제2 지점을 중심으로 제2 거리 이내에 있는 영역을 제2 영역으로 설정하고, 제3 통신 모듈(430)이 설치된 제3 지점을 중심으로 제3 거리 이내에 있는 영역을 제3 영역으로 설정하고, 제4 통신 모듈(440)이 설치된 제4 지점을 중심으로 제4 거리 이내에 있는 영역을 제4 영역으로 설정한 후, 제1 영역, 제2 영역, 제3 영역 및 제4 영역이 모두 중복되는 지점이 X 지점으로 확인되면, X 지점을 제1 물품이 적재된 위치로 식별할 수 있다.
장치(600)는 X 지점에 대한 3차원 좌표를 분석하여, 제1 물품이 적재된 위치의 좌표를 설정할 수 있다.
장치(600)는 제1 구역에 제1 물품이 적재된 것으로 식별되고, X 지점에 제1 물품이 적재된 것으로 식별되면, X 지점이 제1 구역에 포함되는지 여부를 확인할 수 있으며, X 지점이 제1 구역에 포함되는 것으로 확인되면, 통신 거리를 통해 제1 물품이 적재된 위치가 정상적으로 식별된 것으로 판단할 수 있다.
예를 들어, 제1 운송차의 적재 공간이 출입문을 기준으로 안쪽을 봤을 때 바닥의 가로가 X축, 바닥의 세로가 Y축, 높이가 Z축으로 설정될 수 있고, 제1 구역은 2차원 이미지를 통해 분석되기 때문에 X 좌표와 Z 좌표의 범위 내에서 설정될 수 있고, X 지점은 3차원 공간 상에서 분석되기 때문에 3 차원 좌표로 설정될 수 있다.
제1 구역의 X 좌표 범위가 (2~4)로 설정되어 있고 Z 좌표 범위가 (4~6)으로 설정되어 있으며, X 지점의 3차원 좌표가 (3, 4, 5)로 설정되어 있는 경우, 장치(600)는 X 지점의 X 좌표 3이 제1 구역의 X 좌표 범위인 (2~4) 내에 포함되어 있으며, X 지점의 Z 좌표 5가 제1 구역의 Z 좌표 범위인 (4~6)에 포함되어 있으므로, X 지점이 제1 구역에 포함되는 것으로 확인할 수 있다.
또한, 장치(600)는 제1 물품이 제1 공간 및 제2 공간 중 어느 공간에 적재된 것으로 식별되는지에 따라, 제1 지점의 Y 좌표에 대해 확인할 수 있다.
즉, 제1 공간 및 제2 공간은 각각 상이한 Y 좌표의 범위로 설정될 수 있고, 장치(600)는 제1 물품이 제1 공간에 적재된 것으로 식별되면, X 지점이 제1 공간의 Y 좌표 범위에 포함되는지 여부를 확인할 수 있으며, X 지점이 제1 공간의 Y 좌표 범위에 포함되는 것으로 확인되면, 통신 거리를 통해 제1 물품이 적재된 위치가 정상적으로 식별된 것으로 판단할 수 있다.
또한, 장치(600)는 제1 물품이 제2 공간에 적재된 것으로 식별되면, X 지점이 제2 공간의 Y 좌표 범위에 포함되는지 여부를 확인할 수 있으며, X 지점이 제2 공간의 Y 좌표 범위에 포함되는 것으로 확인되면, 통신 거리를 통해 제1 물품이 적재된 위치가 정상적으로 식별된 것으로 판단할 수 있다.
상술한 바와 같이, 장치(600)는 제1 물품이 적재된 위치의 3차원 좌표에 대해, 제1 물품이 어느 구역에 있는지 여부에 따라 X 좌표 및 Z 좌표를 확인할 수 있고, 제1 물품이 어느 공간에 있는지 여부에 따라 Y 좌표를 확인할 수 있다.
도 11은 일실시예에 따른 제품 재고의 유통관리를 수행하는 과정을 설명하기 위한 순서도이다.
도 11을 참조하면, 먼저, S1101 단계에서, 장치(600)는 제1 운송차가 제1 창고로 제1 제품을 정기적으로 배송하고 있는 경우, 제1 창고의 입고 내역에 기초하여, 제1 창고에 제1 제품을 입고하는 입고 패턴을 분석할 수 있다. 여기서, 입고 내역은 창고에 제품이 입고된 입고 내역이 누적된 정보로, 어느 시점에 어느 제품을 얼마나 많이 입고하였는지 나타내는 리스트로 구성될 수 있고, 제품명, 입고일, 입고량 등의 정보를 포함할 수 있다.
장치(600)의 데이터베이스에는 창고 별로 구분되어 있는 입고 내역이 저장되어 있으며, 장치(600)는 데이터베이스에 저장된 정보를 조회하여 제1 창고의 입고 내역을 획득할 수 있다. 이때, 제1 창고는 제1 업체에서 운영하는 창고로, 제1 업체 정보와 제1 창고의 입고 내역이 연계되어 데이터베이스에 저장될 수 있다.
예를 들어, 제1 창고의 입고 내역을 통해 제1 창고에 제1 제품을 입고한 내역을 확인한 결과, 1월 1일에 20개, 1월 11일에 15개, 1월 21일에 25개 입고한 것이 확인되면, 장치(600)는 10일 간격으로 평균 20개씩 제1 제품에 대한 입고가 이루어지는 것을 파악하여, 제1 제품의 입고 패턴을 분석할 수 있다. 여기서, 제1 제품의 입고 패턴은 제1 창고에서 제1 제품을 얼마나 자주 어느 정도의 양으로 입고하였는지 나타내는 입고 패턴을 의미할 수 있다.
S1102 단계에서, 장치(600)는 제1 제품의 입고 패턴에 대한 분석 결과를 미리 학습된 제2 인공 신경망에 적용할 수 있다.
일실시예에 따르면, 제2 인공 신경망은 제품의 입고 패턴에 대한 분석 결과를 입력 받은 후, 제품의 입고 패턴에 적합한 제품의 재고 업데이트 주기를 출력하는 알고리즘일 수 있다. 예를 들어, 제1 제품의 입고 패턴이 10일 간격으로 입고가 이루어지는 패턴으로 분석된 경우, 제2 인공 신경망은 10일 간격으로 입고가 이루어지는 것으로 분석된 제1 제품의 입고 패턴에 대한 분석 결과를 입력으로 받아, 10일 간격으로 이루어지는 입고 패턴에 적합한 제품의 재고 업데이트 주기를 10일로 출력할 수 있다.
S1103 단계에서, 장치(600)는 제2 인공 신경망의 출력을 기초로, 제1 제품의 재고 업데이트 주기인 제1 주기를 설정할 수 있다. 즉, 제2 인공 신경망은 제1 창고에서 제1 제품을 입고하는 입고 패턴을 분석하여, 제1 제품의 입고 패턴에 적합한 제1 제품의 재고 업데이트 주기인 제1 주기에 대한 설정값을 출력할 수 있으며, 장치(600)는 제2 인공 신경망의 출력을 기초로, 제1 제품의 재고 업데이트 주기를 제1 주기로 설정할 수 있다.
이를 위해, 제2 인공 신경망은 제품의 입고 패턴에 대한 분석 결과를 통해 제품의 입고 패턴에 적합한 제품의 재고 업데이트 주기를 선정하여 추출하도록 학습될 수 있다. 이러한 제2 인공 신경망은 도 14를 참조하여 후술되는 방법을 통해 학습될 수 있다.
S1104 단계에서, 장치(600)는 제1 주기마다 제1 창고에 보관되어 있는 제1 제품을 유통기한 별로 분류할 수 있다.
구체적으로, 장치(600)는 제1 창고의 재고 정보를 기반으로, 제1 주기마다 제1 창고에 보관되어 있는 제1 제품을 유통기한 별로 분류할 수 있다. 여기서, 제1 창고의 재고 정보는 제1 창고에 보관되어 있는 제품들 각각의 재고 현황을 포함할 수 있다.
장치(600)는 제1 창고에 제품들이 새로 입고되거나, 제1 창고에서 제품들이 출고되는 것을 추적하여, 제1 창고의 재고 정보를 실시간으로 업데이트 할 수 있다. 이를 위해, 제1 창고에서 취급하는 제품에는 식별 코드가 부착되어 있어, 식별 코드의 인식을 통해 입고부터 출고까지 추적 관리될 수 있다.
즉, 장치(600)는 복수의 창고들 각각에서 식별 코드의 인식을 통해 제품들의 입고부터 출고까지 추적 관리되면, 식별 코드의 인식을 통해 실시간으로 변화되는 제품들의 재고 현황을 창고 별로 파악할 수 있으며, 창고 별로 구분된 재고 정보를 데이터베이스에 저장하여 관리할 수 있다.
일실시예에 따르면, 재고 정보는 제품명, 유통기한, 재고량, 가격 등의 정보를 포함할 수 있으며, 동일한 제품이더라도 유통기한이 상이한 경우, 유통기한 별로 구분되어 관리될 수 있다. 이를 통해, 장치(600)는 제1 창고의 재고 정보를 기반으로, 제1 제품을 유통기한 별로 구분하여 분류할 수 있다.
S1105 단계에서, 장치(600)는 제1 창고에 보관되어 있는 제1 제품을 유통기한 별로 분류한 결과, 제1 제품 중에서 유통기한까지 남아있는 잔여 기간이 가장 짧은 제품들을 제1 그룹으로 분류할 수 있다.
예를 들어, 제1 창고의 재고 정보에 “제1 제품, 유통기한 1월 20일, 재고량 10개”, “제1 제품, 유통기한 1월 25일, 재고량 15개”, “제1 제품, 유통기한 1월 30일, 재고량 30개”라는 정보가 포함되어 있는 경우, 장치(600)는 제1 제품 중에서 1월 20일을 유통기한까지 남아있는 잔여기간이 가장 짧은 것으로 확인하여, 1월 20일이 유통기한인 10개의 제1 제품을 제1 그룹으로 분류할 수 있다.
S1106 단계에서, 장치(600)는 제1 그룹으로 분류된 제1 제품의 재고량을 제1 재고량으로 확인하고, 제1 그룹으로 분류된 제1 제품의 유통기한까지 남아있는 잔여 기간을 제1 기간으로 확인할 수 있다.
예를 들어, 장치(600)는 1월 20일이 유통기한인 10개의 제1 제품을 제1 그룹으로 분류한 경우, 제1 재고량을 10개로 확인하고, 현재 일자가 1월 15일로 확인되면, 제1 기간을 5일로 확인할 수 있다.
S1107 단계에서, 장치(600)는 제1 기간이 제2 기준 기간 보다 짧은지 여부를 확인할 수 있다. 여기서, 제2 기준 기간은 실시예에 따라 상이하게 설정될 수 있다.
S1107 단계에서 제1 기간이 제2 기준 기간 보다 짧지 않은 것으로 확인되면, 일정 기간이 지난 이후, S1101 단계로 되돌아가, 장치(600)는 제1 제품의 입고 패턴을 분석하는 과정부터 다시 수행할 수 있다.
예를 들어, 제2 기준 기간이 5일이고 제1 기간이 8일인 경우, 장치(600)는 제1 기간이 제2 기준 기간 보다 긴 것으로 확인되기 때문에, 유통기한이 임박하지 않은 것으로 판단하여, 유통기한이 임박한 것을 알려주는 알림 서비스의 제공이 필요하지 않은 것으로 판단할 수 있다.
S1107 단계에서 제1 기간이 제2 기준 기간 보다 짧은 것으로 확인되면, S1108 단계에서, 장치(600)는 제1 제품의 재고 중 제1 재고량에 대한 유통기한이 임박한 것을 알려주는 알림 메시지를 관리자 단말로 전송할 수 있다. 여기서, 알림 메시지는 제1 제품의 제품명, 제1 재고량, 제1 그룹으로 분류된 제1 제품의 유통기한, 제1 기간 등에 대한 정보를 포함할 수 있다.
예를 들어, 제2 기준 기간이 5일이고 제1 기간이 3일인 경우, 장치(600)는 제1 기간이 제2 기준 기간 보다 짧은 것으로 확인되기 때문에, 유통기한이 임박한 것으로 판단하여, 유통기한이 임박한 것을 알려주는 알림 서비스의 제공이 필요한 것으로 판단할 수 있으며, 이를 통해, 제1 제품의 재고 중 제1 재고량에 대한 유통기한이 임박한 것을 알려주는 알림 메시지를 관리자 단말로 전송할 수 있다. 이를 위해, 장치(600)는 관리자 단말과 유무선으로 통신하도록 구성될 수 있다.
장치(600)는 제1 제품의 재고 중 제1 재고량에 대한 유통기한이 임박한 것을 알려주는 알림 메시지를 관리자 단말로 전송하면서, 제1 제품에 대한 할인, 판촉 또는 입고를 추천하는 알림 메시지를 관리자 단말로 더 전송할 수 있으며, 이와 관련된 자세한 설명은 도 12를 참조하여 후술하기로 한다.
도 12는 일실시예에 따른 제품의 재고량이 출고되지 않고 남아있을 수 있는 확률을 예측하여 제품의 유통관리 상태를 설정하는 과정을 설명하기 위한 순서도이다.
도 12를 참조하면, 먼저, S1201 단계에서, 장치(600)는 제1 창고의 출고 내역에 기초하여, 제1 제품의 일일 평균 출고량을 제1 출고량으로 확인할 수 있다. 여기서, 출고 내역은 창고에서 제품을 출고한 출고 내역이 누적된 정보로, 어느 시점에 어느 제품을 얼마나 많이 출고하였는지 나타내는 리스트로 구성될 수 있고, 제품명, 출고일, 출고량 등의 정보를 포함할 수 있다.
장치(600)의 데이터베이스에는 창고 별로 구분되어 있는 출고 내역이 저장되어 있으며, 장치(600)는 데이터베이스에 저장된 정보를 조회하여 제1 창고의 출고 내역을 획득할 수 있다. 이때, 제1 창고는 제1 업체에서 운영하는 창고로, 제1 업체 정보와 제1 창고의 출고 내역이 연계되어 데이터베이스에 저장될 수 있다.
예를 들어, 제1 창고의 출고 내역을 통해 제1 창고에서 제1 제품을 출고한 내역을 확인한 결과, 1월 1일에 18개, 1월 2일에 20개, 1월 3일에 22개 출고한 것이 확인되면, 장치(600)는 제1 제품의 일일 평균 출고량을 20개로 산출할 수 있고, 20개를 제1 출고량으로 확인할 수 있다.
S1202 단계에서, 장치(600)는 제1 재고량, 제1 기간 및 제1 출고량을 매칭하여 매칭 결과를 생성할 수 있다.
S1203 단계에서, 장치(600)는 제1 재고량, 제1 기간 및 제1 출고량을 매칭한 매칭 결과를 미리 학습된 제3 인공 신경망에 적용할 수 있다. 여기서, 제3 인공 신경망은 재고량, 유통기한까지 남아있는 잔여 기간 및 일일 평균 출고량을 매칭한 매칭 결과를 입력으로 받아, 유통기한이 경과될 때까지 재고량이 출고되지 않고 남아있을 수 있는 확률을 출력하는 알고리즘일 수 있다.
즉, 제3 인공 신경망은 재고량, 유통기한까지 남아있는 잔여 기간 및 일일 평균 출고량을 고려하여, 유통기한이 경과할 때까지 재고량이 출고되지 않고 남아있을 수 있는 확률을 예측하여 산정할 수 있다.
예를 들어, 제1 재고량, 제1 기간 및 제1 출고량을 매칭한 매칭 결과가 (60개, 5일, 10개)인 경우, 제3 인공 신경망은 (60개, 5일, 10개)를 입력으로 받아, 5일이 경과한 후 60개의 재고량이 출고되지 않고 남아있을 수 있는 확률을 제1 발생률로 예측하여 산정할 수 있고, 제1 발생률을 지시하는 출력값을 출력할 수 있다.
S1204 단계에서, 장치(600)는 제3 인공 신경망의 출력을 기초로, 제1 기간이 경과할 때까지 제1 재고량이 출고되지 않고 남아있을 수 있는 확률을 제1 발생률로 예측할 수 있다.
일실시예에 따르면, 제3 인공 신경망은 재고량, 유통기한까지 남아있는 잔여 기간 및 일일 평균 출고량을 매칭한 매칭 결과를 통해, 유통기한이 경과할 때까지 재고량이 출고되지 않고 남아있을 수 있는 확률이 얼마나 되는지 분석하여 출력할 수 있다. 제3 인공 신경망은 도 15를 참조하여 후술되는 방법을 통해 학습될 수 있다.
S1205 단계에서, 장치(600)는 제1 발생률이 제1 기준치 이상인지 여부를 확인할 수 있다. 여기서, 제1 기준치는 실시예에 따라 상이하게 설정될 수 있다.
S1205 단계에서 제1 발생률이 제1 기준치 이상인 것으로 확인되면, S1206 단계에서, 장치(600)는 제1 재고량에 대한 유통관리 상태를 경고 상태로 설정할 수 있다.
예를 들어, 제1 기준치가 60%인 경우, 장치(600)는 제1 발생률이 70%로 확인되면, 제1 재고량이 출고되지 않고 남아있을 수 있는 확률이 매우 높은 것으로 판단하여, 제1 재고량에 대한 유통관리 상태를 경고 상태로 설정할 수 있다.
S1207 단계에서, 장치(600)는 제1 재고량에 대한 유통관리 상태가 경고 상태로 설정된 경우, 제1 제품에 대한 할인을 추천하는 알림 메시지를 관리자 단말로 전송할 수 있다. 여기서, 알림 메시지는 할인가, 할인율, 할인 전 제품 가격, 할인 후 제품 가격 등에 대한 정보를 포함할 수 있다.
S1205 단계에서 제1 발생률이 제1 기준치 미만인 것으로 확인되면, S1208 단계에서, 장치(600)는 제1 발생률이 제2 기준치 이상인지 여부를 확인할 수 있다. 여기서, 제2 기준치는 제1 기준치 보다 작은 값으로 설정될 수 있다.
S1208 단계에서 제1 발생률이 제2 기준치 이상인 것으로 확인되면, S1209 단계에서, 장치(600)는 제1 재고량에 대한 유통관리 상태를 주의 상태로 설정할 수 있다.
예를 들어, 제1 기준치가 60%이고 제2 기준치가 30%인 경우, 장치(600)는 제1 발생률이 40%로 확인되면, 제1 재고량이 출고되지 않고 남아있을 수 있는 확률이 어느 정도 있는 것으로 판단하여, 제1 재고량에 대한 유통관리 상태를 주의 상태로 설정할 수 있다.
S1210 단계에서, 장치(600)는 제1 재고량에 대한 유통관리 상태가 주의 상태로 설정된 경우, 제1 제품에 대한 판촉을 추천하는 알림 메시지를 관리자 단말로 전송할 수 있다. 여기서, 알림 메시지는 지면 광고에 사용될 이미지, 온라인 광고에 사용될 영상 콘텐츠 등에 대한 정보를 포함할 수 있다.
S1208 단계에서 제1 발생률이 제2 기준치 미만인 것으로 확인되면, S1211 단계에서, 장치(600)는 제1 재고량에 대한 유통관리 상태를 정상 상태로 설정할 수 있다.
예를 들어, 제1 기준치가 60%이고 제2 기준치가 30%인 경우, 장치(600)는 제1 발생률이 20%로 확인되면, 제1 재고량이 출고되지 않고 남아있을 수 있는 확률이 매우 낮은 것으로 판단하여, 제1 재고량에 대한 유통관리 상태를 정상 상태로 설정할 수 있다.
S1212 단계에서, 장치(600)는 제1 재고량에 대한 유통관리 상태가 정상 상태로 설정된 경우, 제1 제품에 대한 입고를 추천하는 알림 메시지를 관리자 단말로 전송할 수 있다. 여기서, 알림 메시지는 입고량 등에 대한 정보를 포함할 수 있다.
도 13은 일실시예에 따른 제1 인공 신경망을 설명하기 위한 도면이다.
일실시예에 따르면, 장치(600)는 카메라를 통한 촬영으로 생성된 이미지를 인코딩 하여 제1 입력 신호를 생성할 수 있으며, 제1 인공 신경망(1301)은 제1 입력 신호를 입력으로 하고, 물품의 종류(1302) 및 물품의 위치(1303)를 출력으로 할 수 있다.
일실시예에 따른 인코딩은 이미지의 픽셀 별 색 정보를 수치화된 데이터 시트 형태로 저장하는 방식으로 이뤄질 수 있는데, 색 정보는 하나의 픽셀이 가지고 있는 RGB 색상, 명도 정보, 채도 정보를 포함할 수 있으나, 이에 국한하지 않는다.
일실시예에 따르면, 제1 인공 신경망(1301)은 컨볼루션 신경망으로 구현되어, 제1 인공 신경망(1301)은 특징 추출 신경망(1310)과 분류 신경망(1320)으로 구성될 수 있으며, 특징 추출 신경망(1310)은 적재된 물품들을 찍은 이미지에서 물품과 배경을 분리하는 작업을 수행할 수 있으며, 분류 신경망(1320)은 그로부터 물품을 종류별로 분류하고, 물품의 종류별로 각각의 적재된 위치를 파악하는 작업을 수행하도록 할 수 있다. 특징 추출 신경망(1310)이 물품과 배경과 구분하는 방법은, 이미지를 인코딩한 제1 입력 신호의 데이터 시트로부터 색 정보의 각 값들의 변화가 한 픽셀을 포함하는 8개의 픽셀 중 6개 이상에서 30% 이상의 변화가 생긴 것으로 감지되는 픽셀들의 묶음을 물품과 배경의 경계로 삼을 수 있으나, 이에 국한하지 않는다.
일실시예에 따르면, 특징 추출 신경망(1310)은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.
일실시예에 따른 분류 신경망(1320)은 특징 추출 신경망(1310)을 통해 배경으로부터 구분된 물품을 그 형태 및 연속성에 따라 종류를 구분하고, 물품의 위치(1303)를 종류별로 파악할 수 있다. 물품의 비교를 위해 데이터베이스에 저장된 정보들을 활용할 수 있다. 분류 신경망(1320)은 물품의 종류(1302)를 파악하는 작업을 우선으로 하며, 파악된 물품의 형태 및 크기에 따라 물품의 위치(1303) 파악을 용이하도록 할 수 있다. 물품의 위치(1303)는 2차원 좌표로 파악될 수 있다.
일실시예에 따르면, 분류 신경망(1320)은 은닉층과 출력층을 가지고 있다. 장치(600) 내의 제1 인공 신경망(1301)에서는 일반적으로 은닉층이 5개 이상 존재하며, 각 은닉층의 노드는 80개로 지정하나 경우에 따라 그 이상으로 정할 수 있다. 은닉층의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 제1 인공 신경망(1301)의 출력층 노드는 총 50개로 할 수 있다.
일실시예에 따른 제1 인공 신경망(1301)의 출력은 출력층의 50개 노드 중 상위 25개의 노드는 물품의 종류(1302)를 지시할 수 있고, 하위 25개의 노드는 상위 노드에 각각 대응하는 물품의 위치(1303)를 지시할 수 있다. 상위 25개의 노드와 하위 25개의 노드를 대응시키는 방식은 상위 n번 째 노드와 하위 n번 째 노드를 대응시키는 방식으로, 전체에서 n번 째 노드가 전체에서 25+n번 째 노드에 대응하는 방식으로 진행될 수 있다. 예를 들어, 1번 째 노드는 26번 째 노드에 대응하며, 2번 째 노드는 27번 째 노드에, 10번 째 노드는 35번 째 노드에, 25번 재 노드는 50번 째 노드에 대응하는 방식으로 진행될 수 있다. 물품의 종류(1302)는 물품을 식별하기 위한 정보에 대응하는 코드 정보로 출력될 수 있으나, 이에 국한하지 않는다. 만약 분류된 물품의 종류가 25개 이상일 경우, 남은 물품은 미리 생성한 출력값이 모두 처리된 후 이어서 자동으로 처리될 수 있다.
일실시예에 따르면, 제1 인공 신경망(1301)은 사용자가 제1 인공 신경망(1301)에 따른 물품 파악의 문제점 발견 시 사용자에 의해 입력된 수정 정답에 의해 생성되는 제1 학습 신호를 전달받아 학습할 수 있다. 제1 인공 신경망(1301)에 따른 물품 파악의 문제점은 물품의 종류(1302) 및 물품의 위치(1303)에 문제가 있는 경우를 의미할 수 있다.
일실시예에 따른 제1 학습 신호는 정답과 출력값의 오차를 바탕으로 만들어지며, 경우에 따라 델타를 이용하는 SGD나 배치 방식 혹은 역전파 알고리즘을 따르는 방식을 사용할 수 있다. 본 제1 학습 신호에 의해 제1 인공 신경망(1301)은 기존의 가중치를 수정해 학습을 수행하며, 경우에 따라 모멘텀을 사용할 수 있다. 오차의 계산에는 비용함수가 사용될 수 있는데, 비용함수로 Cross entropy 함수를 사용할 수 있다.
도 14는 일실시예에 따른 제2 인공 신경망의 학습을 설명하기 위한 도면이다.
일실시예에 따르면, 제2 인공 신경망은 제품의 입고 패턴에 대한 분석 결과를 입력 받은 후, 제품의 입고 패턴에 적합한 제품의 재고 업데이트 주기를 출력하는 알고리즘일 수 있다.
제2 인공 신경망의 학습이 이루어지는 학습 장치는 학습된 제2 인공 신경망을 이용하여 제품의 입고 패턴에 적합한 제품의 재고 업데이트 주기를 분석하는 장치(600)와 동일한 장치일 수 있고, 별개의 장치일 수도 있다. 이하에서는 제2 인공 신경망이 학습되는 과정을 설명한다.
먼저, S1401 단계에서, 학습 장치는 제품의 입고 패턴에 대한 분석 결과를 기초로 입력을 생성할 수 있다.
구체적으로, 학습 장치는 제품의 입고 패턴에 대한 분석 결과를 전처리하는 과정을 수행할 수 있다. 전처리가 수행된 제품의 입고 패턴에 대한 분석 결과를 제2 인공 신경망의 입력으로 그대로 사용하거나, 불필요한 정보를 제거하는 통상의 처리를 거쳐 입력을 생성할 수 있다.
S1402 단계에서, 학습 장치는 제2 인공 신경망에 입력을 적용할 수 있다. 제2 인공 신경망은 강화 학습(reinforcement learning)에 따라 학습되는 인공 신경망일 수 있다. 제2 인공 신경망은 강화 학습을 통해 추상적 추론을 출력하는데 적합한 Q-Network, DQN(Depp Q-Network), 또는 관계형 네트워크(relation network, RL) 구조일 수 있다.
강화 학습에 따라 학습되는 제2 인공 신경망은 다양한 보상에 평가를 반영하여 갱신 및 최적화될 수 있다. 예를 들어, 제1 보상은 제품의 입고 패턴이 일정 이상 간격으로 입고가 이루어지면, 재고 업데이트 주기를 길게 선정할수록 보상값이 높아질 수 있고, 제2 보상은 제품의 입고 패턴이 일정 미만 간격으로 입고가 이루어지면, 재고 업데이트 주기를 짧게 선정할수록 보상값이 높아질 수 있다.
S1403 단계에서, 학습 장치는 제2 인공 신경망으로부터 출력을 획득할 수 있다. 제2 인공 신경망의 출력은 제품의 입고 패턴에 적합한 재고 업데이트 주기에 대한 정보를 포함할 수 있다. 이때, 제2 인공 신경망은 제품의 입고 패턴에 대한 분석을 통해, 제품의 입고 패턴에 적합한 재고 업데이트 주기를 선정하여, 선정된 재고 업데이트 주기에 대한 정보를 출력할 수 있다.
S1404 단계에서, 학습 장치는 제2 인공 신경망의 출력을 평가하여 보상을 지급할 수 있다. 이때, 출력의 평가는 제1 보상, 제2 보상 등으로 나뉠 수 있다.
구체적으로, 학습 장치는 제품의 입고 패턴이 일정 이상 간격으로 입고가 이루어진 경우, 재고 업데이트 주기를 길게 선정할수록 제1 보상을 많이 수여하고, 제품의 입고 패턴이 일정 미만 간격으로 입고가 이루어진 경우, 재고 업데이트 주기를 짧게 선정할수록 제2 보상을 많이 수여할 수 있다.
S1405 단계에서, 학습 장치는 평가를 기초로 제2 인공 신경망을 갱신할 수 있다.
구체적으로, 학습 장치는 제2 인공 신경망이 제품의 입고 패턴을 통해, 재고 업데이트 주기를 선정하여 추출하는 환경(environment)에서, 보상값(reward)들의 합의 기대값(expectation)이 최대화되도록, 특정한 상태(state)들에서 취할 행동(action)들을 결정하는 정책(policy)을 최적화하는 과정을 통해 제2 인공 신경망을 갱신할 수 있다.
예를 들어, 학습 장치는 제1 제품의 입고 패턴에 대한 분석 결과를 통해, 제1 제품의 재고 업데이트 주기가 제1 주기로 설정되면, 제1 주기의 분석 결과에 대해 문제가 없는지 여부를 확인할 수 있고, 제1 주기의 분석 결과에 대해 문제가 없는 경우, 제품의 재고 업데이트 주기의 분석에 대해 문제가 없음을 나타내는 정보를 포함하는 제1 학습 데이터를 생성하고, 제1 학습 데이터를 제2 인공 신경망에 적용하여, 제1 제품의 입고 패턴과 유사한 입고 패턴을 입력으로 하는 경우, 제1 주기와 유사한 주기를 선정하도록, 제2 인공 신경망을 학습시키는 과정을 통해, 제2 인공 신경망을 갱신할 수 있다.
한편, 정책을 최적화하는 과정은 보상들의 합의 기대값의 최대값 또는 Q-함수의 최대값을 추정하거나, Q-함수의 손실 함수(loss function)의 최소값을 추정하는 과정을 통해 이루어질 수 있다. 손실함수의 최소값의 추정은 확률적 경사하강법(stochastic gradient descent, SGD) 등을 통해 이루어질 수 있다. 정책을 최적화하는 과정은 이에 제한되는 것은 아니며, 강화 학습에서 사용하는 다양한 최적화 알고리즘들이 이용될 수 있다.
학습 장치는 상기와 같은 제2 인공 신경망의 학습 과정을 반복함으로써, 제2 인공 신경망을 점진적으로 갱신시킬 수 있다. 이를 통해, 학습 장치는 제품의 입고 패턴에 대한 분석 결과를 통해, 제품의 입고 패턴에 적합한 재고 업데이트 주기를 출력하는 제2 인공 신경망을 학습시킬 수 있다.
즉, 학습 장치는 제품의 입고 패턴에 대한 분석 결과를 통해 재고 업데이트 주기를 추출할 때, 제1 보상, 제2 보상 등을 통한 강화 학습을 반영하여, 분석 기준을 조정함으로써, 제2 인공 신경망을 학습시킬 수 있다.
도 15는 일실시예에 따른 제3 인공 신경망의 학습을 설명하기 위한 도면이다.
일실시예에 따르면, 제3 인공 신경망은 재고량, 유통기한까지 남아있는 잔여 기간 및 일일 평균 출고량을 매칭한 매칭 결과를 입력으로 받아, 유통기한이 경과될 때까지 재고량이 출고되지 않고 남아있을 수 있는 확률을 출력하는 알고리즘일 수 있다.
제3 인공 신경망의 학습이 이루어지는 학습 장치는 학습된 제3 인공 신경망을 이용하여 유통기한이 경과될 때까지 재고량이 출고되지 않고 남아있을 수 있는 확률을 분석하는 장치(600)와 동일한 장치일 수 있고, 별개의 장치일 수도 있다. 이하에서는 제3 인공 신경망이 학습되는 과정을 설명한다.
먼저, S1501 단계에서, 학습 장치는 재고량, 유통기한까지 남아있는 잔여 기간 및 일일 평균 출고량을 매칭한 매칭 결과를 기초로 입력을 생성할 수 있다.
구체적으로, 학습 장치는 재고량, 유통기한까지 남아있는 잔여 기간 및 일일 평균 출고량을 매칭한 매칭 결과에 대해 전처리하는 과정을 수행할 수 있다. 전처리가 수행된 매칭 결과를 제3 인공 신경망의 입력으로 그대로 사용하거나, 불필요한 정보를 제거하는 통상의 처리를 거쳐 입력을 생성할 수 있다.
S1502 단계에서, 학습 장치는 제3 인공 신경망에 입력을 적용할 수 있다. 제3 인공 신경망은 강화 학습(reinforcement learning)에 따라 학습되는 인공 신경망일 수 있다. 제3 인공 신경망은 강화 학습을 통해 추상적 추론을 출력하는데 적합한 Q-Network, DQN(Depp Q-Network), 또는 관계형 네트워크(relation network, RL) 구조일 수 있다.
강화 학습에 따라 학습되는 제3 인공 신경망은 다양한 보상에 평가를 반영하여 갱신 및 최적화될 수 있다. 예를 들어, 제3 보상은 재고량이 많을수록 유통기한이 경과될 때까지 재고량이 출고되지 않고 남아있을 수 있는 확률이 높은 것으로 분석하면 보상값이 높아질 수 있고, 제4 보상은 유통기한까지 남아있는 잔여 기간이 짧을수록 유통기한이 경과될 때까지 재고량이 출고되지 않고 남아있을 수 있는 확률이 높은 것으로 분석하면 보상값이 높아질 수 있고, 제5 보상은 일일 평균 출고량이 적을수록 유통기한이 경과될 때까지 재고량이 출고되지 않고 남아있을 수 있는 확률이 높은 것으로 분석하면 보상값이 높아질 수 있다.
S1503 단계에서, 학습 장치는 제3 인공 신경망으로부터 출력을 획득할 수 있다. 제3 인공 신경망의 출력은, 유통기한이 경과할 때까지 재고량이 출고되지 않고 남아있을 수 있는 확률에 대한 정보일 수 있다. 이때, 제3 인공 신경망은 재고량, 유통기한까지 남아있는 잔여 기간 및 일일 평균 출고량을 고려하여, 유통기한이 경과할 때까지 재고량이 출고되지 않고 남아있을 수 있는 확률을 분석하고, 유통기한이 경과할 때까지 재고량이 출고되지 않고 남아있을 수 있는 확률에 대한 정보를 출력할 수 있다.
S1504 단계에서, 학습 장치는 제3 인공 신경망의 출력을 평가하여 보상을 지급할 수 있다. 이때, 출력의 평가는 제3 보상, 제4 보상, 제5 보상 등으로 나뉠 수 있다.
구체적으로, 학습 장치는 재고량이 많을수록 유통기한이 경과될 때까지 재고량이 출고되지 않고 남아있을 수 있는 확률이 높은 것으로 분석하면 제3 보상을 많이 수여하고, 유통기한까지 남아있는 잔여 기간이 짧을수록 유통기한이 경과될 때까지 재고량이 출고되지 않고 남아있을 수 있는 확률이 높은 것으로 분석하면 제4 보상을 많이 수여하고, 일일 평균 출고량이 적을수록 유통기한이 경과될 때까지 재고량이 출고되지 않고 남아있을 수 있는 확률이 높은 것으로 분석하면 제5 보상을 많이 수여할 수 있다.
S1505 단계에서, 학습 장치는 평가를 기초로 제3 인공 신경망을 갱신할 수 있다.
구체적으로, 학습 장치는 제3 인공 신경망이, 유통기한이 경과할 때까지 재고량이 출고되지 않고 남아있을 수 있는 확률을 분석하는 환경(environment)에서, 보상값(reward)들의 합의 기대값(expectation)이 최대화되도록, 특정한 상태(state)들에서 취할 행동(action)들을 결정하는 정책(policy)을 최적화하는 과정을 통해 제3 인공 신경망을 갱신할 수 있다.
예를 들어, 학습 장치는 제1 재고량, 제1 기간 및 제1 출고량을 매칭한 매칭 결과를 통해, 제1 기간이 경과할 때까지 상기 제1 재고량이 출고되지 않고 남아있을 수 있는 확률이 제1 발생률로 예측되면, 제1 발생률의 분석 결과에 대해 문제가 없는지 여부를 확인할 수 있고, 제1 발생률의 분석 결과에 대해 문제가 없는 경우, 유통기한이 경과할 때까지 재고량이 출고되지 않고 남아있을 수 있는 확률의 분석에 대해 문제가 없음을 나타내는 정보를 포함하는 제2 학습 데이터를 생성하고, 제2 학습 데이터를 제3 인공 신경망에 적용하여, 제1 재고량, 제1 기간 및 제1 출고량을 매칭한 매칭 결과와 유사한 매칭 결과를 입력으로 하는 경우, 제1 발생률과 유사한 확률을 선정하도록, 제3 인공 신경망을 학습시키는 과정을 통해, 제3 인공 신경망을 갱신할 수 있다.
한편, 정책을 최적화하는 과정은 보상들의 합의 기대값의 최대값 또는 Q-함수의 최대값을 추정하거나, Q-함수의 손실 함수(loss function)의 최소값을 추정하는 과정을 통해 이루어질 수 있다. 손실함수의 최소값의 추정은 확률적 경사하강법(stochastic gradient descent, SGD) 등을 통해 이루어질 수 있다. 정책을 최적화하는 과정은 이에 제한되는 것은 아니며, 강화 학습에서 사용하는 다양한 최적화 알고리즘들이 이용될 수 있다.
학습 장치는 상술한 제3 인공 신경망의 학습 과정을 반복함으로써, 제3 인공 신경망을 점진적으로 갱신시킬 수 있다. 이를 통해, 학습 장치는 재고량, 유통기한까지 남아있는 잔여 기간 및 일일 평균 출고량을 고려하여, 유통기한이 경과할 때까지 재고량이 출고되지 않고 남아있을 수 있는 확률을 출력하는 제3 인공 신경망을 학습시킬 수 있다.
즉, 학습 장치는 재고량, 유통기한까지 남아있는 잔여 기간 및 일일 평균 출고량을 매칭한 매칭 결과를 통해, 유통기한이 경과할 때까지 재고량이 출고되지 않고 남아있을 수 있는 확률을 분석할 때, 제3 보상, 제4 보상, 제5 보상 등을 통한 강화 학습을 반영하여, 분석 기준을 조정함으로써, 제3 인공 신경망을 학습시킬 수 있다.
도 16은 일실시예에 따른 장치의 구성의 예시도이다.
일실시예에 따른 장치(600)는 프로세서(610) 및 메모리(620)를 포함한다. 프로세서(610)는 도 1 내지 도 15를 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 15를 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(600)를 이용하는 자 또는 단체는 도 1 내지 도 15를 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.
메모리(620)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(620)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
프로세서(610)는 프로그램을 실행하고, 장치(600)를 제어할 수 있다. 프로세서(610)에 의하여 실행되는 프로그램의 코드는 메모리(620)에 저장될 수 있다. 장치(600)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.
장치(600)는 인공 신경망을 학습시키거나, 학습된 인공 신경망을 이용하는데 사용될 수 있다. 메모리(620)는 학습 중인 또는 학습된 인공 신경망을 포함할 수 있다. 프로세서(610)는 메모리(620)에 저장된 인공 신경망 알고리즘을 학습시키거나 실행시킬 수 있다. 인공 신경망을 학습시키는 장치(600)와 학습된 인공 신경망을 이용하는 장치(600)는 동일할 수도 있고 개별적일 수도 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.
Claims (3)
- 장치에 의해 수행되는, 인공지능 모델 기반 물류 처리를 위한 배송 물품의 적재 공간 내 위치 식별 및 적재 최적화 정보 제공 방법에 있어서,
제1 운송차의 적재 공간 내에 설치되어 있는 카메라를 통해 상기 제1 운송차의 적재 공간에 적재되어 있는 배송 물품들에 대한 촬영이 수행되고 있는 경우, 제1 시점에 상기 제1 운송차의 적재 공간에 적재되어 있는 배송 물품들을 촬영하여 제1 이미지가 생성되면, 상기 카메라로부터 상기 제1 이미지를 획득하는 단계;
상기 제1 이미지를 인코딩 하여 제1 입력 신호를 생성하는 단계;
상기 제1 입력 신호를 제1 인공 신경망에 입력하고, 상기 제1 인공 신경망의 입력에 대한 결과에 기초하여, 제1 출력 신호를 획득하는 단계;
상기 제1 출력 신호를 기초로, 상기 제1 시점에 적재되어 있는 물품들의 종류 및 위치를 분석하는 단계;
상기 제1 시점 이후인 제2 시점에 코드 인식기를 통해 제1 물품에 부착되어 있는 제1 식별 코드가 인식되면, 상기 코드 인식기로부터 상기 제1 식별 코드에 대한 인식 정보를 획득하는 단계;
상기 제2 시점 이후인 제3 시점에 상기 제1 운송차의 적재 공간에 적재되어 있는 배송 물품들을 촬영하여 제2 이미지가 생성되면, 상기 카메라로부터 상기 제2 이미지를 획득하는 단계;
상기 제2 이미지를 인코딩 하여 제2 입력 신호를 생성하는 단계;
상기 제2 입력 신호를 상기 제1 인공 신경망에 입력하고, 상기 제1 인공 신경망의 입력에 대한 결과에 기초하여, 제2 출력 신호를 획득하는 단계;
상기 제2 출력 신호를 기초로, 상기 제3 시점에 적재되어 있는 물품들의 종류 및 위치를 분석하는 단계;
상기 제1 시점에 적재되어 있는 물품들의 종류 및 위치와 상기 제3 시점에 적재되어 있는 물품들의 종류 및 위치를 비교하여, 상기 제1 시점과 상기 제3 시점 간에 물품이 적재된 상태에 변화가 생긴 구역이 있는지 확인하는 단계;
제1 구역에 물품이 추가로 적재되어 상기 제1 구역에 적재된 물품에 변화가 생긴 것으로 확인되면, 상기 제1 구역에 상기 제1 물품이 적재된 것으로 식별하는 단계;
미리 설정된 제1 기준 기간 이내에 상기 코드 인식기를 통해 제2 물품에 부착되어 있는 제2 식별 코드와 제3 물품에 부착되어 있는 제3 식별 코드가 각각 인식되면, 상기 코드 인식기로부터 상기 제2 식별 코드에 대한 인식 정보와 상기 제3 식별 코드에 대한 인식 정보를 같이 획득하는 단계;
상기 제2 식별 코드를 기반으로, 상기 제2 식별 코드가 부착되어 있는 물품이 상기 제2 물품으로 확인되면, 상기 제2 물품의 배송지가 제1 주소로 등록되어 있는 것을 확인하고, 상기 제3 식별 코드를 기반으로, 상기 제3 식별 코드가 부착되어 있는 물품이 상기 제3 물품으로 확인되면, 상기 제3 물품의 배송지가 제2 주소로 등록되어 있는 것을 확인하는 단계;
상기 제1 운송차의 주 이동 경로에 기초하여, 상기 제1 운송차의 현재 위치 및 상기 제1 주소의 위치 순으로 제1 동선을 생성하고, 상기 제1 운송차의 현재 위치 및 상기 제2 주소의 위치 순으로 제2 동선을 생성하는 단계;
상기 제1 동선의 거리와 상기 제2 동선의 거리 간의 차이값을 산출하는 단계;
상기 차이값이 미리 설정된 기준 범위를 벗어나는 것으로 확인된 경우, 상기 제1 동선의 거리와 상기 제2 동선의 거리를 비교하여, 상기 제1 동선의 거리가 상기 제2 동선의 거리 보다 짧은 것으로 확인되면, 상기 제3 물품 및 상기 제2 물품 순으로 물품의 적재 순서를 설정하고, 상기 제2 동선의 거리가 상기 제1 동선의 거리 보다 짧은 것으로 확인되면, 상기 제2 물품 및 상기 제3 물품 순으로 물품의 적재 순서를 설정하는 단계;
상기 차이값이 상기 기준 범위 내에 포함되는 것으로 확인된 경우, 상기 제2 물품의 무게와 상기 제3 물품의 무게를 비교하여, 상기 제2 물품의 무게가 상기 제3 물품의 무게 보다 무거운 것으로 확인되면, 상기 제3 물품 및 상기 제2 물품 순으로 물품의 적재 순서를 설정하고, 상기 제3 물품의 무게가 상기 제2 물품의 무게 보다 무거운 것으로 확인되면, 상기 제2 물품 및 상기 제3 물품 순으로 물품의 적재 순서를 설정하는 단계; 및
물품의 적재 순서가 설정되면, 물품의 적재 순서에 대한 알림 메시지를 제1 기사 단말로 전송하는 단계를 포함하는,
인공지능 모델 기반 물류 처리를 위한 배송 물품의 적재 공간 내 위치 식별 및 적재 최적화 정보 제공 방법. - 제1항에 있어서,
상기 제1 운송차의 적재 공간이 내측 공간인 제1 공간과 외측 공간인 제2 공간으로 구분되어 있는 경우, 상기 제2 시점의 직후인 제2-1 시점에 상기 제1 공간의 바닥에 설치된 제1 센서를 통해 상기 제1 공간에 적재되어 있는 물품들의 무게인 제1 무게가 측정되면, 상기 제1 센서로부터 상기 제1 무게에 대한 측정 정보를 획득하고, 상기 제2-1 시점에 상기 제2 공간의 바닥에 설치된 제2 센서를 통해 상기 제2 공간에 적재되어 있는 물품들의 무게인 제2 무게가 측정되면, 상기 제2 센서로부터 상기 제2 무게에 대한 측정 정보를 획득하는 단계;
상기 제3 시점의 직후인 제3-1 시점에 상기 제1 센서를 통해 상기 제1 공간에 적재되어 있는 물품들의 무게인 제3 무게가 측정되면, 상기 제1 센서로부터 상기 제3 무게에 대한 측정 정보를 획득하고, 상기 제3-1 시점에 상기 제2 센서를 통해 상기 제2 공간에 적재되어 있는 물품들의 무게인 제4 무게가 측정되면, 상기 제2 센서로부터 상기 제4 무게에 대한 측정 정보를 획득하는 단계;
상기 제1 무게 및 상기 제3 무게를 비교하여, 무게에 차이가 있는지 여부를 확인하고, 상기 제2 무게 및 상기 제4 무게를 비교하여, 무게에 차이가 있는지 여부를 확인하는 단계;
상기 제1 무게 및 상기 제3 무게 간에 차이가 있는 것으로 확인되면, 상기 제3 무게에서 상기 제1 무게를 차감한 값으로 제5 무게를 산출하고, 상기 제2 무게 및 상기 제4 무게에 차이가 있는 것으로 확인되면, 상기 제4 무게에서 상기 제2 무게를 차감한 값으로 제6 무게를 산출하는 단계;
상기 제1 식별 코드를 기반으로, 상기 제1 식별 코드가 부착되어 있는 물품이 상기 제1 물품으로 확인되면, 상기 제1 물품의 무게가 제7 무게로 등록되어 있는 것을 확인하는 단계;
상기 제5 무게가 산출된 경우, 상기 제5 무게 및 상기 제7 무게를 비교하여, 무게가 일치하는지 여부를 확인하고, 상기 제6 무게가 산출된 경우, 상기 제6 무게 및 상기 제7 무게를 비교하여, 무게가 일치하는지 여부를 확인하는 단계; 및
상기 제5 무게 및 상기 제7 무게가 일치하는 것으로 확인되면, 상기 제1 공간 내에 상기 제1 물품이 적재된 것으로 식별하고, 상기 제6 무게 및 상기 제7 무게가 일치하는 것으로 확인되면, 상기 제2 공간 내에 상기 제1 물품이 적재된 것으로 식별하는 단계를 더 포함하는,
인공지능 모델 기반 물류 처리를 위한 배송 물품의 적재 공간 내 위치 식별 및 적재 최적화 정보 제공 방법. - 삭제
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230018528A KR102547258B1 (ko) | 2023-02-13 | 2023-02-13 | 인공지능 모델 기반 물류 처리를 위한 배송 물품의 적재 공간 내 위치 식별 및 적재 최적화 정보 제공 방법, 장치 및 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230018528A KR102547258B1 (ko) | 2023-02-13 | 2023-02-13 | 인공지능 모델 기반 물류 처리를 위한 배송 물품의 적재 공간 내 위치 식별 및 적재 최적화 정보 제공 방법, 장치 및 시스템 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102547258B1 true KR102547258B1 (ko) | 2023-06-23 |
Family
ID=86993346
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230018528A KR102547258B1 (ko) | 2023-02-13 | 2023-02-13 | 인공지능 모델 기반 물류 처리를 위한 배송 물품의 적재 공간 내 위치 식별 및 적재 최적화 정보 제공 방법, 장치 및 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102547258B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102695621B1 (ko) * | 2024-04-26 | 2024-08-20 | 주식회사 와이드테크 | 텔레비전 및 부속품의 물류 처리 자동화 방법 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101310685B1 (ko) * | 2012-11-30 | 2013-09-24 | (주)엔텍 | 야드 이동차의 위치 인식 및 작업 제어 시스템 및 방법 |
KR20170026805A (ko) | 2015-08-28 | 2017-03-09 | 성균관대학교산학협력단 | 지능형 물류 적재 보조 시스템 및 방법 |
KR20170098082A (ko) * | 2016-02-19 | 2017-08-29 | 부산대학교 산학협력단 | 드론을 이용한 물류관리 시스템 |
KR102359137B1 (ko) | 2019-10-18 | 2022-02-08 | (주)바인테크 | 위치 기반의 적재물 관리 시스템 및 방법 |
KR102398591B1 (ko) | 2019-07-26 | 2022-05-17 | 쿠팡 주식회사 | 적재 위치 추천을 제공하기 위한 시스템 및 방법 |
KR102408933B1 (ko) | 2020-09-03 | 2022-06-13 | 주식회사 에스엠코어 | 카메라 장치를 이용한 자동화 창고관리 시스템 |
-
2023
- 2023-02-13 KR KR1020230018528A patent/KR102547258B1/ko active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101310685B1 (ko) * | 2012-11-30 | 2013-09-24 | (주)엔텍 | 야드 이동차의 위치 인식 및 작업 제어 시스템 및 방법 |
KR20170026805A (ko) | 2015-08-28 | 2017-03-09 | 성균관대학교산학협력단 | 지능형 물류 적재 보조 시스템 및 방법 |
KR20170098082A (ko) * | 2016-02-19 | 2017-08-29 | 부산대학교 산학협력단 | 드론을 이용한 물류관리 시스템 |
KR102398591B1 (ko) | 2019-07-26 | 2022-05-17 | 쿠팡 주식회사 | 적재 위치 추천을 제공하기 위한 시스템 및 방법 |
KR102359137B1 (ko) | 2019-10-18 | 2022-02-08 | (주)바인테크 | 위치 기반의 적재물 관리 시스템 및 방법 |
KR102408933B1 (ko) | 2020-09-03 | 2022-06-13 | 주식회사 에스엠코어 | 카메라 장치를 이용한 자동화 창고관리 시스템 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102695621B1 (ko) * | 2024-04-26 | 2024-08-20 | 주식회사 와이드테크 | 텔레비전 및 부속품의 물류 처리 자동화 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12039509B2 (en) | Automated shopping experience using cashier-less systems | |
KR102404511B1 (ko) | 인공지능 기반 사용자 맞춤형 상품 정보 추천 방법, 장치 및 시스템 | |
KR102508232B1 (ko) | 인공지능 기반 마트 운영을 위한 재고의 유통관리 방법, 장치 및 시스템 | |
KR102553041B1 (ko) | 인공지능 모델 기반 사용자 및 인테리어 공급자 매칭 플랫폼 서비스 제공 방법, 장치 및 시스템 | |
KR102554580B1 (ko) | 인공지능 모델 기반 식자재 및 부자재의 유통 주문 히스토리의 패턴 분석을 통한 물류 창고의 안전 재고량의 추정 및 주문 알람 서비스 제공 방법, 장치 및 시스템 | |
KR102447426B1 (ko) | 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 방법, 장치 및 시스템 | |
KR102551997B1 (ko) | 콘텐츠 시청 성향 분석 기반 광고 콘텐츠 기획 자동화 및 커머스 플랫폼 서비스 제공 방법, 장치 및 시스템 | |
KR102547258B1 (ko) | 인공지능 모델 기반 물류 처리를 위한 배송 물품의 적재 공간 내 위치 식별 및 적재 최적화 정보 제공 방법, 장치 및 시스템 | |
KR102546871B1 (ko) | 인공지능 모델 기반 b2b 식자재 및 부자재의 유통의 주문 히스토리의 패턴 분석을 통한 주문 정보 추천 방법, 장치 및 시스템 | |
KR102531879B1 (ko) | 인공지능 기반 기업용 전자 장비의 유지 보수를 위한 이벤트 발생 예측 및 모니터링 방법, 장치 및 시스템 | |
KR102499234B1 (ko) | 인공지능 기반 배달기사 배차 방법, 장치 및 시스템 | |
KR102533258B1 (ko) | 인공 신경망을 활용한 냉동식품의 효율적인 물류 서비스 제공 방법, 장치 및 시스템 | |
KR102532533B1 (ko) | 클라우드 기반 배달 대행 정보 처리 관제 서비스 제공 방법, 장치 및 시스템 | |
KR102536063B1 (ko) | 인공지능 기반 기업용 매출 및 매입 정산 솔루션 제공 방법, 장치 및 시스템 | |
KR102426803B1 (ko) | 인공지능 기반 제품의 해외 판매 페이지 자동 업로드 방법, 장치 및 시스템 | |
KR102552856B1 (ko) | 커머스 연계 콘텐츠 제공 플랫폼 서비스를 위한 키워드 추출 및 콘텐츠 템플릿 생성 자동화 방법, 장치 및 시스템 | |
KR102530527B1 (ko) | 건강 정보 기반 식당 추천 서비스 제공 방법, 장치 및 시스템 | |
KR102428941B1 (ko) | 광대역 라이다 스캔 기반 이미지 정합을 통해 텍스처가 구현된 3d 스캔 데이터 생성 방법, 장치 및 시스템 | |
KR102507141B1 (ko) | 판매자 및 구매자 간의 채팅 기반 it 인프라 장비의 구매 플랫폼 서비스 제공 방법, 장치 및 시스템 | |
KR102551298B1 (ko) | 건물 관리를 위한 인력 배정 자동화 및 평가 방법, 장치 및 시스템 | |
KR102498780B1 (ko) | 인공지능 모델을 활용한 수출입 항공 물류를 위한 자동 주문 처리 방법, 장치 및 시스템 | |
KR102474974B1 (ko) | 인공지능 기반 브랜드 분석 방법, 장치 및 시스템 | |
KR102508648B1 (ko) | 전기 및 소방 설비의 오동작 판단을 기반으로 한 비상상황 모니터링 방법, 장치 및 시스템 | |
Kale et al. | Object detection and face recognition using yolo and inception model | |
KR102602945B1 (ko) | 폐기물 중량 및 운송차 적재량 기반 폐기물 수거 운송차 선정 방법, 장치 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |