KR102613341B1 - Method and device for reading cargo improved through augmentation of training data based on deep learning - Google Patents

Method and device for reading cargo improved through augmentation of training data based on deep learning Download PDF

Info

Publication number
KR102613341B1
KR102613341B1 KR1020230082545A KR20230082545A KR102613341B1 KR 102613341 B1 KR102613341 B1 KR 102613341B1 KR 1020230082545 A KR1020230082545 A KR 1020230082545A KR 20230082545 A KR20230082545 A KR 20230082545A KR 102613341 B1 KR102613341 B1 KR 102613341B1
Authority
KR
South Korea
Prior art keywords
cargo
image
deep learning
recognition
virtual
Prior art date
Application number
KR1020230082545A
Other languages
Korean (ko)
Inventor
이상덕
김설희
문기영
Original Assignee
한국철도기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국철도기술연구원 filed Critical 한국철도기술연구원
Priority to KR1020230082545A priority Critical patent/KR102613341B1/en
Application granted granted Critical
Publication of KR102613341B1 publication Critical patent/KR102613341B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/55Radiosity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 일 실시예에 따르는, 서버에 의해 수행되는, 화물이미지 증강을 통한 딥러닝 기반의 화물 인식 방법은, a) 기 수집된 화물이미지 중 일부 또는 전부를 추출하여 기준이미지로 설정하고 상기 기준이미지를 이미지 변환 기반의 제1딥러닝 모델로 학습하여 기 설정된 외부요인에 따라 상기 기준이미지를 변환한 가상의 화물이미지를 생성하는 단계; b) 상기 기 수집된 화물이미지와 상기 가상의 화물이미지를 학습데이터로 설정하고, 상기 학습데이터를 객체 인식 기반의 제2딥러닝 모델을 통해 학습하여 임의의 화물이미지가 입력되면 기 설정된 화물의 유형 중 하나로 분류하는 화물 인식 모델을 구축하는 단계; 및 c) 작업 현장에 배치된 카메라에 의해 실시간으로 촬영된 화물에 대한 신규화물 이미지를 상기 화물 인식 모델에 입력하여 상기 신규화물 이미지에서 상기 화물을 나타내는 객체를 식별하고 상기 화물의 유형을 판단하는 단계를 포함한다.According to an embodiment of the present invention, a deep learning-based cargo recognition method through cargo image augmentation performed by a server is: a) extracting some or all of the previously collected cargo images and setting them as reference images; Learning an image with a first deep learning model based on image conversion and generating a virtual cargo image by converting the reference image according to preset external factors; b) Set the previously collected cargo image and the virtual cargo image as learning data, learn the learning data through a second deep learning model based on object recognition, and when a random cargo image is input, the type of the preset cargo A step of building a cargo recognition model that classifies cargo into one of the following; and c) inputting a new cargo image for cargo captured in real time by a camera placed at a work site into the cargo recognition model to identify an object representing the cargo in the new cargo image and determining the type of the cargo. Includes.

Description

딥러닝 기반 훈련데이터 증강을 통해 개선된 화물 인식 방법 및 장치{METHOD AND DEVICE FOR READING CARGO IMPROVED THROUGH AUGMENTATION OF TRAINING DATA BASED ON DEEP LEARNING}Cargo recognition method and device improved through deep learning-based training data augmentation {METHOD AND DEVICE FOR READING CARGO IMPROVED THROUGH AUGMENTATION OF TRAINING DATA BASED ON DEEP LEARNING}

본 발명은 물류 산업에 이용되는 이미지 딥러닝 기술 분야로서, 이미지 변환 기법을 이용하여 가상의 화물이미지를 생성함에 따라 딥러닝의 훈련데이터 증강을 통해 개선된 화물 인식 방법 및 장치에 관한 것이다.The present invention is in the field of image deep learning technology used in the logistics industry, and relates to an improved cargo recognition method and device through augmentation of training data of deep learning by generating a virtual cargo image using an image conversion technique.

최근 딥러닝 기법을 통해 이미지를 분석함으로써, 이미지 속의 객체를 인식하고 해당 객체의 종류나 상태를 판단하는 기술이 등장하였다. 이러한 이미지 분석 기술은 화물 유통이나 배송 등의 물류 산업에서도 그 활용도가 기대되고 있다.Recently, technology has emerged that recognizes objects in images and determines the type or state of the object by analyzing images through deep learning techniques. This image analysis technology is also expected to be useful in the logistics industry, such as cargo distribution and delivery.

일례로, 특정 포인트 마다 화물을 촬영하는 카메라를 비치하고 촬영된 이미지를 딥러닝 모델에 입력하여 해당 화물의 유형이나 파손 여부를 판단하는 기술이 개발되고 있다.For example, a technology is being developed to determine the type or damage of the cargo by installing a camera to photograph cargo at specific points and inputting the captured images into a deep learning model.

그러나, 물류 산업의 특성 상, 화물 별로 유통되는 장소나 시간이 판이하고, 그 종류 또한 매우 다양하기 때문에, 이러한 점이 반영되어 훈련할 이미지가 확보되지 않는다면, 정확한 인식률을 보장하기 어려운 문제점이 있다.However, due to the nature of the logistics industry, the location and time of distribution for each cargo is very different, and the types are also very diverse, so if images for training are not secured to reflect this, there is a problem in ensuring an accurate recognition rate.

예를 들어, 특정 화물이 적재되는 장소는 실내이나, 배송을 위해 분류되는 장소는 실외일 수 있고, 시간이나 날씨가 유통 과정에 따라 지속적으로 변할 수 있다. 즉, 동일한 화물을 촬영한 이미지더라도 장소, 시간, 날씨 등의 외부요인에 따라 음영이나 명암, 색조 등을 달리할 수 있다.For example, the location where a specific cargo is loaded may be indoors, but the location where it is sorted for delivery may be outdoors, and time or weather may continuously change depending on the distribution process. In other words, even if an image is taken of the same cargo, the shading, brightness, and color tone may vary depending on external factors such as location, time, and weather.

따라서, 정밀한 학습을 위하여 위와 같은 외부요인이 반영된 화물 이미지가 수집되어야 하나, 이는 과도한 시간과 노력, 자본이 동반되어야 하기 때문에 현실적으로 불가능한 상황이다. 예를 들어, 동일한 화물을 오전, 오후 시간을 달리하여 여러 번 촬영하거나, 유통 과정이 이루어지는 장소마다 카메라를 배치하여 촬영하는 방법은, 오히려 물류 처리 시간의 지연이나 불필요한 인건, 자본을 초래하여 본래의 목적에 반하는 결과를 야기할 수 있다.Therefore, for precise learning, cargo images reflecting the above external factors must be collected, but this is realistically impossible because it requires excessive time, effort, and capital. For example, filming the same cargo multiple times at different times in the morning and afternoon, or placing cameras at each location where the distribution process takes place, actually causes delays in logistics processing time, unnecessary labor, and capital, and causes the original It may cause results that are contrary to the purpose.

따라서, 물류 산업에 이미지 딥러닝을 활용하기 위해서는, 실제 촬영된 화물 이미지를 수집하는 것에 더하여, 외부요인이 반영되어 스타일이 변형된 화물 이미지를 훈련데이터로서 추가로 확보하는 기술이 필요하다.Therefore, in order to utilize image deep learning in the logistics industry, in addition to collecting actually captured cargo images, a technology is needed to additionally secure cargo images whose style has been modified by reflecting external factors as training data.

한편, 최근 딥러닝 기술은 객체 인식에서 나아가 이미지를 변환하거나 생성하는 기술로 발전하고 있다. 일반적으로, 이미지 내 객체 인식은 주로 합성곱 신경망(Convolutional Neural Networks, CNN) 계열의 모델을 이용하여 주어진 데이터의 패턴을 학습하나, 이미지의 생성과 변환은 적대적 신경망(Generative Adversarial Networks, GAN) 계열의 모델이 활용된다.Meanwhile, deep learning technology has recently progressed from object recognition to technology that converts or creates images. In general, object recognition in images mainly uses Convolutional Neural Networks (CNN) series models to learn patterns of given data, but image creation and transformation uses Generative Adversarial Networks (GAN) series models. The model is used.

적대적 신경망은 이미지의 분포를 근사하는 생성 모델(Generative Model, G)을 학습하는 것으로, 실제로 존재하는 이미지가 아닌 있을 법한 가상의 이미지를 생성할 수 있는 모델이다.An adversarial neural network learns a generative model (G) that approximates the distribution of images, and is a model that can generate virtual images that are likely to exist rather than images that actually exist.

도 1을 참조하면, 적대적 신경망은 생성자(generator)와 판별자(discriminator)의 두 개의 네트워크로 구성된다. 생성자는 판별자를 속이기 위한 가상의 이미지(Fake image)를 생성하며, 판별자는 들어오는 이미지의 진위 여부를 판단한다. 이들은 서로 경쟁하듯이 학습하며, 결과적으로 생성자가 만들어낸 가상의 이미지는 실제 이미지(Real image)와 매우 유사하게 된다.Referring to Figure 1, an adversarial neural network consists of two networks: a generator and a discriminator. The generator creates a virtual image (Fake image) to deceive the discriminator, and the discriminator determines the authenticity of the incoming image. They learn as if competing with each other, and as a result, the virtual image created by the creator becomes very similar to the real image.

그러나, 적대적 신경망은 실제 이미지와 비슷한 이미지를 도출하고자 하는 목적이기에, 생성자에 의해 생성된 가상 이미지는 실제 이미지와 유사할 수는 있으나, 본래 의도했던 원본과는 전혀 관계없는 이미지로 생성될 수 있다는 문제점이 존재한다. 즉, 학습에 사용되는 실제 이미지가 같다면 어떠한 원본이 입력되던 간에 동일 유사한 이미지가 출력되는 현상이 발생할 수 있다.However, since the purpose of an adversarial neural network is to derive images similar to real images, the virtual image created by the generator may be similar to the real image, but the problem is that it may be created as an image that is completely unrelated to the original intended. This exists. In other words, if the actual images used for learning are the same, the same and similar images may be output regardless of the original input.

이러한 한계를 보완하고자, 적대적 신경망을 개선한 pix2pix 모델이 개발되었다. pix2pix는 학습 모드를 제어하는 조건을 함께 입력하는 cGAN(conditional GAN)에서 파생된 유형이며, 이미지 자체를 조건으로 받는 것으로, 픽셀들을 입력 받아 가상의 픽셀들을 예측하는 Image to image translation 기법 중 하나이다.To compensate for these limitations, the pix2pix model, an improved adversarial neural network, was developed. pix2pix is a type derived from cGAN (conditional GAN) that inputs conditions that control the learning mode. It receives the image itself as a condition and is one of the Image to image translation techniques that receives pixels as input and predicts virtual pixels.

pix2pix는 서로 매칭되는 두 개의 데이터를 한 쌍으로 묶어 학습을 진행한다. 즉, 입력과 도메인만을 달리하되 서로 대응되는 정답을 쌍으로 묶어 데이터 세트를 구성하며, 생성되는 가상의 이미지가 정답과 가까워질 때까지 학습을 수행한다.pix2pix performs learning by pairing two pieces of data that match each other. In other words, only the input and domain are different, but the corresponding correct answers are paired together to form a data set, and learning is performed until the generated virtual image is close to the correct answer.

즉, pix2pix는 학습데이터가 서로 매칭된 쌍(pair)으로만 구성되어야 한다는 제약이 존재한다. 이에 따라, 동일한 객체의 손그림을 사진으로 변환한다던가, 컬러 이미지를 흑백 이미지로 변환한다던가 하는 작업은 가능하나, 서로 매칭되지 않아 쌍을 이루지 않는 이미지에 대하여는 학습이 불가하거나 잘못된 결과가 도출되는 한계가 있다.In other words, pix2pix has a limitation that the learning data must consist of only matched pairs. Accordingly, tasks such as converting a hand drawing of the same object to a photo or converting a color image to a black and white image are possible, but learning is not possible for images that do not match each other and do not form a pair, or incorrect results are obtained. There are limits.

이와 관련, 물류 산업에도, GAN 계열의 신경망을 이용하여 기존 수집된 화물 이미지에 외부요인이 반영되어 변형된 가상 이미지를 획득하는 개념을 도입할 수 있다.In this regard, the concept of obtaining a transformed virtual image by reflecting external factors in the previously collected cargo image using a GAN-type neural network can be introduced into the logistics industry.

그러나, 전술한대로 동일한 유형의 화물을 장소, 시간, 날씨 등을 달리하여 촬영하기에는 제약이 너무 많고, 실행하더라도 화물이 포함된 이미지의 형태가 달라지는 것은 불가피하기에, 기존 화물 이미지와 쌍을 이루는 이미지를 확보하기는 사실상 불가능하다.However, as mentioned above, there are too many restrictions to photograph the same type of cargo in different locations, times, weather, etc., and even if it is done, it is inevitable that the shape of the image containing the cargo will change, so images paired with existing cargo images are used. It is virtually impossible to secure.

따라서, 종래의 pix2pix와 달리 페어링이 요구되지 않는 개선된 딥러닝을 접목하여, 기존 수집된 원본의 형태는 보존하되, 외부요인에 따라 스타일만 변형하는 방식으로 가상의 화물 이미지를 확보함으로써, 더 정밀한 화물 인식을 도모하는 기술이 요구되는 실정이다.Therefore, unlike the conventional pix2pix, improved deep learning that does not require pairing is applied to secure virtual cargo images by preserving the form of the existing collected originals but only modifying the style according to external factors, thereby providing more precise images. There is a need for technology that promotes cargo recognition.

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 이미지의 스타일을 변환하는 딥러닝 모델 기반으로 실제 촬영된 화물이미지를 환경 변화에 맞게 변형하여 가상의 화물이미지를 생성함에 따라 강건한 훈련데이터를 확보하는 기술을 개시하며, 이를 통해 인식률이 개선된 화물 인식 방법 및 장치를 제공하는 데 그 목적이 있다.The present invention is intended to solve the problems of the prior art described above. Based on a deep learning model that converts the style of the image, the actually captured cargo image is modified to suit environmental changes to create a virtual cargo image, thereby generating robust training data. The purpose is to provide a cargo recognition method and device with improved recognition rates through this technology.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical challenges that this embodiment aims to achieve are not limited to the technical challenges described above, and other technical challenges may exist.

본 발명의 일 실시예에 따르는, 서버에 의해 수행되는, 화물이미지 증강을 통한 딥러닝 기반의 화물 인식 방법은, a) 기 수집된 화물이미지 중 일부 또는 전부를 추출하여 기준이미지로 설정하고 상기 기준이미지를 이미지 변환 기반의 제1딥러닝 모델로 학습하여 기 설정된 외부요인에 따라 상기 기준이미지를 변환한 가상의 화물이미지를 생성하는 단계; b) 상기 기 수집된 화물이미지와 상기 가상의 화물이미지를 학습데이터로 설정하고, 상기 학습데이터를 객체 인식 기반의 제2딥러닝 모델을 통해 학습하여 임의의 화물이미지가 입력되면 기 설정된 화물의 유형 중 하나로 분류하는 화물 인식 모델을 구축하는 단계; 및 c) 작업 현장에 배치된 카메라에 의해 실시간으로 촬영된 화물에 대한 신규화물 이미지를 상기 화물 인식 모델에 입력하여 상기 신규화물 이미지에서 상기 화물을 나타내는 객체를 식별하고 상기 화물의 유형을 판단하는 단계를 포함한다.According to an embodiment of the present invention, a deep learning-based cargo recognition method through cargo image augmentation performed by a server is: a) extracting some or all of the previously collected cargo images and setting them as reference images; Learning an image with a first deep learning model based on image conversion and generating a virtual cargo image by converting the reference image according to preset external factors; b) Set the previously collected cargo image and the virtual cargo image as learning data, learn the learning data through a second deep learning model based on object recognition, and when a random cargo image is input, the type of the preset cargo A step of building a cargo recognition model that classifies cargo into one of the following; and c) inputting a new cargo image for cargo captured in real time by a camera placed at a work site into the cargo recognition model to identify an object representing the cargo in the new cargo image and determining the type of the cargo. Includes.

본 발명의 일 실시예에 따르면, 상기 외부요인은 화물의 유통 과정 중 변화할 수 있는 주변 환경으로서 장소, 날씨 및 시간을 포함하는 것이다.According to an embodiment of the present invention, the external factors include location, weather, and time as surrounding environments that can change during the distribution process of cargo.

본 발명의 일 실시예에 따르면, 상기 a)단계는, 상기 제1딥러닝 모델에 의해 상기 기준이미지에 포함된 객체의 구성, 위치 및 형상은 보존된 상태로 상기 외부요인에 따라 상기 기준이미지의 스타일이 변형된 가상의 화물이미지가 생성되는 단계를 포함한다.According to an embodiment of the present invention, in step a), the configuration, position, and shape of the object included in the reference image by the first deep learning model are preserved and the reference image is changed according to the external factors. It includes the step of generating a virtual cargo image with a modified style.

본 발명의 일 실시예에 따르면, 상기 a)단계는, 상기 가상의 화물이미지에 대한 이미지 적합도에 대응하는 제1손실함수와 상기 가상의 화물이미지를 다시 원본으로 변환한 결과와 상기 기준이미지 간의 차이에 대응하는 제2손실함수를 최소화하는 방향으로 상기 제1딥러닝 모델의 학습을 반복하는 단계를 포함한다.According to one embodiment of the present invention, step a) is the difference between the first loss function corresponding to the image suitability for the virtual cargo image and the result of converting the virtual cargo image back to the original and the reference image. It includes repeating learning of the first deep learning model in the direction of minimizing the second loss function corresponding to .

본 발명의 일 실시예에 따르면, 상기 a)단계는, 상기 외부요인 별로 상기 가상의 화물이미지를 생성하기 위한 상기 기준이미지의 변환조건이 적어도 하나 이상 설정되어 상기 기준이미지와 함께 상기 제1딥러닝 모델의 입력데이터로 적용되는 것이다.According to an embodiment of the present invention, in step a), at least one conversion condition of the reference image for generating the virtual cargo image is set for each external factor, and the first deep learning is performed together with the reference image. It is applied as input data to the model.

본 발명의 일 실시예에 따르면, 상기 변환조건은 기 설정된 수치범위로 구분되는 색온도, 광도, 음영도 및 조도 별 조건값이거나 기 수집된 랜덤한 이미지들이 상기 조건값을 기준으로 분류된 것이다.According to one embodiment of the present invention, the conversion conditions are condition values for color temperature, brightness, shade, and illuminance divided into preset numerical ranges, or pre-collected random images are classified based on the condition values.

본 발명의 일 실시예에 따르면, 상기 외부요인이 장소인 경우, 상기 변환조건은 실외 및 실내에 대응하는 두 개의 서로 다른 수치범위로 구분된 색온도로 설정되는 것이고, 상기 외부요인이 날씨인 경우, 상기 변환조건은 기 설정된 두 개 이상의 맑고 흐림의 정도에 대응하는 두 개 이상의 서로 다른 수치범위로 구분된 색온도, 광도 및 음영도로 설정되는 것이고, 상기 외부요인이 시간인 경우, 상기 변환조건은 기 설정된 두 개 이상의 시구간에 대응하는 두 개 이상의 서로 다른 수치범위로 구분된 색온도, 음영도 및 조도로 설정되는 것이다.According to one embodiment of the present invention, when the external factor is a place, the conversion condition is set to a color temperature divided into two different numerical ranges corresponding to outdoor and indoor, and when the external factor is weather, The conversion conditions are set to color temperature, brightness, and shade divided into two or more different numerical ranges corresponding to two or more preset clear and cloudy degrees, and when the external factor is time, the conversion conditions are preset. It is set with color temperature, shading, and illuminance divided into two or more different numerical ranges corresponding to two or more time periods.

본 발명의 일 실시예에 따르면, 상기 a)단계는, 화물의 패킹이나 파손에 대응하여 기 설정된 화물외관의 조건을 상기 기준이미지와 함께 상기 제1딥러닝 모델로 학습하여 상기 화물외관의 조건에 따라 상기 기준이미지를 변환한 가상의 화물이미지를 생성하는 단계를 포함한다.According to one embodiment of the present invention, in step a), the conditions of the cargo exterior, which are preset in response to packing or damage to the cargo, are learned with the first deep learning model along with the reference image to match the cargo exterior conditions. It includes generating a virtual cargo image by converting the reference image.

본 발명의 일 실시예에 따르면, 상기 b)단계는, 상기 학습데이터 내에서 화물을 나타내는 제1객체에 더하여, 파손을 나타내는 제2객체, 송장을 나타내는 제3객체 및 바코드를 나타내는 제4객체 중 적어도 하나 이상을 식별하도록 상기 제2딥러닝 모델의 학습을 수행하는 단계를 포함한다.According to an embodiment of the present invention, step b) includes, in addition to the first object representing the cargo in the learning data, a second object representing damage, a third object representing an invoice, and a fourth object representing a barcode. It includes performing training of the second deep learning model to identify at least one or more.

본 발명의 일 실시예에 따르면, 상기 c)단계는, 상기 화물 인식 모델에 의한 상기 신규화물 이미지 내 제2객체의 식별 여부에 따라 상기 화물의 파손 여부 및 파손 유형을 판단하고, 상기 화물 인식 모델에 의하여 상기 신규화물 이미지 내 제3객체 또는 제4객체가 식별되는 경우 식별된 제3객체 또는 제4객체를 기초로 상기 화물의 상세데이터를 획득하는 단계를 포함한다.According to an embodiment of the present invention, step c) determines whether the cargo is damaged and the type of damage depending on whether the second object in the new cargo image is identified by the cargo recognition model, and the cargo recognition model When a third or fourth object in the new cargo image is identified, it includes obtaining detailed data of the cargo based on the identified third or fourth object.

본 발명의 일 실시예에 따르는, 화물 인식 서버는, 화물이미지 증강을 통한 딥러닝 기반의 화물 인식 방법을 수행하기 위한 프로그램이 저장된 메모리; 및 상기 프로그램을 실행하는 프로세서를 포함하되, 상기 프로세서는, 기 수집된 화물이미지 중 일부 또는 전부를 추출하여 기준이미지로 설정하고 상기 기준이미지를 이미지 변환 기반의 제1딥러닝 모델로 학습하여 기 설정된 외부요인에 따라 상기 기준이미지를 변환한 가상의 화물이미지를 생성하는 이미지증강부; 상기 기 수집된 화물이미지와 상기 가상의 화물이미지를 학습데이터로 설정하고, 상기 학습데이터를 객체 인식 기반의 제2딥러닝 모델을 통해 학습하여 임의의 화물이미지가 입력되면 기 설정된 화물의 유형 중 하나로 분류하는 화물 인식 모델을 구축하는 학습부; 및 작업 현장에 배치된 카메라에 의해 실시간으로 촬영된 화물에 대한 신규화물 이미지를 상기 화물 인식 모델에 입력하여 상기 신규화물 이미지에서 상기 화물을 나타내는 객체를 식별하고 상기 화물의 유형을 판단하는 화물인식부를 포함한다.According to an embodiment of the present invention, a cargo recognition server includes: a memory storing a program for performing a deep learning-based cargo recognition method through cargo image augmentation; And a processor that executes the program, wherein the processor extracts some or all of the previously collected cargo images and sets them as a reference image, learns the reference image as a first deep learning model based on image conversion, and sets the preset image as a reference image. an image enhancement unit that generates a virtual cargo image by converting the reference image according to external factors; The previously collected cargo image and the virtual cargo image are set as learning data, and the learning data is learned through a second deep learning model based on object recognition. When a random cargo image is input, it is selected as one of the preset cargo types. A learning unit that builds a cargo recognition model to classify; And a cargo recognition unit that inputs a new cargo image for cargo captured in real time by a camera placed at the work site into the cargo recognition model, identifies objects representing the cargo in the new cargo image, and determines the type of the cargo. Includes.

본 발명의 일 실시예에 따르면, 상기 이미지증강부는, 상기 제1딥러닝 모델을 통해 상기 기준이미지에 포함된 객체의 구성, 위치 및 형상은 보존된 상태로 상기 외부요인에 따라 상기 기준이미지의 스타일이 변형된 가상의 화물이미지를 생성한다.According to one embodiment of the present invention, the image augmentation unit adjusts the style of the reference image according to the external factors while preserving the configuration, position, and shape of the object included in the reference image through the first deep learning model. This transformed virtual cargo image is created.

본 발명의 일 실시예에 따르면, 상기 이미지증강부는, 상기 가상의 화물이미지에 대한 이미지 적합도에 대응하는 제1손실함수와 상기 가상의 화물이미지를 다시 원본으로 변환한 결과와 상기 기준이미지 간의 차이에 대응하는 제2손실함수를 최소화하는 방향으로 상기 제1딥러닝 모델의 학습을 반복한다.According to one embodiment of the present invention, the image augmentation unit determines the difference between a first loss function corresponding to the image suitability for the virtual cargo image, a result of converting the virtual cargo image back to the original, and the reference image. Training of the first deep learning model is repeated in the direction of minimizing the corresponding second loss function.

본 발명의 일 실시예에 따르면, 상기 이미지증강부는, 상기 외부요인 별로 상기 가상의 화물이미지를 생성하기 위한 상기 기준이미지의 변환조건을 적어도 하나 이상 설정하고 상기 기준이미지와 함께 상기 제1딥러닝 모델의 입력데이터로 적용한다.According to one embodiment of the present invention, the image augmentation unit sets at least one conversion condition of the reference image for generating the virtual cargo image for each external factor and generates the first deep learning model together with the reference image. Apply as input data.

본 발명의 일 실시예에 따르면, 상기 이미지증강부는, 기 설정된 수치범위로 구분되는 색온도, 광도, 음영도 및 조도 별 조건값 또는 상기 조건값을 기준으로 분류한 기 수집된 랜덤한 이미지를 상기 변환조건으로 설정한다.According to one embodiment of the present invention, the image enhancement unit converts the condition values for color temperature, luminance, shade, and illuminance divided into preset numerical ranges, or the previously collected random images classified based on the condition values. Set as a condition.

본 발명의 일 실시예에 따르면, 상기 이미지증강부는, 상기 외부요인이 장소인 경우, 실외 및 실내에 대응하는 두 개의 서로 다른 수치범위로 구분된 색온도를 상기 변환조건으로 설정하고, 상기 외부요인이 날씨인 경우, 기 설정된 두 개 이상의 맑고 흐림의 정도에 대응하는 두 개 이상의 서로 다른 수치범위로 구분된 색온도, 광도 및 음영도를 상기 변환조건으로 설정하고, 상기 외부요인이 시간인 경우, 기 설정된 두 개 이상의 시구간에 대응하는 두 개 이상의 서로 다른 수치범위로 구분된 색온도, 음영도 및 조도를 상기 변환조건으로 설정한다.According to one embodiment of the present invention, when the external factor is a location, the image enhancement unit sets the color temperature divided into two different numerical ranges corresponding to outdoor and indoor as the conversion condition, and the external factor is set to the conversion condition. In the case of weather, color temperature, brightness, and shading divided into two or more different numerical ranges corresponding to two or more preset degrees of clear and cloudy are set as the conversion conditions, and if the external factor is time, the preset Color temperature, shading, and illuminance divided into two or more different numerical ranges corresponding to two or more time periods are set as the conversion conditions.

본 발명의 일 실시예에 따르면, 상기 이미지증강부는, 화물의 패킹이나 파손에 대응하여 기 설정된 화물외관의 조건을 상기 기준이미지와 함께 상기 제1딥러닝 모델로 학습하여 상기 화물외관의 조건에 따라 상기 기준이미지를 변환한 가상의 화물이미지를 생성한다.According to one embodiment of the present invention, the image augmentation unit learns the conditions of the cargo exterior that are preset in response to packing or damage of the cargo with the first deep learning model along with the reference image, and according to the conditions of the cargo exterior. A virtual cargo image is created by converting the reference image.

본 발명의 일 실시예에 따르면, 상기 학습부는, 상기 학습데이터 내에서 화물을 나타내는 제1객체에 더하여, 파손을 나타내는 제2객체, 송장을 나타내는 제3객체 및 바코드를 나타내는 제4객체 중 적어도 하나 이상을 식별하도록 상기 제2딥러닝 모델의 학습을 수행한다.According to one embodiment of the present invention, the learning unit, in addition to the first object representing the cargo in the learning data, at least one of a second object representing damage, a third object representing an invoice, and a fourth object representing a barcode. The second deep learning model is trained to identify abnormalities.

본 발명의 일 실시예에 따르면, 상기 화물인식부는, 상기 화물 인식 모델에 의한 상기 신규화물 이미지 내 제2객체의 식별 여부에 따라 상기 화물의 파손 여부 및 파손 유형을 판단하고, 상기 화물 인식 모델에 의하여 상기 신규화물 이미지 내 제3객체 또는 제4객체가 식별되는 경우 식별된 제3객체 또는 제4객체를 기초로 상기 화물의 상세데이터를 획득한다.According to one embodiment of the present invention, the cargo recognition unit determines whether the cargo is damaged and the type of damage depending on whether the second object in the new cargo image is identified by the cargo recognition model, and determines whether the cargo is damaged and the type of damage according to the cargo recognition model. If a third or fourth object is identified in the new cargo image, detailed data of the cargo is obtained based on the identified third or fourth object.

본 발명의 일 실시예에 따르면, 단순히 실제 촬영된 화물 이미지뿐만 아니라 환경 변화에 따른 여러 외부 요인이 적용된 가상의 화물 이미지를 자동으로 확보할 수 있다.According to an embodiment of the present invention, it is possible to automatically secure not only actually captured cargo images but also virtual cargo images to which various external factors due to environmental changes are applied.

즉, 인공적인 환경을 조성하여 화물을 촬영할 필요 없이 기존과 같은 라벨링만 진행하면 되므로, 시간과 노력, 자본이 현저하게 단축된다.In other words, since labeling only needs to be done as before without the need to create an artificial environment and photograph the cargo, time, effort, and capital are significantly reduced.

이에 따라, 보다 방대한 학습데이터가 구축되어 정밀한 학습이 수행되므로, 강건한 화물 인식 모델이 구축될 수 있다.Accordingly, more extensive learning data is constructed and precise learning is performed, so a robust cargo recognition model can be constructed.

따라서, 화물의 유통 과정에서 장소, 날씨, 시간 등으로 인한 환경이 변하더라도 다른 화물로 오인식되는 현상이 방지되며, 파손 검출 및 송장이나 바코드의 해독 또한 정확도가 향상될 수 있다.Therefore, even if the environment changes due to location, weather, time, etc. during the distribution of cargo, misidentification as another cargo is prevented, and the accuracy of damage detection and decoding of invoices or barcodes can also be improved.

도 1은 적대적 신경망을 설명하기 위한 개념도이다.
도 2는 본 발명의 일 실시예에 따르는 화물 인식 시스템의 구조도이다.
도 3은 본 발명의 일 실시예에 따르는 화물 인식 서버의 구성을 나타내는 블록도이다.
도 4는 본 발명의 일 실시예에 따르는 프로세서의 구성을 나타내는 블록도이다.
도 5는 본 발명의 일 실시예에 따르는 제1딥러닝 모델을 설명하기 위한 예시도이다.
도 6은 본 발명의 일 실시예에 따라 생성된 가상의 화물이미지의 예시도이다.
도 7은 본 발명의 일 실시예에 따르는 화물 인식 모델을 설명하기 위한 개념도이다.
도 8은 본 발명의 일 실시예에 따르는 화물 파손 판단 방법의 동작 흐름도이다.
도 9는 본 발명의 일 실시예에 따르는 화물 인식 방법의 순서도이다.
Figure 1 is a conceptual diagram for explaining an adversarial neural network.
Figure 2 is a structural diagram of a cargo recognition system according to an embodiment of the present invention.
Figure 3 is a block diagram showing the configuration of a cargo recognition server according to an embodiment of the present invention.
Figure 4 is a block diagram showing the configuration of a processor according to an embodiment of the present invention.
Figure 5 is an example diagram for explaining a first deep learning model according to an embodiment of the present invention.
Figure 6 is an example diagram of a virtual cargo image created according to an embodiment of the present invention.
Figure 7 is a conceptual diagram for explaining a cargo recognition model according to an embodiment of the present invention.
Figure 8 is an operation flowchart of a method for determining cargo damage according to an embodiment of the present invention.
Figure 9 is a flowchart of a cargo recognition method according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected," but also the case where it is "electrically connected" with another element in between. . Additionally, when a part "includes" a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, 'part' includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Additionally, one unit may be realized using two or more pieces of hardware, and two or more units may be realized using one piece of hardware. Meanwhile, '~ part' is not limited to software or hardware, and '~ part' may be configured to reside in an addressable storage medium or may be configured to reproduce one or more processors. Therefore, as an example, '~ part' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functions provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'. Additionally, components and 'parts' may be implemented to regenerate one or more CPUs within a device or a secure multimedia card.

이하에서 언급되는 "단말"은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), VR HMD(예를 들어, HTC VIVE, Oculus Rift, GearVR, DayDream, PSVR 등)등을 포함할 수 있다. 여기서, VR HMD 는 PC용 (예를 들어, HTC VIVE, Oculus Rift, FOVE, Deepon 등)과 모바일용(예를 들어, GearVR, DayDream, 폭풍마경, 구글 카드보드 등) 그리고 콘솔용(PSVR)과 독립적으로 구현되는 Stand Alone 모델(예를 들어, Deepon, PICO 등) 등을 모두 포함한다. 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 스마트폰(smart phone), 태블릿 PC, 웨어러블 디바이스뿐만 아니라, 블루투스(BLE, Bluetooth Low Energy), NFC, RFID, 초음파(Ultrasonic), 적외선, 와이파이(WiFi), 라이파이(LiFi) 등의 통신 모듈을 탑재한 각종 디바이스를 포함할 수 있다. 또한, "네트워크"는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷 (WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 블루투스 통신, 적외선 통신, 초음파 통신, 가시광 통신(VLC: Visible Light Communication), 라이파이(LiFi) 등이 포함되나 이에 한정되지는 않는다.The “terminal” mentioned below may be implemented as a computer or portable terminal that can connect to a server or other terminal through a network. Here, the computer is, for example, a laptop equipped with a web browser, a desktop, a laptop, a VR HMD (e.g., HTC VIVE, Oculus Rift, GearVR, DayDream, PSVR, etc.), etc. may include. Here, VR HMD is for PC (e.g. HTC VIVE, Oculus Rift, FOVE, Deepon, etc.), mobile (e.g. GearVR, DayDream, Storm Magic, Google Cardboard, etc.), and console (PSVR). Includes independently implemented Stand Alone models (e.g. Deepon, PICO, etc.). Portable terminals are, for example, wireless communication devices that ensure portability and mobility, including smart phones, tablet PCs, and wearable devices, as well as Bluetooth (BLE, Bluetooth Low Energy), NFC, RFID, and ultrasonic devices. , may include various devices equipped with communication modules such as infrared, WiFi, and LiFi. In addition, “network” refers to a connection structure that allows information exchange between nodes such as terminals and servers, including a local area network (LAN), a wide area network (WAN), and the Internet. (WWW: World Wide Web), wired and wireless data communication network, telephone network, wired and wireless television communication network, etc. Examples of wireless data communication networks include 3G, 4G, 5G, 3GPP (3rd Generation Partnership Project), LTE (Long Term Evolution), WIMAX (World Interoperability for Microwave Access), Wi-Fi, Bluetooth communication, infrared communication, and ultrasound. This includes, but is not limited to, communication, Visible Light Communication (VLC), LiFi, etc.

이하, 첨부된 도면을 활용하여 본 발명의 일 실시예를 상세히 설명하도록 한다.Hereinafter, an embodiment of the present invention will be described in detail using the attached drawings.

도 2는 본 발명의 일 실시예에 따르는 화물 인식 시스템의 구조도이다.Figure 2 is a structural diagram of a cargo recognition system according to an embodiment of the present invention.

도 2를 참조하면, 화물 인식 시스템은, 서버(100), 카메라(200) 및 관리자 단말(300)을 포함할 수 있다.Referring to FIG. 2, the cargo recognition system may include a server 100, a camera 200, and an administrator terminal 300.

일 실시예에 따르는 관리자 단말(300)은, 물류 센터를 운영하는 업체의 관리자나 물류 센터에서 화물을 분류하고 처리하는 작업자가 사용 주체인 단말일 수 있다. 관리자는 관리자 단말(300)을 통하여 물류 센터에 유입되는 화물들의 상태를 원격으로 확인할 수 있으며, 그에 따른 분류, 적재, 배송 등 물류 처리의 전반적인 절차를 수행할 수 있다.The manager terminal 300 according to one embodiment may be a terminal used by a manager of a company operating a logistics center or a worker who sorts and processes cargo at the logistics center. The manager can remotely check the status of cargo flowing into the logistics center through the manager terminal 300 and perform overall logistics processing procedures such as classification, loading, and delivery accordingly.

일 실시예에 따르면, 관리자 단말(300)은 메모리, 프로세서 및 통신모듈을 포함하며, 통신모듈은 프로세서의 제어에 따라, 서버(100)와 데이터 통신을 수행한다.According to one embodiment, the manager terminal 300 includes a memory, a processor, and a communication module, and the communication module performs data communication with the server 100 under the control of the processor.

메모리에는 화물 상태를 모니터링 하기 위한 프로그램(또는 애플리케이션)이 저장되어 있다. 프로세서는, 메모리에 저장되어 있는 프로그램을 실행하여 화물 상태 모니터링 서비스를 관리자에게 제공하기 위한 일련의 동작들을 처리한다.A program (or application) for monitoring cargo status is stored in the memory. The processor executes a program stored in memory to process a series of operations to provide a cargo status monitoring service to the manager.

전반적인 동작의 예로, 프로세서는 물류센터에 유입되는 화물들의 상태를 서버(100)로부터 실시간으로 수신하여 관리자에게 제공한다. 구체적으로, 프로세서는 서버(100)로부터 물류센터에 유입되는 화물이 촬영된 화물이미지를 실시간으로 수신할 수 있다. 프로세서는 서버(100)로부터 화물이미지 내 화물을 나타내는 영역이 특정된 이미지 및 해당 화물의 유형을 수신할 수 있다. 프로세서는 서버(100)로부터 화물이미지 내 파손을 나타내는 영역이 특정된 이미지 및 해당 화물의 파손 여부와 파손 유형을 수신할 수 있다. 프로세서는 서버(100)로부터 화물이미지 내 송장 및 바코드를 나타내는 영역이 특정된 이미지 및 그에 따른 화물의 상세데이터를 수신할 수 있다.As an example of the overall operation, the processor receives the status of cargo flowing into the distribution center in real time from the server 100 and provides it to the manager. Specifically, the processor can receive cargo images of cargo flowing into the distribution center from the server 100 in real time. The processor may receive from the server 100 an image in which an area representing the cargo in the cargo image is specified and the type of the cargo. The processor may receive from the server 100 an image specifying an area indicating damage within the cargo image, whether the cargo is damaged, and the type of damage. The processor may receive from the server 100 an image in which the area representing the invoice and barcode in the cargo image is specified and detailed cargo data corresponding thereto.

일 실시예에 따르는 카메라(200)는, 물류 센터에 배치되는 것으로서, 물류 센터로 유입되는 화물들을 촬영하도록 설계된다. 카메라(200)는 물류 센터 내에서 이송되는 화물이 촬영 범위에 들어오면, 화물을 인식하고 촬영 기능을 활성화한다. 카메라(200)는 그에 따라 획득한 화물이미지를 서버(100)로 실시간으로 전송한다. 한편, 카메라(200)는 인식, 촬영 및 통신 기능을 수행하면 족한 것으로, 그 유형이나 형태가 본 발명을 제한하는 것은 아니다.The camera 200 according to one embodiment is placed in a distribution center and is designed to photograph cargo flowing into the distribution center. When cargo transported within a logistics center enters the shooting range, the camera 200 recognizes the cargo and activates the shooting function. The camera 200 transmits the cargo image obtained accordingly to the server 100 in real time. Meanwhile, the camera 200 is sufficient to perform recognition, photographing, and communication functions, and its type or form does not limit the present invention.

일 실시예에 따르면, 카메라(200)는 물류센터 내 컨베이어 벨트와 같이 화물을 이송하는 수단이나 그 주변에 설치될 수 있다. 바람직하게는, 컨베이어 벨트와 연결되거나 화물처리 수단의 일부를 이루는 구성 요소로 포함되어, 화물 인식에 따라 화물이 자동으로 분배되도록 하는 위치에 설치될 수 있다.According to one embodiment, the camera 200 may be installed on or around a means of transporting cargo, such as a conveyor belt in a logistics center. Preferably, it may be connected to a conveyor belt or included as a component forming part of a cargo handling means, and may be installed in a position to automatically distribute cargo according to cargo recognition.

일 실시예에 따르면, 시스템은 화물처리 수단(미도시)을 더 포함할 수 있다. 화물처리 수단은 예를 들어, 컨베이어 벨트와 같은 이송 수단, 로봇 암 등의 분류기와 같은 화물 분배 수단, 적재 로봇 등의 적재 수단 및 바코드 리더기를 포함하는 송장 인식 수단을 포함할 수 있으나, 이에 한정되는 것은 아니고 화물의 유통 과정 내 필요한 각 종 장비들이 더 구성될 있다. 또한, 분배 수단의 경우 서버(100)의 제어에 따라 화물의 유형이나 파손 여부, 송장 데이터에 따라 물류센터 내 각 화물을 미리 정해진 영역으로 분배하는 역할을 수행할 수 있다. 또한, 송장 인식 수단의 경우 서버(100)에 의해 검출된 송장이미지를 기초로 화물의 데이터를 획득하거나 서버(100)에 의해 검출된 바코드이미지를 수신하고 바코드를 해독하여 그에 따른 화물의 데이터를 서버(100)로 전송할 수 있다.According to one embodiment, the system may further include cargo handling means (not shown). Cargo processing means may include, for example, transport means such as a conveyor belt, cargo distribution means such as sorters such as robot arms, loading means such as loading robots, and invoice recognition means including a barcode reader, but are limited thereto. This does not mean that various equipment needed during the cargo distribution process are further configured. In addition, in the case of the distribution means, under the control of the server 100, it can perform the role of distributing each cargo in the distribution center to a predetermined area according to the type or damage of the cargo and invoice data. In addition, in the case of the invoice recognition means, cargo data is acquired based on the invoice image detected by the server 100, or the barcode image detected by the server 100 is received, the barcode is decoded, and the corresponding cargo data is sent to the server. It can be sent to (100).

일 실시예에 따르는 서버(100)는, 물류센터를 운영하는 업체의 운영 서버로서, 물류처리 및 화물유통에 관련된 전반적인 프로세스에 관여하며, 특히 딥러닝 기반으로 물류센터에 유입되는 화물을 인식하고 그에 따른 데이터를 수집하는 과정을 수행한다. 이에 따라 서버(100)는 화물 인식 서버로 그 용어를 정의할 수 있다.The server 100 according to one embodiment is an operating server of a company that operates a logistics center, and is involved in the overall process related to logistics processing and cargo distribution. In particular, it recognizes cargo flowing into the logistics center based on deep learning and responds accordingly. Carry out the process of collecting the following data. Accordingly, the server 100 may define the term as a cargo recognition server.

도 3은 본 발명의 일 실시예에 따르는 화물 인식 서버의 구성을 나타내는 블록도이다.Figure 3 is a block diagram showing the configuration of a cargo recognition server according to an embodiment of the present invention.

일 실시예에 따르면, 서버(100)는, 통신모듈(110), 메모리(120), 프로세서(130) 및 데이터베이스(140)를 포함하며, 통신모듈(110)은, 카메라(200), 관리자 단말(300) 및 각 종 화물처리 수단과 데이터 통신을 처리한다.According to one embodiment, the server 100 includes a communication module 110, a memory 120, a processor 130, and a database 140, and the communication module 110 includes a camera 200 and an administrator terminal. (300) and handles various cargo processing means and data communications.

메모리(120)에는, 화물이미지 증강을 통한 딥러닝 기반의 화물 인식 방법을 수행하기 위한 프로그램(또는 애플리케이션)이 저장되어 있으며, 프로세서(130)는, 메모리(120)에 저장된 프로그램을 실행하여 화물 인식 방법에 대한 각 종 프로세스를 처리한다.The memory 120 stores a program (or application) for performing a deep learning-based cargo recognition method through cargo image augmentation, and the processor 130 executes the program stored in the memory 120 to recognize cargo. How to handle various processes.

프로세서(130)의 전반적인 프로세스의 예시는 다음과 같다. 프로세서(130)는 카메라(200)나 그 외 방법으로 다양한 화물들이 촬영된 화물이미지를 수집한다. 프로세서(130)는 수집한 화물이미지 중 일부 또는 전부를 제1딥러닝 모델로 학습하여 주변 환경의 변화를 반영하여 변환된 가상의 화물이미지를 생성한다. 프로세서(130)는 화물이미지와 가상의 화물이미지를 제2딥러닝 모델로 학습하여 이미지에서 화물 부분을 인식하고 화물 유형을 도출하는 화물 인식 모델을 구축한다. 프로세서(130)는 화물 인식 모델을 이용하여 신규화물의 이미지에서 화물을 인식하고 그 유형을 판단한다.An example of the overall process of the processor 130 is as follows. The processor 130 collects cargo images in which various cargoes are photographed using the camera 200 or other methods. The processor 130 learns some or all of the collected cargo images using a first deep learning model and generates a converted virtual cargo image by reflecting changes in the surrounding environment. The processor 130 learns the cargo image and the virtual cargo image with a second deep learning model to build a cargo recognition model that recognizes the cargo part in the image and derives the cargo type. The processor 130 uses a cargo recognition model to recognize cargo in the image of new cargo and determine its type.

데이터베이스(140)는, 프로세서(130)가 수집한 각 종 화물이미지와 이를 이용하여 생성된 가상의 화물이미지가 저장된다. 또한, 카메라(200)에 의해 실시간으로 물류센터에 유입되는 화물들이 촬영된 신규화물 이미지가 저장되며, 화물 인식 모델에 의해 식별되는 화물과 그 유형이 신규화물 이미지에 매칭되어 저장된다. 또한, 화물 인식 모델에 의해 신규화물 이미지 내에서 파손, 송장 및 바코드 중 적어도 하나의 영역이 식별되는 경우, 그에 따라 도출된 파손 여부 및 파손 유형이나 화물의 상세데이터가 해당 신규화물 이미지와 매칭되어 저장된다.The database 140 stores various cargo images collected by the processor 130 and virtual cargo images created using them. In addition, new cargo images captured by the camera 200 of cargo flowing into the distribution center in real time are stored, and the cargo and its type identified by the cargo recognition model are matched to the new cargo image and stored. In addition, if at least one area among damage, invoice, and barcode is identified in the new cargo image by the cargo recognition model, the damage, type of damage, or cargo detailed data derived accordingly are matched with the new cargo image and stored. do.

한편, 프로세서(130)는 화물 인식 방법의 과정에 따라 더 세부적인 구성요소로 구분될 수 있으며, 각 구성요소 별 구체적인 실시예에 대하여 도 4 내지 도 7을 활용하여 설명하도록 한다.Meanwhile, the processor 130 may be divided into more detailed components according to the process of the cargo recognition method, and specific embodiments for each component will be described using FIGS. 4 to 7.

도 4는 본 발명의 일 실시예에 따르는 프로세서의 구성을 나타내는 블록도이다. 도 4를 참조하면, 프로세서(130)는 이미지증강부(131), 학습부(132) 및 화물인식부(133)를 포함할 수 있다.Figure 4 is a block diagram showing the configuration of a processor according to an embodiment of the present invention. Referring to FIG. 4, the processor 130 may include an image enhancement unit 131, a learning unit 132, and a cargo recognition unit 133.

일 실시예에 따르는 이미지증강부(131)는, 먼저 다양한 유형의 화물에 대한 화물이미지들을 수집한다. 여기서 화물 유형은, 화물의 종류나 비닐, 박스 등 패킹 방식 등으로 인한 화물의 형상에 따라 구분되도록 미리 설정된 것으로서, 특별히 한정되는 것은 아니다. 이미지증강부(131)는 물류센터 및 유통현장에 배치된 카메라(200)로부터 촬영된 화물이미지를 내부적으로 수신하거나, 인터넷 크롤링 등의 방식을 통해 외부로부터 수집할 수도 있으나, 수집 방식이 이에 한정되는 것은 아니다. 이와 같이 수집된 화물이미지들은 추후 화물 인식의 딥러닝을 위한 학습데이터로 활용된다.The image enhancement unit 131 according to one embodiment first collects cargo images for various types of cargo. Here, the cargo type is preset to be classified according to the type of cargo or the shape of the cargo due to packing method such as vinyl or box, and is not particularly limited. The image augmentation unit 131 may internally receive cargo images captured from cameras 200 placed at logistics centers and distribution sites, or may collect them externally through methods such as Internet crawling. However, the collection method is limited to this. That is not the case. Cargo images collected in this way are later used as learning data for deep learning of cargo recognition.

이미지증강부(131)는 수집한 화물이미지 중 일부 또는 전부를 추출하여 학습데이터 증강을 위한 기준이미지로 설정한다. 이미지증강부(131)는 이러한 기준이미지를 제1딥러닝 모델로 학습하여 가상의 화물이미지를 생성한다. 여기서 제1딥러닝 모델은 이미지 변환을 수행하기 위한 알고리즘으로 설계되는 것으로서, 적대적 신경망(GAN) 계열의 모델일 수 있으나, 이에 한정되는 것은 아니다. 다만, cycleGAN 모델이 바람직하며, 도 4를 이용하여 cycleGAN이 적용된 제1딥러닝 모델의 알고리즘에 대하여 설명하도록 한다.The image augmentation unit 131 extracts some or all of the collected cargo images and sets them as reference images for augmenting learning data. The image augmentation unit 131 learns this reference image as a first deep learning model to generate a virtual cargo image. Here, the first deep learning model is designed as an algorithm for performing image transformation, and may be an adversarial neural network (GAN) series model, but is not limited to this. However, the cycleGAN model is preferable, and the algorithm of the first deep learning model to which cycleGAN is applied will be explained using Figure 4.

도 5는 본 발명의 일 실시예에 따르는 제1딥러닝 모델을 설명하기 위한 예시도이다.Figure 5 is an example diagram for explaining a first deep learning model according to an embodiment of the present invention.

제1딥러닝 모델은 입력되는 X도메인의 이미지에 대한 콘텐츠의 구성은 보존하고, 원본에서 Y도메인에 설정된 스타일만 변형하는 알고리즘으로 설계된다. 여기서, X도메인은 변형 대상이 되는 원본으로 구성된 데이터세트이며, Y도메인은 기 설정된 특성(변환조건)에 따라 X도메인의 스타일을 변환하도록 무작위로 수집된 데이터세트로서 X도메인을 이루는 원본과의 관련성은 문제가 되지 않는다. 예로 도 5 에 도시된 그림의 경우, X도메인의 원본에서 다른 부분은 그대로 유지한 채 중앙에 위치한 갈색말을 얼룩말로만 변환하고자 할 때, 얼룩무늬의 특성을 가진 Y도메인의 데이터세트를 이용하여 학습을 수행한다. 즉, Y도메인은 얼룩말이 초원에 위치한 상태의 그림으로 구성될 필요가 없이 얼룩말 무늬만 포함된 이미지면 족하고, 꼭 이미지가 아니더라도 얼룩말 무늬에 대응하여 설정된 조건값이라면 Y도메인의 데이터로 포함될 수 있다. 이와 같이, 제1딥러닝 모델은 이미지 데이터세트를 이용하여 원본을 원하는 스타일의 이미지로 맵핑하는 Image to image translation을 수행하되, 입력되는 데이터 간의 매칭 여부가 문제되지 않아 페어링이 불필요하므로 데이터세트를 쉽게 구성할 수 있어 실효성이 보장된다.The first deep learning model is designed as an algorithm that preserves the content composition of the input X domain image and transforms only the style set in the Y domain in the original. Here, the is not a problem. For example, in the case of the picture shown in Figure 5, when you want to convert the brown horse located in the center into a zebra while keeping other parts of the original Perform. In other words, the Y domain does not need to be composed of a picture of a zebra in a grassland; an image containing only zebra patterns is sufficient. Even if it is not an image, it can be included as data in the Y domain if it is a condition value set in response to the zebra pattern. In this way, the first deep learning model uses an image dataset to perform image to image translation, which maps the original to an image of the desired style. However, matching between input data is not an issue, so pairing is not necessary, so the dataset can be easily converted. It is configurable and effectiveness is guaranteed.

도 5를 참조하면, 제1딥러닝 모델은 두 개의 생성자(G, F)를 사용하도록 설계되며, 각 생성자는 X도메인과 Y도메인 사이 서로가 서로의 도메인으로 변환될 수 있도록 학습된다. 또한, 제1딥러닝 모델은 적어도 두 개의 손실함수를 최소화하는 방향으로 학습될 수 있다. 예로, X도메인의 원본(x)이 Y도메인의 특성에 따라 변환된 가상의 이미지(y)가 이미지로서 얼마나 적합하게 생성되었는지를 나타내는 제1손실함수가 적용될 수 있다. 또한, 원본(x)이 G, Y 생성자를 각각 거쳐 복원된 이미지(x')가 원본(x)과 얼마나 유사한지를 나타내는 제2손실함수가 적용될 수 있다. 즉, 제1딥러닝 모델은 X도메인의 원본을 Y도메인의 특성에 따라 스타일을 변형하되 다시 원본으로 복구 가능한 정도로만 변형되도록 하는 학습 원리로 설계된다. 따라서, 본래 의도했던 원본과는 전혀 관계없는 가상 이미지가 생성되는 현상 등 기존 GAN 모델의 문제점이 해결될 수 있다.Referring to Figure 5, the first deep learning model is designed to use two generators (G, F), and each generator is learned so that the X domain and Y domain can be converted to each other's domains. Additionally, the first deep learning model can be trained to minimize at least two loss functions. For example, a first loss function may be applied that indicates how appropriately the virtual image (y) converted from the original (x) of the X domain according to the characteristics of the Y domain was created as an image. In addition, a second loss function that indicates how similar the image (x') restored through the original (x) to the original (x) through the G and Y generators, respectively, can be applied. In other words, the first deep learning model is designed with a learning principle that transforms the style of the original of the X domain according to the characteristics of the Y domain, but only to the extent that it can be restored to the original. Therefore, problems with the existing GAN model, such as the phenomenon of creating a virtual image that is completely unrelated to the originally intended original, can be solved.

전술한 학습 원리를 이용하여, 이미지증강부(131)는 제1딥러닝 모델을 통해 기준이미지가 기 설정된 외부요인에 따라 변환된 가상의 화물이미지를 생성할 수 있다. 여기서 외부요인은 화물의 유통 과정 중 변화할 수 있는 여러 주변 환경으로서, 장소, 날씨 및 시간을 포함할 수 있으며, 이에 한정되는 것은 아니다. 예를 들어, 장소의 경우 같은 화물이더라도 실내 및 실외에 있을 때 다른 이미지가 획득되며, 날씨의 경우 맑고 흐림이 이미지에 반영되고, 시간의 경우 낮과 밤에 따라 이미지의 밝기가 다르기 때문에, 정확한 화물 인식과 오류를 최소화하기 위하여 이와 같은 외부 환경의 변화를 모두 고려할 필요가 있다. 그러나, 화물이 노출되는 환경이 달라질 때마다 촬영하는 것은 사실상 불가능하고, 심지어 인위적으로 환경을 조성해야 하는 비효율적인 과정이 동반되어야 하므로 종래에는 특정 환경에서의 화물이미지만 수집할 수 밖에 없었다. 반면, 본 발명의 경우 제1딥러닝 모델을 이용하여 외부 환경의 다양성이 모두 충족되는 화물이미지를 자동으로 생성할 수 있으므로, 위와 같은 한계를 적극적으로 개선할 수 있다.Using the above-described learning principle, the image augmentation unit 131 can generate a virtual cargo image in which the reference image is converted according to preset external factors through the first deep learning model. Here, external factors are various surrounding environments that can change during the distribution process of cargo, and may include, but are not limited to, location, weather, and time. For example, in the case of location, even if the cargo is the same, different images are obtained when it is indoors and outdoors, in the case of weather, clear and cloudy are reflected in the image, and in the case of time, the brightness of the image is different depending on the day and night, so the exact cargo It is necessary to consider all such changes in the external environment in order to minimize recognition and errors. However, it is virtually impossible to take pictures every time the environment to which cargo is exposed changes, and even requires an inefficient process of artificially creating the environment, so conventionally, only cargo images in specific environments could be collected. On the other hand, in the case of the present invention, cargo images that satisfy all the diversity of the external environment can be automatically generated using the first deep learning model, so the above limitations can be actively improved.

일 실시예에 따르면, 이미지증강부(131)는 기준이미지를 데이터세트로 하여 제1도메인(X도메인)으로 설정한다. 또한, 이미지증강부(131)는 외부요인 별로 가상의 화물이미지를 생성하기 위한 기준이미지의 변환조건을 적어도 하나 이상 설정하고 각 변환조건 마다 고유 식별번호를 부여하여 제2도메인(Y도메인)으로 분류할 수 있다. 이 때, 변환조건은 외부요인 별로 기 설정된 수치범위로 구분되는 색온도, 광도, 음영도 및 조도 별 조건값으로 설정될 수 있다. 또는, 무작위로 수집한 랜덤 이미지를 위에서 설정한 조건값에 따라 분류하고 이들을 데이터세트로 묶어 변환조건으로 설정할 수 있다. 예를 들어, 날씨의 외부요인에서 a범위의 광도거나 이에 대응하여 분류된 이미지들은 하나의 제2도메인으로 설정되고 고유의 식별번호로 관리될 수 있다.According to one embodiment, the image enhancement unit 131 uses the reference image as a dataset and sets it as the first domain (X domain). In addition, the image enhancement unit 131 sets at least one conversion condition of the reference image for generating a virtual cargo image for each external factor and assigns a unique identification number to each conversion condition to classify it into a second domain (Y domain). can do. At this time, the conversion conditions can be set as condition values for color temperature, brightness, shading, and illuminance, which are divided into preset numerical ranges for each external factor. Alternatively, randomly collected random images can be classified according to the condition values set above and grouped into a dataset to set conversion conditions. For example, in the external factor of weather, the luminance in the range a or images classified accordingly may be set as a second domain and managed with a unique identification number.

외부요인 별 변환조건의 구체적인 실시예는 다음과 같다. 외부요인이 장소인 경우, 이미지증강부(131)는 실외 및 실내에 대응하는 두 개의 서로 다른 수치범위로 구분된 색온도를 변환조건으로 설정한다. 즉, 실외는 자연광에 대응하는 수치범위를 가진 제1색온도를 이미지 변환조건으로 적용하며, 실내는 인공광에 대응하는 수치범위를 가진 제2색온도를 이미지 변환조건으로 적용한다. 이와 같이 구분된 변환조건은 각각 고유의 식별번호가 설정되어 두 개의 제2도메인으로 구성된다.Specific examples of conversion conditions for each external factor are as follows. When the external factor is a location, the image enhancement unit 131 sets the color temperature divided into two different numerical ranges corresponding to outdoor and indoor as the conversion condition. That is, outdoors, the first color temperature with a numerical range corresponding to natural light is applied as the image conversion condition, and indoors, the second color temperature with a numerical range corresponding to artificial light is applied as the image conversion condition. The conversion conditions classified in this way are each set with a unique identification number and are composed of two second domains.

외부요인이 날씨의 경우, 이미지증강부(131)는 기 설정된 두 개 이상의 맑고 흐림의 정도에 대응하는 두 개 이상의 서로 다른 수치범위로 구분된 색온도, 광도 및 음영도를 변환조건으로 설정한다. 예를 들어, 맑고 흐림의 정도를 n가지로 구분하였을 때, 제1색온도, 제1광도 및 제1음영도부터 제n색온도, 제n광도 및 제n음영도까지를 각각 이미지 변환조건으로 적용하여 총 n개의 식별번호가 설정된 제2도메인을 구성한다.When the external factor is weather, the image enhancement unit 131 sets color temperature, brightness, and shading divided into two or more different numerical ranges corresponding to two or more preset degrees of clear and cloudy as conversion conditions. For example, when clear and cloudy levels are divided into n levels, the image conversion conditions are applied from the first color temperature, first luminance, and first shade to the nth color temperature, nth luminance, and nth shade. A second domain is configured with a total of n identification numbers set.

외부요인이 시간인 경우, 이미지증강부(131)는 기 설정된 두 개 이상의 시구간에 대응하는 두 개 이상의 서로 다른 수치범위로 구분된 색온도, 음영도 및 조도를 변환조건으로 설정한다. 예를 들어, 설명을 위해 시구간이 단순히 낮과 밤으로 구분되었다고 가정하면, 낮과 밤에 대응하는 수치범위를 가진 제1색온도, 제1음영도 및 제1조도와 제2색온도, 제2음영도 및 제2조도를 각각 이미지 변환조건으로 적용하여 두 개의 식별번호가 설정된 제2도메인을 구성한다.When the external factor is time, the image enhancement unit 131 sets color temperature, shading, and illuminance divided into two or more different numerical ranges corresponding to two or more preset time periods as conversion conditions. For example, assuming that the time period is simply divided into day and night for explanation purposes, the first color temperature, first shade level, and first illuminance and the second color temperature and second shade level have numerical ranges corresponding to day and night. and Article 2 are applied as image conversion conditions, respectively, to form a second domain with two identification numbers set.

일 실시예에 따르면, 이미지증강부(131)는 외부의 환경 변화에 더하여 화물의 패킹 변경이나 파손에 따른 제2도메인을 더 구성할 수 있다. 즉, 이미지증강부(131)는 화물외관의 다양성을 반영하여 화물외관 조건을 변환조건으로 하는 가상의 화물이미지를 추가적으로 확보할 수 있다. 예를 들어, 이미지증강부(131)는 기 설정된 개수의 서로 다른 무늬를 포함하는 이미지들을 무작위로 수집하여 공통된 무늬를 가진 이미지를 묶어 하나의 데이터세트를 구축하고 이들을 각각 별도의 제2도메인으로 구성할 수 있다. 또는, 각 무늬 별로 기 매칭된 식별값을 변환조건으로 하는 제2도메인을 구성할 수 있다.According to one embodiment, the image enhancement unit 131 may further configure a second domain according to changes in packaging or damage to cargo in addition to changes in the external environment. In other words, the image enhancement unit 131 can additionally secure a virtual cargo image that reflects the diversity of cargo appearance and uses the cargo appearance conditions as conversion conditions. For example, the image augmentation unit 131 randomly collects images containing a preset number of different patterns, groups images with common patterns to build one dataset, and configures each of them into a separate second domain. can do. Alternatively, a second domain can be constructed that uses the previously matched identification value for each pattern as a conversion condition.

이미지증강부(131)는 기준이미지와 변환조건을 입력데이터로 하여 제1딥러닝 모델을 학습함으로써, 각각의 변환조건이 적용된 가상의 화물이미지를 생성 및 출력한다. 즉, 제1도메인의 기준이미지마다 각각의 제2도메인을 구성하는 변환조건과 함께 제1딥러닝 모델에 입력되면, 각 기준이미지가 각 변환조건에 따라 변환된 가상의 화물이미지가 생성된다. 구체적으로, 특정 화물을 낮에 촬영한 기준이미지(X)를 밤에 촬영한 이미지로 변환하는 과정을 예로 들면, 이미지증강부(131)는 X 및 밤의 시구간에 대응하는 변환조건을 제1딥러닝 모델에 입력하여 가상의 화물이미지인 Y를 출력한다. 이미지증강부(131)는 Y가 이미지로서 적합하게 생성되었는지 여부(이미지 적합도)를 나타내는 제1손실함수가 최소화될 때까지 제1딥러닝을 반복한다. 동시에, 제1딥러닝 모델은 Y를 다시 원본으로 변환하는 생성자를 학습하며, 그에 따라 Y가 원본처럼 복원된 X'가 출력되고 X와의 비교가 수행된다. 이미지증강부(131)는 비교 결과 그 차이에 대응하는 제2손실함수를 최소화하는 방향으로 제1딥러닝을 반복한다. 결과적으로, X에 포함된 객체의 구성, 위치 및 형상을 보존된 상태로 밤에 대응하는 색온도, 음영도 및 조도로 변환된 가상의 화물이미지가 생성된다. 이러한 방식으로, 이미지증강부(131)는 제1도메인의 기준이미지들 각각에 대하여 모든 제2도메인의 변환조건이 적용된 가상의 화물이미지들을 생성하며, 이에 대한 실시형태의 예시는 도 6에 도시되어 있다.The image augmentation unit 131 learns a first deep learning model using the reference image and conversion conditions as input data, thereby generating and outputting a virtual cargo image to which each conversion condition is applied. That is, when each reference image of the first domain is input to the first deep learning model along with the conversion conditions constituting each second domain, a virtual cargo image is generated in which each reference image is converted according to each conversion condition. Specifically, taking as an example the process of converting a reference image ( It is input into the learning model and output Y, a virtual cargo image. The image enhancement unit 131 repeats the first deep learning until the first loss function indicating whether Y has been appropriately generated as an image (image suitability) is minimized. At the same time, the first deep learning model learns a generator that converts Y back to the original, and accordingly, X', in which Y is restored like the original, is output and comparison with X is performed. The image enhancement unit 131 repeats the first deep learning in the direction of minimizing the second loss function corresponding to the difference in the comparison results. As a result, a virtual cargo image converted to color temperature, shading, and illuminance corresponding to the night is created while preserving the composition, location, and shape of the objects included in X. In this way, the image enhancement unit 131 generates virtual cargo images to which all conversion conditions of the second domain are applied to each of the reference images of the first domain, and an example of this embodiment is shown in FIG. 6. there is.

다시 도 4를 참조하면, 일 실시예에 따르는 학습부(132)는 기 수집된 화물이미지와 이미지증강부(131)에 의해 생성된 가상의 화물이미지를 제2딥러닝 모델의 학습데이터로 활용한다. 여기서 제2딥러닝 모델은 이미지에서 특정한 객체를 식별하고 이를 기 설정된 기준에 따라 분류하는 알고리즘으로 설계되는 것으로, CNN(Convolutional Neural Network) 계열의 신경망일 수 있으며, YOLO(You Only Look Once)가 바람직하나, 반드시 이에 한정되는 것은 아니다.Referring again to FIG. 4, the learning unit 132 according to one embodiment uses the previously collected cargo images and the virtual cargo image generated by the image augmentation unit 131 as learning data for the second deep learning model. . Here, the second deep learning model is designed as an algorithm that identifies specific objects in the image and classifies them according to preset standards. It may be a neural network of the CNN (Convolutional Neural Network) series, and YOLO (You Only Look Once) is preferable. However, it is not necessarily limited to this.

일 실시예에 따르면, 학습부(132)는 수집한 화물이미지 및 가상의 화물이미지를 관리자 단말(300)로 전송하여 관리자 단말(300)로부터 각 이미지에 대한 라벨링값을 수신한다. 예를 들어, 관리자 단말(300)은 이미지 내에서 화물을 나타내는 영역을 박스로 표시하고 해당 영역에 특정 유형으로 미리 설정된 식별코드를 부여하여 서버(100)로 전송할 수 있다. 즉, 라베링값은 화물을 나타내는 영역 및 화물유형의 식별코드를 포함할 수 있다.According to one embodiment, the learning unit 132 transmits the collected cargo images and virtual cargo images to the manager terminal 300 and receives labeling values for each image from the manager terminal 300. For example, the manager terminal 300 may mark an area representing cargo within the image as a box, assign an identification code preset to a specific type to the area, and transmit it to the server 100. That is, the labeling value may include an area representing the cargo and an identification code of the cargo type.

학습부(132)는 수신한 라벨링값을 토대로 해당 이미지에 대한 텍스트 데이터를 생성할 수 있다. 구체적으로, 학습부(132)는 화물을 나타내는 박스를 확인하고 이를 좌표값으로 변환할 수 있다. 여기서 좌표값은, 박스의 중심에 대한 x 및 y성분과 박스의 수평 길이값(폭) 및 수직 길이값(높이)인 총 네 개의 코드로 구성될 수 있다. 학습부(132)는 화물 유형의 식별코드와 화물을 나타내는 박스의 좌표값을 매칭하여, 이미지 내 화물을 나타내는 박스가 총 다섯 개의 코드로 정의되는 텍스트 데이터를 생성할 수 있다. 예를 들면, 박스 유형의 식별코드가 '1'로 설정된 경우, 텍스트 데이터는 '[1, a, b, c, d]'의 형태로 생성될 수 있다. 여기서, a, b는 화물을 나타내는 박스의 중심에 대한 x, y성분이며, c는 해당 박스의 폭, d는 해당 박스의 높이이다. 이와 같이, 학습부(132)는 하나의 화물이미지 또는 가상의 화물이미지와 해당 이미지의 텍스트 데이터를 세트로 구성하여 하나의 학습데이터로 설정할 수 있다.The learning unit 132 may generate text data for the image based on the received labeling value. Specifically, the learning unit 132 can check boxes representing cargo and convert them into coordinate values. Here, the coordinate value can be composed of a total of four codes, which are the x and y components for the center of the box, the horizontal length value (width), and the vertical length value (height) of the box. The learning unit 132 matches the identification code of the cargo type with the coordinate value of the box representing the cargo, and can generate text data in which the box representing the cargo in the image is defined by a total of five codes. For example, if the identification code of the box type is set to '1', text data may be generated in the form of '[1, a, b, c, d]'. Here, a and b are the x and y components of the center of the box representing the cargo, c is the width of the box, and d is the height of the box. In this way, the learning unit 132 can configure one cargo image or virtual cargo image and the text data of the image into a set and set it as one learning data.

도 7을 참조하면, 학습부(132)는 제2딥러닝 모델을 통해 학습데이터들의 학습을 반복하여, 이미지에서 화물에 대응하는 제1객체를 인식하는 과정을 최적화한다. 예를 들어, CNN이나 YOLO 기반의 신경망 모델인 경우, 학습 데이터의 이미지가 Convolutional Layer, Pooling layer, Activation layer 및 Fully connected-layer의 순서로 이루어진 필터를 통과하여, 텐서 단위의 특징값이 추출되며, 추출된 특징값들에 대한 확률 연산을 통해 이미지 내 제1객체가 식별되고 식별된 제1객체는 바운딩박스(bounding box)로 처리된다. 학습부(132)는 모든 학습데이터 내 화물이 바운딩박스 처리되어 제1객체로 추출될 때까지 학습을 반복하여 제2딥러닝 모델의 파라미터를 최적화하는 과정을 수행한다.Referring to FIG. 7, the learning unit 132 repeats learning of the learning data through the second deep learning model to optimize the process of recognizing the first object corresponding to the cargo in the image. For example, in the case of a CNN or YOLO-based neural network model, the image of the training data passes through a filter in the order of Convolutional Layer, Pooling layer, Activation layer, and Fully connected-layer, and feature values in tensor units are extracted. The first object in the image is identified through probability calculation on the extracted feature values, and the identified first object is processed as a bounding box. The learning unit 132 performs a process of optimizing the parameters of the second deep learning model by repeating learning until all of the learning data is bounded and extracted as the first object.

객체 인식 과정이 최적화되면, 학습부(132)는 분류 과정을 최적화하기 위한 학습을 반복한다. 즉, 학습데이터의 이미지에서 화물이 인식되어 제1객체가 추출되는 여하에 따라, 제1객체를 기 설정된 유형으로 분류하여 출력하는 과정을 최적화한다. 예를 들어 학습부(132)는, 출력된 화물의 유형과 해당 학습데이터의 텍스트 데이터를 비교하여 그 차이를 산출하며 이에 대응하는 손실이 최소화되는 방향으로 분류 과정의 학습을 반복한다.When the object recognition process is optimized, the learning unit 132 repeats learning to optimize the classification process. In other words, depending on whether cargo is recognized in the image of the learning data and the first object is extracted, the process of classifying and outputting the first object into a preset type is optimized. For example, the learning unit 132 compares the type of output cargo with the text data of the corresponding learning data, calculates the difference, and repeats the learning of the classification process in a way that minimizes the corresponding loss.

일 실시예에 따르면, 학습부(132)는 학습데이터 내에서 화물을 나타내는 제1객체에 더하여, 파손을 나타내는 제2객체, 송장을 나타내는 제3객체 및 바코드를 나타내는 제4객체 중 적어도 하나 이상을 식별하도록 상기 제2딥러닝 모델의 학습을 수행한다. 예를 들어, 학습부(132)는 관리자 단말(300)로부터 라벨링값을 수신할 때, 이미지 내에서 파손, 송장 및 바코드 중 적어도 하나 이상에 대한 박스 표시를 더 수신할 수 있다. 또한, 관리자 단말(300)은 파손, 송장 및 바코드로 표시한 박스에 파손유형, 송장형태(운송사) 및 바코드패턴으로 기 설정된 식별코드를 부여하여 서버(100)로 전송할 수 있다. 학습부(132)는 이러한 라벨링값을 이용하여 파손, 송장 및 바코드를 나타내는 박스를 확인하고 좌표값으로 변환한 뒤, 이들 각각에 대한 식별코드와 좌표값으로 이루어진 텍스트 데이터를 생성할 수 있다. 학습부(132)는 하나의 화물이미지 또는 가상의 화물이미지와 해당 이미지에 대해 생성된 모든 텍스트 데이터를 세트로 구성하여 하나의 학습데이터로 설정할 수 있다. 예를 들어, 파손 화물의 이미지이고 송장 및 바코드에 대한 라벨링값이 모두 수신된 경우, 해당 화물이미지와 화물, 파손, 송장 및 바코드에 대하여 생성된 총 4개의 텍스트 데이터가 하나의 학습데이터를 구성할 수 있다. 이후, 학습부(132)는 제2딥러닝 모델을 통해 학습데이터들의 학습을 반복하여, 이미지에서 파손부위에 대응하는 제2객체, 송장에 대응하는 제3객체 및 바코드에 대응하는 제4객체 중 적어도 하나를 인식하는 과정 및 각 인식된 각 객체의 유형을 분류하는 과정을 최적화하며, 구체적인 내용은 제1객체에서의 전술로 갈음하도록 한다.According to one embodiment, in addition to the first object representing the cargo, the learning unit 132 selects at least one of a second object representing damage, a third object representing an invoice, and a fourth object representing a barcode in the learning data. The second deep learning model is trained to identify. For example, when receiving the labeling value from the manager terminal 300, the learning unit 132 may further receive a box mark for at least one of damage, invoice, and barcode in the image. In addition, the manager terminal 300 can assign an identification code preset to the damage type, invoice type (carrier), and barcode pattern to the damage, invoice, and box marked with a barcode and transmit it to the server 100. The learning unit 132 can use these labeling values to check boxes representing damage, invoices, and barcodes, convert them into coordinate values, and then generate text data consisting of an identification code and coordinate values for each of them. The learning unit 132 can configure one cargo image or virtual cargo image and all text data generated for the image into a set and set it as one learning data. For example, if it is an image of damaged cargo and all labeling values for the invoice and barcode are received, a total of four text data generated for the cargo image, cargo, damage, invoice, and barcode can constitute one learning data. You can. Afterwards, the learning unit 132 repeats learning of the learning data through the second deep learning model, and selects a second object corresponding to the damaged part in the image, a third object corresponding to the invoice, and a fourth object corresponding to the barcode. The process of recognizing at least one object and the process of classifying the type of each recognized object are optimized, and specific details are replaced with tactics for the first object.

일 실시예에 따르는 화물인식부(133)는, 카메라(200)에 의해 실시간으로 촬영된 화물에 대한 신규화물 이미지를 수신하고, 이를 학습부(132)에 의해 구축된 화물 인식 모델에 입력하여 신규화물 이미지에서 화물을 나타내는 객체를 식별하고 화물의 유형을 판단하는 역할을 수행한다. 화물인식부(133)는 판단된 화물의 유형에 따라 해당 화물의 경로 및 작업동작에 대한 제어값을 생성하여 화물처리 수단으로 전송할 수 있다. 또한, 화물인식부(133)는 판단된 화물의 유형을 기초로 작업스케줄을 생성하여 관리자 단말(300)로 전송할 수 있다.The cargo recognition unit 133 according to one embodiment receives a new cargo image for cargo captured in real time by the camera 200 and inputs it into the cargo recognition model built by the learning unit 132 to create a new cargo image. It is responsible for identifying objects representing cargo in cargo images and determining the type of cargo. The cargo recognition unit 133 can generate control values for the path and work operation of the cargo according to the type of cargo determined and transmit it to the cargo processing means. Additionally, the cargo recognition unit 133 can create a work schedule based on the determined cargo type and transmit it to the manager terminal 300.

일 실시예에 따르면, 화물인식부(133)는 화물 인식 모델에 의한 신규화물 이미지 내 제2객체의 식별 여부에 따라 화물의 파손 여부 및 파손 유형을 더 판단하여, 이를 기초로 화물을 분배하는 작업을 수행할 수 있으며, 이에 대한 구체적인 실시예는 도 8에 도시되어 있다.According to one embodiment, the cargo recognition unit 133 further determines whether the cargo is damaged and the type of damage depending on whether the second object is identified in the new cargo image by the cargo recognition model, and distributes the cargo based on this. can be performed, and a specific example thereof is shown in FIG. 8.

도 8을 참조하면, 화물인식부(133)는 신규화물 이미지를 화물 인식 모델에 입력한다. 이에 따라, 제1객체의 인식 과정이 진행되며, 해당 이미지에서 화물로 인식되는 부분은 바운딩박스 처리되어 제1객체로 추출된다. 화물로 인식되는 부분이 없다면 어떠한 객체도 추출되지 않으며, 이에 따라, 해당 이미지 내에서 화물의 존재 여부가 판단되게 된다.Referring to FIG. 8, the cargo recognition unit 133 inputs a new cargo image into the cargo recognition model. Accordingly, the recognition process of the first object proceeds, and the part recognized as cargo in the image is processed as a bounding box and extracted as the first object. If there is no part recognized as cargo, no object is extracted, and accordingly, the presence or absence of cargo in the image is determined.

제1객체의 존재 여부가 판단되면, 제2객체의 인식 과정이 진행된다. 즉, 해당 이미지에서 파손으로 인식되는 부분은 바운딩박스 처리되어 제2객체로 추출된다. 반면, 파손으로 인식되는 부분이 없다면 어떠한 객체도 추출되지 않으며, 이에 따라, 해당 이미지 내에서 파손 여부가 판단되게 된다.Once the existence of the first object is determined, the recognition process for the second object proceeds. In other words, the part recognized as damaged in the image is processed as a bounding box and extracted as a second object. On the other hand, if no part is recognized as damaged, no object is extracted, and accordingly, damage is determined within the image.

한편, 일 실시예에 따르는 분류기는, 객체 인식에 있어서, 바운딩박스 방식을 채택하였으나, 이에 한정되는 것은 아니며, 폴리곤(Polygon) 방식이나 키포인트(Keypoint) 방식을 비롯한 다양한 객체 인식 기술이 적용될 수 있다.Meanwhile, the classifier according to one embodiment adopts the bounding box method in object recognition, but is not limited to this, and various object recognition technologies, including the polygon method or keypoint method, may be applied.

다음으로, 화물 인식 모델에 의해 이미지가 나타내는 신규화물의 분류 과정이 수행된다. 즉, 제1객체 및 제2객체의 존재 여부에 대한 판단 결과에 따라, 촬영된 신규화물이 정상화물, 파손화물, 전손화물 및 학습화물의 네 유형 중 하나의 유형으로 분류된다.Next, the classification process of new cargo represented by the image is performed by the cargo recognition model. That is, according to the result of the determination of whether the first object and the second object exist, the new cargo photographed is classified into one of four types: normal cargo, damaged cargo, total loss cargo, and learning cargo.

구체적으로, 제1객체가 존재하고 제2객체가 존재하지 않는 것으로 판단된 경우, 신규화물은 정상화물 유형으로 분류된다. 즉, 객체 인식 과정을 통해 화물은 인식되었으나 어떠한 파손 부위도 인식되지 않은 경우, 분류 과정을 통해 정상화물 유형이 출력된다.Specifically, when it is determined that the first object exists and the second object does not exist, the new cargo is classified as a normal cargo type. In other words, if cargo is recognized through the object recognition process but no damaged parts are recognized, a normal cargo type is output through the classification process.

제1객체 및 상기 제2객체가 모두 존재하는 것으로 판단되는 경우, 신규화물은 파손화물 유형으로 분류된다. 즉, 객체 인식 과정을 통해 화물과 파손이 모두 인식되는 경우, 분류 과정을 통해 파손화물 유형이 출력된다.If it is determined that both the first object and the second object exist, the new cargo is classified as a damaged cargo type. In other words, if both cargo and damage are recognized through the object recognition process, the type of damaged cargo is output through the classification process.

제1객체가 존재하지 않고 제2객체가 존재하는 경우, 신규화물은 전손화물 유형으로 분류된다. 즉, 객체 인식 과정을 통해 어떠한 화물도 인식되지 않았으나 파손은 인식되는 경우, 파손으로 인해 화물의 주요 형태가 훼손된 것으로 간주되며, 분류 과정을 통해 전손화물 유형이 출력된다.If the first object does not exist and the second object exists, the new cargo is classified as a total loss cargo type. In other words, if no cargo is recognized through the object recognition process, but damage is recognized, the main form of the cargo is considered damaged due to the damage, and the total loss cargo type is output through the classification process.

제1객체가 및 제2객체가 모두 존재하지 않는 것으로 판단되는 경우, 신규화물은 학습화물 유형으로 분류된다. 즉, 객체 인식 과정을 통해 어떠한 화물과 파손 부위도 인식되지 않은 경우, 새로운 형태의 화물이나 화물이 아닌 다른 물체로 간주되며, 분류 과정을 통해 학습화물로 출력되어 이를 기초로 화물 인식 모델의 업데이트가 진행된다.If it is determined that both the first object and the second object do not exist, the new cargo is classified as a learning cargo type. In other words, if no cargo or damaged parts are recognized through the object recognition process, it is considered a new type of cargo or an object other than cargo, and is output as learning cargo through the classification process, and the cargo recognition model is updated based on this. It goes on.

일 실시예에 따르면, 화물인식부(133)는 화물 인식 모델에 의하여 신규화물 이미지 내 제3객체 또는 제4객체가 식별되는 경우, 이를 기초로 해당 화물의 상세데이터를 획득할 수 있다. 여기서 상세데이터는 화물의 종류, 성질, 무게, 크기 및 배송지 등을 포함할 수 있으나, 이는 설명을 위해 대표적으로 선정된 것으로서, 각 화물을 식별하고 특정하기 위한 정보를 모두 포함할 수 있으며, 특별히 한정되는 것은 아니다. 예를 들어, 화물 인식 모델에 의해 제3객체가 식별되어 송장형태에 따른 특정 운송사가 출력되면, 화물인식부(133)는 해당 운송사의 서버로 상세데이터를 요청하고 이를 수신할 수 있다. 또한, 화물 인식 모델에 의해 제4객체가 식별되어 바코드의 위치 및 패턴이 출력되면, 화물인식부(133)는 이를 화물처리 수단의 바코드 리더기로 전송하고 이를 통해 상세데이터를 획득할 수 있다.According to one embodiment, when a third or fourth object in a new cargo image is identified by the cargo recognition model, the cargo recognition unit 133 may obtain detailed data of the cargo based on this. Here, the detailed data may include the type, nature, weight, size, and delivery address of the cargo, but this is representatively selected for explanation purposes and may include all information to identify and specify each cargo, and is specifically limited. It doesn't work. For example, when a third object is identified by the cargo recognition model and a specific transport company according to the invoice type is output, the cargo recognition unit 133 can request detailed data from the server of the transport company and receive it. In addition, when the fourth object is identified by the cargo recognition model and the location and pattern of the barcode are output, the cargo recognition unit 133 transmits it to the barcode reader of the cargo processing means and obtains detailed data through it.

이하, 도 9를 활용하여 서버(100)가 수행하는 화물 인식 방법에 대한 일 실시예를 설명하도록 한다. 도 9는 본 발명의 일 실시예에 따르는 화물 인식 방법의 순서도이며, 중복되는 내용은 전술로 갈음하도록 한다.Hereinafter, an embodiment of the cargo recognition method performed by the server 100 will be described using FIG. 9. Figure 9 is a flowchart of a cargo recognition method according to an embodiment of the present invention, and overlapping content will be replaced with the above.

단계 S910에서, 서버(100)는 기 수집된 화물이미지 중 일부 또는 전부를 추출하여 기준이미지로 설정하고 기준이미지를 이미지 변환 기반의 제1딥러닝 모델로 학습하여 기 설정된 외부요인에 따라 기준이미지를 변환한 가상의 화물이미지를 생성한다. 여기서 외부요인은, 화물의 유통 과정 중 변화할 수 있는 주변 환경으로서 장소, 날씨 및 시간을 포함하는 것이다.In step S910, the server 100 extracts some or all of the previously collected cargo images, sets them as a reference image, learns the reference image as a first deep learning model based on image conversion, and selects the reference image according to preset external factors. Create a converted virtual cargo image. Here, external factors are the surrounding environment that can change during the cargo distribution process and include location, weather, and time.

일 실시예에 따르면, 제1딥러닝 모델에 의해 기준이미지에 포함된 객체의 구성, 위치 및 형상은 보존된 상태로 외부요인에 설정된 변형조건에 따라 스타일만이 변형된 가상의 화물이미지가 생성된다. 여기서, 외부요인은 화물의 유통 과정 중 변화할 수 있는 주변 환경으로서, 장소, 날씨 및 시간의 변화에 따라 기준이미지에서 색온도, 광도, 음영도 및 조도 중 적어도 하나 이상이 변형된 가상의 화물이미지가 생성될 수 있다.According to one embodiment, a virtual cargo image is created in which only the style is transformed according to transformation conditions set for external factors while preserving the composition, position, and shape of objects included in the reference image by the first deep learning model. . Here, the external factor is the surrounding environment that can change during the cargo distribution process, and is a virtual cargo image in which at least one of color temperature, brightness, shading, and illuminance is transformed from the reference image according to changes in location, weather, and time. can be created.

일 실시예에 따르면, 화물의 패킹이나 파손에 대응하여 기 설정된 화물외관의 조건을 기준이미지와 함께 제1딥러닝 모델로 학습하여 화물외관의 조건에 따라 기준이미지를 변환한 가상의 화물이미지를 생성할 수 있다. 즉, 화물의 유통 과정 중 파손이 발생한 상황이나 패킹에 따라 외관의 무늬가 변경되는 상황에 대비하여, 화물인식의 정확도를 개선하기 위해 위와 같은 상황이 반영된 가상의 화물이미지를 제1딥러닝 모델을 통해 자동으로 생성할 수 있다.According to one embodiment, in response to packing or damage to cargo, preset cargo appearance conditions are learned with a reference image using a first deep learning model to generate a virtual cargo image by converting the reference image according to the cargo appearance conditions. can do. In other words, in order to prepare for situations where damage occurs during the cargo distribution process or the external pattern changes depending on the packaging, the first deep learning model is used on a virtual cargo image reflecting the above situation to improve the accuracy of cargo recognition. It can be created automatically through .

단계 S920에서, 서버(100)는 기 수집된 화물이미지 및 가상의 화물이미지를 학습데이터로 설정하고, 학습데이터를 객체 인식 기반의 제2딥러닝 모델을 통해 학습하여 임의의 화물이미지가 입력되면 기 설정된 화물의 유형 중 하나로 분류하는 화물 인식 모델을 구축한다.In step S920, the server 100 sets the previously collected cargo images and virtual cargo images as learning data, learns the learning data through a second deep learning model based on object recognition, and trains the training data when a random cargo image is input. Build a cargo recognition model that classifies cargo into one of the set cargo types.

일 실시예에 따르면, 학습데이터 내에서 화물을 나타내는 제1객체에 더하여, 파손을 나타내는 제2객체, 송장을 나타내는 제3객체 및 바코드를 나타내는 제4객체 중 적어도 하나 이상을 식별하도록 제2딥러닝 모델의 학습이 수행될 수 있다.According to one embodiment, in addition to the first object representing the cargo within the learning data, a second deep learning is used to identify at least one of a second object representing damage, a third object representing an invoice, and a fourth object representing a barcode. Learning of the model may be performed.

단계 S930에서, 서버(100)는 작업 현장에 배치된 카메라(200)에 의해 실시간으로 촬영된 화물에 대한 신규화물 이미지를 화물 인식 모델에 입력하여 신규화물 이미지에서 화물을 나타내는 객체를 식별하고 화물의 유형을 판단한다.In step S930, the server 100 inputs a new cargo image for cargo captured in real time by the camera 200 placed at the work site into a cargo recognition model to identify objects representing the cargo in the new cargo image and identify the cargo. Determine the type.

이와 같이, 본 발명에 따르면 학습데이터 증강을 통해 강건한 화물 인식 모델이 구축되므로, 화물이 유통되는 과정에서 장소, 날씨, 시간 등으로 인한 주변 환경이 변하더라도 다른 화물로 오인식되는 현상이 방지되며, 바코드 해독 또한 정확도가 향상되는 효과가 도모된다.In this way, according to the present invention, a robust cargo recognition model is built through augmentation of learning data, so even if the surrounding environment changes due to location, weather, time, etc. during the cargo distribution process, the phenomenon of being mistaken for another cargo is prevented, and the barcode Decoding also has the effect of improving accuracy.

일 실시예에 따르면, 서버(100)는 화물 인식 모델에 의한 신규화물 이미지 내 제2객체의 식별 여부에 따라 화물의 파손 여부 및 파손 유형을 판단하고, 화물 인식 모델에 의하여 신규화물 이미지 내 제3객체 또는 제4객체가 식별되는 경우 식별된 제3객체 또는 제4객체를 기초로 화물의 상세데이터를 획득할 수 있다.According to one embodiment, the server 100 determines whether the cargo is damaged and the type of damage depending on whether the second object in the new cargo image is identified by the cargo recognition model, and the third object in the new cargo image is identified by the cargo recognition model. If an object or a fourth object is identified, detailed data of the cargo can be obtained based on the identified third or fourth object.

본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.Although the methods and systems of the present invention have been described with respect to specific embodiments, some or all of their components or operations may be implemented using a computer system having a general-purpose hardware architecture.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present invention described above is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. will be. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as unitary may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.

100: 서버
200: 카메라
300: 관리자 단말
130: 프로세서
100: server
200: Camera
300: Administrator terminal
130: processor

Claims (18)

서버에 의해 수행되는, 화물이미지 증강을 통한 딥러닝 기반의 화물 인식 방법에 있어서,
a) 기 수집된 화물이미지 중 일부 또는 전부를 추출하여 기준이미지로 설정하고 상기 기준이미지를 이미지 변환 기반의 제1딥러닝 모델로 학습하여 기 설정된 외부요인에 따라 상기 기준이미지를 변환한 가상의 화물이미지를 생성하는 단계;
b) 상기 기 수집된 화물이미지와 상기 가상의 화물이미지를 학습데이터로 설정하고, 상기 학습데이터를 객체 인식 기반의 제2딥러닝 모델을 통해 학습하여 임의의 화물이미지가 입력되면 기 설정된 화물의 유형 중 하나로 분류하는 화물 인식 모델을 구축하는 단계; 및
c) 작업 현장에 배치된 카메라에 의해 실시간으로 촬영된 화물에 대한 신규화물 이미지를 상기 화물 인식 모델에 입력하여 상기 신규화물 이미지에서 상기 화물을 나타내는 객체를 식별하고 상기 화물의 유형을 판단하는 단계;
를 포함하되,
상기 외부요인은 화물의 유통 과정 중 변화할 수 있는 주변 환경으로서 장소, 날씨 및 시간을 포함하는 것이며,
상기 a)단계는, 화물의 패킹이나 파손에 대응하여 기 설정된 화물외관의 조건을 상기 기준이미지와 함께 상기 제1딥러닝 모델로 학습하여 상기 화물외관의 조건에 따라 상기 기준이미지를 변환한 가상의 화물이미지를 생성하는 단계;를 포함하는, 화물 인식 방법.
In a deep learning-based cargo recognition method through cargo image augmentation performed by a server,
a) Virtual cargo that extracts some or all of the previously collected cargo images, sets them as a reference image, learns the reference image with a first deep learning model based on image conversion, and converts the reference image according to preset external factors. generating an image;
b) Set the previously collected cargo image and the virtual cargo image as learning data, learn the learning data through a second deep learning model based on object recognition, and when a random cargo image is input, the type of the preset cargo A step of building a cargo recognition model that classifies cargo into one of the following; and
c) inputting a new cargo image for cargo captured in real time by a camera placed at a work site into the cargo recognition model to identify an object representing the cargo in the new cargo image and determining the type of the cargo;
Including,
The external factors include location, weather, and time as the surrounding environment that can change during the cargo distribution process.
In step a), the conditions of the cargo appearance preset in response to packing or damage to the cargo are learned with the first deep learning model together with the reference image, and the reference image is converted according to the conditions of the cargo appearance. A cargo recognition method comprising: generating a cargo image.
제 1항에 있어서,
상기 a)단계는, 상기 제1딥러닝 모델에 의해 상기 기준이미지에 포함된 객체의 구성, 위치 및 형상은 보존된 상태로 상기 외부요인에 따라 상기 기준이미지의 스타일이 변형된 가상의 화물이미지가 생성되는 단계;를 포함하는, 화물 인식 방법.
According to clause 1,
In step a), a virtual cargo image is created in which the style of the reference image is modified according to the external factors while the configuration, position, and shape of the object included in the reference image are preserved by the first deep learning model. A cargo recognition method including a generating step.
제 1항에 있어서,
상기 a)단계는, 상기 가상의 화물이미지에 대한 이미지 적합도에 대응하는 제1손실함수와 상기 가상의 화물이미지를 다시 원본으로 변환한 결과와 상기 기준이미지 간의 차이에 대응하는 제2손실함수를 최소화하는 방향으로 상기 제1딥러닝 모델의 학습을 반복하는 단계;를 포함하는, 화물 인식 방법.
According to clause 1,
Step a) minimizes a first loss function corresponding to the image suitability for the virtual cargo image and a second loss function corresponding to the difference between the result of converting the virtual cargo image back to the original and the reference image. A cargo recognition method comprising: repeating learning of the first deep learning model in the direction of:
제 1항에 있어서,
상기 a)단계는, 상기 외부요인 별로 상기 가상의 화물이미지를 생성하기 위한 상기 기준이미지의 변환조건이 적어도 하나 이상 설정되어 상기 기준이미지와 함께 상기 제1딥러닝 모델의 입력데이터로 적용되는 것인, 화물 인식 방법.
According to clause 1,
In step a), at least one conversion condition of the reference image for generating the virtual cargo image is set for each external factor and applied as input data of the first deep learning model together with the reference image. , Cargo recognition method.
제 4항에 있어서,
상기 변환조건은 기 설정된 수치범위로 구분되는 색온도, 광도, 음영도 및 조도 별 조건값이거나 기 수집된 랜덤한 이미지들이 상기 조건값을 기준으로 분류된 것인, 화물 인식 방법.
According to clause 4,
The conversion condition is a condition value for color temperature, brightness, shade, and illuminance divided into a preset numerical range, or pre-collected random images are classified based on the condition value.
제 4항에 있어서,
상기 외부요인이 장소인 경우, 상기 변환조건은 실외 및 실내에 대응하는 두 개의 서로 다른 수치범위로 구분된 색온도로 설정되는 것이고,
상기 외부요인이 날씨인 경우, 상기 변환조건은 기 설정된 두 개 이상의 맑고 흐림의 정도에 대응하는 두 개 이상의 서로 다른 수치범위로 구분된 색온도, 광도 및 음영도로 설정되는 것이고,
상기 외부요인이 시간인 경우, 상기 변환조건은 기 설정된 두 개 이상의 시구간에 대응하는 두 개 이상의 서로 다른 수치범위로 구분된 색온도, 음영도 및 조도로 설정되는 것인, 화물 인식 방법.
According to clause 4,
When the external factor is a location, the conversion condition is set to a color temperature divided into two different numerical ranges corresponding to outdoor and indoor,
When the external factor is weather, the conversion condition is set to color temperature, brightness, and shading divided into two or more different numerical ranges corresponding to two or more preset degrees of clear and cloudy,
When the external factor is time, the conversion condition is set to color temperature, shading, and illuminance divided into two or more different numerical ranges corresponding to two or more preset time periods.
삭제delete 제 1항에 있어서,
상기 b)단계는, 상기 학습데이터 내에서 화물을 나타내는 제1객체에 더하여, 파손을 나타내는 제2객체, 송장을 나타내는 제3객체 및 바코드를 나타내는 제4객체 중 적어도 하나 이상을 식별하도록 상기 제2딥러닝 모델의 학습을 수행하는 단계;를 포함하는, 화물 인식 방법.
According to clause 1,
Step b) is to identify at least one of a second object representing damage, a third object representing an invoice, and a fourth object representing a barcode in the learning data in addition to the first object representing the cargo. Cargo recognition method comprising: performing learning of a deep learning model.
제 8항에 있어서,
상기 c)단계는, 상기 화물 인식 모델에 의한 상기 신규화물 이미지 내 제2객체의 식별 여부에 따라 상기 화물의 파손 여부 및 파손 유형을 판단하고, 상기 화물 인식 모델에 의하여 상기 신규화물 이미지 내 제3객체 또는 제4객체가 식별되는 경우 식별된 제3객체 또는 제4객체를 기초로 상기 화물의 상세데이터를 획득하는 단계;를 포함하는, 화물 인식 방법.
According to clause 8,
In step c), the damage and damage type of the cargo are determined depending on whether the second object in the new cargo image is identified by the cargo recognition model, and the third object in the new cargo image is determined by the cargo recognition model. When an object or a fourth object is identified, obtaining detailed data of the cargo based on the identified third or fourth object.
화물 인식 서버에 있어서,
화물이미지 증강을 통한 딥러닝 기반의 화물 인식 방법을 수행하기 위한 프로그램이 저장된 메모리; 및
상기 프로그램을 실행하는 프로세서;를 포함하되,
상기 프로세서는,
기 수집된 화물이미지 중 일부 또는 전부를 추출하여 기준이미지로 설정하고 상기 기준이미지를 이미지 변환 기반의 제1딥러닝 모델로 학습하여 기 설정된 외부요인에 따라 상기 기준이미지를 변환한 가상의 화물이미지를 생성하는 이미지증강부;
상기 기 수집된 화물이미지와 상기 가상의 화물이미지를 학습데이터로 설정하고, 상기 학습데이터를 객체 인식 기반의 제2딥러닝 모델을 통해 학습하여 임의의 화물이미지가 입력되면 기 설정된 화물의 유형 중 하나로 분류하는 화물 인식 모델을 구축하는 학습부; 및
작업 현장에 배치된 카메라에 의해 실시간으로 촬영된 화물에 대한 신규화물 이미지를 상기 화물 인식 모델에 입력하여 상기 신규화물 이미지에서 상기 화물을 나타내는 객체를 식별하고 상기 화물의 유형을 판단하는 화물인식부;
를 포함하고,
상기 외부요인은 화물의 유통 과정 중 변화할 수 있는 주변 환경으로서 장소, 날씨 및 시간을 포함하는 것이며,
상기 이미지증강부는, 화물의 패킹이나 파손에 대응하여 기 설정된 화물외관의 조건을 상기 기준이미지와 함께 상기 제1딥러닝 모델로 학습하여 상기 화물외관의 조건에 따라 상기 기준이미지를 변환한 가상의 화물이미지를 생성하는, 화물 인식 서버.
In the cargo recognition server,
A memory storing a program for performing a deep learning-based cargo recognition method through cargo image augmentation; and
Including a processor executing the program,
The processor,
Extract some or all of the previously collected cargo images and set them as reference images, learn the reference images with the first deep learning model based on image conversion, and create a virtual cargo image by converting the reference images according to preset external factors. an image enhancement unit that generates;
The previously collected cargo image and the virtual cargo image are set as learning data, and the learning data is learned through a second deep learning model based on object recognition. When a random cargo image is input, it is selected as one of the preset cargo types. A learning unit that builds a cargo recognition model to classify; and
A cargo recognition unit that inputs a new cargo image for cargo captured in real time by a camera placed at a work site into the cargo recognition model, identifies an object representing the cargo in the new cargo image, and determines the type of the cargo;
Including,
The external factors include location, weather, and time as the surrounding environment that can change during the cargo distribution process.
The image augmentation unit learns the conditions of the cargo appearance preset in response to packing or damage of the cargo with the first deep learning model together with the reference image, and converts the reference image according to the conditions of the cargo appearance to create a virtual cargo. Cargo recognition server that generates images.
제 10항에 있어서,
상기 이미지증강부는, 상기 제1딥러닝 모델을 통해 상기 기준이미지에 포함된 객체의 구성, 위치 및 형상은 보존된 상태로 상기 외부요인에 따라 상기 기준이미지의 스타일이 변형된 가상의 화물이미지를 생성하는, 화물 인식 서버.
According to clause 10,
The image augmentation unit generates a virtual cargo image in which the style of the reference image is modified according to the external factors while preserving the configuration, position, and shape of the object included in the reference image through the first deep learning model. Cargo recognition server.
제 10항에 있어서,
상기 이미지증강부는, 상기 가상의 화물이미지에 대한 이미지 적합도에 대응하는 제1손실함수와 상기 가상의 화물이미지를 다시 원본으로 변환한 결과와 상기 기준이미지 간의 차이에 대응하는 제2손실함수를 최소화하는 방향으로 상기 제1딥러닝 모델의 학습을 반복하는, 화물 인식 서버.
According to clause 10,
The image augmentation unit minimizes a first loss function corresponding to the image suitability for the virtual cargo image and a second loss function corresponding to the difference between the result of converting the virtual cargo image back to the original and the reference image. A cargo recognition server that repeats learning of the first deep learning model in each direction.
제 10항에 있어서,
상기 이미지증강부는, 상기 외부요인 별로 상기 가상의 화물이미지를 생성하기 위한 상기 기준이미지의 변환조건을 적어도 하나 이상 설정하고 상기 기준이미지와 함께 상기 제1딥러닝 모델의 입력데이터로 적용하는, 화물 인식 서버.
According to clause 10,
The image augmentation unit sets at least one conversion condition of the reference image for generating the virtual cargo image for each external factor and applies it as input data of the first deep learning model along with the reference image. server.
제 13항에 있어서,
상기 이미지증강부는, 기 설정된 수치범위로 구분되는 색온도, 광도, 음영도 및 조도 별 조건값 또는 상기 조건값을 기준으로 분류한 기 수집된 랜덤한 이미지를 상기 변환조건으로 설정하는, 화물 인식 서버.
According to clause 13,
The image augmentation unit sets condition values for color temperature, luminance, shading, and illuminance divided into preset numerical ranges, or pre-collected random images classified based on the condition values, as the conversion conditions. A cargo recognition server.
제 13항에 있어서,
상기 이미지증강부는,
상기 외부요인이 장소인 경우, 실외 및 실내에 대응하는 두 개의 서로 다른 수치범위로 구분된 색온도를 상기 변환조건으로 설정하고,
상기 외부요인이 날씨인 경우, 기 설정된 두 개 이상의 맑고 흐림의 정도에 대응하는 두 개 이상의 서로 다른 수치범위로 구분된 색온도, 광도 및 음영도를 상기 변환조건으로 설정하고,
상기 외부요인이 시간인 경우, 기 설정된 두 개 이상의 시구간에 대응하는 두 개 이상의 서로 다른 수치범위로 구분된 색온도, 음영도 및 조도를 상기 변환조건으로 설정하는, 화물 인식 서버.
According to clause 13,
The image enhancement unit,
When the external factor is a location, set the color temperature divided into two different numerical ranges corresponding to outdoor and indoor as the conversion condition,
When the external factor is weather, color temperature, brightness, and shading divided into two or more different numerical ranges corresponding to two or more preset clear and cloudy degrees are set as the conversion conditions,
When the external factor is time, the cargo recognition server sets color temperature, shading, and illuminance divided into two or more different numerical ranges corresponding to two or more preset time intervals as the conversion conditions.
삭제delete 제 10항에 있어서,
상기 학습부는, 상기 학습데이터 내에서 화물을 나타내는 제1객체에 더하여, 파손을 나타내는 제2객체, 송장을 나타내는 제3객체 및 바코드를 나타내는 제4객체 중 적어도 하나 이상을 식별하도록 상기 제2딥러닝 모델의 학습을 수행하는, 화물 인식 서버.
According to clause 10,
The learning unit uses the second deep learning to identify at least one of a second object representing damage, a third object representing an invoice, and a fourth object representing a barcode in the learning data, in addition to the first object representing the cargo. Cargo recognition server that performs model learning.
제 17항에 있어서,
상기 화물인식부는, 상기 화물 인식 모델에 의한 상기 신규화물 이미지 내 제2객체의 식별 여부에 따라 상기 화물의 파손 여부 및 파손 유형을 판단하고, 상기 화물 인식 모델에 의하여 상기 신규화물 이미지 내 제3객체 또는 제4객체가 식별되는 경우 식별된 제3객체 또는 제4객체를 기초로 상기 화물의 상세데이터를 획득하는, 화물 인식 서버.
According to clause 17,
The cargo recognition unit determines whether the cargo is damaged and the type of damage depending on whether the second object in the new cargo image is identified by the cargo recognition model, and determines the third object in the new cargo image according to the cargo recognition model. Or, when a fourth object is identified, a cargo recognition server that obtains detailed data of the cargo based on the identified third or fourth object.
KR1020230082545A 2023-06-27 2023-06-27 Method and device for reading cargo improved through augmentation of training data based on deep learning KR102613341B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230082545A KR102613341B1 (en) 2023-06-27 2023-06-27 Method and device for reading cargo improved through augmentation of training data based on deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230082545A KR102613341B1 (en) 2023-06-27 2023-06-27 Method and device for reading cargo improved through augmentation of training data based on deep learning

Publications (1)

Publication Number Publication Date
KR102613341B1 true KR102613341B1 (en) 2023-12-14

Family

ID=89166916

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230082545A KR102613341B1 (en) 2023-06-27 2023-06-27 Method and device for reading cargo improved through augmentation of training data based on deep learning

Country Status (1)

Country Link
KR (1) KR102613341B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102131893B1 (en) * 2019-10-24 2020-07-09 한국건설기술연구원 Apparatus and method for determining the vehicle cover fault automatically
KR20200108609A (en) * 2019-03-11 2020-09-21 연세대학교 산학협력단 Learning-data enhancement device for machine learning model and method for learning-data enhancement
KR20220003218A (en) * 2020-07-01 2022-01-10 인하대학교 산학협력단 Misidentification Prevention Apparatus for Identifying Vehicle Number Plate With Adversarial Attack And Method Thereof
WO2022132239A1 (en) * 2020-12-16 2022-06-23 Motion2Ai Method, system and apparatus for managing warehouse by detecting damaged cargo
KR102547408B1 (en) * 2021-06-29 2023-06-22 롯데정보통신 주식회사 Freight classification method and device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200108609A (en) * 2019-03-11 2020-09-21 연세대학교 산학협력단 Learning-data enhancement device for machine learning model and method for learning-data enhancement
KR102131893B1 (en) * 2019-10-24 2020-07-09 한국건설기술연구원 Apparatus and method for determining the vehicle cover fault automatically
KR20220003218A (en) * 2020-07-01 2022-01-10 인하대학교 산학협력단 Misidentification Prevention Apparatus for Identifying Vehicle Number Plate With Adversarial Attack And Method Thereof
WO2022132239A1 (en) * 2020-12-16 2022-06-23 Motion2Ai Method, system and apparatus for managing warehouse by detecting damaged cargo
KR102547408B1 (en) * 2021-06-29 2023-06-22 롯데정보통신 주식회사 Freight classification method and device

Similar Documents

Publication Publication Date Title
Nikouei et al. Smart surveillance as an edge network service: From harr-cascade, svm to a lightweight cnn
US11599744B2 (en) Image processing arrangements
US9830704B1 (en) Predicting performance metrics for algorithms
KR102220174B1 (en) Learning-data enhancement device for machine learning model and method for learning-data enhancement
KR20180004898A (en) Image processing technology and method based on deep learning
CN113312957A (en) off-Shift identification method, device, equipment and storage medium based on video image
CN107153838A (en) A kind of photo automatic grading method and device
US20230029045A1 (en) Automatic image classification and processing method based on continuous processing structure of multiple artificial intelligence model, and computer program stored in computer-readable recording medium to execute the same
US10007680B2 (en) Content collection search with robust content matching
CN109034694A (en) Raw materials for production intelligent storage method and system based on intelligence manufacture
Jana et al. Shape-based fruit recognition and classification
KR20180123810A (en) Data enrichment processing technology and method for decoding x-ray medical image
CN113516146A (en) Data classification method, computer and readable storage medium
CN114782752B (en) Small sample image integrated classification method and device based on self-training
CN113139945A (en) Intelligent image detection method, equipment and medium for air conditioner outdoor unit based on Attention + YOLOv3
KR102613341B1 (en) Method and device for reading cargo improved through augmentation of training data based on deep learning
CN113192017A (en) Package defect identification method, device, equipment and storage medium
CN113496212A (en) Text recognition method and device for box-type structure and electronic equipment
CN114549968A (en) Target detection method and device and electronic equipment
KR102642446B1 (en) Method and device for image augmentation with masking of invoice for classifying cargo according to damage
KR102634031B1 (en) Universal invoice reader for identification of the courier company and method and system for collecting cargo information using the reader
CN112486677B (en) Data graph transmission method and device
CN118298201B (en) Equipment identification matching model training method, equipment identification matching method and equipment
KR20240077338A (en) Method and device for determining whether the cargo is damaged by separately recognizing the image of the cargo and the damage
US20240202907A1 (en) Machine learning-based defect analysis reporting and tracking

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant