KR20210125709A - Method And Apparatus for Recognizing Character of Container - Google Patents

Method And Apparatus for Recognizing Character of Container Download PDF

Info

Publication number
KR20210125709A
KR20210125709A KR1020200043216A KR20200043216A KR20210125709A KR 20210125709 A KR20210125709 A KR 20210125709A KR 1020200043216 A KR1020200043216 A KR 1020200043216A KR 20200043216 A KR20200043216 A KR 20200043216A KR 20210125709 A KR20210125709 A KR 20210125709A
Authority
KR
South Korea
Prior art keywords
character
container
image
character recognition
unit
Prior art date
Application number
KR1020200043216A
Other languages
Korean (ko)
Other versions
KR102368065B1 (en
Inventor
이휘원
백승환
이경민
Original Assignee
엘케이시스(주)
이경민
백승환
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘케이시스(주), 이경민, 백승환 filed Critical 엘케이시스(주)
Priority to KR1020200043216A priority Critical patent/KR102368065B1/en
Priority to PCT/KR2021/003825 priority patent/WO2021206338A1/en
Publication of KR20210125709A publication Critical patent/KR20210125709A/en
Application granted granted Critical
Publication of KR102368065B1 publication Critical patent/KR102368065B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06K9/20
    • G06K9/481
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/182Extraction of features or characteristics of the image by coding the contour of the pattern
    • G06V30/1823Extraction of features or characteristics of the image by coding the contour of the pattern using vector-coding
    • G06K2209/01

Abstract

Disclosed are a method and an apparatus for recognizing a character of a container. When a crane unloads a container on a port, a camera provided in the port or on a lower portion of the crane is used to photograph a side or an upper portion of the container on which container identification information is written when a truck transporting the container passes through a gate. When detecting a character corresponding to a position representing container cargo from a character patch based on a calculated character confidence probability (CP) after detecting the character patch written on the side or the upper portion of the container in the image, a conventional character recognition technique recognizes an identification number string by ignoring an omitted character and continuously listing only recognized characters to fail in container recognition. The present invention, however, provides a method and an apparatus for recognizing a character of a container which uses character prediction for estimating a container identification number by recognizing and remedying an undetected vacant position if some characters are not detected in the container identification number. The apparatus for recognizing a character of a container comprises an image acquisition unit, a character recognition unit, and a data augmentation unit.

Description

컨테이너 문자 인식 방법 및 장치{Method And Apparatus for Recognizing Character of Container} Method And Apparatus for Recognizing Character of Container

본 실시예는 컨테이너 문자 인식 방법 및 장치에 관한 것이다. The present embodiment relates to a container character recognition method and apparatus.

이하에 기술되는 내용은 단순히 본 실시예와 관련되는 배경 정보만을 제공할 뿐 종래기술을 구성하는 것이 아니다.The content described below merely provides background information related to the present embodiment and does not constitute the prior art.

일반적으로 항만에 설치된 화물 터미널 출입 게이트는 출입되는 컨테이너의 통관절차를 거친다. In general, cargo terminal access gates installed in ports go through customs procedures for entering and leaving containers.

컨테이너의 외부에 인지된 문자, 기호 및 식별번호 등을 인식하여 통관절차가 진행된다. 컨테이너 외부로부터 문자, 기호 및 식별번호를 인식하기 위하여 항만에 설치된 컨테이너 모니터링 시스템에서 컨테이너의 외부를 촬영하기 위한 다수의 카메라가 컨테이너를 적재한 차량이 통과할 때 게이트의 주변 각 위치에 카메라를 이용하여 컨테이너 외부를 촬영한다.Customs procedures are carried out by recognizing characters, symbols, and identification numbers recognized on the outside of the container. In order to recognize characters, symbols and identification numbers from the outside of the container, a number of cameras for photographing the outside of the container in the container monitoring system installed in the port use cameras at each position around the gate when the vehicle loaded with the container passes. Take a picture of the outside of the container.

컨테이너 모니터링 시스템은 컨테이너를 적재한 차량이 통과할 수 있도록 형성된 게이트, 게이트에 배치되어 차량의 진입 및 통과 완료를 감지하는 센서수단, 센서수단에 의해 차량의 진입 및 통과상황을 감지하여 차량 및 컨테이너를 촬영하는 카메라, 카메라에 의해 촬영된 영상을 기초로 차량 또는 상기 컨테이너를 모니터링하는 모니터링수단을 포함한다.The container monitoring system is a gate formed so that a vehicle loaded with a container can pass, a sensor means disposed at the gate to detect the entrance and completion of the vehicle, and the vehicle and container by detecting the entry and passage of the vehicle by the sensor means It includes a monitoring means for monitoring the vehicle or the container on the basis of the camera to take a picture, the image taken by the camera.

컨테이너 모니터링 시스템에 포함된 모니터링수단은 원격의 중앙 제어 센터와 연결되는 유무선 통신수단을 포함한다. 컨테이너 모니터링 시스템에 포함된 카메라는 차량번호 및 컨테이너의 각 위치에 따라 인지된 식별번호 및 문자 기호를 촬영하기 위하여 다수의 렌즈를 포함한다.The monitoring means included in the container monitoring system includes wired and wireless communication means connected to a remote central control center. The camera included in the container monitoring system includes a plurality of lenses to photograph the identification number and character symbol recognized according to the vehicle number and each position of the container.

컨테이너 모니터링 시스템은 센서수단을 이용하여 게이트로 진입 통과하는 차량 및 컨테이너를 인식하고, 카메라를 동작시켜 차량 및 컨테이너의 각 위치를 촬영하여 모니터링용 영상을 형성한다.The container monitoring system uses a sensor means to recognize vehicles and containers entering and passing through the gate, and operates a camera to photograph each location of the vehicle and container to form an image for monitoring.

종래 컨테이너 모니터링 시스템은 차량번호, 운전석, 컨테이너의 인지된 문자, 식별기호 등의 특정한 위치를 촬영하여 정해진 모니터링 영상을 구현한다. 최근들어 각 위치별 영상을 조합한 영상으로부터 2차원 또는 3차원 형태로 영상으로 구현하고 있다.A conventional container monitoring system implements a predetermined monitoring image by photographing a specific location such as a vehicle number, a driver's seat, a recognized character of a container, and an identification symbol. Recently, images are implemented in two-dimensional or three-dimensional form from images obtained by combining images for each location.

컨테이너 모니터링 시스템은 소수의 고화질 고속의 카메라를 설치하고 차량이 진입하는 것을 감지하여 연속으로 촬영하고, 이후 촬영된 영상을 합치는 방법 또는 다수의 고화질 카메라를 설치하고 차량이 들어오면 한 번에 찍는 방법을 이용한다. The container monitoring system installs a small number of high-definition, high-speed cameras, detects the vehicle entering and shoots continuously, and then combines the captured images, or installs multiple high-definition cameras and takes pictures when a vehicle enters. use the

차량이 진입하는 것을 감지하여 연속으로 촬영하는 방식은 차량 및 컨테이너를 감지하기 위한 많은 수의 센서가 설치되어야 하며, 사진을 균일하게 찍기 위해서는 별도의 건물을 설치해야 한다. 다수의 고화질 카메라를 설치하고 차량이 들어오면 한 번에 찍는 방식은 많은 수의 고화질 카메라를 필요로 한다. 단순히 컨테이너로부터 인지된 식별번호, 문자, 기호만을 인식하기 위함이 아니라, 전체적인 컨테이너의 형상을 촬영하여 하나의 영상 즉 2차원 또는 3차원적인 모니터링 영상을 구현하기 위하여서는 많은 수의 센서 및 카메라가 필요하므로, 시스템을 구성하기 위해서는 설치가 복잡하고 비용이 많이 필요로 하는 문제가 있다.In the method of continuously taking pictures by detecting the entrance of a vehicle, a large number of sensors to detect the vehicle and container must be installed, and a separate building must be installed to take pictures uniformly. The method of installing multiple high-definition cameras and taking pictures at once when a vehicle enters requires a large number of high-definition cameras. A large number of sensors and cameras are required to realize a single image, that is, a two-dimensional or three-dimensional monitoring image by photographing the shape of the entire container, not simply to recognize the identification number, character, and symbol recognized from the container. Therefore, there is a problem that installation is complicated and requires a lot of cost to configure the system.

트럭에 컨테이너를 적재한 후 게이트를 통과할 때 확인하는 경우, 컨테이너를 잘못 실으면, 컨테이너를 다시 옮겨싣고 꺼내야하는 문제가 발생한다. 따라서, 크레인이 컨테이너를 집을 때, 컨테이너에 기재된 문자를 정확하게 인지할 수 있는 기술이 필요하다.After loading a container on a truck and checking it when passing through the gate, if the container is loaded incorrectly, the problem of reloading and unloading the container occurs. Therefore, when the crane picks up the container, there is a need for a technology that can accurately recognize the characters written on the container.

본 실시예는 항만에서 크레인이 컨테이너를 하역할 때, 컨테이너를 운반하는 트럭이 게이트를 통과할 때, 구비된 카메라를 이용하여 컨테이너 식별정보가 기재 된 컨테이너 상부 또는 측면부를 촬영하고, 상기 영상에서 컨테이너 상부 또는 측면부에 기재된 문자 패치를 검출한 후 문자 패치로부터 컨테이너 화물을 나타내는 자리수에 해당하는 문자를 산출된 문자 신뢰 확률(CP)을 기반으로 검출할 때, 종래의 문자 인식 기술이 누락된 문자를 무시하고 인식된 문자만을 연이어 나열하는 방식으로 식별정보 문자열을 인지하여 컨테이너 식별에 실패한 반면, 컨테이너 식별 번호에서 일부 문자가 검출되지 않은 경우 검출되지 않은 빈자리를 인지하고 보완하여 컨테이너 식별정보를 추정하는 문자 예측을 이용한 컨테이너 문자 인식 방법 및 장치를 제공하는 데 목적이 있다.In this embodiment, when a crane unloads a container in a port, when a truck carrying a container passes through a gate, the upper or side part of the container in which the container identification information is written using the provided camera is photographed, and the container in the image When the character corresponding to the number of digits representing the container cargo is detected from the character patch after detecting the character patch written on the upper or side part, based on the calculated character confidence probability (CP), the conventional character recognition technology ignores the missing character In contrast, container identification failed by recognizing the identification information string in a way that lists only the recognized characters in a row, whereas, if some characters are not detected in the container identification number, character prediction that estimates the container identification information by recognizing and supplementing the undetected empty space An object of the present invention is to provide a container character recognition method and apparatus using

본 실시예의 일 측면에 의하면, 크레인 하부 또는 항만 내 구조물 설치된 카메라로부터 컨테이너 영상을 획득하는 영상 획득부; 상기 컨테이너 영상으로부터 복수의 패치를 검출한 후 상기 복수의 패치 각각으로부터 컨테이너 식별정보에 해당하는 문자를 검출한 후, 상기 문자 각각에 대해 산출된 문자와 식별번호 내 문자 자리에대한 신뢰 확률(CP)을 기반으로 검출된 상기 문자를 조합하여 검출이 누락 된 자리를 포함하거나 누락 된 정보를 보완한 최종 문자열을 결정하는 문자 인지부; 및 데이터 보강이 필요하다고 판단한 경우, 상기 복수의 문자 패치를 입력받은 후 신경망 네트워크 학습을 수행하여 학습용 데이터 세트를 생성하여 상기 문자 인지부로 전송하는 데이터 증가부(Data Augmentation)를 포함하는 것을 특징으로 하는 컨테이너 문자 인식 장치를 제공한다.According to an aspect of this embodiment, an image acquisition unit for acquiring an image of a container from a camera installed in a structure under a crane or a port; After detecting a plurality of patches from the container image, and after detecting a character corresponding to container identification information from each of the plurality of patches, the confidence probability (CP) for the character calculated for each character and the character position in the identification number a character recognition unit that combines the detected characters based on , and determines a final character string that includes a missing digit or supplements missing information; and a data augmentation unit (Data Augmentation) for generating a training data set by performing neural network training after receiving the plurality of character patches when it is determined that data reinforcement is necessary and transmitting the data set to the character recognition unit A container character recognition device is provided.

이상에서 설명한 바와 같이 본 실시예에 의하면, 항만에서 크레인이 컨테이너를 하역할 때, 컨테이너를 운반하는 트럭이 게이트를 통과할 때, 구비된 카메라를 이용하여 컨테이너 식별정보가 기재된 컨테이너 상부 또는 측면부를 촬영하고, 상기 영상에서 컨테이너 상부 또는 측면부에 기재된 문자 패치를 검출한 후 문자 패치로부터 컨테이너 화물을 나타내는 자리수에 해당하는 문자를 산출된 문자 신뢰 확률(CP)을 기반으로 검출할 때, 종래의 문자 인식 기술이 누락된 문자를 무시하고 인식된 문자만을 연이어 나열하는 방식으로 식별정보 문자열을 인지하여 컨테이너 식별에 실패한 반면, 컨테이너 식별 번호에서 일부 문자가 검출되지 않은 경우 검출되지 않은 빈자리를 추정하고 보완하여 컨테이너 식별정보를 추정할 수 있는 효과가 있다.As described above, according to this embodiment, when a crane unloads a container in a port, when a truck carrying a container passes through a gate, the upper or side part of the container in which the container identification information is recorded using the provided camera is photographed and, after detecting the character patch written on the upper part or the side part of the container in the image, the character corresponding to the number of digits representing the container cargo from the character patch is detected based on the calculated character confidence probability (CP), the conventional character recognition technology Container identification failed by recognizing the identification information string by ignoring these missing characters and listing only the recognized characters in a row. On the other hand, if some characters are not detected in the container identification number, the container is identified by estimating and supplementing the undetected vacancy. information can be estimated.

도 1은 본 실시예에 따른 컨테이너 문자 인식 장치를 나타낸 도면이다.
도 2는 본 실시예에 따른 컨테이너 문자 인식 장치의 내부 아키텍쳐를 개략적으로 나타낸 블럭 구성도이다.
도 3은 본 실시예에 따른 컨테이너 문자 인식 방법을 설명하기 위한 도면이다.
도 4는 본 실시예에 따른 데이터 증감하는 방법을 설명하기 위한 도면이다.
도 5는 본 실시예에 따른 데이터 증감시 이용하는 데이터 구조를 나타낸 도면이다.
도 6,7,8,9는 본 실시예에 따른 데이터 증감시 이용하는 데이터 세트의 선형 분리성을 설명하기 위한 도면이다.
1 is a view showing a container character recognition apparatus according to the present embodiment.
2 is a block diagram schematically showing the internal architecture of the container character recognition apparatus according to the present embodiment.
3 is a view for explaining a container character recognition method according to the present embodiment.
4 is a diagram for explaining a method of increasing/decreasing data according to the present embodiment.
5 is a diagram illustrating a data structure used when increasing/decreasing data according to the present embodiment.
6, 7, 8, and 9 are diagrams for explaining the linear separability of a data set used when increasing/decreasing data according to the present embodiment.

이하, 본 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, this embodiment will be described in detail with reference to the accompanying drawings.

도 1은 본 실시예에 따른 컨테이너 문자 인식 장치를 나타낸 도면이다.1 is a view showing a container character recognition apparatus according to the present embodiment.

본 실시예에 따른 컨테이너 문자 인식 장치(100)는 크레인이 컨테이너를 하역 또는 이동하는 과정에서 필요하다.The container character recognition apparatus 100 according to the present embodiment is required in the process of the crane unloading or moving the container.

컨테이너 문자 인식 장치(100)는 자동화된 항만 시스템에 적용되어, 하역할 때 컨테이너 상부로 크레인을 가져가면, 크레인 하부에 부착된 카메라에서 컨테이너 상부에 컨테이너 정보가 기재 된 영상을 획득한다. 컨테이너의 이동은 게이트나 항만 내 구조물에 구비 된 카메라를 통해 컨테이너 외부 영상을 획득한다.The container character recognition device 100 is applied to an automated port system, and when the crane is brought to the upper part of the container during unloading, a camera attached to the lower part of the crane acquires an image in which the container information is written on the upper part of the container. The movement of the container acquires an image of the outside of the container through a camera provided on a structure in a gate or a port.

크레인은 컨테이너를 집어서 컨테이너를 선박에서 야드로 이동하거나 그 반대로 이동 시킨다. 크레인은 데이터베이스에 기 저장된 정보를 이용하여 컨테이너를 이동시킬 위치를 알고 있다.The crane picks up the container and moves it from the vessel to the yard and vice versa. The crane knows the position to move the container by using the information pre-stored in the database.

컨테이너 문자 인식 장치(100)는 크레인이 컨테이너를 하역 또는 이동하는 과정에서 컨테이너 상부에 기재된 문자를 검출하여 컨테이너를 식별할 수 있다. 컨테이너 문자 인식 장치(100)는 하역할 때 크레인이 내려가면서 컨테이너 상부를, 이동할 때 게이트나 항만 내 구비 된 카메라를 통해 상부 또는 측면부를 촬영하도록 한다. 크레인 하단부는 적어도 하나 이상의 카메라가 설치된다.The container character recognition apparatus 100 may identify the container by detecting the characters written on the upper part of the container while the crane unloads or moves the container. The container character recognition device 100 takes a picture of the upper part or the side part through a camera provided in a gate or a port when moving and moving the upper part of the container as the crane goes down when unloading. At least one camera is installed at the lower end of the crane.

도 2는 본 실시예에 따른 컨테이너 문자 인식 장치의 내부 아키텍쳐를 개략적으로 나타낸 블럭 구성도이다.2 is a block diagram schematically showing the internal architecture of the container character recognition apparatus according to the present embodiment.

컨테이너 문자 인식 장치(100)는 컨테이너 상부 또는 측면에 기재된 문자를 인식하는 과정에서, 획득한 문자 패치 영상에 대해 문자 이미지 블렌더(CIB: Character Image Blender)를 수행하여 데이터 볼륨을 증가시킨다. 컨테이너 문자 인식 장치(100)는 레이블과 레이턴트 스페이스(latent space)로부터 이미지 패치를 합성하여 추가적으로 학습하도록 한다.The container character recognition apparatus 100 increases the data volume by performing a character image blender (CIB) on the acquired character patch image in the process of recognizing the characters written on the upper part or the side of the container. The container character recognition apparatus 100 synthesizes an image patch from a label and a latent space to additionally learn.

컨테이너 문자 인식 장치(100)는 맞춤형 문자 인식(CR: Character Recognition)을 수행한다. 컨테이너 문자 인식 장치(100)는 실제 이미지 또는 거짓 이미지를 입력받는다. 컨테이너 문자 인식 장치(100)는 검출 된 문자, 각 문자의 신뢰 확률, 문자의 식별정보 내 위치를 출력한다. 컨테이너 문자 인식 장치(100)는 촬영 된 영상과 검출 된 문자의 후처리를 수행한다. 컨테이너 문자 인식 장치(100)는 검출 된 문자의 정렬하고, 검출 된 문자의 적절한 위치를 추정하여 보다 강력한 인식이 가능하도록 한다.The container character recognition apparatus 100 performs custom character recognition (CR). The container character recognition apparatus 100 receives an actual image or a false image. The container character recognition apparatus 100 outputs the detected character, the confidence probability of each character, and the position in the identification information of the character. The container character recognition apparatus 100 performs post-processing of the captured image and the detected character. The container character recognition apparatus 100 aligns the detected characters and estimates an appropriate position of the detected characters to enable stronger recognition.

본 실시예에 따른 컨테이너 문자 인식 장치(100)는 영상 획득부(210), 문자 인지부(220), 데이터 증가부(230)를 포함한다. 컨테이너 문자 인식 장치(100)에 포함된 구성요소는 반드시 이에 한정되는 것은 아니다.The container character recognition apparatus 100 according to the present embodiment includes an image acquiring unit 210 , a character recognition unit 220 , and a data increasing unit 230 . Components included in the container character recognition apparatus 100 are not necessarily limited thereto.

컨테이너 문자 인식 장치(100)에 포함된 각 구성요소는 장치 내부의 소프트웨어적인 모듈 또는 하드웨어적인 모듈을 연결하는 통신 경로에 연결되어 상호 간에 유기적으로 동작할 수 있다. 이러한 구성요소는 하나 이상의 통신 버스 또는 신호선을 이용하여 통신한다.Each component included in the container character recognition device 100 may be connected to a communication path that connects a software module or a hardware module inside the device, so that they can organically operate with each other. These components communicate using one or more communication buses or signal lines.

도 2에 도시된 컨테이너 문자 인식 장치(100)의 각 구성요소는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 소프트웨어적인 모듈, 하드웨어적인 모듈 또는 소프트웨어와 하드웨어의 결합으로 구현될 수 있다.Each component of the container character recognition apparatus 100 shown in FIG. 2 means a unit for processing at least one function or operation, and may be implemented as a software module, a hardware module, or a combination of software and hardware.

영상 획득부(210)는 크레인 하부 또는 게이트와 같은 항만 내 구조물에 설치된 카메라로부터 컨테이너 영상을 획득한다.The image acquisition unit 210 acquires a container image from a camera installed in a structure in a port, such as a lower part of a crane or a gate.

문자 인지부(220)는 컨테이너 영상으로부터 컨테이너 상부로부터 좌측 문자 패치와 우측 문자 패치, 그리고 컨테이너 측면부의 문자 패치를 검출한다. 문자 인지부(220)는 상기 문자 패치 각각으로부터 컨테이너 식별정보에 해당하는 문자를 검출한다. 문자 인지부(220)는 문자 각각의 문자 신뢰 확률(CP)을 기반으로 검출된 문자를 조합하여 최종 문자로 결정한다. The text recognition unit 220 detects a left text patch and a right text patch from the top of the container, and a text patch on the side of the container from the container image. The character recognition unit 220 detects a character corresponding to the container identification information from each of the character patches. The character recognition unit 220 determines the final character by combining the detected characters based on the character confidence probability (CP) of each character.

문자 인지부(220)는 상기 문자 패치를 기 설정된 방향으로 회전시킨다. 문자 인지부(220)는 회전된 문자 패치 내의 문자를 검출한 후 읽어와서 컨테이너 화물을 나타내는 식별정보 내 적절한 위치에 할당한다. 문자 인지부(220)는 상기 문자 패치 내에서 검출한 문자들을 하나의 추세선(One trend line)을 이용하거나 두 개의 평행선(Two parallel lines)을 이용하여 읽어오는 순서를 결정한다. 평행선의 개수는 한정하지 않고 적용할 수 있는 방법이다. 문자 인지부(220)는 상기 문자 패치 내에서 검출한 문자를 컨테이너 식별정보 내 올바른 자리를 추정하고 인지하지 못한 빈자리에 해당 프레임의 다른 문자 패치나 다른 프레임으로부터 정보를 합성하여 할당한다.The character recognition unit 220 rotates the character patch in a preset direction. The character recognition unit 220 detects the character in the rotated character patch, reads it, and allocates it to an appropriate position in the identification information indicating the container cargo. The character recognition unit 220 determines the order in which the characters detected in the character patch are read using one trend line or two parallel lines. The number of parallel lines is not limited and can be applied. The character recognition unit 220 estimates the correct position in the container identification information for the character detected in the character patch, and synthesizes information from other character patches or other frames in the frame to the unrecognized vacancy and allocates the character.

문자 인지부(220)는 컨테이너 영상에 해당하는 프레임 내에서 컨테이너 화물을 나타내는 자리수(인덱스)마다 문자의 신뢰 확률(CP) 값을 비교하여 더 높은 신뢰 확률(CP) 값을 갖는 문자를 최종 결정한다. 문자 인지부(220)는 이전 프레임과 현재 프레임 간에 컨테이너 화물을 나타내는 자리수(인덱스)마다 문자의 신뢰 확률(CP) 값을 비교하여 더 높은 신뢰 확률(CP) 값을 갖는 문자를 최종 결정한다.The character recognition unit 220 compares the confidence probability (CP) value of the character for each digit (index) indicating the container cargo within the frame corresponding to the container image to finally determine the character having a higher confidence probability (CP) value . The character recognition unit 220 finally determines a character having a higher confidence probability (CP) value by comparing the confidence probability (CP) value of the character for each digit (index) indicating the container cargo between the previous frame and the current frame.

문자 인지부(220)는 문자 패치 검출부(222), 문자 인지 학습부(224), 문자 예측부(226)를 포함한다. 문자 인지부(220)에 포함된 구성요소는 반드시 이에 한정되는 것은 아니다.The character recognition unit 220 includes a character patch detection unit 222 , a character recognition learning unit 224 , and a character prediction unit 226 . Components included in the character recognition unit 220 are not necessarily limited thereto.

문자 패치 검출부(222)는 컨테이너 영상으로부터 컨테이너 상부의 좌측 문자 패치, 우측 문자 패치 또는 컨테이너 측면부의 문자 패치를 검출한다. 문자 인지 학습부(224)는 학습용 데이터 세트를 수신하여 학습을 수행한다. 문자 예측부(226)는 문자 인지 학습부(224)의 학습 결과를 반영하여 상기 문자 패치 각각에서 컨테이너 식별정보에 해당하는 문자를 검출하는 문자 예측부를 학습한다. 문자 예측부(226)는 상기 문자 패치 각각에서 컨테이너 식별정보에 해당하는 문자를 검출한다. 문자 예측부(226)는 문자 각각의 문자 신뢰 확률(CP)을 기반으로 인지된 문자를 조합하여 최종 식별정보로 결정한다.The text patch detection unit 222 detects a text patch on the upper left side of the container, a text patch on the right side, or a text patch on the side of the container from the container image. The character recognition learning unit 224 receives the training data set and performs learning. The character prediction unit 226 learns a character prediction unit that detects a character corresponding to the container identification information in each of the character patches by reflecting the learning result of the character recognition learning unit 224 . The character prediction unit 226 detects a character corresponding to the container identification information in each of the character patches. The character prediction unit 226 determines the final identification information by combining the recognized characters based on the character confidence probability (CP) of each character.

데이터 증가부(Data Augmentation)(230)는 데이터 보강이 필요하다고 판단한 경우, 상기 문자 패치를 입력받고, 신경망 네트워크 학습을 수행하여 학습용 데이터 세트를 생성하여 문자 인지부(220)로 전송한다.When it is determined that data augmentation is necessary, the data augmentation unit 230 receives the character patch, performs neural network training, generates a training data set, and transmits it to the character recognition unit 220 .

데이터 증가부(230)는 입력받은 문자 패치를 실제 이미지(Real Image)로 인지한다. 데이터 증가부(230)는 실제 이미지의 레이블(Label) 내의 각각의 숫자나 문자를 원핫벡터(One-hot Vector)를 이용하여 표현(예컨대, 481×1)한다. 데이터 증가부(230)는 진짜 같은 이미지를 생성하기 위해 노이즈 정보를 포함하는 레이턴트 스페이스(Latent Space)를 이용하여 표현(예컨대, 512×1)한다. 데이터 증가부(230)는 원핫벡터(One-hot Vector)를 이용하여 표현한 벡터와 레이턴트 스페이스(Latent Space)를 이용하여 표현한 벡터를 합쳐서 밀집층(Dense Layer)을 통과시킨다. 또는 원핫벡터를 이용하여 표현한 벡터가 밀집층을 통과시킨 값과 레이턴트 스페이스를 이용하여 표현한 벡터를 합친다. 데이터 증가부(230)는 상기 밀집층(Dense Layer)을 통과시킨 값이나 상기 밀집층을 통과시킨 값과 노이즈 정보를 포함하는 레이턴트 스페이스를 이용하여 표현한 벡터를 합친 벡터를 기반으로 학습용 데이터 세트를 생성한다. 노이즈 정보를 포함한 레이턴트 스페이스를 이용하여 표현한 벡터를 합치는 위치는 설계 범위 내에서 바뀔 수 있다.The data increasing unit 230 recognizes the received character patch as a real image. The data increasing unit 230 expresses (eg, 481×1) each number or character in a label of an actual image using a one-hot vector. The data increase unit 230 expresses (eg, 512×1) using a latent space including noise information in order to generate a realistic image. The data increase unit 230 combines a vector expressed using a one-hot vector and a vector expressed using a latent space and passes through a dense layer. Alternatively, the vector expressed using the one-hot vector is combined with the value passed through the dense layer and the vector expressed using the latency space. The data increase unit 230 is a data set for learning based on a vector obtained by combining a value passing through the dense layer or a value passing through the dense layer and a vector expressed using a latent space including noise information. create The location of combining vectors expressed using the latency space including noise information can be changed within the design range.

데이터 증가부(230)는 밀집층(Dense Layer)을 통과시킨 값을 생성기(Generator)에 입력하고, 생성기(Generator)를 이용하여 밀집층(Dense Layer)을 통과한 값을 기반으로 학습을 수행하여 거짓 이미지(Fake Images)를 생성한다.The data increase unit 230 inputs a value that has passed through the dense layer to a generator, and performs learning based on the value that has passed through the dense layer using the generator. Create fake images.

데이터 증가부(230)는 판별기(Discriminator)를 이용하여 실제 이미지(Real Image)와 거짓 이미지(Fake Images)를 입력받은 후 거짓 이미지가 진짜 이미지인지 생성된 거짓 이미지인지의 여부를 판별한다. 데이터 증가부(230)는 판별 결과를 기반으로 생성기 학습을 수행하고 학습 된 생성기에서 문자 인지부 학습용 데이터 세트를 생성한다.The data increase unit 230 receives a real image and a fake image using a discriminator, and then determines whether the fake image is a real image or a generated fake image. The data increase unit 230 performs generator learning based on the determination result and generates a data set for character recognition unit learning from the learned generator.

데이터 증가부(230)는 판별기(D)를 이용하여 생성기(G)에서 출력한 거짓 이미지가 진짜 이미지인지 생성된 거짓 이미지인지를 판별한 점수를 역전파하고, 진짜인지 거짓인지를 판별하기 위한 점수를 높이기 위해 진짜같은 생성된 거짓 이미지를 생성하기 위해 학습을 수행한다.The data increasing unit 230 uses the discriminator (D) to backpropagate the score for determining whether the false image output from the generator (G) is a real image or a generated false image, and a score for determining whether it is real or false. Training is performed to generate a generated false image that is realistic to increase the .

데이터 증가부(230)는 판별기 손실(D loss), 생성기 손실(G loss)을 이용하여 거짓 이미지를 생성하며, 진짜 이미지와 거짓 이미지를 데이터베이스에 함께 저장한다. 판별기 손실은 생성기 기반 거짓 이미지를 진짜 이미지에 가깝게 하기 위해 edge detection을 포함한다.The data increase unit 230 generates a false image using a discriminator loss (D loss) and a generator loss (G loss), and stores the real image and the false image together in a database. Discriminator loss involves edge detection to bring the generator-based false image closer to the real image.

데이터 증가부(230)는 실제 이미지(Real Image)의 데이터 구조(Data structure)에서 문자(Character), 색깔(Color)(White or Black), 방향(Orientation)을 추출한다. 데이터 증가부(230)는 원-핫 벡터를 이용하여 레이블을 인코딩한다.The data increasing unit 230 extracts a character, a color (white or black), and an orientation from a data structure of a real image. The data increasing unit 230 encodes the label using the one-hot vector.

도 3은 본 실시예에 따른 컨테이너 문자 인식 방법을 설명하기 위한 도면이다.3 is a view for explaining a container character recognition method according to the present embodiment.

문자 인지부(220)는 복수의 문자 패치(예컨대, 좌측 문자 패치, 우측 문자 패치)를 올바른 위치로 회전시킨다. 문자 인지부(220)는 문자 패치 검출부(222)로부터 복수의 문자 패치(예컨대, 좌측 문자 패치, 우측 문자 패치)를 입력받는다. 문자 인지부(220)는 복수의 문자 패치(예컨대, 좌측 문자 패치, 우측 문자 패치)를 기 설정된 방향(예컨대, 문자가 좌→우 방향으로 읽히도록)으로 회전시킨다.The character recognition unit 220 rotates a plurality of character patches (eg, a left character patch and a right character patch) to a correct position. The character recognition unit 220 receives a plurality of character patches (eg, a left character patch and a right character patch) from the character patch detection unit 222 . The character recognition unit 220 rotates a plurality of character patches (eg, a left character patch and a right character patch) in a preset direction (eg, so that characters are read from left to right).

문자 인지부(220)는 회전된 상기 문자 패치(예컨대, 좌측 문자 패치, 우측 문자 패치) 내의 문자를 검출한 후 독립적으로 읽어온다.The character recognition unit 220 detects the characters in the rotated character patch (eg, a left character patch, a right character patch) and reads the characters independently.

문자 인지부(220)는 분할 후 문자를 검출하지만, 문자의 순서 및 문자 중간이 빈자리를 판단할 수 없기 때문에, 인지 된 문자들을 정렬한다. 문자 인지부(220)는 문자들을 정렬하기 위해 하나의 추세선(One trend line)을 이용하거나 두 개의 평행선(Two parallel lines)을 이용한다. 평행선의 개수는 한정하지 않고 적용할 수 있다.The character recognition unit 220 detects the characters after division, but aligns the recognized characters because the order of the characters and the space in the middle of the characters cannot be determined. The character recognition unit 220 uses one trend line or two parallel lines to align the characters. The number of parallel lines is not limited and can be applied.

문자 인지부(220)는 검출 된 문자 각각의 중심점을 추출한다. 문자 인지부(220)는 문자의 중심점을 이용하여 추세선을 인지한다. 추세선은 문자의 중심점의 분포를 최소화하기 위한 선을 의미한다. The character recognition unit 220 extracts the center point of each detected character. The character recognition unit 220 recognizes the trend line by using the central point of the character. The trend line means a line to minimize the distribution of the center point of the character.

문자 인지부(220)는 검출 된 문자 각각의 중심점의 분포를 최소로 하는 선이 한 줄인 경우, 추세선을 확인하면 문자들이 수평방향인지 수직방향인지를 확인할 수 있다. 문자 인지부(220)는 문자의 중심점의 분포를 추세선의 y축을 기준으로 분산값을 산출하여 두 개의 그룹으로 분리하였을 때 분포가 전체를 하나의 그룹으로 두고 나오는 분포보다 작다면, 두 개의 그룹을 분리하여 문자들이 읽는 순서를 결정한다. 문자 인지부(220)는 문자의 중심점으로 검출한 추세선이 두 줄인 경우, 추세선의 기울기(Slope of trend line)와 점의 편차의 양(Amount of deviation)을 기반으로 y축을 기준으로 분산값을 산출하여 두 개의 그룹을 분리하여 문자들이 읽는 순서를 결정할 수 있다.When the line that minimizes the distribution of the center points of each detected character is one line, the character recognition unit 220 may check whether the characters are in a horizontal direction or a vertical direction by checking the trend line. The character recognition unit 220 calculates the distribution of the central point of the character based on the y-axis of the trend line and divides it into two groups. Separate the characters to determine the order in which they are read. When the trend line detected as the center point of the character is two lines, the character recognition unit 220 calculates a variance value based on the y-axis based on the slope of the trend line and the amount of deviation. By separating the two groups, we can determine the order in which the characters are read.

문자 인지부(220)는 인식된 문자를 컨테이너 식별정보에서의 자리를 찾아 할당하며, 중간에 인식하지 못한 빈자리에 문자를 보완한다. 문자 인지부(220)는 프레임(예컨대, 프레임i(Framei) 내지 프레임i+1(Framei+1) 중 하나의 프레임) 내에서 각각 자리수(인덱스)의 신뢰 확률(CP) 값을 비교하여 더 높은 신뢰 확률(CP) 값을 갖는 결과를 선택한다. 문자 인지부(220)는 프레임 간에 인식된 문자열의 각각 자리수(인덱스)의 신뢰 확률(CP) 값을 비교하여 더 높은 신뢰 확률(CP) 값을 갖는 결과를 최종 결정한다. The character recognition unit 220 finds and assigns the recognized character to a place in the container identification information, and supplements the unrecognized blank in the middle of the character. The character recognition unit 220 compares the confidence probability (CP) value of each digit (index) within a frame (eg, one frame among frame i (Framei) to frame i+1 (Framei+1)) to obtain a higher value. Choose a result with a confidence probability (CP) value. The character recognition unit 220 compares the confidence probability (CP) value of each digit (index) of the character string recognized between frames to finally determine a result having a higher confidence probability (CP) value.

문자 패치 검출부(222)는 컨테이너 상부 또는 측면의 영상에서 검출한다. 컨테이너 상부 또는 측면에는 문자 패치(Character patch)가 부착되어 있다. 문자 패치 검출부(222)는 문자 패치 검출 모델(Character patch detection model)을 이용하여 컨테이너 상부 또는 측면의 영상으로부터 두 개의 문자 패치(예컨대, 좌측 문자 패치(①), 우측 문자 패치(②))를 인식한다.The character patch detection unit 222 detects the image of the upper or side of the container. A character patch is attached to the top or side of the container. The character patch detection unit 222 recognizes two character patches (eg, the left character patch (①) and the right character patch (②)) from the image of the upper or side of the container using a character patch detection model. do.

문자 패치 검출부(222)는 하나 이상의 문자 패치(예컨대, 좌측 문자 패치(①), 우측 문자 패치(②))를 문자 예측부(226)로 입력한다. 문자 패치 검출부(222)는 상기 문자 패치를 데이터 증가부(Data Augmentation)(230)로 입력한다.The character patch detection unit 222 inputs one or more character patches (eg, a left character patch (①) and a right character patch (②)) to the character prediction unit 226 . The character patch detection unit 222 inputs the character patch to the data augmentation unit 230 .

문자 예측부(226)는 지속적으로 촬영되는 프레임별 문자 패치 이미지를 입력받는다. 문자 예측부(226)는 각 타임 스텝마다 프레임이 나오는데, 각 프레임마다 최소 하나 이상의 문자 패치(예컨대, 좌측 문자 패치, 우측 문자 패치)를 입력받는다.The text prediction unit 226 receives text patch images for each frame that are continuously photographed. The character prediction unit 226 generates a frame at each time step, and receives at least one character patch (eg, a left character patch and a right character patch) for each frame.

문자 예측부(226)는 상기 입력받은 문자 패치(예컨대, 좌측 문자 패치, 우측 문자 패치)를 올바른 위치로 회전(Rotating to the right position)시키고, 문자(Character)를 검출(Detecting)한 후 읽어와서(Reading), 글자 단위로 분할 검출(Segmentation)하고, 검출된 문자를 읽어오는 순서를 정렬(Alignment)하고, 컨테이너 화물을 나타내는 자리수 중 비어 있는 자리를 추정하여 명령대로 배치(Placement in order)한다.The character prediction unit 226 rotates the received character patch (eg, a left character patch, a right character patch) to a correct position, detects a character, and then reads it. (Reading), detects segmentation in units of letters, arranges the order in which the detected letters are read, estimates the empty space among the number of digits representing the container cargo, and places them according to the order (Placement in order).

문자 예측부(226)는 상기 문자 패치로부터 문자를 검출할 때, 검출된 문자 각각에 대한 신뢰 확률(CP: Confidence Probability)을 산출한다. 신뢰 확률(CP)은 해당 문자에 대한 신뢰를 나타내는 확률값을 의미한다.When detecting a character from the character patch, the character prediction unit 226 calculates a confidence probability (CP) for each detected character. The confidence probability (CP) means a probability value indicating trust in the corresponding character.

하나의 컨테이너에 대한 프레임을 프레임i(Framei) 내지 프레임i+1(Framei+1)로 정의한다.A frame for one container is defined as frame i (Framei) to frame i+1 (Framei+1).

문자 예측부(226)는 하나의 컨테이너에 대한 타임 셀인 프레임i(Framei)에서 좌측 문자 패치를 인지한 결과 MSCU 5493*3 3이 인식되고, 우측 문자 패치를 인지한 결과 MSDU 5393*6*가 인식한다.As a result of recognizing the left character patch in the frame i, which is the time cell for one container, the character prediction unit 226 recognizes MSCU 5493*3 3, and as a result of recognizing the right character patch, MSDU 5393*6* recognizes it do.

문자 예측부(226)는 이 두 개의 결과를 성분 비교(Elementwise Comparison)로 각 자리수(인덱스)를 비교하여 각 패치별 신뢰 확률(CP: Confidence Probability)을 확인하고, 각 신뢰 확률을 비교하여 가장 높은 신뢰 확률(CP)을 갖는 값인 MSDU 5493*6 3를 프레임i(Framei)의 문자로 인식한다.The character prediction unit 226 compares each digit (index) of these two results by elementwise comparison to check a confidence probability (CP) for each patch, and compares each confidence probability to obtain the highest MSDU 5493*6 3, which is a value having a confidence probability (CP), is recognized as a character of frame i.

이후 문자 예측부(226)는 하나의 컨테이너에 대한 타임 셀인 프레임i+1(Framei+1)에서 좌측 문자 패치를 인지한 결과 M*CU 5*93*8 5가 인식되고, 우측 문자 패치를 인지한 결과 MSDU 5393*6*가 인식한다.Thereafter, the character prediction unit 226 recognizes the left character patch in the frame i+1 (Framei+1), which is the time cell for one container, and as a result, M*CU 5*93*8 5 is recognized and the right character patch is recognized. As a result, MSDU 5393*6* recognizes it.

문자 예측부(226)는 이 두 개의 결과를 성분 비교(Elementwise Comparison)로 하여 각 패치별 신뢰 확률(CP: Confidence Probability)을 확인하고, 각 신뢰 확률을 비교하여 각 신뢰 확률을 비교하여 가장 높은 신뢰 확률(CP)을 갖는 값인 MSCU 5393*8 5를 프레임i+1(Framei+1)의 문자로 인식한다.The character prediction unit 226 checks the confidence probability (CP) for each patch by using the two results as elementwise comparison, and compares each confidence probability by comparing each confidence probability to have the highest confidence MSCU 5393*8 5, which is a value with probability (CP), is recognized as a character of frame i+1 (Framei+1).

문자 예측부(226)는 하나의 컨테이너에 대한 프레임i(Framei)에서 프레임i+1(Framei+1)까지 인식된 문자열(결과)의 자릿수를 모두 비교하여 MSCU 539388 5를 최종 결정(Final Decision)한다.The character prediction unit 226 compares all the digits of the recognized character string (result) from frame i to frame i+1 (Framei+1) for one container to determine MSCU 539388 5 as a final decision (Final Decision) do.

문자 예측부(226)는 최종 결정(Final Decision)을 위해 위치 할당(Allocating position) 과정에서 예측 문자 시퀀스 결합(Combining predicted character sequences)한다.The character prediction unit 226 combines predicted character sequences in the process of allocating position for a final decision.

데이터 증가부(230)는 문자 패치 검출부(222)로부터 문자 패치를 입력받는다. 데이터 증가부(230)는 문자 인지부 학습을 위해 데이터 보강이 필요한 경우, 데이터를 보강하는 역할을 수행한다. 데이터 증가부(230)는 선택적으로 수행될 수 있다. 데이터 증가부(230)는 학습용 데이터 세트를 만들기 위한 과정을 수행한다. 데이터 증가부(230)는 문자 인지부가 추가적인 데이터를 학습하여 인식률이 높아지도록 한다. 예컨대, 데이터 증가부(230)는 야간에 촬영한 문자 패치에 대해서 신경망 네트워크 학습을 수행하여 주간에 촬영한 문자 패치로 전이할 수 있다. 데이터 증가부(230)는 실제 데이터(Real Data)를 기반으로 생성된 데이터(Generated data)를 생성할 수 있다.The data increasing unit 230 receives a character patch from the character patch detecting unit 222 . The data increasing unit 230 serves to reinforce data when data reinforcement is required for character recognition unit learning. The data increasing unit 230 may be selectively performed. The data increasing unit 230 performs a process for creating a training data set. The data increasing unit 230 allows the character recognition unit to learn additional data to increase the recognition rate. For example, the data increasing unit 230 may perform neural network training on the text patch photographed at night, and then transfer to the text patch photographed during the day. The data increaser 230 may generate generated data based on real data.

도 4는 본 실시예에 따른 데이터 증감하는 방법을 설명하기 위한 도면이다.4 is a diagram for explaining a method of increasing/decreasing data according to the present embodiment.

데이터 증가부(230)는 문자 이미지 블렌더(CIB: Character Image Blender)를 수행한다. 데이터 증가부(230)는 데이터 보강 모듈(DA: Data augmentation module)로서, 인식되기 어려운 이미지에 대해 문자 이미지 블렌더(CIB: Character Image Blender)를 수행하여 데이터 볼륨을 증가시킨다. 데이터 증가부(230)는 레이블(Label)과 레이턴트 스페이스(latent space)로부터 이미지 패치를 합성하여 학습하도록 한다.The data increasing unit 230 performs a character image blender (CIB). The data augmentation unit 230 is a data augmentation module (DA), and increases a data volume by performing a character image blender (CIB) on an image that is difficult to recognize. The data increaser 230 synthesizes and learns an image patch from a label and a latent space.

데이터 증가부(230)는 실제 이미지(Real Image)의 레이블(Label) 내의 각각의 숫자나 문자를 원핫벡터(One-hot Vector)를 이용하여 표현(예컨대, 481×1)한다. 데이터 증가부(230)는 노이즈 정보를 레이턴트 스페이스(Latent Space)를 이용하여 표현(예컨대, 512×1)한다. 데이터 증가부(230)는 원핫벡터(One-hot Vector)를 이용하여 표현한 벡터와 레이턴트 스페이스(Latent Space)를 이용하여 표현한 벡터를 합쳐서 밀집층(Dense Layer)을 통과시킨다. 또는 원핫벡터를 밀집층을 통과시킨 값과 레이턴트 벡터를 합친다. 레이턴트 벡터는 설계 범위 내에서 합치는 위치를 바꿀 수 있다. 데이터 증가부(230)는 상기 밀집층(Dense Layer)을 통과시킨 값을 생성기(Generator)에 입력한다. 생성기(Generator)는 밀집층(Dense Layer)을 통과한 값을 기반으로 학습을 수행하여 거짓 이미지(Fake Images)(생성된 이미지(Generated Image))를 생성한다.The data increasing unit 230 expresses (eg, 481×1) each number or character in a label of a real image using a one-hot vector. The data increase unit 230 expresses the noise information using a latent space (eg, 512×1). The data increase unit 230 combines a vector expressed using a one-hot vector and a vector expressed using a latent space and passes through a dense layer. Alternatively, the one-hot vector is passed through the dense layer and the latency vector is added. The latent vector can change the location of the merging within the design range. The data increasing unit 230 inputs the value passed through the dense layer to the generator. The Generator generates fake images (Generated Image) by performing learning based on the values passed through the Dense Layer.

데이터 증가부(230) 내의 판별기(Discriminator)는 실제 이미지(Real Image)와 거짓 이미지(Fake Images)(생성된 이미지(Generated Image))를 입력받은 후 생성기(G)에서 출력한 생성된 이미지가 진짜 이미지인지 생성된 거짓 이미지인지의 여부를 판별한다. The discriminator in the data increase unit 230 receives a Real Image and a Fake Image (Generated Image), and then the generated image output from the generator G is Determines whether it is a real image or a generated fake image.

판별기(D)는 생성기(G)에서 출력한 생성된 이미지가 진짜 이미지인지 생성된 거짓 이미지인지를 판별한 점수를 역전파하고, 진짜인지 거짓인지를 판별하기 위한 점수를 높이기 위해 진짜같은 생성된 거짓 이미지를 생성하기 위해 학습을 수행한다.The discriminator (D) backpropagates the score for determining whether the generated image output from the generator (G) is a real image or a generated false image, and increases the score for determining whether the generated image is real or false. Training is performed to generate an image.

판별기(D)는 판별 브랜치(Discriminating branch), edge detection, Character Recognition(CR) Branch를 일부 또는 전부 이용할 수 있다. 데이터 증가부(230)는 판별기 손실(D loss), 생성기 손실(G loss)을 이용하여 거짓 이미지를 생성한다. 데이터 증가부(230)는 진짜 이미지와 거짓 이미지를 데이터베이스에 함께 저장한다.The discriminator D may use some or all of a discriminating branch, an edge detection, and a character recognition (CR) branch. The data increase unit 230 generates a false image using a discriminator loss (D loss) and a generator loss (G loss). The data increasing unit 230 stores the real image and the false image together in the database.

도 5는 본 실시예에 따른 데이터 증감시 이용하는 데이터 구조를 나타낸 도면이다.5 is a diagram illustrating a data structure used when increasing/decreasing data according to the present embodiment.

데이터 증가부(230)는 학습을 위한 데이터 세트를 생성할 때 실제 이미지(Real Image)의 데이터 구조(Data structure)에서 특징(Feature)을 이용한다.The data increasing unit 230 uses a feature in a data structure of a real image when generating a data set for learning.

도 5에 도시된 바와 같이, 데이터 증가부(230)는 실제 이미지(Real Image)에 대한 특징으로 문자(Character), 색깔(Color)(White or Black), 방향(Orientation)(상하좌우 방향, 세로 방향, 가로 방향)을 추출한다.As shown in FIG. 5 , the data increasing unit 230 is a feature for a Real Image, such as Character, Color (White or Black), and Orientation (up, down, left, right, vertical). direction, horizontal direction).

도 6,7,8,9는 본 실시예에 따른 데이터 증감시 이용하는 데이터 세트의 선형 분리성을 설명하기 위한 도면이다.6, 7, 8, and 9 are diagrams for explaining the linear separability of a data set used when increasing/decreasing data according to the present embodiment.

데이터 증가부(230)는 학습을 위한 데이터 세트의 선형 분리성(Linear separability of data set)을 위해 가우스 랜덤 생성 레이턴트 벡터(Gaussian random generated latent vector)를 이용한다. 데이터 증가부(230)는 원-핫 벡터를 이용하여 레이블을 인코딩한다. 데이터 증가부(230)는 훈련하는 동안 원-핫벡터 또는 원-핫벡터와 레이턴트 스페이스를 선형화하는 매핑 기능을 수행한다. 데이터 증가부(230)는 인식되기 어려운 이미지의 선형화를 위해 원-핫 인코딩 된 레이블의 맵핑 기능을 이용한다.The data increasing unit 230 uses a Gaussian random generated latent vector for linear separability of a data set for learning. The data increasing unit 230 encodes the label using the one-hot vector. The data increasing unit 230 performs a mapping function of linearizing a one-hot vector or a one-hot vector and a latency space during training. The data increasing unit 230 uses a one-hot encoded label mapping function for linearization of an image that is difficult to recognize.

도 6,7,8,9에 도시된 바와 같이, 데이터 증가부(230)는 문자 인지부(220) 학습을 위해 데이터 볼륨을 증가시킨다.6, 7, 8, and 9, the data increase unit 230 increases the data volume for the character recognition unit 220 learning.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of this embodiment, and various modifications and variations will be possible by those skilled in the art to which this embodiment belongs without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are intended to explain rather than limit the technical spirit of the present embodiment, and the scope of the technical spirit of the present embodiment is not limited by these embodiments. The protection scope of this embodiment should be interpreted by the following claims, and all technical ideas within the equivalent range should be interpreted as being included in the scope of the present embodiment.

100: 컨테이너 문자 인식 장치
210: 영상 획득부
220: 문자 인지부
222: 문자 패치 검출부
224: 문자 인지 학습부
226: 문자 예측부
230: 데이터 증가부
100: container character recognition device
210: image acquisition unit
220: character recognition unit
222: character patch detection unit
224: character recognition learning unit
226: character prediction unit
230: data increase unit

Claims (12)

크레인 하부 또는 항만 내 구조물 설치된 카메라로부터 컨테이너 영상을 획득하는 영상 획득부;
상기 컨테이너 영상으로부터 복수의 패치를 검출한 후 상기 복수의 패치 각각으로부터 컨테이너 식별정보에 해당하는 문자를 검출한 후, 상기 문자 각각에 대해 산출된 문자와 식별번호 내 문자 자리에대한 신뢰 확률(CP)을 기반으로 검출된 상기 문자를 조합하여 검출이 누락 된 자리를 포함하거나 누락 된 정보를 보완한 최종 문자열을 결정하는 문자 인지부; 및
데이터 보강이 필요하다고 판단한 경우, 상기 복수의 문자 패치를 입력받은 후 신경망 네트워크 학습을 수행하여 학습용 데이터 세트를 생성하여 상기 문자 인지부로 전송하는 데이터 증가부(Data Augmentation)
를 포함하는 것을 특징으로 하는 컨테이너 문자 인식 장치.
An image acquisition unit for acquiring an image of a container from a camera installed under a crane or a structure in a port;
After detecting a plurality of patches from the container image, and after detecting a character corresponding to container identification information from each of the plurality of patches, the confidence probability (CP) for the character calculated for each character and the character position in the identification number a character recognition unit that combines the detected characters based on the character recognition unit to determine the final character string including the missing position or supplementing the missing information; and
When it is determined that data reinforcement is necessary, a data augmentation unit that receives the plurality of character patches and performs neural network training to generate a training data set and transmit it to the character recognition unit
Container character recognition device comprising a.
제1항에 있어서,
상기 문자 인지부는,
상기 학습용 데이터 세트를 수신하여 학습을 수행하고, 상기 학습 결과를 반영하여 상기 복수의 패치 각각으로부터 컨테이너 외부에 인지 된 식별정보 문자를 검출하는 것을 특징으로 하는 컨테이너 문자 인식 장치.
According to claim 1,
The character recognition unit,
Container character recognition apparatus, characterized in that receiving the learning data set, performing learning, and detecting the identification information character recognized outside the container from each of the plurality of patches by reflecting the learning result.
제1항에 있어서,
상기 데이터 증가부는,
입력받은 상기 복수의 패치를 실제 이미지(Real Image)로 인지하고, 상기 실제 이미지의 레이블(Label) 내의 각각의 숫자나 문자를 원핫벡터(One-hot Vector)를 이용하여 표현하고, 실제 이미지(Real Image)에 대응하는 노이즈 정보를 레이턴트 스페이스(Latent Space)를 이용하여 표현하고, 상기 원핫벡터(One-hot Vector)를 이용하여 표현한 벡터를 밀집층을 통과시키거나 원핫벡터와 상기 레이턴트 스페이스(Latent Space)를 이용하여 표현한 벡터를 합쳐서 밀집층(Dense Layer)을 통과시킨 값을 생성기(Generator)에 입력하여 거짓 이미지(Fake Images)를 생성하고, 판별기(Discriminator)를 이용하여 상기 실제 이미지(Real Image)와 상기 거짓 이미지(Fake Images)를 입력받은 후 상기 거짓 이미지가 진짜 이미지인지 생성된 거짓 이미지인지의 여부를 판별하고, 상기 판별 결과를 기반으로 문자 인지부 학습을 위한 학습용 데이터 세트를 생성하는 것을 특징으로 하는 컨테이너 문자 인식 장치.
According to claim 1,
The data increase unit,
Recognizes the received plurality of patches as a real image, expresses each number or character in a label of the real image using a one-hot vector, and displays the real image (Real Image). The noise information corresponding to the image) is expressed using a latent space, and the vector expressed using the one-hot vector is passed through the dense layer, or the one-hot vector and the latent space ( By combining vectors expressed using Latent Space, the value passed through the Dense Layer is input to the Generator to generate Fake Images, and using a Discriminator, the actual image ( After receiving the real image and the fake images, it is determined whether the false image is a real image or a generated fake image, and a training data set for learning the character recognition unit is generated based on the determination result. Container character recognition device, characterized in that.
제3항에 있어서,
상기 데이터 증가부는,
상기 판별기(D)에 edge detection network를 병합하여 생성기(G)에서 출력한 상기 거짓 이미지가 생성하려는 문자열 조건(예컨데, 원핫벡터로 표현 된 레이블(Label))에 적합한 패치 이미지를 생성할 수 있도록 진짜 이미지인지 생성된 거짓 이미지인지를 판별한 점수를 역전파하고, 진짜인지 거짓인지를 판별하기 위한 점수를 높이기 위해 진짜같은 거짓 이미지를 생성하기 위해 학습을 수행하는 것을 특징으로 하는 컨테이너 문자 인식 장치.
4. The method of claim 3,
The data increase unit,
By merging the edge detection network in the discriminator (D), the false image output from the generator (G) can generate a patch image suitable for the string condition (eg, a label expressed as a one-hot vector) to be generated. Container character recognition device, characterized in that it backpropagates the score for determining whether it is a real image or a generated false image, and performs learning to generate a fake image like the real one in order to increase the score for determining whether it is real or false.
제4항에 있어서,
상기 데이터 증가부는,
판별기 손실(D loss), 생성기 손실(G loss)을 이용하여 생성기와 판별기를 학습하고 상기 생성기로부터 상기 거짓 이미지를 생성하며, 상기 진짜 이미지와 상기 거짓 이미지를 데이터베이스에 함께 저장하는 것을 특징으로 하는 컨테이너 문자 인식 장치.
5. The method of claim 4,
The data increase unit,
Learning a generator and a discriminator using a discriminator loss (D loss) and a generator loss (G loss), generating the false image from the generator, and storing the real image and the false image together in a database Container character recognition device.
제3항에 있어서,
상기 데이터 증가부는,
실제 이미지(Real Image)의 데이터 구조(Data structure)에서 문자(Character), 색깔(Color), 방향(Orientation)을 추출하고, 원-핫 벡터와 레이턴트 벡터를 합성하여 생성기에 입력하는 것을 특징으로 하는 컨테이너 문자 인식 장치.
4. The method of claim 3,
The data increase unit,
Character, color, and orientation are extracted from the data structure of the real image, and the one-hot vector and the latency vector are synthesized and input to the generator. Container character recognition device.
제1항에 있어서,
상기 문자 인지부는,
상기 복수의 문자 패치를 기 설정된 방향으로 회전시키는 것을 특징으로 하는 컨테이너 문자 인식 장치.
According to claim 1,
The character recognition unit,
Container character recognition apparatus, characterized in that rotating the plurality of character patches in a preset direction.
제7항에 있어서,
상기 문자 인지부는,
회전된 상기 복수의 문자 패치 내의 문자를 검출한 후 읽어와서 컨테이너 화물을 나타내는 식별정보를 문자 단위로 검출하는 것을 특징으로 하는 컨테이너 문자 인식 장치.
8. The method of claim 7,
The character recognition unit,
Container character recognition device, characterized in that detecting and reading characters in the plurality of rotated character patches, and detecting identification information indicating container cargo in character units.
제8항에 있어서,
상기 문자 인지부는,
상기 복수의 문자 패치 내에서 검출한 문자들을 하나의 추세선(One trend line)을 이용하거나 두 개 또는 그 이상의 평행선(Two or more parallel lines)을 이용하여 읽어오는 순서를 결정하는 것을 특징으로 하는 컨테이너 문자 인식 장치.
9. The method of claim 8,
The character recognition unit,
Container character, characterized in that the reading order of the characters detected in the plurality of character patches is determined using one trend line or two or more parallel lines recognition device.
제9항에 있어서,
상기 문자 인지부는,
상기 복수의 문자 패치 내에서 검출한 문자와 컨테이너 식별정보 문자열 내 인식하지 못한 문자의 빈자리를 정확하 추정하는 것을 특징으로 하는 컨테이너 문자 인식 장치.
10. The method of claim 9,
The character recognition unit,
Container character recognition apparatus, characterized in that the vacancy of characters detected in the plurality of character patches and unrecognized characters in the container identification information string is accurately estimated.
제10항에 있어서,
상기 문자 인지부는,
상기 컨테이너 영상에 해당하는 프레임 내에서 컨테이너 화물을 나타내는 자리수마다 문자의 신뢰 확률(CP) 값을 비교하여 더 높은 신뢰 확률(CP) 값을 갖는 문자를 최종 결정하는 것을 특징으로 하는 컨테이너 문자 인식 장치.
11. The method of claim 10,
The character recognition unit,
Container character recognition apparatus, characterized in that the character having a higher confidence probability (CP) value is finally determined by comparing the confidence probability (CP) value of the character for each digit representing the container cargo in the frame corresponding to the container image.
제10항에 있어서,
상기 문자 인지부는,
이전 프레임과 현재 프레임 간에 컨테이너 화물을 나타내는 자리수(인덱스)마다 문자의 신뢰 확률(CP) 값을 비교하여 더 높은 신뢰 확률(CP) 값을 갖는 문자를 최종 결정하는 것을 특징으로 하는 컨테이너 문자 인식 장치.

11. The method of claim 10,
The character recognition unit,
Container character recognition apparatus, characterized in that the character having a higher confidence probability (CP) value is finally determined by comparing the confidence probability (CP) value of the character for each digit (index) indicating the container cargo between the previous frame and the current frame.

KR1020200043216A 2020-04-09 2020-04-09 Method And Apparatus for Recognizing Character of Container KR102368065B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200043216A KR102368065B1 (en) 2020-04-09 2020-04-09 Method And Apparatus for Recognizing Character of Container
PCT/KR2021/003825 WO2021206338A1 (en) 2020-04-09 2021-03-29 Method and device for recognizing characters on cargo container

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200043216A KR102368065B1 (en) 2020-04-09 2020-04-09 Method And Apparatus for Recognizing Character of Container

Publications (2)

Publication Number Publication Date
KR20210125709A true KR20210125709A (en) 2021-10-19
KR102368065B1 KR102368065B1 (en) 2022-03-02

Family

ID=78023389

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200043216A KR102368065B1 (en) 2020-04-09 2020-04-09 Method And Apparatus for Recognizing Character of Container

Country Status (2)

Country Link
KR (1) KR102368065B1 (en)
WO (1) WO2021206338A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115035360B (en) * 2021-11-22 2023-04-07 荣耀终端有限公司 Character recognition method for image, electronic device and storage medium
CN117593755B (en) * 2024-01-18 2024-04-02 吉林大学 Method and system for recognizing gold text image based on skeleton model pre-training

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100719608B1 (en) * 2005-07-21 2007-05-17 주식회사 씨텍 Method and apparatus for recognizing serial number of paper money
KR101727138B1 (en) * 2014-03-11 2017-04-14 한국전자통신연구원 Method and apparatus for recogniting container code using multiple video
KR20190095571A (en) * 2018-01-19 2019-08-16 한국기술교육대학교 산학협력단 Recognition method of Vehicle Licence Plate

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100837244B1 (en) * 2006-12-08 2008-06-11 인천대학교 산학협력단 System and method for the recognition of vehicle license plate images
JP6552012B2 (en) * 2017-03-03 2019-07-31 Necプラットフォームズ株式会社 Container number reading device, container number reading method, and container number reading program
KR102030628B1 (en) * 2019-04-04 2019-10-10 (주)아이엠시티 Recognizing method and system of vehicle license plate based convolutional neural network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100719608B1 (en) * 2005-07-21 2007-05-17 주식회사 씨텍 Method and apparatus for recognizing serial number of paper money
KR101727138B1 (en) * 2014-03-11 2017-04-14 한국전자통신연구원 Method and apparatus for recogniting container code using multiple video
KR20190095571A (en) * 2018-01-19 2019-08-16 한국기술교육대학교 산학협력단 Recognition method of Vehicle Licence Plate

Also Published As

Publication number Publication date
KR102368065B1 (en) 2022-03-02
WO2021206338A1 (en) 2021-10-14

Similar Documents

Publication Publication Date Title
EP3740897B1 (en) License plate reader using optical character recognition on plural detected regions
WO2020173056A1 (en) Traffic image recognition method and apparatus, and computer device and medium
KR101179497B1 (en) Apparatus and method for detecting face image
KR102368065B1 (en) Method And Apparatus for Recognizing Character of Container
CN111325769B (en) Target object detection method and device
CN113971811B (en) Container characteristic intelligent recognition method based on machine vision and deep learning
KR102383377B1 (en) Electronic device for recognizing license plate
KR20170082024A (en) Apparatus and Method for Recognizing Face
CN114155527A (en) Scene text recognition method and device
KR101809490B1 (en) The vehicle entrance and exit management and crime prevention system based on high definition images
CN112464785A (en) Target detection method and device, computer equipment and storage medium
Moseva et al. Development of a System for Fixing Road Markings in Real Time
KR102368066B1 (en) Method And Apparatus for Recognizing Character
CN111402185B (en) Image detection method and device
CN110738123B (en) Method and device for identifying densely displayed commodities
KR102368067B1 (en) Method And Apparatus for Recognizing Character of Container
CN111126173A (en) High-precision face detection method
CN115331258A (en) Industrial-grade applied danger forbidden zone personnel detection system and method
CN115035429A (en) Aerial photography target detection method based on composite backbone network and multiple measuring heads
Kassymkhanova et al. Majority voting approach and fuzzy logic rules in license plate recognition process
CN111860093B (en) Image processing method, device, equipment and computer readable storage medium
Blankenbach et al. Advanced optical methods for safe image reproduction on automotive displays
CN113221643B (en) Lane line classification method and system adopting cascade network
JPH0554196A (en) Number plate recognition device
Gu et al. Traffic Sign Recognition with invariance to lighting in dual-focal active camera system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant