KR20210125709A - Method And Apparatus for Recognizing Character of Container - Google Patents
Method And Apparatus for Recognizing Character of Container Download PDFInfo
- Publication number
- KR20210125709A KR20210125709A KR1020200043216A KR20200043216A KR20210125709A KR 20210125709 A KR20210125709 A KR 20210125709A KR 1020200043216 A KR1020200043216 A KR 1020200043216A KR 20200043216 A KR20200043216 A KR 20200043216A KR 20210125709 A KR20210125709 A KR 20210125709A
- Authority
- KR
- South Korea
- Prior art keywords
- character
- container
- image
- character recognition
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000013434 data augmentation Methods 0.000 claims abstract description 9
- 239000013598 vector Substances 0.000 claims description 30
- 238000012549 training Methods 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000003708 edge detection Methods 0.000 claims description 3
- 230000002787 reinforcement Effects 0.000 claims description 3
- 230000001502 supplementing effect Effects 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 description 13
- 238000001514 detection method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000003247 decreasing effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
-
- G06K9/20—
-
- G06K9/481—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/18—Extraction of features or characteristics of the image
- G06V30/182—Extraction of features or characteristics of the image by coding the contour of the pattern
- G06V30/1823—Extraction of features or characteristics of the image by coding the contour of the pattern using vector-coding
-
- G06K2209/01—
Abstract
Description
본 실시예는 컨테이너 문자 인식 방법 및 장치에 관한 것이다. The present embodiment relates to a container character recognition method and apparatus.
이하에 기술되는 내용은 단순히 본 실시예와 관련되는 배경 정보만을 제공할 뿐 종래기술을 구성하는 것이 아니다.The content described below merely provides background information related to the present embodiment and does not constitute the prior art.
일반적으로 항만에 설치된 화물 터미널 출입 게이트는 출입되는 컨테이너의 통관절차를 거친다. In general, cargo terminal access gates installed in ports go through customs procedures for entering and leaving containers.
컨테이너의 외부에 인지된 문자, 기호 및 식별번호 등을 인식하여 통관절차가 진행된다. 컨테이너 외부로부터 문자, 기호 및 식별번호를 인식하기 위하여 항만에 설치된 컨테이너 모니터링 시스템에서 컨테이너의 외부를 촬영하기 위한 다수의 카메라가 컨테이너를 적재한 차량이 통과할 때 게이트의 주변 각 위치에 카메라를 이용하여 컨테이너 외부를 촬영한다.Customs procedures are carried out by recognizing characters, symbols, and identification numbers recognized on the outside of the container. In order to recognize characters, symbols and identification numbers from the outside of the container, a number of cameras for photographing the outside of the container in the container monitoring system installed in the port use cameras at each position around the gate when the vehicle loaded with the container passes. Take a picture of the outside of the container.
컨테이너 모니터링 시스템은 컨테이너를 적재한 차량이 통과할 수 있도록 형성된 게이트, 게이트에 배치되어 차량의 진입 및 통과 완료를 감지하는 센서수단, 센서수단에 의해 차량의 진입 및 통과상황을 감지하여 차량 및 컨테이너를 촬영하는 카메라, 카메라에 의해 촬영된 영상을 기초로 차량 또는 상기 컨테이너를 모니터링하는 모니터링수단을 포함한다.The container monitoring system is a gate formed so that a vehicle loaded with a container can pass, a sensor means disposed at the gate to detect the entrance and completion of the vehicle, and the vehicle and container by detecting the entry and passage of the vehicle by the sensor means It includes a monitoring means for monitoring the vehicle or the container on the basis of the camera to take a picture, the image taken by the camera.
컨테이너 모니터링 시스템에 포함된 모니터링수단은 원격의 중앙 제어 센터와 연결되는 유무선 통신수단을 포함한다. 컨테이너 모니터링 시스템에 포함된 카메라는 차량번호 및 컨테이너의 각 위치에 따라 인지된 식별번호 및 문자 기호를 촬영하기 위하여 다수의 렌즈를 포함한다.The monitoring means included in the container monitoring system includes wired and wireless communication means connected to a remote central control center. The camera included in the container monitoring system includes a plurality of lenses to photograph the identification number and character symbol recognized according to the vehicle number and each position of the container.
컨테이너 모니터링 시스템은 센서수단을 이용하여 게이트로 진입 통과하는 차량 및 컨테이너를 인식하고, 카메라를 동작시켜 차량 및 컨테이너의 각 위치를 촬영하여 모니터링용 영상을 형성한다.The container monitoring system uses a sensor means to recognize vehicles and containers entering and passing through the gate, and operates a camera to photograph each location of the vehicle and container to form an image for monitoring.
종래 컨테이너 모니터링 시스템은 차량번호, 운전석, 컨테이너의 인지된 문자, 식별기호 등의 특정한 위치를 촬영하여 정해진 모니터링 영상을 구현한다. 최근들어 각 위치별 영상을 조합한 영상으로부터 2차원 또는 3차원 형태로 영상으로 구현하고 있다.A conventional container monitoring system implements a predetermined monitoring image by photographing a specific location such as a vehicle number, a driver's seat, a recognized character of a container, and an identification symbol. Recently, images are implemented in two-dimensional or three-dimensional form from images obtained by combining images for each location.
컨테이너 모니터링 시스템은 소수의 고화질 고속의 카메라를 설치하고 차량이 진입하는 것을 감지하여 연속으로 촬영하고, 이후 촬영된 영상을 합치는 방법 또는 다수의 고화질 카메라를 설치하고 차량이 들어오면 한 번에 찍는 방법을 이용한다. The container monitoring system installs a small number of high-definition, high-speed cameras, detects the vehicle entering and shoots continuously, and then combines the captured images, or installs multiple high-definition cameras and takes pictures when a vehicle enters. use the
차량이 진입하는 것을 감지하여 연속으로 촬영하는 방식은 차량 및 컨테이너를 감지하기 위한 많은 수의 센서가 설치되어야 하며, 사진을 균일하게 찍기 위해서는 별도의 건물을 설치해야 한다. 다수의 고화질 카메라를 설치하고 차량이 들어오면 한 번에 찍는 방식은 많은 수의 고화질 카메라를 필요로 한다. 단순히 컨테이너로부터 인지된 식별번호, 문자, 기호만을 인식하기 위함이 아니라, 전체적인 컨테이너의 형상을 촬영하여 하나의 영상 즉 2차원 또는 3차원적인 모니터링 영상을 구현하기 위하여서는 많은 수의 센서 및 카메라가 필요하므로, 시스템을 구성하기 위해서는 설치가 복잡하고 비용이 많이 필요로 하는 문제가 있다.In the method of continuously taking pictures by detecting the entrance of a vehicle, a large number of sensors to detect the vehicle and container must be installed, and a separate building must be installed to take pictures uniformly. The method of installing multiple high-definition cameras and taking pictures at once when a vehicle enters requires a large number of high-definition cameras. A large number of sensors and cameras are required to realize a single image, that is, a two-dimensional or three-dimensional monitoring image by photographing the shape of the entire container, not simply to recognize the identification number, character, and symbol recognized from the container. Therefore, there is a problem that installation is complicated and requires a lot of cost to configure the system.
트럭에 컨테이너를 적재한 후 게이트를 통과할 때 확인하는 경우, 컨테이너를 잘못 실으면, 컨테이너를 다시 옮겨싣고 꺼내야하는 문제가 발생한다. 따라서, 크레인이 컨테이너를 집을 때, 컨테이너에 기재된 문자를 정확하게 인지할 수 있는 기술이 필요하다.After loading a container on a truck and checking it when passing through the gate, if the container is loaded incorrectly, the problem of reloading and unloading the container occurs. Therefore, when the crane picks up the container, there is a need for a technology that can accurately recognize the characters written on the container.
본 실시예는 항만에서 크레인이 컨테이너를 하역할 때, 컨테이너를 운반하는 트럭이 게이트를 통과할 때, 구비된 카메라를 이용하여 컨테이너 식별정보가 기재 된 컨테이너 상부 또는 측면부를 촬영하고, 상기 영상에서 컨테이너 상부 또는 측면부에 기재된 문자 패치를 검출한 후 문자 패치로부터 컨테이너 화물을 나타내는 자리수에 해당하는 문자를 산출된 문자 신뢰 확률(CP)을 기반으로 검출할 때, 종래의 문자 인식 기술이 누락된 문자를 무시하고 인식된 문자만을 연이어 나열하는 방식으로 식별정보 문자열을 인지하여 컨테이너 식별에 실패한 반면, 컨테이너 식별 번호에서 일부 문자가 검출되지 않은 경우 검출되지 않은 빈자리를 인지하고 보완하여 컨테이너 식별정보를 추정하는 문자 예측을 이용한 컨테이너 문자 인식 방법 및 장치를 제공하는 데 목적이 있다.In this embodiment, when a crane unloads a container in a port, when a truck carrying a container passes through a gate, the upper or side part of the container in which the container identification information is written using the provided camera is photographed, and the container in the image When the character corresponding to the number of digits representing the container cargo is detected from the character patch after detecting the character patch written on the upper or side part, based on the calculated character confidence probability (CP), the conventional character recognition technology ignores the missing character In contrast, container identification failed by recognizing the identification information string in a way that lists only the recognized characters in a row, whereas, if some characters are not detected in the container identification number, character prediction that estimates the container identification information by recognizing and supplementing the undetected empty space An object of the present invention is to provide a container character recognition method and apparatus using
본 실시예의 일 측면에 의하면, 크레인 하부 또는 항만 내 구조물 설치된 카메라로부터 컨테이너 영상을 획득하는 영상 획득부; 상기 컨테이너 영상으로부터 복수의 패치를 검출한 후 상기 복수의 패치 각각으로부터 컨테이너 식별정보에 해당하는 문자를 검출한 후, 상기 문자 각각에 대해 산출된 문자와 식별번호 내 문자 자리에대한 신뢰 확률(CP)을 기반으로 검출된 상기 문자를 조합하여 검출이 누락 된 자리를 포함하거나 누락 된 정보를 보완한 최종 문자열을 결정하는 문자 인지부; 및 데이터 보강이 필요하다고 판단한 경우, 상기 복수의 문자 패치를 입력받은 후 신경망 네트워크 학습을 수행하여 학습용 데이터 세트를 생성하여 상기 문자 인지부로 전송하는 데이터 증가부(Data Augmentation)를 포함하는 것을 특징으로 하는 컨테이너 문자 인식 장치를 제공한다.According to an aspect of this embodiment, an image acquisition unit for acquiring an image of a container from a camera installed in a structure under a crane or a port; After detecting a plurality of patches from the container image, and after detecting a character corresponding to container identification information from each of the plurality of patches, the confidence probability (CP) for the character calculated for each character and the character position in the identification number a character recognition unit that combines the detected characters based on , and determines a final character string that includes a missing digit or supplements missing information; and a data augmentation unit (Data Augmentation) for generating a training data set by performing neural network training after receiving the plurality of character patches when it is determined that data reinforcement is necessary and transmitting the data set to the character recognition unit A container character recognition device is provided.
이상에서 설명한 바와 같이 본 실시예에 의하면, 항만에서 크레인이 컨테이너를 하역할 때, 컨테이너를 운반하는 트럭이 게이트를 통과할 때, 구비된 카메라를 이용하여 컨테이너 식별정보가 기재된 컨테이너 상부 또는 측면부를 촬영하고, 상기 영상에서 컨테이너 상부 또는 측면부에 기재된 문자 패치를 검출한 후 문자 패치로부터 컨테이너 화물을 나타내는 자리수에 해당하는 문자를 산출된 문자 신뢰 확률(CP)을 기반으로 검출할 때, 종래의 문자 인식 기술이 누락된 문자를 무시하고 인식된 문자만을 연이어 나열하는 방식으로 식별정보 문자열을 인지하여 컨테이너 식별에 실패한 반면, 컨테이너 식별 번호에서 일부 문자가 검출되지 않은 경우 검출되지 않은 빈자리를 추정하고 보완하여 컨테이너 식별정보를 추정할 수 있는 효과가 있다.As described above, according to this embodiment, when a crane unloads a container in a port, when a truck carrying a container passes through a gate, the upper or side part of the container in which the container identification information is recorded using the provided camera is photographed and, after detecting the character patch written on the upper part or the side part of the container in the image, the character corresponding to the number of digits representing the container cargo from the character patch is detected based on the calculated character confidence probability (CP), the conventional character recognition technology Container identification failed by recognizing the identification information string by ignoring these missing characters and listing only the recognized characters in a row. On the other hand, if some characters are not detected in the container identification number, the container is identified by estimating and supplementing the undetected vacancy. information can be estimated.
도 1은 본 실시예에 따른 컨테이너 문자 인식 장치를 나타낸 도면이다.
도 2는 본 실시예에 따른 컨테이너 문자 인식 장치의 내부 아키텍쳐를 개략적으로 나타낸 블럭 구성도이다.
도 3은 본 실시예에 따른 컨테이너 문자 인식 방법을 설명하기 위한 도면이다.
도 4는 본 실시예에 따른 데이터 증감하는 방법을 설명하기 위한 도면이다.
도 5는 본 실시예에 따른 데이터 증감시 이용하는 데이터 구조를 나타낸 도면이다.
도 6,7,8,9는 본 실시예에 따른 데이터 증감시 이용하는 데이터 세트의 선형 분리성을 설명하기 위한 도면이다.1 is a view showing a container character recognition apparatus according to the present embodiment.
2 is a block diagram schematically showing the internal architecture of the container character recognition apparatus according to the present embodiment.
3 is a view for explaining a container character recognition method according to the present embodiment.
4 is a diagram for explaining a method of increasing/decreasing data according to the present embodiment.
5 is a diagram illustrating a data structure used when increasing/decreasing data according to the present embodiment.
6, 7, 8, and 9 are diagrams for explaining the linear separability of a data set used when increasing/decreasing data according to the present embodiment.
이하, 본 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, this embodiment will be described in detail with reference to the accompanying drawings.
도 1은 본 실시예에 따른 컨테이너 문자 인식 장치를 나타낸 도면이다.1 is a view showing a container character recognition apparatus according to the present embodiment.
본 실시예에 따른 컨테이너 문자 인식 장치(100)는 크레인이 컨테이너를 하역 또는 이동하는 과정에서 필요하다.The container
컨테이너 문자 인식 장치(100)는 자동화된 항만 시스템에 적용되어, 하역할 때 컨테이너 상부로 크레인을 가져가면, 크레인 하부에 부착된 카메라에서 컨테이너 상부에 컨테이너 정보가 기재 된 영상을 획득한다. 컨테이너의 이동은 게이트나 항만 내 구조물에 구비 된 카메라를 통해 컨테이너 외부 영상을 획득한다.The container
크레인은 컨테이너를 집어서 컨테이너를 선박에서 야드로 이동하거나 그 반대로 이동 시킨다. 크레인은 데이터베이스에 기 저장된 정보를 이용하여 컨테이너를 이동시킬 위치를 알고 있다.The crane picks up the container and moves it from the vessel to the yard and vice versa. The crane knows the position to move the container by using the information pre-stored in the database.
컨테이너 문자 인식 장치(100)는 크레인이 컨테이너를 하역 또는 이동하는 과정에서 컨테이너 상부에 기재된 문자를 검출하여 컨테이너를 식별할 수 있다. 컨테이너 문자 인식 장치(100)는 하역할 때 크레인이 내려가면서 컨테이너 상부를, 이동할 때 게이트나 항만 내 구비 된 카메라를 통해 상부 또는 측면부를 촬영하도록 한다. 크레인 하단부는 적어도 하나 이상의 카메라가 설치된다.The container
도 2는 본 실시예에 따른 컨테이너 문자 인식 장치의 내부 아키텍쳐를 개략적으로 나타낸 블럭 구성도이다.2 is a block diagram schematically showing the internal architecture of the container character recognition apparatus according to the present embodiment.
컨테이너 문자 인식 장치(100)는 컨테이너 상부 또는 측면에 기재된 문자를 인식하는 과정에서, 획득한 문자 패치 영상에 대해 문자 이미지 블렌더(CIB: Character Image Blender)를 수행하여 데이터 볼륨을 증가시킨다. 컨테이너 문자 인식 장치(100)는 레이블과 레이턴트 스페이스(latent space)로부터 이미지 패치를 합성하여 추가적으로 학습하도록 한다.The container
컨테이너 문자 인식 장치(100)는 맞춤형 문자 인식(CR: Character Recognition)을 수행한다. 컨테이너 문자 인식 장치(100)는 실제 이미지 또는 거짓 이미지를 입력받는다. 컨테이너 문자 인식 장치(100)는 검출 된 문자, 각 문자의 신뢰 확률, 문자의 식별정보 내 위치를 출력한다. 컨테이너 문자 인식 장치(100)는 촬영 된 영상과 검출 된 문자의 후처리를 수행한다. 컨테이너 문자 인식 장치(100)는 검출 된 문자의 정렬하고, 검출 된 문자의 적절한 위치를 추정하여 보다 강력한 인식이 가능하도록 한다.The container
본 실시예에 따른 컨테이너 문자 인식 장치(100)는 영상 획득부(210), 문자 인지부(220), 데이터 증가부(230)를 포함한다. 컨테이너 문자 인식 장치(100)에 포함된 구성요소는 반드시 이에 한정되는 것은 아니다.The container
컨테이너 문자 인식 장치(100)에 포함된 각 구성요소는 장치 내부의 소프트웨어적인 모듈 또는 하드웨어적인 모듈을 연결하는 통신 경로에 연결되어 상호 간에 유기적으로 동작할 수 있다. 이러한 구성요소는 하나 이상의 통신 버스 또는 신호선을 이용하여 통신한다.Each component included in the container
도 2에 도시된 컨테이너 문자 인식 장치(100)의 각 구성요소는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 소프트웨어적인 모듈, 하드웨어적인 모듈 또는 소프트웨어와 하드웨어의 결합으로 구현될 수 있다.Each component of the container
영상 획득부(210)는 크레인 하부 또는 게이트와 같은 항만 내 구조물에 설치된 카메라로부터 컨테이너 영상을 획득한다.The
문자 인지부(220)는 컨테이너 영상으로부터 컨테이너 상부로부터 좌측 문자 패치와 우측 문자 패치, 그리고 컨테이너 측면부의 문자 패치를 검출한다. 문자 인지부(220)는 상기 문자 패치 각각으로부터 컨테이너 식별정보에 해당하는 문자를 검출한다. 문자 인지부(220)는 문자 각각의 문자 신뢰 확률(CP)을 기반으로 검출된 문자를 조합하여 최종 문자로 결정한다. The
문자 인지부(220)는 상기 문자 패치를 기 설정된 방향으로 회전시킨다. 문자 인지부(220)는 회전된 문자 패치 내의 문자를 검출한 후 읽어와서 컨테이너 화물을 나타내는 식별정보 내 적절한 위치에 할당한다. 문자 인지부(220)는 상기 문자 패치 내에서 검출한 문자들을 하나의 추세선(One trend line)을 이용하거나 두 개의 평행선(Two parallel lines)을 이용하여 읽어오는 순서를 결정한다. 평행선의 개수는 한정하지 않고 적용할 수 있는 방법이다. 문자 인지부(220)는 상기 문자 패치 내에서 검출한 문자를 컨테이너 식별정보 내 올바른 자리를 추정하고 인지하지 못한 빈자리에 해당 프레임의 다른 문자 패치나 다른 프레임으로부터 정보를 합성하여 할당한다.The
문자 인지부(220)는 컨테이너 영상에 해당하는 프레임 내에서 컨테이너 화물을 나타내는 자리수(인덱스)마다 문자의 신뢰 확률(CP) 값을 비교하여 더 높은 신뢰 확률(CP) 값을 갖는 문자를 최종 결정한다. 문자 인지부(220)는 이전 프레임과 현재 프레임 간에 컨테이너 화물을 나타내는 자리수(인덱스)마다 문자의 신뢰 확률(CP) 값을 비교하여 더 높은 신뢰 확률(CP) 값을 갖는 문자를 최종 결정한다.The
문자 인지부(220)는 문자 패치 검출부(222), 문자 인지 학습부(224), 문자 예측부(226)를 포함한다. 문자 인지부(220)에 포함된 구성요소는 반드시 이에 한정되는 것은 아니다.The
문자 패치 검출부(222)는 컨테이너 영상으로부터 컨테이너 상부의 좌측 문자 패치, 우측 문자 패치 또는 컨테이너 측면부의 문자 패치를 검출한다. 문자 인지 학습부(224)는 학습용 데이터 세트를 수신하여 학습을 수행한다. 문자 예측부(226)는 문자 인지 학습부(224)의 학습 결과를 반영하여 상기 문자 패치 각각에서 컨테이너 식별정보에 해당하는 문자를 검출하는 문자 예측부를 학습한다. 문자 예측부(226)는 상기 문자 패치 각각에서 컨테이너 식별정보에 해당하는 문자를 검출한다. 문자 예측부(226)는 문자 각각의 문자 신뢰 확률(CP)을 기반으로 인지된 문자를 조합하여 최종 식별정보로 결정한다.The text
데이터 증가부(Data Augmentation)(230)는 데이터 보강이 필요하다고 판단한 경우, 상기 문자 패치를 입력받고, 신경망 네트워크 학습을 수행하여 학습용 데이터 세트를 생성하여 문자 인지부(220)로 전송한다.When it is determined that data augmentation is necessary, the
데이터 증가부(230)는 입력받은 문자 패치를 실제 이미지(Real Image)로 인지한다. 데이터 증가부(230)는 실제 이미지의 레이블(Label) 내의 각각의 숫자나 문자를 원핫벡터(One-hot Vector)를 이용하여 표현(예컨대, 481×1)한다. 데이터 증가부(230)는 진짜 같은 이미지를 생성하기 위해 노이즈 정보를 포함하는 레이턴트 스페이스(Latent Space)를 이용하여 표현(예컨대, 512×1)한다. 데이터 증가부(230)는 원핫벡터(One-hot Vector)를 이용하여 표현한 벡터와 레이턴트 스페이스(Latent Space)를 이용하여 표현한 벡터를 합쳐서 밀집층(Dense Layer)을 통과시킨다. 또는 원핫벡터를 이용하여 표현한 벡터가 밀집층을 통과시킨 값과 레이턴트 스페이스를 이용하여 표현한 벡터를 합친다. 데이터 증가부(230)는 상기 밀집층(Dense Layer)을 통과시킨 값이나 상기 밀집층을 통과시킨 값과 노이즈 정보를 포함하는 레이턴트 스페이스를 이용하여 표현한 벡터를 합친 벡터를 기반으로 학습용 데이터 세트를 생성한다. 노이즈 정보를 포함한 레이턴트 스페이스를 이용하여 표현한 벡터를 합치는 위치는 설계 범위 내에서 바뀔 수 있다.The
데이터 증가부(230)는 밀집층(Dense Layer)을 통과시킨 값을 생성기(Generator)에 입력하고, 생성기(Generator)를 이용하여 밀집층(Dense Layer)을 통과한 값을 기반으로 학습을 수행하여 거짓 이미지(Fake Images)를 생성한다.The data increase
데이터 증가부(230)는 판별기(Discriminator)를 이용하여 실제 이미지(Real Image)와 거짓 이미지(Fake Images)를 입력받은 후 거짓 이미지가 진짜 이미지인지 생성된 거짓 이미지인지의 여부를 판별한다. 데이터 증가부(230)는 판별 결과를 기반으로 생성기 학습을 수행하고 학습 된 생성기에서 문자 인지부 학습용 데이터 세트를 생성한다.The data increase
데이터 증가부(230)는 판별기(D)를 이용하여 생성기(G)에서 출력한 거짓 이미지가 진짜 이미지인지 생성된 거짓 이미지인지를 판별한 점수를 역전파하고, 진짜인지 거짓인지를 판별하기 위한 점수를 높이기 위해 진짜같은 생성된 거짓 이미지를 생성하기 위해 학습을 수행한다.The
데이터 증가부(230)는 판별기 손실(D loss), 생성기 손실(G loss)을 이용하여 거짓 이미지를 생성하며, 진짜 이미지와 거짓 이미지를 데이터베이스에 함께 저장한다. 판별기 손실은 생성기 기반 거짓 이미지를 진짜 이미지에 가깝게 하기 위해 edge detection을 포함한다.The data increase
데이터 증가부(230)는 실제 이미지(Real Image)의 데이터 구조(Data structure)에서 문자(Character), 색깔(Color)(White or Black), 방향(Orientation)을 추출한다. 데이터 증가부(230)는 원-핫 벡터를 이용하여 레이블을 인코딩한다.The
도 3은 본 실시예에 따른 컨테이너 문자 인식 방법을 설명하기 위한 도면이다.3 is a view for explaining a container character recognition method according to the present embodiment.
문자 인지부(220)는 복수의 문자 패치(예컨대, 좌측 문자 패치, 우측 문자 패치)를 올바른 위치로 회전시킨다. 문자 인지부(220)는 문자 패치 검출부(222)로부터 복수의 문자 패치(예컨대, 좌측 문자 패치, 우측 문자 패치)를 입력받는다. 문자 인지부(220)는 복수의 문자 패치(예컨대, 좌측 문자 패치, 우측 문자 패치)를 기 설정된 방향(예컨대, 문자가 좌→우 방향으로 읽히도록)으로 회전시킨다.The
문자 인지부(220)는 회전된 상기 문자 패치(예컨대, 좌측 문자 패치, 우측 문자 패치) 내의 문자를 검출한 후 독립적으로 읽어온다.The
문자 인지부(220)는 분할 후 문자를 검출하지만, 문자의 순서 및 문자 중간이 빈자리를 판단할 수 없기 때문에, 인지 된 문자들을 정렬한다. 문자 인지부(220)는 문자들을 정렬하기 위해 하나의 추세선(One trend line)을 이용하거나 두 개의 평행선(Two parallel lines)을 이용한다. 평행선의 개수는 한정하지 않고 적용할 수 있다.The
문자 인지부(220)는 검출 된 문자 각각의 중심점을 추출한다. 문자 인지부(220)는 문자의 중심점을 이용하여 추세선을 인지한다. 추세선은 문자의 중심점의 분포를 최소화하기 위한 선을 의미한다. The
문자 인지부(220)는 검출 된 문자 각각의 중심점의 분포를 최소로 하는 선이 한 줄인 경우, 추세선을 확인하면 문자들이 수평방향인지 수직방향인지를 확인할 수 있다. 문자 인지부(220)는 문자의 중심점의 분포를 추세선의 y축을 기준으로 분산값을 산출하여 두 개의 그룹으로 분리하였을 때 분포가 전체를 하나의 그룹으로 두고 나오는 분포보다 작다면, 두 개의 그룹을 분리하여 문자들이 읽는 순서를 결정한다. 문자 인지부(220)는 문자의 중심점으로 검출한 추세선이 두 줄인 경우, 추세선의 기울기(Slope of trend line)와 점의 편차의 양(Amount of deviation)을 기반으로 y축을 기준으로 분산값을 산출하여 두 개의 그룹을 분리하여 문자들이 읽는 순서를 결정할 수 있다.When the line that minimizes the distribution of the center points of each detected character is one line, the
문자 인지부(220)는 인식된 문자를 컨테이너 식별정보에서의 자리를 찾아 할당하며, 중간에 인식하지 못한 빈자리에 문자를 보완한다. 문자 인지부(220)는 프레임(예컨대, 프레임i(Framei) 내지 프레임i+1(Framei+1) 중 하나의 프레임) 내에서 각각 자리수(인덱스)의 신뢰 확률(CP) 값을 비교하여 더 높은 신뢰 확률(CP) 값을 갖는 결과를 선택한다. 문자 인지부(220)는 프레임 간에 인식된 문자열의 각각 자리수(인덱스)의 신뢰 확률(CP) 값을 비교하여 더 높은 신뢰 확률(CP) 값을 갖는 결과를 최종 결정한다. The
문자 패치 검출부(222)는 컨테이너 상부 또는 측면의 영상에서 검출한다. 컨테이너 상부 또는 측면에는 문자 패치(Character patch)가 부착되어 있다. 문자 패치 검출부(222)는 문자 패치 검출 모델(Character patch detection model)을 이용하여 컨테이너 상부 또는 측면의 영상으로부터 두 개의 문자 패치(예컨대, 좌측 문자 패치(①), 우측 문자 패치(②))를 인식한다.The character
문자 패치 검출부(222)는 하나 이상의 문자 패치(예컨대, 좌측 문자 패치(①), 우측 문자 패치(②))를 문자 예측부(226)로 입력한다. 문자 패치 검출부(222)는 상기 문자 패치를 데이터 증가부(Data Augmentation)(230)로 입력한다.The character
문자 예측부(226)는 지속적으로 촬영되는 프레임별 문자 패치 이미지를 입력받는다. 문자 예측부(226)는 각 타임 스텝마다 프레임이 나오는데, 각 프레임마다 최소 하나 이상의 문자 패치(예컨대, 좌측 문자 패치, 우측 문자 패치)를 입력받는다.The
문자 예측부(226)는 상기 입력받은 문자 패치(예컨대, 좌측 문자 패치, 우측 문자 패치)를 올바른 위치로 회전(Rotating to the right position)시키고, 문자(Character)를 검출(Detecting)한 후 읽어와서(Reading), 글자 단위로 분할 검출(Segmentation)하고, 검출된 문자를 읽어오는 순서를 정렬(Alignment)하고, 컨테이너 화물을 나타내는 자리수 중 비어 있는 자리를 추정하여 명령대로 배치(Placement in order)한다.The
문자 예측부(226)는 상기 문자 패치로부터 문자를 검출할 때, 검출된 문자 각각에 대한 신뢰 확률(CP: Confidence Probability)을 산출한다. 신뢰 확률(CP)은 해당 문자에 대한 신뢰를 나타내는 확률값을 의미한다.When detecting a character from the character patch, the
하나의 컨테이너에 대한 프레임을 프레임i(Framei) 내지 프레임i+1(Framei+1)로 정의한다.A frame for one container is defined as frame i (Framei) to frame i+1 (Framei+1).
문자 예측부(226)는 하나의 컨테이너에 대한 타임 셀인 프레임i(Framei)에서 좌측 문자 패치를 인지한 결과 MSCU 5493*3 3이 인식되고, 우측 문자 패치를 인지한 결과 MSDU 5393*6*가 인식한다.As a result of recognizing the left character patch in the frame i, which is the time cell for one container, the
문자 예측부(226)는 이 두 개의 결과를 성분 비교(Elementwise Comparison)로 각 자리수(인덱스)를 비교하여 각 패치별 신뢰 확률(CP: Confidence Probability)을 확인하고, 각 신뢰 확률을 비교하여 가장 높은 신뢰 확률(CP)을 갖는 값인 MSDU 5493*6 3를 프레임i(Framei)의 문자로 인식한다.The
이후 문자 예측부(226)는 하나의 컨테이너에 대한 타임 셀인 프레임i+1(Framei+1)에서 좌측 문자 패치를 인지한 결과 M*CU 5*93*8 5가 인식되고, 우측 문자 패치를 인지한 결과 MSDU 5393*6*가 인식한다.Thereafter, the
문자 예측부(226)는 이 두 개의 결과를 성분 비교(Elementwise Comparison)로 하여 각 패치별 신뢰 확률(CP: Confidence Probability)을 확인하고, 각 신뢰 확률을 비교하여 각 신뢰 확률을 비교하여 가장 높은 신뢰 확률(CP)을 갖는 값인 MSCU 5393*8 5를 프레임i+1(Framei+1)의 문자로 인식한다.The
문자 예측부(226)는 하나의 컨테이너에 대한 프레임i(Framei)에서 프레임i+1(Framei+1)까지 인식된 문자열(결과)의 자릿수를 모두 비교하여 MSCU 539388 5를 최종 결정(Final Decision)한다.The
문자 예측부(226)는 최종 결정(Final Decision)을 위해 위치 할당(Allocating position) 과정에서 예측 문자 시퀀스 결합(Combining predicted character sequences)한다.The
데이터 증가부(230)는 문자 패치 검출부(222)로부터 문자 패치를 입력받는다. 데이터 증가부(230)는 문자 인지부 학습을 위해 데이터 보강이 필요한 경우, 데이터를 보강하는 역할을 수행한다. 데이터 증가부(230)는 선택적으로 수행될 수 있다. 데이터 증가부(230)는 학습용 데이터 세트를 만들기 위한 과정을 수행한다. 데이터 증가부(230)는 문자 인지부가 추가적인 데이터를 학습하여 인식률이 높아지도록 한다. 예컨대, 데이터 증가부(230)는 야간에 촬영한 문자 패치에 대해서 신경망 네트워크 학습을 수행하여 주간에 촬영한 문자 패치로 전이할 수 있다. 데이터 증가부(230)는 실제 데이터(Real Data)를 기반으로 생성된 데이터(Generated data)를 생성할 수 있다.The
도 4는 본 실시예에 따른 데이터 증감하는 방법을 설명하기 위한 도면이다.4 is a diagram for explaining a method of increasing/decreasing data according to the present embodiment.
데이터 증가부(230)는 문자 이미지 블렌더(CIB: Character Image Blender)를 수행한다. 데이터 증가부(230)는 데이터 보강 모듈(DA: Data augmentation module)로서, 인식되기 어려운 이미지에 대해 문자 이미지 블렌더(CIB: Character Image Blender)를 수행하여 데이터 볼륨을 증가시킨다. 데이터 증가부(230)는 레이블(Label)과 레이턴트 스페이스(latent space)로부터 이미지 패치를 합성하여 학습하도록 한다.The
데이터 증가부(230)는 실제 이미지(Real Image)의 레이블(Label) 내의 각각의 숫자나 문자를 원핫벡터(One-hot Vector)를 이용하여 표현(예컨대, 481×1)한다. 데이터 증가부(230)는 노이즈 정보를 레이턴트 스페이스(Latent Space)를 이용하여 표현(예컨대, 512×1)한다. 데이터 증가부(230)는 원핫벡터(One-hot Vector)를 이용하여 표현한 벡터와 레이턴트 스페이스(Latent Space)를 이용하여 표현한 벡터를 합쳐서 밀집층(Dense Layer)을 통과시킨다. 또는 원핫벡터를 밀집층을 통과시킨 값과 레이턴트 벡터를 합친다. 레이턴트 벡터는 설계 범위 내에서 합치는 위치를 바꿀 수 있다. 데이터 증가부(230)는 상기 밀집층(Dense Layer)을 통과시킨 값을 생성기(Generator)에 입력한다. 생성기(Generator)는 밀집층(Dense Layer)을 통과한 값을 기반으로 학습을 수행하여 거짓 이미지(Fake Images)(생성된 이미지(Generated Image))를 생성한다.The
데이터 증가부(230) 내의 판별기(Discriminator)는 실제 이미지(Real Image)와 거짓 이미지(Fake Images)(생성된 이미지(Generated Image))를 입력받은 후 생성기(G)에서 출력한 생성된 이미지가 진짜 이미지인지 생성된 거짓 이미지인지의 여부를 판별한다. The discriminator in the
판별기(D)는 생성기(G)에서 출력한 생성된 이미지가 진짜 이미지인지 생성된 거짓 이미지인지를 판별한 점수를 역전파하고, 진짜인지 거짓인지를 판별하기 위한 점수를 높이기 위해 진짜같은 생성된 거짓 이미지를 생성하기 위해 학습을 수행한다.The discriminator (D) backpropagates the score for determining whether the generated image output from the generator (G) is a real image or a generated false image, and increases the score for determining whether the generated image is real or false. Training is performed to generate an image.
판별기(D)는 판별 브랜치(Discriminating branch), edge detection, Character Recognition(CR) Branch를 일부 또는 전부 이용할 수 있다. 데이터 증가부(230)는 판별기 손실(D loss), 생성기 손실(G loss)을 이용하여 거짓 이미지를 생성한다. 데이터 증가부(230)는 진짜 이미지와 거짓 이미지를 데이터베이스에 함께 저장한다.The discriminator D may use some or all of a discriminating branch, an edge detection, and a character recognition (CR) branch. The data increase
도 5는 본 실시예에 따른 데이터 증감시 이용하는 데이터 구조를 나타낸 도면이다.5 is a diagram illustrating a data structure used when increasing/decreasing data according to the present embodiment.
데이터 증가부(230)는 학습을 위한 데이터 세트를 생성할 때 실제 이미지(Real Image)의 데이터 구조(Data structure)에서 특징(Feature)을 이용한다.The
도 5에 도시된 바와 같이, 데이터 증가부(230)는 실제 이미지(Real Image)에 대한 특징으로 문자(Character), 색깔(Color)(White or Black), 방향(Orientation)(상하좌우 방향, 세로 방향, 가로 방향)을 추출한다.As shown in FIG. 5 , the
도 6,7,8,9는 본 실시예에 따른 데이터 증감시 이용하는 데이터 세트의 선형 분리성을 설명하기 위한 도면이다.6, 7, 8, and 9 are diagrams for explaining the linear separability of a data set used when increasing/decreasing data according to the present embodiment.
데이터 증가부(230)는 학습을 위한 데이터 세트의 선형 분리성(Linear separability of data set)을 위해 가우스 랜덤 생성 레이턴트 벡터(Gaussian random generated latent vector)를 이용한다. 데이터 증가부(230)는 원-핫 벡터를 이용하여 레이블을 인코딩한다. 데이터 증가부(230)는 훈련하는 동안 원-핫벡터 또는 원-핫벡터와 레이턴트 스페이스를 선형화하는 매핑 기능을 수행한다. 데이터 증가부(230)는 인식되기 어려운 이미지의 선형화를 위해 원-핫 인코딩 된 레이블의 맵핑 기능을 이용한다.The
도 6,7,8,9에 도시된 바와 같이, 데이터 증가부(230)는 문자 인지부(220) 학습을 위해 데이터 볼륨을 증가시킨다.6, 7, 8, and 9, the
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of this embodiment, and various modifications and variations will be possible by those skilled in the art to which this embodiment belongs without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are intended to explain rather than limit the technical spirit of the present embodiment, and the scope of the technical spirit of the present embodiment is not limited by these embodiments. The protection scope of this embodiment should be interpreted by the following claims, and all technical ideas within the equivalent range should be interpreted as being included in the scope of the present embodiment.
100: 컨테이너 문자 인식 장치
210: 영상 획득부
220: 문자 인지부
222: 문자 패치 검출부
224: 문자 인지 학습부
226: 문자 예측부
230: 데이터 증가부100: container character recognition device
210: image acquisition unit
220: character recognition unit
222: character patch detection unit
224: character recognition learning unit
226: character prediction unit
230: data increase unit
Claims (12)
상기 컨테이너 영상으로부터 복수의 패치를 검출한 후 상기 복수의 패치 각각으로부터 컨테이너 식별정보에 해당하는 문자를 검출한 후, 상기 문자 각각에 대해 산출된 문자와 식별번호 내 문자 자리에대한 신뢰 확률(CP)을 기반으로 검출된 상기 문자를 조합하여 검출이 누락 된 자리를 포함하거나 누락 된 정보를 보완한 최종 문자열을 결정하는 문자 인지부; 및
데이터 보강이 필요하다고 판단한 경우, 상기 복수의 문자 패치를 입력받은 후 신경망 네트워크 학습을 수행하여 학습용 데이터 세트를 생성하여 상기 문자 인지부로 전송하는 데이터 증가부(Data Augmentation)
를 포함하는 것을 특징으로 하는 컨테이너 문자 인식 장치.An image acquisition unit for acquiring an image of a container from a camera installed under a crane or a structure in a port;
After detecting a plurality of patches from the container image, and after detecting a character corresponding to container identification information from each of the plurality of patches, the confidence probability (CP) for the character calculated for each character and the character position in the identification number a character recognition unit that combines the detected characters based on the character recognition unit to determine the final character string including the missing position or supplementing the missing information; and
When it is determined that data reinforcement is necessary, a data augmentation unit that receives the plurality of character patches and performs neural network training to generate a training data set and transmit it to the character recognition unit
Container character recognition device comprising a.
상기 문자 인지부는,
상기 학습용 데이터 세트를 수신하여 학습을 수행하고, 상기 학습 결과를 반영하여 상기 복수의 패치 각각으로부터 컨테이너 외부에 인지 된 식별정보 문자를 검출하는 것을 특징으로 하는 컨테이너 문자 인식 장치.According to claim 1,
The character recognition unit,
Container character recognition apparatus, characterized in that receiving the learning data set, performing learning, and detecting the identification information character recognized outside the container from each of the plurality of patches by reflecting the learning result.
상기 데이터 증가부는,
입력받은 상기 복수의 패치를 실제 이미지(Real Image)로 인지하고, 상기 실제 이미지의 레이블(Label) 내의 각각의 숫자나 문자를 원핫벡터(One-hot Vector)를 이용하여 표현하고, 실제 이미지(Real Image)에 대응하는 노이즈 정보를 레이턴트 스페이스(Latent Space)를 이용하여 표현하고, 상기 원핫벡터(One-hot Vector)를 이용하여 표현한 벡터를 밀집층을 통과시키거나 원핫벡터와 상기 레이턴트 스페이스(Latent Space)를 이용하여 표현한 벡터를 합쳐서 밀집층(Dense Layer)을 통과시킨 값을 생성기(Generator)에 입력하여 거짓 이미지(Fake Images)를 생성하고, 판별기(Discriminator)를 이용하여 상기 실제 이미지(Real Image)와 상기 거짓 이미지(Fake Images)를 입력받은 후 상기 거짓 이미지가 진짜 이미지인지 생성된 거짓 이미지인지의 여부를 판별하고, 상기 판별 결과를 기반으로 문자 인지부 학습을 위한 학습용 데이터 세트를 생성하는 것을 특징으로 하는 컨테이너 문자 인식 장치.According to claim 1,
The data increase unit,
Recognizes the received plurality of patches as a real image, expresses each number or character in a label of the real image using a one-hot vector, and displays the real image (Real Image). The noise information corresponding to the image) is expressed using a latent space, and the vector expressed using the one-hot vector is passed through the dense layer, or the one-hot vector and the latent space ( By combining vectors expressed using Latent Space, the value passed through the Dense Layer is input to the Generator to generate Fake Images, and using a Discriminator, the actual image ( After receiving the real image and the fake images, it is determined whether the false image is a real image or a generated fake image, and a training data set for learning the character recognition unit is generated based on the determination result. Container character recognition device, characterized in that.
상기 데이터 증가부는,
상기 판별기(D)에 edge detection network를 병합하여 생성기(G)에서 출력한 상기 거짓 이미지가 생성하려는 문자열 조건(예컨데, 원핫벡터로 표현 된 레이블(Label))에 적합한 패치 이미지를 생성할 수 있도록 진짜 이미지인지 생성된 거짓 이미지인지를 판별한 점수를 역전파하고, 진짜인지 거짓인지를 판별하기 위한 점수를 높이기 위해 진짜같은 거짓 이미지를 생성하기 위해 학습을 수행하는 것을 특징으로 하는 컨테이너 문자 인식 장치.4. The method of claim 3,
The data increase unit,
By merging the edge detection network in the discriminator (D), the false image output from the generator (G) can generate a patch image suitable for the string condition (eg, a label expressed as a one-hot vector) to be generated. Container character recognition device, characterized in that it backpropagates the score for determining whether it is a real image or a generated false image, and performs learning to generate a fake image like the real one in order to increase the score for determining whether it is real or false.
상기 데이터 증가부는,
판별기 손실(D loss), 생성기 손실(G loss)을 이용하여 생성기와 판별기를 학습하고 상기 생성기로부터 상기 거짓 이미지를 생성하며, 상기 진짜 이미지와 상기 거짓 이미지를 데이터베이스에 함께 저장하는 것을 특징으로 하는 컨테이너 문자 인식 장치.5. The method of claim 4,
The data increase unit,
Learning a generator and a discriminator using a discriminator loss (D loss) and a generator loss (G loss), generating the false image from the generator, and storing the real image and the false image together in a database Container character recognition device.
상기 데이터 증가부는,
실제 이미지(Real Image)의 데이터 구조(Data structure)에서 문자(Character), 색깔(Color), 방향(Orientation)을 추출하고, 원-핫 벡터와 레이턴트 벡터를 합성하여 생성기에 입력하는 것을 특징으로 하는 컨테이너 문자 인식 장치.4. The method of claim 3,
The data increase unit,
Character, color, and orientation are extracted from the data structure of the real image, and the one-hot vector and the latency vector are synthesized and input to the generator. Container character recognition device.
상기 문자 인지부는,
상기 복수의 문자 패치를 기 설정된 방향으로 회전시키는 것을 특징으로 하는 컨테이너 문자 인식 장치.According to claim 1,
The character recognition unit,
Container character recognition apparatus, characterized in that rotating the plurality of character patches in a preset direction.
상기 문자 인지부는,
회전된 상기 복수의 문자 패치 내의 문자를 검출한 후 읽어와서 컨테이너 화물을 나타내는 식별정보를 문자 단위로 검출하는 것을 특징으로 하는 컨테이너 문자 인식 장치.8. The method of claim 7,
The character recognition unit,
Container character recognition device, characterized in that detecting and reading characters in the plurality of rotated character patches, and detecting identification information indicating container cargo in character units.
상기 문자 인지부는,
상기 복수의 문자 패치 내에서 검출한 문자들을 하나의 추세선(One trend line)을 이용하거나 두 개 또는 그 이상의 평행선(Two or more parallel lines)을 이용하여 읽어오는 순서를 결정하는 것을 특징으로 하는 컨테이너 문자 인식 장치.9. The method of claim 8,
The character recognition unit,
Container character, characterized in that the reading order of the characters detected in the plurality of character patches is determined using one trend line or two or more parallel lines recognition device.
상기 문자 인지부는,
상기 복수의 문자 패치 내에서 검출한 문자와 컨테이너 식별정보 문자열 내 인식하지 못한 문자의 빈자리를 정확하 추정하는 것을 특징으로 하는 컨테이너 문자 인식 장치.10. The method of claim 9,
The character recognition unit,
Container character recognition apparatus, characterized in that the vacancy of characters detected in the plurality of character patches and unrecognized characters in the container identification information string is accurately estimated.
상기 문자 인지부는,
상기 컨테이너 영상에 해당하는 프레임 내에서 컨테이너 화물을 나타내는 자리수마다 문자의 신뢰 확률(CP) 값을 비교하여 더 높은 신뢰 확률(CP) 값을 갖는 문자를 최종 결정하는 것을 특징으로 하는 컨테이너 문자 인식 장치.11. The method of claim 10,
The character recognition unit,
Container character recognition apparatus, characterized in that the character having a higher confidence probability (CP) value is finally determined by comparing the confidence probability (CP) value of the character for each digit representing the container cargo in the frame corresponding to the container image.
상기 문자 인지부는,
이전 프레임과 현재 프레임 간에 컨테이너 화물을 나타내는 자리수(인덱스)마다 문자의 신뢰 확률(CP) 값을 비교하여 더 높은 신뢰 확률(CP) 값을 갖는 문자를 최종 결정하는 것을 특징으로 하는 컨테이너 문자 인식 장치.
11. The method of claim 10,
The character recognition unit,
Container character recognition apparatus, characterized in that the character having a higher confidence probability (CP) value is finally determined by comparing the confidence probability (CP) value of the character for each digit (index) indicating the container cargo between the previous frame and the current frame.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200043216A KR102368065B1 (en) | 2020-04-09 | 2020-04-09 | Method And Apparatus for Recognizing Character of Container |
PCT/KR2021/003825 WO2021206338A1 (en) | 2020-04-09 | 2021-03-29 | Method and device for recognizing characters on cargo container |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200043216A KR102368065B1 (en) | 2020-04-09 | 2020-04-09 | Method And Apparatus for Recognizing Character of Container |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210125709A true KR20210125709A (en) | 2021-10-19 |
KR102368065B1 KR102368065B1 (en) | 2022-03-02 |
Family
ID=78023389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200043216A KR102368065B1 (en) | 2020-04-09 | 2020-04-09 | Method And Apparatus for Recognizing Character of Container |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102368065B1 (en) |
WO (1) | WO2021206338A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115035360B (en) * | 2021-11-22 | 2023-04-07 | 荣耀终端有限公司 | Character recognition method for image, electronic device and storage medium |
CN117593755B (en) * | 2024-01-18 | 2024-04-02 | 吉林大学 | Method and system for recognizing gold text image based on skeleton model pre-training |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100719608B1 (en) * | 2005-07-21 | 2007-05-17 | 주식회사 씨텍 | Method and apparatus for recognizing serial number of paper money |
KR101727138B1 (en) * | 2014-03-11 | 2017-04-14 | 한국전자통신연구원 | Method and apparatus for recogniting container code using multiple video |
KR20190095571A (en) * | 2018-01-19 | 2019-08-16 | 한국기술교육대학교 산학협력단 | Recognition method of Vehicle Licence Plate |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100837244B1 (en) * | 2006-12-08 | 2008-06-11 | 인천대학교 산학협력단 | System and method for the recognition of vehicle license plate images |
JP6552012B2 (en) * | 2017-03-03 | 2019-07-31 | Necプラットフォームズ株式会社 | Container number reading device, container number reading method, and container number reading program |
KR102030628B1 (en) * | 2019-04-04 | 2019-10-10 | (주)아이엠시티 | Recognizing method and system of vehicle license plate based convolutional neural network |
-
2020
- 2020-04-09 KR KR1020200043216A patent/KR102368065B1/en active IP Right Grant
-
2021
- 2021-03-29 WO PCT/KR2021/003825 patent/WO2021206338A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100719608B1 (en) * | 2005-07-21 | 2007-05-17 | 주식회사 씨텍 | Method and apparatus for recognizing serial number of paper money |
KR101727138B1 (en) * | 2014-03-11 | 2017-04-14 | 한국전자통신연구원 | Method and apparatus for recogniting container code using multiple video |
KR20190095571A (en) * | 2018-01-19 | 2019-08-16 | 한국기술교육대학교 산학협력단 | Recognition method of Vehicle Licence Plate |
Also Published As
Publication number | Publication date |
---|---|
KR102368065B1 (en) | 2022-03-02 |
WO2021206338A1 (en) | 2021-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3740897B1 (en) | License plate reader using optical character recognition on plural detected regions | |
WO2020173056A1 (en) | Traffic image recognition method and apparatus, and computer device and medium | |
KR101179497B1 (en) | Apparatus and method for detecting face image | |
KR102368065B1 (en) | Method And Apparatus for Recognizing Character of Container | |
CN111325769B (en) | Target object detection method and device | |
CN113971811B (en) | Container characteristic intelligent recognition method based on machine vision and deep learning | |
KR102383377B1 (en) | Electronic device for recognizing license plate | |
KR20170082024A (en) | Apparatus and Method for Recognizing Face | |
CN114155527A (en) | Scene text recognition method and device | |
KR101809490B1 (en) | The vehicle entrance and exit management and crime prevention system based on high definition images | |
CN112464785A (en) | Target detection method and device, computer equipment and storage medium | |
Moseva et al. | Development of a System for Fixing Road Markings in Real Time | |
KR102368066B1 (en) | Method And Apparatus for Recognizing Character | |
CN111402185B (en) | Image detection method and device | |
CN110738123B (en) | Method and device for identifying densely displayed commodities | |
KR102368067B1 (en) | Method And Apparatus for Recognizing Character of Container | |
CN111126173A (en) | High-precision face detection method | |
CN115331258A (en) | Industrial-grade applied danger forbidden zone personnel detection system and method | |
CN115035429A (en) | Aerial photography target detection method based on composite backbone network and multiple measuring heads | |
Kassymkhanova et al. | Majority voting approach and fuzzy logic rules in license plate recognition process | |
CN111860093B (en) | Image processing method, device, equipment and computer readable storage medium | |
Blankenbach et al. | Advanced optical methods for safe image reproduction on automotive displays | |
CN113221643B (en) | Lane line classification method and system adopting cascade network | |
JPH0554196A (en) | Number plate recognition device | |
Gu et al. | Traffic Sign Recognition with invariance to lighting in dual-focal active camera system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |