JP6430672B1 - Reading system and reading method - Google Patents

Reading system and reading method Download PDF

Info

Publication number
JP6430672B1
JP6430672B1 JP2018049106A JP2018049106A JP6430672B1 JP 6430672 B1 JP6430672 B1 JP 6430672B1 JP 2018049106 A JP2018049106 A JP 2018049106A JP 2018049106 A JP2018049106 A JP 2018049106A JP 6430672 B1 JP6430672 B1 JP 6430672B1
Authority
JP
Japan
Prior art keywords
character string
character
recognition unit
characteristic
string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018049106A
Other languages
Japanese (ja)
Other versions
JP2019160131A (en
Inventor
一樹 滝澤
一樹 滝澤
佐藤 功一
功一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsui E&S Machinery Co Ltd
Original Assignee
Mitsui E&S Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsui E&S Machinery Co Ltd filed Critical Mitsui E&S Machinery Co Ltd
Priority to JP2018049106A priority Critical patent/JP6430672B1/en
Application granted granted Critical
Publication of JP6430672B1 publication Critical patent/JP6430672B1/en
Publication of JP2019160131A publication Critical patent/JP2019160131A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

【課題】撮像条件が悪い場合や画像に複数の文字列が存在する場合でも、所定の識別用文字列のみを高精度に自動認識することができる読取システム及び読取方法を提供する。
【解決手段】既知の特徴を有する特徴文字列21と検査文字22とからなる識別用文字列20を、入力された画像14から読取る読取システム40は、文字列を認識単位として、画像14の中に含まれる複数の文字列の中から既知の特徴に基づいて特徴文字列21を認識する文字列認識部41と、単文字を認識単位として、文字列認識部41が探し出した特徴文字列21の位置に基づいて検査文字22を認識する単文字認識部42と、文字列認識部41が認識した特徴文字列21から算出した算出文字25と検査文字22とが一致した場合に、識別用文字列20として認識して出力する出力部44とを備える。
【選択図】図4
Provided are a reading system and a reading method capable of automatically recognizing only a predetermined identification character string with high accuracy even when imaging conditions are bad or a plurality of character strings exist in an image.
A reading system 40 for reading an identification character string 20 composed of a characteristic character string 21 having a known characteristic and an inspection character 22 from an input image 14 includes the character string as a recognition unit. A character string recognition unit 41 for recognizing the characteristic character string 21 based on a known characteristic from among a plurality of character strings included in the character string, and a characteristic character string 21 searched by the character string recognition unit 41 using a single character as a recognition unit. When the single character recognition unit 42 that recognizes the check character 22 based on the position and the calculated character 25 calculated from the characteristic character string 21 recognized by the character string recognition unit 41 match the check character 22, the identification character string And an output unit 44 that recognizes and outputs as 20.
[Selection] Figure 4

Description

本発明は、読取システム及び読取方法に関し、具体的には、所定の識別用文字列を高精度に自動認識する読取システム及び読取方法に関する。   The present invention relates to a reading system and a reading method, and specifically to a reading system and a reading method that automatically recognizes a predetermined identification character string with high accuracy.

識別用文字列の自動認識する装置としては、カメラで取り込んだ画像に対して二値化処理を施し、二値化された画像から記号の特徴量に適合するものに対して一文字ずつ認識処理を施して識別用文字列として把握する装置が提案されている。(例えば、特許文献1参照)。   As an apparatus for automatically recognizing a character string for identification, binarization processing is performed on an image captured by a camera, and recognition processing is performed character by character for a binarized image that matches a feature amount of a symbol. Devices have been proposed that can be recognized and recognized as identification character strings. (For example, refer to Patent Document 1).

特開平10−105647号公報JP-A-10-105647

ところで、文字を認識する技術として、ニューラルネットワークを用いて識別精度を向上させる試みがある。つまり、上記の特許文献1に記載の装置において、文字の認識にニューラルネットワークを用いることで識別精度をより向上させることが可能になる。   By the way, as a technique for recognizing characters, there is an attempt to improve identification accuracy using a neural network. That is, in the apparatus described in Patent Document 1, it is possible to further improve the identification accuracy by using a neural network for character recognition.

文字を認識する代表的なニューラルネットワークとしては、LeNetに代表される畳み込みニューラルネットワークが例示される。畳み込みニューラルネットワークは、単文字が写っている画像を複数のカテゴリに分類するように学習して、単文字を認識するニューラルネットワークである。   As a typical neural network for recognizing characters, a convolutional neural network represented by LeNet is exemplified. The convolutional neural network is a neural network that recognizes a single character by learning to classify an image in which the single character is reflected into a plurality of categories.

しかし、畳み込みニューラルネットワークは、認識単位が単文字に限定されることから、識別用文字列を認識するには画像処理を施して、画像から対象となる個々の単文字を切り出す必要がある。それ故、画像に写り込んだ影の影響や画像におけるコントラスト比などの撮像条件によっては、物品の表面に記録された識別用文字列の認識精度が落ち、認識率が低くなるという問題があった。また、画像に複数の文字列が存在する場合に、読み取る対象となる識別用文字列のみを認識することは難しく、不要な文字列にも処理を施す必要があった。   However, in the convolutional neural network, since the recognition unit is limited to a single character, in order to recognize the identification character string, it is necessary to perform image processing to cut out individual single characters as a target from the image. Therefore, depending on the imaging conditions such as the influence of the shadow reflected in the image and the contrast ratio in the image, there is a problem that the recognition accuracy of the identification character string recorded on the surface of the article is lowered and the recognition rate is lowered. . Further, when there are a plurality of character strings in the image, it is difficult to recognize only the identification character string to be read, and it is necessary to perform processing on unnecessary character strings.

本発明の目的は、撮像条件が悪い場合や画像に複数の文字列が存在する場合でも、所定の識別用文字列のみを高精度に自動認識することができる読取システム及び読取方法を提供することである。   An object of the present invention is to provide a reading system and a reading method capable of automatically recognizing only a predetermined identification character string with high accuracy even when imaging conditions are bad or a plurality of character strings exist in an image. It is.

上記の目的を達成する本発明の読取システムは、既知の特徴を有する特徴文字列と、その特徴文字列の近傍に配置されて、その特徴文字列に対して所定の規則を適用して算出された単文字の検査文字とからなる識別用文字列を、入力された画像から読取る読取システムであって、前記画像の中に含まれる文字列が占有する文字列領域が検出されたデータが入力されて、その文字領域における先端から後尾までの間の特徴量の連なりから文字列を認識単位として、前記画像の中に含まれる複数の文字列の中から前記既知の特徴に基づいて前記特徴文字列を認識する文字列認識部と、前記画像の中に含まれる単文字が判別可能に切り出された単文字画像データが入力されて、その単文字画像データから単文字を認識単位として、前記文字列認識部が認識した前記特徴文字列の位置に基づいて前記検査文字を認識する単文字認識部と、前記文字列認識部が認識した前記特徴文字列に対して前記所定の規則を適用して算出した算出文字と、前記検査文字とが一致した場合に、前記特徴文字列、及び前記検査文字を順に並べた文字列を前記識別用文字列として認識して出力する出力部とを備えることを特徴とする。 The reading system of the present invention that achieves the above-mentioned object is calculated by applying a predetermined rule to a feature character string having a known feature and a feature character string arranged in the vicinity of the feature character string. A reading system for reading an identification character string consisting of a single inspection character from an input image, and data in which a character string area occupied by the character string included in the image is detected is input. The feature character string based on the known features from among a plurality of character strings included in the image, with a character string as a recognition unit from a series of feature amounts from the leading end to the tail in the character region A character string recognizing unit for recognizing a single character image data cut out so that a single character included in the image can be discriminated , and the character string as a recognition unit from the single character image data. Recognition part A single character recognition unit that recognizes the inspection character based on the recognized position of the characteristic character string, and a calculated character calculated by applying the predetermined rule to the characteristic character string recognized by the character string recognition unit And an output unit that recognizes and outputs the characteristic character string and the character string in which the check characters are arranged in order as the character string for identification when the check character matches.

上記の目的を達成する本発明の読取方法は、既知の特徴を有する特徴文字列と、その特徴文字列の近傍に配置されて、その特徴文字列に対して所定の規則を適用して算出された単文字の検査文字とからなる識別用文字列を、入力された画像から読み取る読取方法であって、前記画像の中に含まれる文字列が占有する文字列領域における先端から後尾までの間の特徴量の連なりから文字列を認識単位として、前記画像の中に含まれる複数の文字列の中から前記既知の特徴に基づいて前記特徴文字列を認識し、前記画像の中に含まれる単文字が判別可能に切り出された単文字画像データから単文字を認識単位として、探し出した前記特徴文字列の位置に基づいて前記検査文字を認識し、認識した前記特徴文字列に対して前記所定の規則を適用して算出文字を算出し、前記算出文字と、前記検査文字とが一致するか否かを判定し、前記算出文字と前記検査文字とが一致したと判定した場合に、前記特徴文字列、及び前記検査文字を順に並べた文字列を前記識別用文字列として認識することを特徴とする。 The reading method of the present invention that achieves the above object is calculated by applying a predetermined rule to a characteristic character string having a known characteristic and a characteristic character string that is arranged in the vicinity of the characteristic character string. A reading method for reading a character string for identification consisting of a single character inspection character from an input image , between a leading end and a trailing end in a character string region occupied by the character string included in the image A single character included in the image by recognizing the feature character string based on the known feature from among a plurality of character strings included in the image, using a character string as a recognition unit from a series of feature amounts. the but as recognition units of single characters from the single character image data cut out to be discriminated, with respect to the characteristic character string recognizing the check character was recognized based on the position of the feature strings began to probe Applying the prescribed rules When the calculated character and the check character are determined to be calculated, and when it is determined that the calculated character and the check character match, the characteristic character string and the check character are calculated. A character string in which characters are arranged in order is recognized as the identification character string.

本発明は、文字列を認識単位として既知の特徴を手がかりとして特徴文字列を認識する文字列認識部と、単文字を認識単位として特徴文字列が認識されたことで位置が特定された単文字を検査文字として認識する単文字認識部とを併用する。それ故、本発明によれば、画像から対象となる文字を一文字ずつ切り出す画像処理を省き、画像処理を起因とする特徴文字列の認識の低下を解消することができる。同時に、特徴文字列を認識することで検査文字の位置を特定することで、高精度に検査文字を認識することが可能になり、特徴文字列の不確かな認識結果を排除することができる。これにより、撮像条件が悪い場合や画像に複数の文字列が存在する場合でも、所定の識別用文字列のみを高精度に自動認識することができる。   The present invention relates to a character string recognition unit that recognizes a characteristic character string using a known feature as a clue using a character string as a recognition unit, and a single character whose position is specified by recognizing the characteristic character string using a single character as a recognition unit Is used in combination with a single character recognition unit that recognizes as a check character. Therefore, according to the present invention, it is possible to omit the image processing for cutting out the target characters from the image one by one, and to eliminate the decrease in the recognition of the characteristic character string caused by the image processing. At the same time, it is possible to recognize the inspection character with high accuracy by identifying the position of the inspection character by recognizing the characteristic character string, and it is possible to eliminate the uncertain recognition result of the characteristic character string. Thereby, even when the imaging conditions are bad or there are a plurality of character strings in the image, only a predetermined identification character string can be automatically recognized with high accuracy.

読取システムの実施形態を例示する構成図である。It is a block diagram which illustrates embodiment of a reading system. 図1の撮像装置が撮像した画像を例示する説明図である。FIG. 2 is an explanatory diagram illustrating an image captured by the imaging apparatus of FIG. 1. 識別用文字列の配列を例示する説明図である。It is explanatory drawing which illustrates the arrangement | sequence of the character string for identification. 図1の読取システムを例示するブロック図である。FIG. 2 is a block diagram illustrating the reading system of FIG. 1. 読取方法を例示するフロー図の一部である。It is a part of flowchart which illustrates the reading method. 図5のAから続く読取方法を例示するフロー図の一部である。FIG. 6 is a part of a flowchart illustrating a reading method continued from A in FIG. 5. 図6のBから続く読取方法を例示するフロー図の一部である。FIG. 7 is a part of a flowchart illustrating a reading method continued from B of FIG. 6. 図7のCから続く読取方法を例示するフロー図の一部である。FIG. 8 is a part of a flowchart illustrating a reading method continued from C in FIG. 7. 図7のDから続く読取方法を例示するフロー図の一部である。FIG. 8 is a part of a flowchart illustrating a reading method continued from D of FIG. 7. 図5の規則を例示する説明図である。It is explanatory drawing which illustrates the rule of FIG. 図6の規則を例示する説明図である。It is explanatory drawing which illustrates the rule of FIG. 図7の規則を例示する説明図である。It is explanatory drawing which illustrates the rule of FIG.

以下、読取システムの実施形態について説明する。なお、本明細書において、文字列の書字方向は、文字列が左から右へ順に並べられる左横書きとし、文字列の先頭は文字列の左端とし、後尾は文字列の右端とする。   Hereinafter, embodiments of the reading system will be described. In this specification, the writing direction of the character string is left horizontal writing in which the character string is arranged in order from left to right, the beginning of the character string is the left end of the character string, and the tail is the right end of the character string.

図1に例示するように、読取システム40は、コンテナターミナル11で扱われる貨物12に記載された識別用文字列20を認識するシステムであり、撮像装置13により撮像された画像14から識別用文字列20を認識するシステムである。また、読取システム40は、エッジデバイス30に組み込まれたシステムである。   As illustrated in FIG. 1, the reading system 40 is a system for recognizing the identification character string 20 described in the cargo 12 handled at the container terminal 11, and the identification character from the image 14 captured by the imaging device 13. This is a system that recognizes the column 20. The reading system 40 is a system incorporated in the edge device 30.

コンテナターミナル11は、貨物12の海上輸送及び陸上輸送の結節点となる港湾施設である。コンテナターミナル11では、出入口であるゲート15からコンテナターミナル
11への進入時や退出時に、撮像装置13により撮像された画像14から貨物12に記載された識別用文字列20を認識する作業が行われる。
The container terminal 11 is a port facility serving as a node between the sea transportation and the land transportation of the cargo 12. At the container terminal 11, when entering or leaving the container terminal 11 from the gate 15 which is an entrance / exit, an operation of recognizing the identification character string 20 described in the cargo 12 from the image 14 captured by the imaging device 13 is performed. .

貨物12は、コンテナやコンテナタンクが例示される。貨物12は、コンテナターミナル11と外部との間で行き来する外来シャーシ16に搭載された状態で、外来シャーシ16の後退方向に向いた面に識別用文字列20が記載される。なお、識別用文字列20の記載場所は特に限定されず、貨物12の側面や上面に記載されてもよい。   The cargo 12 is exemplified by a container and a container tank. An identification character string 20 is written on the surface of the foreign chassis 16 facing the backward direction in a state where the cargo 12 is mounted on the foreign chassis 16 that goes back and forth between the container terminal 11 and the outside. In addition, the description place of the identification character string 20 is not particularly limited, and may be described on the side surface or the upper surface of the cargo 12.

撮像装置13は、ゲート15に設置されて、外来シャーシ16に搭載された状態の貨物12に記載の識別用文字列20を含む画像14を撮像する装置である。撮像装置13は、撮像した画像14に識別用文字列20が含まれていればよく、設置場所は限定されない。なお、貨物12において識別用文字列20が記載される箇所が特定可能な場合は、撮像装置13に、貨物12における特定した箇所のみを撮像させて、画像14における識別用文字列20とは異なる文字列の含有量を少なくするとよい。   The imaging device 13 is a device that captures the image 14 including the identification character string 20 described in the cargo 12 installed in the gate 15 and mounted on the foreign chassis 16. The imaging device 13 is not limited as long as the identification image 20 is included in the captured image 14 and the installation location is not limited. In addition, when the location where the identification character string 20 is described in the cargo 12 can be specified, the imaging device 13 is caused to capture only the specified location in the cargo 12 and is different from the identification character string 20 in the image 14. It is good to reduce the content of the character string.

図2に例示するように、貨物12がコンテナの場合に、その面には開閉扉17が形成され、識別用文字列20が外来シャーシ16を背面視で開閉扉17の右上の領域に記載される。また、識別用文字列20の配置位置によっては、識別用文字列20が開閉扉17の開閉バー18を避けるように複数に分割されて記載される場合もある。   As illustrated in FIG. 2, when the cargo 12 is a container, an opening / closing door 17 is formed on the surface thereof, and an identification character string 20 is described in an upper right area of the opening / closing door 17 in a rear view of the foreign chassis 16. The Depending on the arrangement position of the identification character string 20, the identification character string 20 may be divided into a plurality of parts so as to avoid the opening / closing bar 18 of the opening / closing door 17.

識別用文字列20は、貨物12の背面に記載された複数の文字列のうちで、貨物12の背面の隅の近傍に記載される可能性が高い文字列であり、貨物12がコンテナの場合に背面の右上に記載される可能性が高い。なお、識別用文字列20は、貨物12がコンテナタンクの場合に背面の右下に記載されることもある。   The identification character string 20 is a character string that is likely to be written in the vicinity of the rear corner of the cargo 12 among a plurality of character strings written on the rear surface of the cargo 12, and the cargo 12 is a container. Is likely to be written in the upper right on the back. In addition, the identification character string 20 may be written in the lower right on the back when the cargo 12 is a container tank.

識別用文字列20は、特徴文字列21及び検査文字(チェックデジットともいう)22を有する十一桁の文字列である。特徴文字列21は、識別用文字列20の先頭に配置され、第一文字列23及び第二文字列24を有する。   The identification character string 20 is an eleven-digit character string having a characteristic character string 21 and a check character (also referred to as check digit) 22. The characteristic character string 21 is arranged at the head of the identification character string 20 and includes a first character string 23 and a second character string 24.

第一文字列23は、特徴文字列21の先頭に配置され、四桁のアルファベットで構成される。第一文字列23は、先頭側の三桁のアルファベットが貨物12の所有者ごとに異なる所有者コードを示し、後尾の一桁のアルファベットが装置区分識別子を示す。貨物12の装置区分識別子としては、「U」が用いられる。第二文字列24は、特徴文字列21の後尾に配置され、六桁の数字で構成され、貨物12の固有のシリアルナンバーを示す。検査文字22は、識別用文字列20に隣接するように配置され、特徴文字列21に対して所定の計算式を適用して算出される単文字の数字で構成される。   The first character string 23 is arranged at the head of the characteristic character string 21 and is composed of a four-digit alphabet. In the first character string 23, the first three-digit alphabet indicates an owner code that is different for each owner of the cargo 12, and the last one-digit alphabet indicates a device classification identifier. “U” is used as the device classification identifier of the cargo 12. The second character string 24 is arranged at the tail of the characteristic character string 21, is composed of six digits, and indicates a unique serial number of the cargo 12. The inspection character 22 is arranged so as to be adjacent to the identification character string 20, and is composed of single-character numbers calculated by applying a predetermined calculation formula to the characteristic character string 21.

なお、所有者コードは、B.I.C(The Bureau International des Containers et du Transport Intermodal)に登録されたコードである。   The owner code is B.B. I. It is a code registered in C (The Bureau International des Containers et du Transport International).

つまり、貨物12の識別用文字列20は、先頭から後尾に向かって順に、三桁のアルファベット、一桁のアルファベットである「U」、六桁の数字、及び、一桁の数字が並ぶという既知の特徴を有する。また、第一文字列23は、三桁のアルファベットの組み合わせのうちのB.I.Cに登録された所有者コードに候補が絞られるという既知の特徴を有する。さらに、検査文字22は、特徴文字列21の後尾の近傍に配置された一桁の数字であるという既知の特徴を有する。なお、検査文字22においては、特徴文字列21と区別可能に枠により囲われる場合がある。そこで、特徴文字列21の近傍に配置された一桁の数字が枠に囲われることを既知の特徴としてもよい。   That is, the identification character string 20 of the cargo 12 is known to include a three-digit alphabet, a one-digit alphabet “U”, a six-digit number, and a one-digit number in order from the head to the tail. It has the characteristics of. In addition, the first character string 23 is B.B among the three-digit alphabet combinations. I. It has a known feature that candidates are narrowed down to owner codes registered in C. Further, the inspection character 22 has a known feature that it is a single digit number arranged near the tail of the feature character string 21. Note that the inspection character 22 may be surrounded by a frame so as to be distinguishable from the characteristic character string 21. Therefore, it may be a known feature that a single-digit number arranged in the vicinity of the feature character string 21 is surrounded by a frame.

図3(a)〜図3(c)に例示するように、識別用文字列20は、第一文字列23、第二文字列24、及び検査文字22の配置が貨物12ごとに異なる。例えば、図3(a)に例示するように、第一文字列23の下方に第二文字列24が四桁の数字と二桁の数字との二つの文字列に区分されて一列に配置される場合がある。また、図3(b)に例示するように、第一文字列23の右方に第二文字列24が三桁の数字と三桁の数字との二つの文字列に区分されて一列に配置される場合もある。さらに、図3(c)に例示するように、第一文字列23の右方に第二文字列24が三桁の数字と三桁の数字との二つの文字列に区分された上下二列に配置される場合もある。但し、いずれの場合においても、第二文字列24は第一文字列23の近傍に配置され、検査文字22は第二文字列24の後尾の近傍に配置される。   As illustrated in FIGS. 3A to 3C, in the identification character string 20, the arrangement of the first character string 23, the second character string 24, and the inspection character 22 is different for each cargo 12. For example, as illustrated in FIG. 3A, below the first character string 23, the second character string 24 is divided into two character strings of a four-digit number and a two-digit number and arranged in one line. There is a case. Further, as illustrated in FIG. 3B, the second character string 24 is divided into two character strings of a three-digit number and a three-digit number and arranged in one line on the right side of the first character string 23. There is also a case. Further, as illustrated in FIG. 3C, the second character string 24 is divided into two upper and lower columns divided into two character strings of a three-digit number and a three-digit number on the right side of the first character string 23. Sometimes it is arranged. However, in any case, the second character string 24 is arranged in the vicinity of the first character string 23, and the check character 22 is arranged in the vicinity of the tail of the second character string 24.

図4に例示するように、エッジデバイス30は、ゲート15に設置され、各種情報処理を行うCPU、その各種情報処理を行うために用いられるプログラムや情報処理結果を読み書き可能な内部記憶装置、及び各種インターフェースなどから構成されるハードウェアである。エッジデバイス30は、撮像装置13、表示装置31、及び入力装置32に通信可能に接続され、各機能要素として、文字列領域検出システム33及び読取システム40を備える。各機能要素は、互いに独立したプログラムとして内部記憶装置に記憶されていて、適時、CPUにより実行されている。なお、各機能要素としては、プログラムの他にそれぞれが独立して機能するプログラマブルコントローラ(PLC)で構成されてもよい。   As illustrated in FIG. 4, the edge device 30 is installed in the gate 15 and performs various information processing, an internal storage device that can read and write programs and information processing results used to perform the various information processing, and This hardware consists of various interfaces. The edge device 30 is communicably connected to the imaging device 13, the display device 31, and the input device 32, and includes a character string region detection system 33 and a reading system 40 as functional elements. Each functional element is stored in the internal storage device as an independent program, and is executed by the CPU in a timely manner. In addition, as each function element, you may be comprised with the programmable controller (PLC) which each functions independently besides a program.

表示装置31及び入力装置32は、ゲート15で作業する作業者に携帯される携帯端末に組み込まれる装置である。なお、表示装置31及び入力装置32は、携帯端末以外にエッジデバイス30が設置される図示しない管理棟に設けられてもよい。   The display device 31 and the input device 32 are devices incorporated in a portable terminal that is carried by an operator working at the gate 15. The display device 31 and the input device 32 may be provided in a management building (not shown) in which the edge device 30 is installed in addition to the mobile terminal.

文字列領域検出システム33は、撮像装置13が撮像した画像14が入力されて、文字列領域(シーンテキストともいう)Tn及びその文字列領域Tnの位置Pnが検出されたデータ34を出力するシステムである。文字列領域Tnは、画像14の中に含まれる文字列が占有する領域であり、隣り合う文字どうしの間隔が所定の閾値以下の場合はそれらの文字どうしが同一の領域に存在するとして設定された領域である。つまり、文字列領域TnのX方向の長さは連なる文字数に応じて設定され、Y方向の長さは文字の大きさに応じて設定される。位置Pnは、画像14における文字列領域Tnの位置であり、画像14の中心を原点として文字列領域Tnの所定の点(実施形態では領域の中心点)の二次元座標として示される。なお、文字列領域Tnは、文字及び背景のコントラスト比や文字列において隣り合う文字どうしの間隔の閾値を設定することで、X方向の拡大や縮小を自在にコントロール可能であり、文字列領域Tnに存在する文字列の文字数を変えることが可能であることが望ましい。文字列領域Tnの検出には、様々な手法が提案されており、文字列領域検出システム33としては、提案されている周知の手法であればよい。   The character string area detection system 33 receives the image 14 captured by the imaging device 13 and outputs data 34 in which the character string area (also referred to as scene text) Tn and the position Pn of the character string area Tn are detected. It is. The character string area Tn is an area occupied by a character string included in the image 14, and is set as existing in the same area when the interval between adjacent characters is equal to or less than a predetermined threshold. Area. That is, the length in the X direction of the character string region Tn is set according to the number of consecutive characters, and the length in the Y direction is set according to the size of the characters. The position Pn is the position of the character string region Tn in the image 14, and is indicated as a two-dimensional coordinate of a predetermined point (center point of the region in the embodiment) of the character string region Tn with the center of the image 14 as the origin. Note that the character string region Tn can be freely controlled to be enlarged or reduced in the X direction by setting the contrast ratio between the character and the background and the threshold value between the adjacent characters in the character string. It is desirable to be able to change the number of characters in the character string existing in the. Various methods have been proposed for the detection of the character string region Tn. The character string region detection system 33 may be any known method that has been proposed.

読取システム40は、データ34が入力されて、識別用文字列20の認識が成功した場合にその識別用文字列20を出力する一方で、識別用文字列20の認識が失敗した場合に認識が失敗したことを出力する機能要素である。読取システム40は、機能要素として文字列認識部41、単文字認識部42、判定部43、出力部44、及び画像処理部47を備える。   The reading system 40 outputs the identification character string 20 when the data 34 is input and the recognition character string 20 is successfully recognized. On the other hand, the reading system 40 recognizes the recognition character string 20 when the recognition character string 20 fails to be recognized. It is a functional element that outputs the failure. The reading system 40 includes a character string recognition unit 41, a single character recognition unit 42, a determination unit 43, an output unit 44, and an image processing unit 47 as functional elements.

文字列認識部41は、データ34が入力されて、認識した特徴文字列21を判定部43に出力すると共に特徴文字列21の位置を画像処理部47に出力する機能要素である。文字列認識部41は、文字列を認識単位として、データ34に存在する複数の文字列の中から上述した既知の特徴に基づいて、複合型ニューラルネットワークを用いて、特徴文字列21を認識する機能要素である。文字列認識部41は、第一文字列認識部35、及び第二
文字列認識部36を有する。
The character string recognition unit 41 is a functional element that receives the data 34 and outputs the recognized characteristic character string 21 to the determination unit 43 and also outputs the position of the characteristic character string 21 to the image processing unit 47. The character string recognizing unit 41 recognizes the characteristic character string 21 by using a complex neural network based on the above-mentioned known features from among a plurality of character strings existing in the data 34 with the character string as a recognition unit. It is a functional element. The character string recognition unit 41 includes a first character string recognition unit 35 and a second character string recognition unit 36.

また、文字列認識部41は、認識可能な特徴文字列21が存在する文字列領域Tnを文字ごとに分割して生成された単文字画像データ48が教師データとして入力される機能要素である。   The character string recognition unit 41 is a functional element to which single character image data 48 generated by dividing a character string region Tn in which a recognizable characteristic character string 21 exists for each character is input as teacher data.

複合型ニューラルネットワークとしては、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)と再帰型ニューラルネットワーク(RNN:Recurrent Neural Network)と複合したニューラルネットワークが望ましい。複合型ニューラルネットワークは、文字列領域Tnを文字の配列方向の先端から後尾に向かって複数に区画し、区画ごとの特徴量を畳み込みニューラルネットワークにより抽出し、先端から後尾までの間の特徴量の連なりを再帰型ニューラルネットワークにより同時に捉えて、文字列を認識するニューラルネットワークである。つまり、複合型ニューラルネットワークは、文字列領域Tnに存在する文字列を個々の文字に切り出す必要がなく、文字列を認識単位として認識可能なニューラルネットワークである。   As the composite neural network, a neural network combined with a convolutional neural network (CNN) and a recurrent neural network (RNN) is desirable. The composite neural network divides a character string region Tn into a plurality of characters from the leading end to the tail in the character arrangement direction, extracts feature values for each partition by a convolutional neural network, and calculates feature amounts between the leading end and the trailing end. This is a neural network that recognizes a character string by simultaneously capturing a series of recursive neural networks. That is, the composite neural network is a neural network that can recognize a character string as a recognition unit without having to cut out a character string existing in the character string region Tn into individual characters.

複合型ニューラルネットワークに与えられる学習のための教師データは、識別用文字列20に用いられるフォントデータや所有者コードになる。このように、複合型ニューラルネットワークに実際の貨物12の識別用文字列20に使用されるデータを教師データとして予め入力することで、複合型ニューラルネットワークを用いた文字列の認識精度を向上するには有利になる。なお、フォントデータとしては、一種類に限定せずに様々な種類や所定の角度で回転させたもの、上下左右を反転させたものを用いてもよく、実際に貨物を撮像した画像から切り出した文字を用いることが好ましい。   The teacher data for learning given to the composite neural network is font data and an owner code used for the identification character string 20. In this way, the data used for the identification character string 20 of the actual cargo 12 is input to the composite neural network in advance as teacher data, thereby improving the recognition accuracy of the character string using the composite neural network. Will be advantageous. Note that the font data is not limited to one type, but may be various types, rotated at a predetermined angle, or inverted up / down / left / right, and cut out from the actual captured image of the cargo. It is preferable to use letters.

第一文字列認識部45は、データ34が入力されて、複合型ニューラルネットワークを用いて認識した第一文字列23を判定部43に出力すると共に第一文字列23の位置を第二文字列認識部46に出力する機能要素である。第一文字列認識部45は、第一文字列23が四桁のアルファベットであり、且つ、後尾に特定文字として「U」が存在するという既知の特徴に基づいて、第一文字列23を認識する。   The first character string recognizing unit 45 receives the data 34 and outputs the first character string 23 recognized by using the composite neural network to the determining unit 43 and the position of the first character string 23 in the second character string recognizing unit 46. Is a functional element to output to The first character string recognizing unit 45 recognizes the first character string 23 based on a known feature that the first character string 23 is a four-digit alphabet and “U” exists as a specific character at the end.

第二文字列認識部46は、データ34及び第一文字列23の位置が入力されて、複合型ニューラルネットワークを用いて認識した第二文字列24を判定部43に出力すると共に第二文字列24の位置を画像処理部47に出力する機能要素である。第二文字列認識部46は、第二文字列24が第一文字列23の近傍に配置されることと六桁の数字であるという既知の特徴に基づいて、第二文字列24を認識する。   The second character string recognition unit 46 receives the position of the data 34 and the first character string 23 and outputs the second character string 24 recognized by using the composite neural network to the determination unit 43 and the second character string 24. Is a functional element that outputs the position of the image to the image processing unit 47. The second character string recognition unit 46 recognizes the second character string 24 based on the known feature that the second character string 24 is arranged in the vicinity of the first character string 23 and is a six-digit number.

単文字認識部42は、画像処理部47で単文字が判別可能に切り出された単文字画像データ48(48a、48b)が入力されて、認識した検査文字22を判定部43に出力する機能要素である。単文字認識部42は、単文字を認識単位として、畳み込みニューラルネットワークを用いて、検査文字22を認識する機能要素である。   The single character recognition unit 42 receives the single character image data 48 (48a, 48b) cut out so that the single character can be discriminated by the image processing unit 47, and outputs the recognized check character 22 to the determination unit 43. It is. The single character recognition unit 42 is a functional element that recognizes the check character 22 using a convolutional neural network with a single character as a recognition unit.

また、単文字認識部42は、文字列認識部41が特徴文字列21を認識不可の場合に、特徴文字列21を構成する文字の全て又は一部を一文字ずつ畳み込みニューラルネットワークを用いて再認識した再認識文字列26を文字列認識部41及び判定部43に出力する機能要素でもある。   In addition, when the character string recognizing unit 41 cannot recognize the characteristic character string 21, the single character recognizing unit 42 re-recognizes all or part of the characters constituting the characteristic character string 21 one by one by using a convolutional neural network. It is also a functional element that outputs the re-recognized character string 26 to the character string recognition unit 41 and the determination unit 43.

畳み込みニューラルネットワークとしては、LeNetが例示される。単文字認識部42の畳み込みニューラルネットワークに与えられる学習のための教師データは、識別用文字列20に用いられるフォントデータである。なお、フォントデータとしては、複合型ニューラルネットワークの教師データと同様に、一種類に限定せずに様々な種類や所定の角度で回転させたもの、上下左右を反転させたものを用いてもよく、実際に貨物を撮像した画像から切り出した文字を用いることが好ましい。   An example of the convolutional neural network is LeNet. The teacher data for learning given to the convolutional neural network of the single character recognition unit 42 is font data used for the identification character string 20. Note that the font data is not limited to a single type, as in the case of the teacher data of the complex neural network, but may be a variety of types, rotated at a predetermined angle, or inverted up / down / left / right. It is preferable to use characters cut out from an image obtained by actually capturing cargo.

判定部43は、文字列認識部41から出力された特徴文字列21と単文字認識部42から出力された検査文字22とが入力されて、特徴文字列21に対して所定の計算式を適用して算出された算出文字25と検査文字22とを照合する機能要素である。また、判定部43は、算出文字25と検査文字22とを照合して、それらが一致した場合に出力部44に特徴文字列21及び検査文字22を出力する機能要素である。一方、判定部43は、算出文字25と検査文字22とを照合して、それらが不一致の場合に特徴文字列21の位置に基づいて単文字認識部42に特徴文字列21を構成する文字の全て又は一部を一文字ずつ再認識させた再認識文字列26を特徴文字列21として判定部43に出力させる機能要素である。   The determination unit 43 receives the characteristic character string 21 output from the character string recognition unit 41 and the inspection character 22 output from the single character recognition unit 42 and applies a predetermined calculation formula to the characteristic character string 21. This is a functional element that collates the calculated character 25 and the inspection character 22 calculated in this way. The determination unit 43 is a functional element that collates the calculated character 25 with the check character 22 and outputs the characteristic character string 21 and the check character 22 to the output unit 44 when they match. On the other hand, the determination unit 43 collates the calculated character 25 with the check character 22 and, if they do not match, determines the character constituting the characteristic character string 21 in the single character recognition unit 42 based on the position of the characteristic character string 21. This is a functional element that causes the determination unit 43 to output the re-recognized character string 26 that is re-recognized all or part of the characters one by one as the characteristic character string 21.

出力部44は、判定部43から出力された特徴文字列21及び検査文字22が入力されて、特徴文字列21及び検査文字22を先頭から順に並べた文字列を識別用文字列20として出力し、表示装置31に出力した識別用文字列20を表示させる機能要素である。また、判定部43から識別用文字列20の認識不可が指示されると表示装置31に「認識不可」を表示させる機能要素でもある。   The output unit 44 receives the characteristic character string 21 and the check character 22 output from the determination unit 43, and outputs a character string in which the characteristic character string 21 and the check character 22 are arranged in order from the top as the identification character string 20. This is a functional element for displaying the identification character string 20 output on the display device 31. Further, it is also a functional element that displays “unrecognizable” on the display device 31 when the determination unit 43 instructs the recognition character string 20 to be unrecognizable.

画像処理部47は、第二文字列認識部46から出力された第二文字列24の位置が入力されて、検査文字22が判別可能に切り出された検査文字画像データ48aを単文字認識部42に出力する機能要素である。また、画像処理部47は、第二文字列24が存在する文字列領域Tnが文字ごとに分割された複数の第二文字列画像データ48bを単文字認識部42に出力する機能要素でもある。なお、第二文字列画像データ48bは、第二文字列24の桁数と同数の個数となる。   The image processing unit 47 receives the position of the second character string 24 output from the second character string recognition unit 46 and receives the inspection character image data 48a cut out so that the inspection character 22 can be discriminated. Is a functional element to output to The image processing unit 47 is also a functional element that outputs to the single character recognition unit 42 a plurality of second character string image data 48b in which the character string region Tn in which the second character string 24 exists is divided for each character. The second character string image data 48b has the same number as the number of digits of the second character string 24.

図5〜図9に例示するように、識別用文字列20の認識方法は、文字列領域検出システム33から出力されたデータ34が入力するとスタートし、表示装置31に識別用文字列20が表示される又は「認識不可」が表示されると終了する方法である。また、識別用文字列20の認識方法は、繰り返し行う過程でニューラルネットワークの教師データが蓄積されるに連れて、認識精度が向上する方法である。   As illustrated in FIGS. 5 to 9, the method for recognizing the identification character string 20 starts when the data 34 output from the character string region detection system 33 is input, and the identification character string 20 is displayed on the display device 31. Or when “Unrecognizable” is displayed. In addition, the recognition method of the identification character string 20 is a method in which the recognition accuracy is improved as the neural network teacher data is accumulated in the repeated process.

図5に例示するように、データ34が入力されると、第一文字列認識部45は、予め設定された規則Pに従ってデータ34に存在する複数の文字列領域Tnを序列する(S110)。   As illustrated in FIG. 5, when the data 34 is input, the first character string recognizing unit 45 orders a plurality of character string regions Tn existing in the data 34 according to a preset rule P (S110).

図10に例示するように、データ34は、文字列が占有する領域が複数の文字列領域Tn(n=1、2、・・・、25)として検出されたデータであり、その文字列領域Tnの位置と占有面積とが平面座標として検出されたデータである。規則Pは、複数の文字列領域Tnに対して優先順位を設定する規則であり、画像14の四隅のうちのいずれかの隅を原点P0として、原点P0と文字列領域Tnとの距離に基づく規則である。この実施形態で、規則Pは、識別用文字列20が貨物12の背面の右上に記載されるという慣例に基づいて画像14の右上隅を原点P0とする。また、規則Pは、原点P0に最も近い文字列領域T3を先頭とし、最も遠い文字列領域T21を後尾とし、原点P0との距離が近い順(T3、T2、T4、T1、T8、・・・、T21)に序列する。   As illustrated in FIG. 10, the data 34 is data in which an area occupied by a character string is detected as a plurality of character string areas Tn (n = 1, 2,..., 25). This is data in which the position of Tn and the occupied area are detected as plane coordinates. The rule P is a rule for setting a priority order for a plurality of character string regions Tn, and is based on the distance between the origin P0 and the character string region Tn with any one of the four corners of the image 14 as the origin P0. It is a rule. In this embodiment, the rule P sets the upper right corner of the image 14 as the origin P0 based on the convention that the identification character string 20 is written in the upper right of the back surface of the cargo 12. The rule P is such that the character string region T3 closest to the origin P0 is the head, the character string region T21 farthest is the tail, and the distance from the origin P0 is close (T3, T2, T4, T1, T8,...・ Ordered to T21).

次いで、第一文字列認識部45は、複合型ニューラルネットワークを用いて序列のa番目の文字列領域Tnに存在する文字列を認識する(S120)。文字列が左横書きに記載される場合に、文字列領域Tnの左端を先頭とし、右端を後尾とするとよく、文字列領域
Tnを区切る区画数を第一文字列23の桁数以上とするとよい。
Next, the first character string recognizing unit 45 recognizes a character string existing in the a-th character string region Tn in the order using the composite neural network (S120). When the character string is written in left horizontal writing, the left end of the character string region Tn may be the beginning and the right end may be the tail, and the number of sections that divide the character string region Tn may be greater than or equal to the number of digits of the first character string 23.

次いで、第一文字列認識部45は、認識した文字列に対して予め設定された条件Aが成立するか否かを判定する(S140)。条件Aは、第一文字列23の既知の特徴に基づく条件である。条件Aは、認識した文字列が四桁のアルファベットで構成され、且つ、後尾に特定文字として「U」が存在する場合に成立することが好ましい。また、条件Aは、認識した文字列の先頭から3桁までがB.I.Cに登録された管理者コードのいずれかであり、且つ、後尾に「U」が存在する場合に成立することがより好ましい。   Next, the first character string recognition unit 45 determines whether or not a preset condition A is satisfied for the recognized character string (S140). Condition A is a condition based on a known feature of the first character string 23. Condition A is preferably satisfied when the recognized character string is composed of a four-digit alphabet and “U” is present as a specific character at the end. Condition A is that the first 3 digits of the recognized character string are B.3. I. More preferably, it is any of the administrator codes registered in C and “U” exists at the end.

次いで、条件Aが成立した場合に(S140:YES)、第一文字列認識部45は、認識した文字列を第一文字列23として判定部43に出力すると共に、第二文字列認識部46に第一文字列23のデータを出力する(S150)。   Next, when the condition A is satisfied (S140: YES), the first character string recognizing unit 45 outputs the recognized character string to the determining unit 43 as the first character string 23 and the second character string recognizing unit 46 Data of one character string 23 is output (S150).

一方、条件Aが不成立の場合に(S140:NO)、第一文字列認識部45は、序列の順番をカウントアップする(S160)。次いで、第一文字列認識部45は、カウントアップした順番が規則Pで序列した最後尾の順番よりも大きいか否かを判定する(S170)。順番が最後尾の順番よりも大きいと判定すると、データ34から第一文字列23を認識できないとして、表示装置31に「認識不可(ERROR)」を表示させる(S180)。一方、順番が最後尾の順番以下と判定すると、ステップS120へ戻り、序列の(a+1)番目の文字列領域Tnを選択し、ステップS120以降を行う。   On the other hand, when the condition A is not satisfied (S140: NO), the first character string recognizing unit 45 counts up the order of the order (S160). Next, the first character string recognizing unit 45 determines whether or not the counted up order is larger than the last order ordered by the rule P (S170). If it is determined that the order is greater than the last order, it is determined that the first character string 23 cannot be recognized from the data 34, and “recognition is not possible (ERROR)” is displayed on the display device 31 (S180). On the other hand, if it is determined that the order is equal to or less than the last order, the process returns to step S120, the (a + 1) th character string region Tn in the order is selected, and step S120 and subsequent steps are performed.

図6に例示するように、第一文字列認識部45から出力された第一文字列23のデータが入力されると、第二文字列認識部46は、予め設定された規則Qに従って文字列領域Tnを選択する(S210)。規則Qは、第一文字列23の文字列領域Tnの近傍に位置する複数の文字列領域Tnに対して優先順位を設定する規則である。   As illustrated in FIG. 6, when the data of the first character string 23 output from the first character string recognition unit 45 is input, the second character string recognition unit 46 performs the character string region Tn according to a preset rule Q. Is selected (S210). The rule Q is a rule for setting priorities for a plurality of character string regions Tn located in the vicinity of the character string region Tn of the first character string 23.

図11に例示するように、第二文字列24は第一文字列23の近傍に配置される。前述したとおり、第二文字列24は、第一文字列23の右方又は下方に配置される。加えて、第二文字列24は、一列の文字列、又は上下二列に分かれた二つの文字列で構成される。そこで、規則Qは図中の点線で囲われた範囲内の文字列領域(T2、T3、T4)を選択する。   As illustrated in FIG. 11, the second character string 24 is arranged in the vicinity of the first character string 23. As described above, the second character string 24 is arranged on the right side or below the first character string 23. In addition, the second character string 24 includes a single character string or two character strings divided into two upper and lower columns. Therefore, the rule Q selects a character string region (T2, T3, T4) within a range surrounded by a dotted line in the figure.

図6に例示するように、第二文字列認識部46は、複合型ニューラルネットワークを用いて選択した文字列領域Tnに存在する文字列を認識する(S220)。このステップで、文字列領域T2、T3、T4を区切る区画数を第二文字列24の桁数以上とするとよい。   As illustrated in FIG. 6, the second character string recognition unit 46 recognizes a character string existing in the character string region Tn selected using the composite neural network (S220). In this step, the number of sections that divide the character string regions T2, T3, and T4 may be greater than or equal to the number of digits of the second character string 24.

次いで、第二文字列認識部46は、認識した文字列に対して予め設定された条件Bが成立するか否かを判定する(S230)。条件Bは、第二文字列24の既知の特徴に基づく条件である。条件Bは、認識した文字列を組み合わせたときの文字数が合計して七文字以下で、且つその全てが数字であることが条件の一つである。なお、認識した文字列の組み合わせには、文字列が一つの場合を含むものとする。また、条件Bは、認識した文字列から六桁の数字が構成される場合に成立することが好ましい。つまり、条件Bは、認識した一つの文字列が横一列の六桁の数字、認識した一つの文字列が横一列の七桁の数字(後尾の一桁の数字は検査文字)、認識した二つの文字列が横一列の六桁の数字(三桁+三桁、四桁+二桁など)、認識した二つの文字列が上下二列の六桁の数字が構成される場合に成立することがより好ましい。   Next, the second character string recognition unit 46 determines whether or not a preset condition B is established for the recognized character string (S230). Condition B is a condition based on a known feature of the second character string 24. Condition B is one of the conditions that when the recognized character strings are combined, the total number of characters is seven or less and all of them are numbers. Note that the combination of recognized character strings includes the case of one character string. Further, it is preferable that the condition B is satisfied when a six-digit number is formed from the recognized character string. That is, the condition B is that one recognized character string is a six-digit number in one horizontal row, one recognized character string is a seven-digit number in one horizontal row (the last one-digit number is a check character), This is true if one character string consists of six horizontal digits (three digits + three digits, four digits + two digits, etc.), and two recognized character strings consist of two digits in the upper and lower rows. Is more preferable.

この実施形態で、条件Bが成立するか否かを第二文字列24が存在すると予測される複数の文字列領域Tnを選択して、それらに存在する文字列を認識して、それらの文字列の
組み合わせで判断したが、左横書きの順番に文字列領域Tnごとに条件Bの成否を判断してもよい。例えば、文字列領域T2〜T4に存在する文字列を順番に認識し、文字列領域T2に存在する文字列が六桁の場合に条件Bが成立したと見做してもよい。また、文字列領域T2に存在する文字列が三桁の場合に、文字列領域T3又は文字列領域T4のそれぞれに存在する文字列が三桁のときに、条件Bが成立したと見做してもよい。
In this embodiment, whether or not the condition B is satisfied is determined by selecting a plurality of character string regions Tn in which the second character string 24 is predicted to exist, recognizing the character strings existing therein, Although the determination is based on the combination of columns, the success or failure of condition B may be determined for each character string region Tn in the order of left horizontal writing. For example, the character strings existing in the character string regions T2 to T4 may be recognized in order, and the condition B may be considered to be satisfied when the character string existing in the character string region T2 has six digits. Further, when the character string existing in the character string area T2 is three digits, it is considered that the condition B is satisfied when the character string existing in each of the character string area T3 or the character string area T4 is three digits. May be.

次いで、条件Bが成立した場合に(S230:YES)、第二文字列認識部46は、認識した文字列を第二文字列24として判定部43に出力すると共に、画像処理部47に第二文字列24のデータを出力する(S240)。   Next, when the condition B is satisfied (S230: YES), the second character string recognition unit 46 outputs the recognized character string to the determination unit 43 as the second character string 24 and also sends the second character string to the image processing unit 47. The data of the character string 24 is output (S240).

一方、条件Bが不成立の場合に(S230:NO)、第二文字列認識部46は、文字列領域検出システム33に文字列領域Tnを文字の配列方向に拡大させる指示をする(S250)。次いで、第二文字列認識部46は、拡大した文字列領域Tnが最大限まで拡大したか否かを判定する(S260)。文字列領域Tnが最大限まで拡大したと判定すると、データ34から第二文字列24を認識できないとして、表示装置31に「認識不可(ERROR)」を表示させる(S270)。一方、文字列領域Tnが最大限まで拡大していないと判定すると、ステップS210へ戻り、拡大された文字列領域Tnに対して規則Qで選択し、ステップS210以降を行う。   On the other hand, when the condition B is not satisfied (S230: NO), the second character string recognition unit 46 instructs the character string area detection system 33 to expand the character string area Tn in the character arrangement direction (S250). Next, the second character string recognition unit 46 determines whether or not the expanded character string region Tn has been expanded to the maximum (S260). If it is determined that the character string area Tn has been expanded to the maximum, the second character string 24 cannot be recognized from the data 34, and “recognition not possible (ERROR)” is displayed on the display device 31 (S270). On the other hand, if it is determined that the character string area Tn has not been expanded to the maximum extent, the process returns to step S210, the expanded character string area Tn is selected according to the rule Q, and step S210 and subsequent steps are performed.

図7に例示するように、データ34及び第二文字列認識部46が出力した第二文字列24のデータが入力されると、画像処理部47は、予め設定された規則Rに従ってデータ34に存在する複数の文字列領域Tnの中から検査文字22が存在すると予測される文字列領域Tnを選択する(S310)。規則Rは、検査文字22が第二文字列24の後尾の近傍に配置される一文字の数字であることに基づいて、第二文字列24の後尾を基準とした所定の範囲内に存在する文字列領域T4を選択する規則である。   As illustrated in FIG. 7, when the data 34 and the data of the second character string 24 output from the second character string recognition unit 46 are input, the image processing unit 47 converts the data 34 into the data 34 according to a preset rule R. A character string region Tn in which the inspection character 22 is predicted to exist is selected from the plurality of existing character string regions Tn (S310). The rule R is based on the fact that the check character 22 is a single-character number arranged in the vicinity of the tail of the second character string 24, and the characters existing within a predetermined range based on the tail of the second character string 24. This is a rule for selecting the column region T4.

図12に例示するように、検査文字22は、第二文字列24の後尾の近傍に配置される。前述したとおり、検査文字22は、第二文字列24の後尾の右方又は下方に単文字として配置される。そこで、規則Rは図中の点線で囲われた範囲内の文字列領域(T3)を選択する。なお、上記のステップS210における条件Bの成否の過程で七桁の数字が認識された場合は、先頭側の六桁の数字が第二文字列24、最後尾の一桁の数字が検査文字22となることから、対象となる文字列領域T4の最後尾に当たる部位を画像処理部47で切り出すとよい。   As illustrated in FIG. 12, the inspection character 22 is arranged near the tail of the second character string 24. As described above, the inspection character 22 is arranged as a single character on the right side or below the tail of the second character string 24. Therefore, the rule R selects the character string region (T3) within the range surrounded by the dotted line in the figure. If a seven-digit number is recognized in the process of success or failure of condition B in step S210, the first six-digit number is the second character string 24, and the last one-digit number is the check character 22. Therefore, the image processing unit 47 may cut out a portion corresponding to the tail end of the target character string region T4.

図7に例示するように、画像処理部47は、選択された文字列領域Tnを画像処理した検査文字画像データ48aを単文字認識部42に出力する(S320)。   As illustrated in FIG. 7, the image processing unit 47 outputs the inspection character image data 48a obtained by performing image processing on the selected character string region Tn to the single character recognition unit 42 (S320).

次いで、単文字認識部42は、畳み込みニューラルネットワークを用いて検査文字画像データ48aに存在する単文字を認識する(S330)。次いで、単文字認識部42は、認識した単文字を検査文字22として判定部43に出力する(S340)。   Next, the single character recognition unit 42 recognizes a single character existing in the inspection character image data 48a using a convolutional neural network (S330). Next, the single character recognition unit 42 outputs the recognized single character as the check character 22 to the determination unit 43 (S340).

次いで、判定部43は、第一文字列23と第二文字列24とに所定の計算式を適用して算出文字25を算出する(S350)。所定の計算式は、第一文字列23と第二文字列24とからなる特徴文字列21から検査文字22を算出する際の計算式である。次いで、判定部43は、第一文字列23及び第二文字列24から算出した算出文字25が、単文字認識部42で認識された検査文字22に一致するか否かを判定する(S360)。   Next, the determination unit 43 calculates a calculated character 25 by applying a predetermined calculation formula to the first character string 23 and the second character string 24 (S350). The predetermined calculation formula is a calculation formula used when calculating the inspection character 22 from the characteristic character string 21 including the first character string 23 and the second character string 24. Next, the determination unit 43 determines whether or not the calculated character 25 calculated from the first character string 23 and the second character string 24 matches the inspection character 22 recognized by the single character recognition unit 42 (S360).

図8に例示するように、算出文字25が検査文字22に一致すると判定する(S360:YES)と、判定部43は、画像処理部47に指示を出し、画像処理部47に第二文字列24が存在する文字列領域Tnから文字ごとに分割する画像処理を施した複数の第二文字列画像データ48bを生成する(S410)。次いで、画像処理部47は、生成した複数の第二文字列画像データ48bをランダムに並び替えて(S420)、教師データとして第二文字列認識部46に入力する(S430)。   As illustrated in FIG. 8, when it is determined that the calculated character 25 matches the inspection character 22 (S <b> 360: YES), the determination unit 43 issues an instruction to the image processing unit 47, and the image processing unit 47 receives the second character string. A plurality of second character string image data 48b subjected to image processing for dividing each character from the character string region Tn where 24 exists is generated (S410). Next, the image processing unit 47 randomly rearranges the plurality of generated second character string image data 48b (S420), and inputs the data to the second character string recognition unit 46 as teacher data (S430).

次いで、判定部43は出力部44に指示を出し、その指示に基づいて出力部44は、表示装置31に読取システム40が識別用文字列20を読み取れたことを示すように、読み取った識別用文字列20を表示させて(S440)、この読取方法が完了する。   Next, the determination unit 43 gives an instruction to the output unit 44. Based on the instruction, the output unit 44 reads the identification string read so that the reading system 40 can read the identification character string 20 on the display device 31. The character string 20 is displayed (S440), and this reading method is completed.

図9に例示するように、算出文字25が検査文字22に一致しないと判定する(S360:NO)と、判定部43は、画像処理部47に指示を出し、画像処理部47に第二文字列24が存在する文字列領域Tnから文字ごとに分割する画像処理を施した複数の第二文字列画像データ48bを生成する(S510)。次いで、画像処理部47は、生成した複数の第二文字列画像データ48bの並び順を替えずに第二文字列認識部46に出力する(S520)。   As illustrated in FIG. 9, when it is determined that the calculated character 25 does not match the inspection character 22 (S <b> 360: NO), the determination unit 43 issues an instruction to the image processing unit 47, and sends the second character to the image processing unit 47. A plurality of second character string image data 48b subjected to image processing for dividing each character from the character string region Tn where the column 24 exists is generated (S510). Next, the image processing unit 47 outputs the generated second character string image data 48b to the second character string recognition unit 46 without changing the order of arrangement (S520).

次いで、単文字認識部42は、畳み込みニューラルネットワークを用いて複数の第二文字列画像データ48bに存在する単文字を認識する(S530)。次いで、単文字認識部42は、判定部43に再認識文字列26を出力する(S540)。   Next, the single character recognition unit 42 recognizes single characters existing in the plurality of second character string image data 48b using a convolutional neural network (S530). Next, the single character recognition unit 42 outputs the re-recognition character string 26 to the determination unit 43 (S540).

次いで、判定部43は、第一文字列23と再認識文字列26とに所定の計算式を適用して再算出文字28を算出する(S550)。次いで、判定部43は、算出した再算出文字28が、検査文字22に一致するか否かを判定する(S560)。再算出文字28が検査文字22に一致すると判定する(S560:YES)と、図8のステップS420へ進み、この読取方法が完了する。   Next, the determination unit 43 calculates a recalculated character 28 by applying a predetermined calculation formula to the first character string 23 and the re-recognized character string 26 (S550). Next, the determination unit 43 determines whether or not the calculated recalculated character 28 matches the inspection character 22 (S560). If it is determined that the recalculated character 28 matches the check character 22 (S560: YES), the process proceeds to step S420 in FIG. 8, and this reading method is completed.

一方、再算出文字28が検査文字22に一致しないと判定する(S560:NO)と、判定部43は出力部44に指示を出し、その指示に基づいて出力部44は、表示装置31に読取システム40が識別用文字列20を読み取れなかったことを示すように、「認識不可」を表示させて(S570)、この読取方法が完了する。   On the other hand, if it is determined that the recalculated character 28 does not match the inspection character 22 (S560: NO), the determination unit 43 issues an instruction to the output unit 44, and the output unit 44 reads the display device 31 based on the instruction. “Recognition is impossible” is displayed so that the system 40 cannot read the identification character string 20 (S570), and this reading method is completed.

上記の読取方法において、表示装置31に「認識不可」が表示された場合は、作業者が目視により貨物12に記載される識別用文字列20を読み取り、読み取った文字を端末の入力装置32に入力する。次いで、入力装置32に入力された入力文字列27は、エッジデバイス30に送信されて、エッジデバイス30は貨物12の識別用文字列20を認識することが可能になる。   In the above-described reading method, when “unrecognizable” is displayed on the display device 31, the operator visually reads the identification character string 20 described in the cargo 12, and the read character is input to the input device 32 of the terminal. input. Next, the input character string 27 input to the input device 32 is transmitted to the edge device 30, and the edge device 30 can recognize the character string for identification 20 of the cargo 12.

このように、読取システム40による識別用文字列20の読取方法は、識別用文字列20が認識できない場合に学習のための教師データがステップS420、S430の工程により入力される。つまり、読取方法は繰り返し行われることで、特徴文字列認識部41における特徴文字列21の認識精度が高くなる。それ故、経時的に図9に例示する第二文字列24を単文字認識部42に認識させる工程が低減する。   As described above, in the method of reading the identification character string 20 by the reading system 40, when the identification character string 20 cannot be recognized, teacher data for learning is input in the steps S420 and S430. That is, the accuracy of recognition of the characteristic character string 21 in the characteristic character string recognition unit 41 is increased by repeatedly performing the reading method. Therefore, the process of causing the single character recognition unit 42 to recognize the second character string 24 illustrated in FIG. 9 with time is reduced.

以上のように、読取システム40は、既知の特徴を手がかりとして文字列認識部41が複数の文字から構成される特徴文字列21を認識し、特徴文字列21が認識されたことで位置が特定された単文字を単文字認識部42が検査文字22として認識する構成である。   As described above, in the reading system 40, the character string recognizing unit 41 recognizes the characteristic character string 21 composed of a plurality of characters using a known characteristic as a clue, and the position is specified by the characteristic character string 21 being recognized. The single character recognition unit 42 recognizes the single character as the check character 22.

つまり、文字列を個々の文字に分解する画像処理の工程により認識率が低下する特徴文字列21を認識単位が文字列の文字列認識部41に認識させることで、画像処理の工程を省いて、画像処理を起因とする特徴文字列21の認識の低下を解消することができる。一方、文字列認識部41の数字の認識率が低いというデメリットを解消するために、単文字
の検査文字22を認識単位が単文字の単文字認識部42に高精度に認識させることで、特徴文字列の不確かな認識結果を排除することができる。
That is, the image processing step is omitted by causing the character string recognition unit 41 whose recognition unit is a character string to recognize the characteristic character string 21 whose recognition rate is reduced by the image processing step of decomposing the character string into individual characters. Therefore, it is possible to eliminate a decrease in recognition of the characteristic character string 21 due to image processing. On the other hand, in order to eliminate the demerit that the number recognition rate of the character string recognition unit 41 is low, the single character recognition unit 42 whose recognition unit is a single character recognizes the single character check character 22 with high accuracy. Uncertain recognition results of character strings can be eliminated.

以上のように、読取システム40は、識別用文字列20が既知の特徴を有する特徴文字列21とその特徴文字列21の近傍に配置される検査文字22とから構成されることに着目して、識別用文字列20の認識に異なる二つの認識方法を用いることで、それぞれの認識方法のデメリットを解消することができる。これにより、撮像装置13の撮像条件が悪い場合や画像14に複数の文字列が存在する場合でも、所定の識別用文字列20のみを高精度に自動認識することができる。   As described above, the reading system 40 pays attention to the fact that the identification character string 20 is composed of the characteristic character string 21 having a known characteristic and the inspection character 22 arranged in the vicinity of the characteristic character string 21. By using two different recognition methods for recognizing the identification character string 20, the disadvantages of the respective recognition methods can be eliminated. Thereby, even when the imaging conditions of the imaging device 13 are poor or when there are a plurality of character strings in the image 14, only the predetermined identification character string 20 can be automatically recognized with high accuracy.

また、読取システム40は、導入直後に文字列認識部41の第二文字列認識部46における第二文字列24の認識率が低い状態である。これに関して、認識可能時の複数の第二文字列画像データ48bをランダムに並び替えて教師データとして活用する教師あり学習により、繰り返し認識を行う過程で第二文字列24の認識率を向上することができる。   The reading system 40 is in a state where the recognition rate of the second character string 24 in the second character string recognition unit 46 of the character string recognition unit 41 is low immediately after introduction. In this regard, the recognition rate of the second character string 24 is improved in the process of repeated recognition by supervised learning in which a plurality of second character string image data 48b when recognizable is randomly rearranged and utilized as teacher data. Can do.

読取システム40は、文字列認識部41が識別用文字列20の既知の特徴に基づいて特徴文字列21を一度に認識することも可能であるが、実施形態のように、特徴文字列21を既知の特徴ごとに区分して、それぞれを順番に認識することが望ましい。具体的に、まず、文字列認識部41の第一文字列認識部45が、識別用文字列20の既知の特徴として第一文字列23の桁数、並びに、特定文字の字形及び順番に基づいて、第一文字列23を認識する。次いで、第二文字列認識部46がその第一文字列23の画像14における位置、並びに、第二文字列24の桁数に基づいて、第二文字列24を認識する。このように、特徴文字列21を既知の特徴ごとに区分して、それぞれを順番に認識するようにしたことで、それぞれの認識候補を大幅に絞ることができる。これにより、認識率の向上には有利になり、高精度の自動認識が可能になる。なお、既知の特徴に基づいて、特徴文字列21を三つ以上に区分して、それぞれを認識可能な認識部を三つ以上設けてもよい。   In the reading system 40, the character string recognizing unit 41 can recognize the characteristic character string 21 at a time based on the known characteristic of the identification character string 20, but the characteristic character string 21 is recognized as in the embodiment. It is desirable to classify each known feature and recognize each in turn. Specifically, first, the first character string recognition unit 45 of the character string recognition unit 41 is based on the number of digits of the first character string 23 as a known feature of the identification character string 20, and the character shape and order of the specific character. The first character string 23 is recognized. Next, the second character string recognition unit 46 recognizes the second character string 24 based on the position of the first character string 23 in the image 14 and the number of digits of the second character string 24. In this way, the feature character string 21 is divided into known features and each is recognized in turn, so that each recognition candidate can be greatly narrowed down. This is advantageous for improving the recognition rate, and enables highly accurate automatic recognition. In addition, based on a known feature, the characteristic character string 21 may be divided into three or more, and three or more recognition units capable of recognizing each may be provided.

読取システム40は、文字の読み取り方式が特に限定されないが、文字列認識部41として複合型ニューラルネットワークを用いて認識単位を文字列にし、単文字認識部42として畳み込みニューラルネットワークを用いて認識単位を単文字にすることが望ましい。畳み込みニューラルネットワークと再帰型ニューラルネットワークとを複合した複合型ニューラルネットワークは、時系列の流れに意味を持つデータの予測や分類に適するニューラルネットワークである。従って、このような複合型ニューラルネットワークは、特徴文字列21のように、複数の文字の組み合わせを認識させるには適したニューラルネットワークである。また、畳み込みニューラルネットワークは、文字や画像など各部位から特徴を検出することに適するニューラルネットワークである。   In the reading system 40, the character reading method is not particularly limited, but the character recognition unit is converted into a character string using a composite neural network as the character string recognition unit 41, and the recognition unit is set using a convolutional neural network as the single character recognition unit 42. It is desirable to use a single character. A composite neural network in which a convolutional neural network and a recursive neural network are combined is a neural network suitable for prediction and classification of data having meaning in a time series flow. Therefore, such a composite neural network is a neural network suitable for recognizing a combination of a plurality of characters such as the characteristic character string 21. The convolutional neural network is a neural network suitable for detecting features from various parts such as characters and images.

上述したとおり、第一文字列23は、所有者コードと「U」との組み合わせであり、認識候補を十分に絞ることができる。一方で、第二文字列24は、貨物12のシリアルナンバーを示しており、認識候補を絞ることができない。それ故、第二文字列24の認識精度は、第一文字列23の認識精度に比して低くなるおそれがある。そこで、判定部43により算出文字25が検査文字22と不一致であると判定した場合に、単文字認識部42に第二文字列24を一文字ずつ認識させることで、認識精度を向上することができる。   As described above, the first character string 23 is a combination of the owner code and “U”, and can sufficiently narrow down recognition candidates. On the other hand, the second character string 24 indicates the serial number of the cargo 12, and the recognition candidates cannot be narrowed down. Therefore, the recognition accuracy of the second character string 24 may be lower than the recognition accuracy of the first character string 23. Therefore, when the determination unit 43 determines that the calculated character 25 does not match the check character 22, the single character recognition unit 42 recognizes the second character string 24 character by character, thereby improving the recognition accuracy. .

既述した実施形態の読取システム40は、コンテナターミナル11で扱われる貨物12に記載された識別用文字列20を認識するシステムを例に説明したが、識別用文字列20が既知の特徴を有するものであれば、貨物12以外に記載された識別用文字列を認識することも可能である。例えば、日本国における自動車登録番号標が例示される。   The reading system 40 of the above-described embodiment has been described by way of an example of a system that recognizes the identification character string 20 described in the cargo 12 handled at the container terminal 11, but the identification character string 20 has a known feature. If it is a thing, it is also possible to recognize the character string for identification described in those other than the cargo 12. For example, an automobile registration number mark in Japan is exemplified.

既述した実施形態では、認識過程に入力される教師データの対象を第二文字列24を例
に説明したが、第一文字列23も同様にして教師データの対象としてもよい。また、検査文字22も教師データの対象としてもよい。
In the embodiment described above, the target of the teacher data input in the recognition process has been described by taking the second character string 24 as an example. However, the first character string 23 may be the target of the teacher data in the same manner. Also, the inspection character 22 may be a target of teacher data.

記述した実施形態では、第一文字列23に特徴文字である「U」が含まれることから、先に第一文字列認識部45で第一文字列23を認識し、その後、第二文字列認識部46で第二文字列23を認識する構成にしたが、この構成に限定されない。例えば、第二文字列に特徴文字が含まれる識別用文字列を認識する場合は、第二文字列から認識させてもよい。   In the described embodiment, since the first character string 23 includes the characteristic character “U”, the first character string recognition unit 45 recognizes the first character string 23 first, and then the second character string recognition unit 46. However, the present invention is not limited to this configuration. For example, when recognizing an identification character string that includes a characteristic character in the second character string, the second character string may be recognized.

表示装置31に「認識不可」が表示された場合に、入力装置32により入力される入力文字列27に基づいて、教師データを入力してもよい。   When “recognition is impossible” is displayed on the display device 31, teacher data may be input based on the input character string 27 input by the input device 32.

20 識別用文字列
21 特徴文字列
22 検査文字
40 読取システム
41 文字列認識部
42 単文字認識部
43 判定部
44 出力部
20 character string for identification 21 character string 22 inspection character 40 reading system 41 character string recognition unit 42 single character recognition unit 43 determination unit 44 output unit

Claims (6)

既知の特徴を有する特徴文字列と、その特徴文字列の近傍に配置されて、その特徴文字列に対して所定の規則を適用して算出された単文字の検査文字とからなる識別用文字列を、入力された画像から読取る読取システムであって、
前記画像の中に含まれる文字列が占有する文字列領域における先端から後尾までの間の特徴量の連なりから文字列を認識単位として、前記画像の中に含まれる複数の文字列の中から前記既知の特徴に基づいて前記特徴文字列を認識する文字列認識部と、
前記画像の中に含まれる単文字が判別可能に切り出された単文字画像データから単文字を認識単位として、前記文字列認識部が認識した前記特徴文字列の位置に基づいて前記検査文字を認識する単文字認識部と、
前記文字列認識部が認識した前記特徴文字列に対して前記所定の規則を適用して算出した算出文字と、前記検査文字とが一致した場合に、前記特徴文字列、及び前記検査文字を順に並べた文字列を前記識別用文字列として認識して出力する出力部とを備えることを特徴とする読取システム。
An identification character string comprising a characteristic character string having a known characteristic and a single character check character that is arranged in the vicinity of the characteristic character string and that is calculated by applying a predetermined rule to the characteristic character string Is a reading system that reads from an input image,
The character string is a recognition unit from a series of feature amounts between the leading end and the trailing end in the character string area occupied by the character string included in the image, and the character string included in the image is selected from the plurality of character strings included in the image. A character string recognition unit for recognizing the characteristic character string based on a known feature;
Recognizing the inspection character based on the position of the characteristic character string recognized by the character string recognition unit, with a single character as a recognition unit from single character image data cut out so that a single character included in the image can be discriminated. A single character recognition unit to
When the check character matches the calculated character calculated by applying the predetermined rule to the feature character string recognized by the character string recognition unit, the feature character string and the check character are sequentially A reading system comprising: an output unit that recognizes and outputs the arranged character strings as the identification character strings.
前記特徴文字列は、二桁以上の予め特定された桁数で構成されると共に予め字形及び順番が特定された特定文字を少なくとも一文字含む第一文字列と、前記第一文字列の近傍に配置されると共に予め特定された二桁以上の桁数で構成される第二文字列とから構成され、
前記文字列認識部は、前記既知の特徴として前記第一文字列の桁数、並びに、前記特定文字の字形及び順番に基づいて、前記第一文字列を認識し、認識したその第一文字列の前記画像における位置、並びに、前記第二文字列の桁数に基づいて、前記第二文字列を認識する機能を有する請求項1に記載の読取システム。
The characteristic character string includes a first character string including at least one specific character that is configured with a predetermined number of digits of two or more digits and whose shape and order are specified in advance, and is arranged in the vicinity of the first character string. And a second character string composed of two or more digits specified in advance,
The character string recognizing unit recognizes the first character string based on the number of digits of the first character string and the character shape and order of the specific character as the known features, and the image of the recognized first character string. The reading system according to claim 1, wherein the reading system has a function of recognizing the second character string based on the position of the second character string and the number of digits of the second character string.
前記文字列認識部は、畳み込みニューラルネットワークと再帰型ニューラルネットワークとを複合した複合型ニューラルネットワークを用いて前記特徴文字列を認識する機能を有し、
前記単文字認識部は、畳み込みニューラルネットワークを用いて前記検査文字を認識する機能を有する請求項1又は2に記載の読取システム。
The character string recognizing unit has a function of recognizing the characteristic character string using a composite neural network that combines a convolutional neural network and a recursive neural network,
The reading system according to claim 1, wherein the single character recognition unit has a function of recognizing the check character using a convolutional neural network.
前記算出文字が前記検査文字と一致するか否かを判定する判定部を備えると共に前記文字列認識部がニューラルネットワークを用いて前記特徴文字列を認識する機能を有し、
前記判定部は、前記算出文字が前記検査文字と不一致であると判定した場合に、前記単文字認識部に、前記特徴文字列を構成する文字の全て又はその一部を一文字ずつ再認識させ、
前記判定部は、前記単文字認識部に再認識させた文字を含む再認識文字列に対して前記所定の規則を適用して算出した再算出文字が前記検査文字と一致すると判定した場合に、前記文字列認識部に対して、前記再認識文字列を文字ごとに分割した画像データをランダムに並び替えて教師データとして入力する機能を有する請求項1〜3のいずれか1項に記載の読取システム。
A determination unit that determines whether or not the calculated character matches the inspection character and the character string recognition unit has a function of recognizing the characteristic character string using a neural network;
When the determination unit determines that the calculated character does not match the inspection character, the single character recognition unit causes the single character recognition unit to re-recognize all or part of the characters constituting the characteristic character string one by one,
When the determination unit determines that the recalculated character calculated by applying the predetermined rule to the re-recognized character string including the character re-recognized by the single character recognition unit matches the inspection character, The reading according to any one of claims 1 to 3, further comprising a function of randomly sorting image data obtained by dividing the re-recognized character string for each character and inputting the data as teacher data to the character string recognition unit. system.
前記算出文字が前記検査文字と一致するか否かを判定する判定部を備えると共に前記文字列認識部がニューラルネットワークを用いて前記特徴文字列を認識する機能を有し、
前記判定部は、前記算出文字が前記検査文字に一致したと判定した場合に、前記文字列認識部に対して、その文字列認識部が認識した文字列を文字ごとに分割した画像データをランダムに並び替えて教師データとして入力する機能を有する請求項1〜4のいずれか1項に記載の読取システム。
A determination unit that determines whether or not the calculated character matches the inspection character and the character string recognition unit has a function of recognizing the characteristic character string using a neural network;
When the determination unit determines that the calculated character matches the check character, the character string recognition unit randomly determines image data obtained by dividing the character string recognized by the character string recognition unit for each character. 5. The reading system according to claim 1, wherein the reading system has a function of rearranging and inputting the data as teacher data.
既知の特徴を有する特徴文字列と、その特徴文字列の近傍に配置されて、その特徴文字列に対して所定の規則を適用して算出された単文字の検査文字とからなる識別用文字列を、入力された画像から読み取る読取方法であって、
前記画像の中に含まれる文字列が占有する文字列領域における先端から後尾までの間の特徴量の連なりから文字列を認識単位として、前記画像の中に含まれる複数の文字列の中から前記既知の特徴に基づいて前記特徴文字列を認識し、
前記画像の中に含まれる単文字が判別可能に切り出された単文字画像データから単文字を認識単位として、探し出した前記特徴文字列の位置に基づいて前記検査文字を認識し、
識した前記特徴文字列に対して前記所定の規則を適用して算出文字を算出し、
前記算出文字と、前記検査文字とが一致するか否かを判定し、
前記算出文字と前記検査文字とが一致したと判定した場合に、前記特徴文字列、及び前記検査文字を順に並べた文字列を前記識別用文字列として認識することを特徴とする読取方法。
An identification character string comprising a characteristic character string having a known characteristic and a single character check character that is arranged in the vicinity of the characteristic character string and that is calculated by applying a predetermined rule to the characteristic character string Is a method of reading from an input image,
The character string is a recognition unit from a series of feature amounts between the leading end and the trailing end in the character string area occupied by the character string included in the image, and the character string included in the image is selected from the plurality of character strings included in the image. Recognizing the feature string based on known features;
Examples recognition unit of single characters from the single character image data in which a single character is cut out to be discriminated included in the image, recognizes the check character based on the position of the feature strings began to probe,
Applying said predetermined rule for recognition by said characteristic character string to calculate a calculated character,
Determining whether the calculated character and the inspection character match;
A reading method characterized by recognizing, as the identification character string, the characteristic character string and a character string in which the check characters are arranged in order when it is determined that the calculated character matches the check character.
JP2018049106A 2018-03-16 2018-03-16 Reading system and reading method Active JP6430672B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018049106A JP6430672B1 (en) 2018-03-16 2018-03-16 Reading system and reading method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018049106A JP6430672B1 (en) 2018-03-16 2018-03-16 Reading system and reading method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018203849A Division JP7181761B2 (en) 2018-10-30 2018-10-30 Reading system and reading method

Publications (2)

Publication Number Publication Date
JP6430672B1 true JP6430672B1 (en) 2018-11-28
JP2019160131A JP2019160131A (en) 2019-09-19

Family

ID=64480576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018049106A Active JP6430672B1 (en) 2018-03-16 2018-03-16 Reading system and reading method

Country Status (1)

Country Link
JP (1) JP6430672B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019160285A (en) * 2018-10-30 2019-09-19 株式会社三井E&Sマシナリー Reading system and reading method
JP2020184109A (en) * 2019-04-26 2020-11-12 Arithmer株式会社 Learning model generation device, character recognition device, learning model generation method, character recognition method, and program
JP2020197796A (en) * 2019-05-31 2020-12-10 キヤノンマーケティングジャパン株式会社 Trained model and program
JP2021005164A (en) * 2019-06-25 2021-01-14 株式会社エクサウィザーズ Character recognition device, imaging device, character recognition method, and character recognition program
JP2021022285A (en) * 2019-07-30 2021-02-18 グローリー株式会社 Medium identification device, medium identification system, and medium identification method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0728766A (en) * 1993-06-24 1995-01-31 Toshiba Corp Pattern recognition system and monitor system
JP2002037453A (en) * 2000-07-18 2002-02-06 Kawasaki Heavy Ind Ltd Gate system of container terminal
JP2014219819A (en) * 2013-05-08 2014-11-20 日立オムロンターミナルソリューションズ株式会社 Character recognition device and method therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0728766A (en) * 1993-06-24 1995-01-31 Toshiba Corp Pattern recognition system and monitor system
JP2002037453A (en) * 2000-07-18 2002-02-06 Kawasaki Heavy Ind Ltd Gate system of container terminal
JP2014219819A (en) * 2013-05-08 2014-11-20 日立オムロンターミナルソリューションズ株式会社 Character recognition device and method therefor

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019160285A (en) * 2018-10-30 2019-09-19 株式会社三井E&Sマシナリー Reading system and reading method
JP7181761B2 (en) 2018-10-30 2022-12-01 株式会社三井E&Sマシナリー Reading system and reading method
JP2020184109A (en) * 2019-04-26 2020-11-12 Arithmer株式会社 Learning model generation device, character recognition device, learning model generation method, character recognition method, and program
JP2020197796A (en) * 2019-05-31 2020-12-10 キヤノンマーケティングジャパン株式会社 Trained model and program
JP2021005164A (en) * 2019-06-25 2021-01-14 株式会社エクサウィザーズ Character recognition device, imaging device, character recognition method, and character recognition program
JP2021022285A (en) * 2019-07-30 2021-02-18 グローリー株式会社 Medium identification device, medium identification system, and medium identification method
JP7405528B2 (en) 2019-07-30 2023-12-26 グローリー株式会社 Media discrimination device, medium discrimination system, and medium discrimination method

Also Published As

Publication number Publication date
JP2019160131A (en) 2019-09-19

Similar Documents

Publication Publication Date Title
JP6430672B1 (en) Reading system and reading method
CN108470021B (en) Method and device for positioning table in PDF document
US9008430B2 (en) Identification method and apparatus of confusable character
CN109801260B (en) Livestock number identification method and device, control device and readable storage medium
US8620094B2 (en) Pattern recognition apparatus, pattern recogntion method, image processing apparatus, and image processing method
CN110619333B (en) Text line segmentation method, text line segmentation device and electronic equipment
CN111340023B (en) Text recognition method and device, electronic equipment and storage medium
CN109063706A (en) Verbal model training method, character recognition method, device, equipment and medium
CN101408937B (en) Method and apparatus for locating character row
JP7181761B2 (en) Reading system and reading method
CN112541504A (en) Method for detecting single character target in text
CN111079480A (en) Identification method and device of identity card information and terminal equipment
CN107862314B (en) Code spraying identification method and device
CN111126286A (en) Vehicle dynamic detection method and device, computer equipment and storage medium
Ganai et al. Projection profile based ligature segmentation of Nastaleeq Urdu OCR
JPH07160822A (en) Pattern recognizing method
CN109034166B (en) Confusable character recognition model training method and device
JP4853313B2 (en) Character recognition device
CN109409370B (en) Remote desktop character recognition method and device
KR100954137B1 (en) Edge-based text localization and segmentation algorithms for automatic slab information recognition
CN111626982A (en) Method and device for identifying batch codes of containers to be detected
JP2832928B2 (en) Character recognition method
KR102007791B1 (en) Number recognition method and apparatus based on hierarchical analysis of edge property
CN107331030A (en) A kind of crown word number identification method, device, equipment and storage medium
KR20240044777A (en) Real-time objection detection network system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180316

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180316

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20180606

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181031

R150 Certificate of patent or registration of utility model

Ref document number: 6430672

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250