JP2017016549A - Character recognition device, character recognition method, and program - Google Patents

Character recognition device, character recognition method, and program Download PDF

Info

Publication number
JP2017016549A
JP2017016549A JP2015135059A JP2015135059A JP2017016549A JP 2017016549 A JP2017016549 A JP 2017016549A JP 2015135059 A JP2015135059 A JP 2015135059A JP 2015135059 A JP2015135059 A JP 2015135059A JP 2017016549 A JP2017016549 A JP 2017016549A
Authority
JP
Japan
Prior art keywords
item
character
recognition
recognizing
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015135059A
Other languages
Japanese (ja)
Other versions
JP6527410B2 (en
Inventor
新庄 広
Hiroshi Shinjo
広 新庄
高橋 寿一
Juichi Takahashi
寿一 高橋
義行 小林
Yoshiyuki Kobayashi
義行 小林
健太郎 大西
Kentaro Onishi
健太郎 大西
亮一 加畑
Ryoichi Kahata
亮一 加畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2015135059A priority Critical patent/JP6527410B2/en
Publication of JP2017016549A publication Critical patent/JP2017016549A/en
Application granted granted Critical
Publication of JP6527410B2 publication Critical patent/JP6527410B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

PROBLEM TO BE SOLVED: To eliminate the need for an operation to confirm specific information on an apparatus by a user and manual input of inspection items by a user, thereby improving work efficiency.SOLUTION: Provided is a character recognition device comprising: a storage unit for storing a recognition dictionary in which a plurality of groups including a plurality of items to recognize characters, an order of recognition within a group of the plurality of items included in the group, and information used in the character recognition of each item are registered; and a processor. The items registered in the recognition dictionary include a plurality of first items and a plurality of second items, a first item being the item that appears first in the order of recognition within a group, at least one second item being associated with the first item. The processor recognizes the character of a first item from an inputted image on the basis of information used for recognizing the characters of the first items of the plurality of groups registered in the recognition dictionary, specifies a second item to recognize a character next from a second item associated with the first item of the recognized character, and recognizes the character of the second item from the inputted image on the basis of information used for recognizing the character of the specified second item, the information being read out from the recognition dictionary.SELECTED DRAWING: Figure 5

Description

本発明は、入力された画像から文字を認識する文字認識装置に関する。   The present invention relates to a character recognition device that recognizes characters from an input image.

情報通信機器等の数、及び情報通信機器等が扱うデータ量は飛躍的に増加している。情報通信機器等を用いた情報サービスを運用するために、当該情報通信機器等を安定的に稼働させる必要がある。このため、情報通信機器等が設置される場所において、情報通信機器等の点検作業の重要性が増している。   The number of information communication devices and the amount of data handled by the information communication devices are increasing dramatically. In order to operate an information service using an information communication device or the like, it is necessary to operate the information communication device or the like stably. For this reason, the importance of inspection work of information communication devices and the like is increasing in places where the information communication devices and the like are installed.

従来の点検作業では、作業員が点検結果を紙の点検表に手書きで記入するものでる。このため、点検作業の運用効率、及び点検作業の正確性の面で以下の問題があった。
(1)紙の利用によるコスト高:点検表に記入された点検結果をデータ化するために別途パンチ入力作業が必要となり、コストが高くなる。
(2)型番の確認作業の煩雑さ:点検作業では、作業員が、点検対象の機器の型番を確認した後、当該機器に応じた点検項目を確認する。しかし、似たような型式の型番の機器が多く設置される場所では、型番及び点検項目の文字が小さく、設置場所が暗い可能性が高いので、点検対象の機器の型番を特定すること及び点検項目の数字又はコード等を確認することが煩雑である。このような状況で作業員による目視の型番の確認作業は、時間がかかるうえに誤りを伴う可能性が高い。
(3)点検作業の煩雑さ:点検作業においては、紙に点検すべき項目が記入されており、作業員が、一つの項目を点検した後、紙を見て、次の項目を確認し、当該項目の数字又はコード等を見つけて、当該数字又はコードを点検表に記入するが、この点検作業が煩雑である。
In the conventional inspection work, an operator manually writes the inspection result on a paper inspection table. For this reason, there are the following problems in terms of operational efficiency of inspection work and accuracy of inspection work.
(1) High cost due to the use of paper: A separate punch input operation is required to convert the inspection results entered in the inspection table into data, which increases costs.
(2) Complexity of confirmation work of model number: In the inspection work, after confirming the model number of the device to be inspected, the worker confirms the inspection item corresponding to the device. However, in places where many devices with similar model numbers are installed, the characters of the model numbers and inspection items are small and the installation location is likely to be dark. It is complicated to confirm the number or code of the item. In such a situation, the visual confirmation of the model number by the worker takes time and is likely to be erroneous.
(3) Complexity of the inspection work: In the inspection work, the items to be inspected are filled in, and after checking one item, the worker looks at the paper and confirms the next item, The number or code or the like of the item is found and the number or code is entered in the inspection table, but this inspection work is complicated.

上記(1)〜(3)の問題に対して、特開2015−1851号公報(特許文献1)に記載された技術がある。特許文献1の公報には、「同じ種類の点検を実施する予定の設備または機器の識別情報、設備機器名称情報、点検内容情報、支援情報および関連設備機器情報を抽出する第1の抽出部と、点検を実施する予定の設備または機器に対応する階層情報および場所特定情報を抽出する第2の抽出部と、次に点検を実施する設備または機器の候補を特定する候補特定部と、点検を実施する予定の設備または機器に対応する識別情報、点検内容情報、支援情報および候補を、作業者の利用する端末の表示部に表示させるための点検シナリオ表示情報を生成する表示生成部と、を備える点検支援装置である。」と記載されている(要約参照)。   With respect to the problems (1) to (3), there is a technique described in Japanese Patent Laid-Open No. 2015-1851 (Patent Document 1). In the gazette of Patent Document 1, “a first extraction unit that extracts identification information of equipment or equipment scheduled to carry out the same type of inspection, equipment equipment name information, inspection content information, support information, and related equipment information; A second extraction unit for extracting hierarchical information and location specifying information corresponding to the facility or equipment to be inspected, a candidate specifying unit for specifying a candidate for the facility or equipment to be inspected next, and an inspection. A display generation unit that generates inspection scenario display information for displaying identification information, inspection content information, support information, and candidates corresponding to the facility or equipment to be implemented on the display unit of the terminal used by the worker; It is an inspection support device that is provided. ”(See summary).

特開2015−1851号公報Japanese Patent Laying-Open No. 2015-1851

特許文献1に記載の技術では、点検項目の数字又はコード等が作業員によって端末にデータとして手作業で入力されるので、上記(1)の問題は解決される。また、作業者の端末に点検シナリオが表示されるので、上記(3)の問題も解決される。   In the technique described in Patent Document 1, since the number or code of the inspection item is manually input as data to the terminal by the worker, the problem (1) is solved. Further, since the inspection scenario is displayed on the operator's terminal, the problem (3) is solved.

しかしながら、特許文献1に記載の技術では、作業員が型番等を確認しなければならず、また、作業員が手作業で点検項目の数字又はコード等を入力する必要がある。このため、上記(2)の問題は解決されない。また、作業員が点検項目の箇所を探す必要がある。   However, in the technique described in Patent Document 1, the worker must confirm the model number and the like, and the worker must manually enter the numbers or codes of the inspection items. For this reason, the problem (2) is not solved. In addition, it is necessary for the worker to search for the inspection item.

本発明は、機器の特定情報の文字を認識して、機器の特定情報に対応する点検項目の文字を認識することによって、ユーザが機器の特定情報の確認作業、及びユーザの点検項目の手作業による入力を不要として、作業効率を向上させる文字認識装置を提供することを目的とする。   The present invention recognizes the character of the device specific information and recognizes the character of the check item corresponding to the device specific information, so that the user can confirm the device specific information and the user can manually check the check item. An object of the present invention is to provide a character recognition device that eliminates the need for input and improves work efficiency.

本発明の代表的な一例を示せば、入力された画像に含まれる文字を認識する文字認識装置であって、文字を認識する複数の項目を含む複数のグループと、前記グループに含まれる複数の項目の当該グループ内での認識順序と、各項目の文字の認識に用いる情報とが登録された認識辞書を記憶する記憶部と、プロセッサと、を備え、前記認識辞書に登録される項目は、複数の第1項目及び複数の第2項目を含み、前記第1項目は前記グループ内での認識順序が最初の項目であって、前記第1項目に少なくとも一つの第2項目が関連付けられ、前記プロセッサは、前記認識辞書に登録された複数のグループの第1項目の文字の認識に用いる情報に基づいて、入力された画像から前記第1項目の文字を認識し、前記認識辞書に登録された前記認識順序を参照し、前記認識された文字の第1項目に関連付けられた第2項目から次に文字を認識する第2項目を特定し、前記特定した第2項目の文字の認識に用いる情報を前記認識辞書から読み出し、前記読み出された第2項目の文字の認識に用いる情報に基づいて、入力された画像から当該第2項目の文字を認識することを特徴とする。   A typical example of the present invention is a character recognition device that recognizes characters included in an input image, and includes a plurality of groups including a plurality of items for recognizing characters, and a plurality of groups included in the group. A storage unit that stores a recognition dictionary in which recognition order of items within the group and information used for character recognition of each item are registered, and a processor, and the items registered in the recognition dictionary are: Including a plurality of first items and a plurality of second items, wherein the first item is the first item in the recognition order in the group, and at least one second item is associated with the first item, The processor recognizes the character of the first item from the input image based on information used for recognizing the character of the first item of the plurality of groups registered in the recognition dictionary, and is registered in the recognition dictionary. Recognition order The second item for recognizing the character next is specified from the second item associated with the first item of the recognized character, and the information used for recognizing the character of the specified second item is recognized. Characters of the second item are recognized from the input image based on information used for recognizing the character of the second item read out from the dictionary.

本願において開示される発明のうち代表的なものによって得られる効果を簡潔に説明すれば、下記の通りである。すなわち、ユーザが機器の特定情報の確認作業、及びユーザの点検項目の手作業による入力を不要として、作業効率を向上させる文字認識装置を提供できる。   The effects obtained by the representative ones of the inventions disclosed in the present application will be briefly described as follows. That is, it is possible to provide a character recognition device that improves the work efficiency by eliminating the need for the user to check the device specific information and manually input the inspection items of the user.

上記した以外の課題、構成、及び効果は、以下の実施形態の説明により明らかにされる。   Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.

実施例1の点検作業の一例の説明図である。FIG. 6 is an explanatory diagram of an example of inspection work according to the first embodiment. 実施例1の文字認識装置のハードウェア構成図である。1 is a hardware configuration diagram of a character recognition device according to Embodiment 1. FIG. 実施例1の点検シナリオデータの説明図である。It is explanatory drawing of the inspection scenario data of Example 1. FIG. 実施例1の作業ログの説明図である。It is explanatory drawing of the work log of Example 1. FIG. 実施例1の文字認識部によって実行される文字認識処理のフローチャートである。It is a flowchart of the character recognition process performed by the character recognition part of Example 1. FIG. 実施例1の型番照合処理及び項目認識処理のフローチャートである。It is a flowchart of the model number collation process and item recognition process of Example 1. 実施例1の文字認識前処理及び文字列認識処理のフローチャートである。It is a flowchart of the character recognition pre-process of Example 1, and a character string recognition process. 実施例1の日付辞書の説明図である。3 is an explanatory diagram of a date dictionary according to Embodiment 1. FIG. 実施例1の場所選択受付画面の説明図である。It is explanatory drawing of the place selection reception screen of Example 1. FIG. 実施例1の型番一覧表示画面の説明図である。It is explanatory drawing of the model number list display screen of Example 1. FIG. 実施例1の型番の認識結果表示画面の説明図である。It is explanatory drawing of the recognition result display screen of the model number of Example 1. FIG. 実施例1の点検項目一覧表示画面の説明図である。It is explanatory drawing of the inspection item list display screen of Example 1. FIG. 実施例1のS/Nの認識結果表示画面の説明図である。It is explanatory drawing of the recognition result display screen of S / N of Example 1. FIG. 実施例2の文字認識処理のフローチャートである。10 is a flowchart of character recognition processing according to the second embodiment. 実施例2の項目一括認識処理のフローチャートである。It is a flowchart of the item batch recognition process of Example 2. 実施例1の項目一括確認処理のフローチャートである。6 is a flowchart of an item batch confirmation process according to the first embodiment. 実施例2の型番の認識結果表示画面の説明図である。It is explanatory drawing of the recognition result display screen of the model number of Example 2. FIG. 実施例2の項目(S/N)の認識結果表示画面の説明図である。It is explanatory drawing of the recognition result display screen of the item (S / N) of Example 2. FIG. 実施例2の項目(MAC)の認識結果表示画面の説明図である。It is explanatory drawing of the recognition result display screen of the item (MAC) of Example 2. FIG. 実施例2の未認識項目表示画面の説明図である。It is explanatory drawing of the unrecognized item display screen of Example 2. FIG. 実施例3の文字認識処理のフローチャートである。14 is a flowchart of character recognition processing according to the third embodiment. 実施例3の点検項目の一覧を表示する認識結果表示画面の説明図である。It is explanatory drawing of the recognition result display screen which displays the list of the inspection items of Example 3. FIG. 実施例3の型番の認識結果表示画面の説明図である。It is explanatory drawing of the recognition result display screen of the model number of Example 3. FIG.

実施例1について図1〜図9Eを用いて説明する。   Example 1 will be described with reference to FIGS.

本実施例では、例えば、データセンタ及び各種店舗等に設置された情報機器(例えば、サーバ等)の点検作業に用いられる文字認識装置について説明する。しかしながら、本実施例の文字認識装置は、点検作業に限定されることなく、画像及び動画等から文字を認識する作業に適用可能である。   In the present embodiment, for example, a character recognition device used for an inspection operation of information equipment (for example, a server or the like) installed in a data center or various stores will be described. However, the character recognition device according to the present embodiment is not limited to the inspection work, and can be applied to a work for recognizing characters from images and moving images.

まず、本実施例の概略について説明する。   First, an outline of the present embodiment will be described.

本実施例の文字認識装置は、入力された画像から文字を認識する必要のある項目文字を自動的に認識し、認識した文字を点検作業結果として記憶する。これによって、ユーザの作業効率を向上させることができる。   The character recognition device of the present embodiment automatically recognizes item characters that need to be recognized from the input image, and stores the recognized characters as the inspection work result. As a result, the user's work efficiency can be improved.

図1は、実施例1の点検作業の一例の説明図である。   FIG. 1 is an explanatory diagram of an example of inspection work according to the first embodiment.

図1では、一例として、携帯端末100が文字認識部251(図2参照)を有する文字認識装置であるものとして説明する。   In FIG. 1, as an example, the portable terminal 100 will be described as a character recognition device having a character recognition unit 251 (see FIG. 2).

ユーザ(例えば、点検作業を実施する作業員)は、機器140に貼付されたラベル141を携帯端末100(例えばタブレット端末及びスマートフォン等)のカメラで撮影する。カメラで撮影された画像は、携帯端末100のディスプレイに認識結果表示画面110として表示される。認識結果表示画面110は、撮影画像表示エリア120及び文字認識結果表示エリア130を含む。撮影画像表示エリア120には、カメラで撮影された画像が表示され、当該画像に含まれる文字列のうち文字が認識された文字列が矩形121で囲まれて表示される。   A user (for example, a worker who performs inspection work) photographs the label 141 attached to the device 140 with the camera of the mobile terminal 100 (for example, a tablet terminal or a smartphone). An image captured by the camera is displayed as a recognition result display screen 110 on the display of the mobile terminal 100. The recognition result display screen 110 includes a captured image display area 120 and a character recognition result display area 130. In the captured image display area 120, an image captured by a camera is displayed, and a character string in which characters are recognized among character strings included in the image is surrounded and displayed by a rectangle 121.

文字認識結果表示エリア130は、認識文字列拡大画像表示部131、文字認識結果表示部132、OKボタン133、及びRetryボタン134を含む。   The character recognition result display area 130 includes a recognized character string enlarged image display unit 131, a character recognition result display unit 132, an OK button 133, and a Retry button 134.

認識文字列拡大画像表示部131には、文字が認識された文字列の拡大された画像が表示される。文字認識結果表示部132には、認識された文字が表示される。認識文字列拡大画像表示部131及び文字認識結果表示部132は、ユーザがカメラで撮影された文字列と認識された文字との比較を可能にする。   The recognized character string enlarged image display unit 131 displays an enlarged image of the character string in which the character is recognized. The recognized character is displayed on the character recognition result display unit 132. The recognized character string enlarged image display unit 131 and the character recognition result display unit 132 allow the user to compare the recognized character string with the recognized character string.

ユーザは、認識された文字が正しいと判断した場合、OKボタン133を操作する。一方、ユーザは、認識された文字が正しくないと判断した場合、Retryボタン134を操作して、再度文字を認識させるか、手入力で正しい文字を入力する。   When the user determines that the recognized character is correct, the user operates the OK button 133. On the other hand, when the user determines that the recognized character is not correct, the user operates the Retry button 134 to recognize the character again or inputs the correct character manually.

本実施例では、文字認識の精度を向上させるために、点検シナリオデータ261(図2参照)及び作業ログ262(図2参照)を用いて文字を認識する。   In the present embodiment, in order to improve the accuracy of character recognition, characters are recognized using the inspection scenario data 261 (see FIG. 2) and the work log 262 (see FIG. 2).

(1)点検シナリオデータ261に基づく文字認識
点検シナリオデータ261は、特許請求の範囲では認識辞書と記載され、点検シナリオデータ261には、文字を認識する複数の項目を含む複数のグループと、各グループ内での項目の認識順序と、各項目の文字の認識に用いる情報とが登録される。なお、点検シナリオデータ261に登録される項目は、複数の第1項目及び複数の第2項目を含み、第1項目は前記グループ内での認識順序が最初の項目であって、機器を特定するための機器特定情報(例えば型番)である。また、第1項目に少なくとも一つの第2項目が関連付けられる。第2項目は、機器特定情報以外の点検すべき項目である。
(1) Character recognition based on inspection scenario data 261 The inspection scenario data 261 is described as a recognition dictionary in the claims, and the inspection scenario data 261 includes a plurality of groups including a plurality of items for recognizing characters, The recognition order of items in the group and information used for character recognition of each item are registered. The items registered in the inspection scenario data 261 include a plurality of first items and a plurality of second items, and the first item is the first item in the recognition order in the group, and identifies the device. Device identification information (for example, model number). In addition, at least one second item is associated with the first item. The second item is an item to be inspected other than the device identification information.

携帯端末100は、点検する項目ごとに利用する辞書を切り替えて各項目の文字を認識する。これによって、携帯端末100は、点検項目に適した辞書を用いて各項目の文字を認識するので、文字認識の精度を向上させることができる。   The portable terminal 100 recognizes characters of each item by switching a dictionary to be used for each item to be checked. Thereby, since the portable terminal 100 recognizes the character of each item using the dictionary suitable for the check item, the accuracy of character recognition can be improved.

(2)作業ログ262に基づく文字認識
作業ログ262には、各項目の認識結果と、画像を補正するための各種パラメータとが登録される。各機器の各項目が点検された際の認識結果及び各種パラメータが作業ログ262に蓄積される。文字認識が一度成功した項目が再度文字認識される場合、文字認識が成功した作業ログ262を利用でき、当該項目の文字認識の精度を向上させることができる。
(2) Character recognition based on work log 262 In the work log 262, the recognition result of each item and various parameters for correcting an image are registered. A recognition result and various parameters when each item of each device is inspected are accumulated in the work log 262. When an item for which character recognition has been successful once is recognized again, the work log 262 for which character recognition has been successful can be used, and the accuracy of character recognition for the item can be improved.

本実施例の点検シナリオデータ261及び作業ログ262を文字認識に利用することによって、文字認識の精度を向上させ、点検作業を効率化できる。なお、作業ログ262は文字認識に必ずしも利用されなくてもよい。   By using the inspection scenario data 261 and the work log 262 of this embodiment for character recognition, the accuracy of character recognition can be improved and the inspection work can be made more efficient. The work log 262 is not necessarily used for character recognition.

例えば、点検シナリオデータ261の各項目の文字認識に利用する情報としては、項目の文字種別、項目の文字数、及び項目の表記形式等がある。文字種別は、項目の文字に使用される文字の種別(例えば、数字、英字、カナ、漢字、又は記号等)である。文字数は、項目の文字の数であり、項目の文字が数字であれば桁数であってもよい。表記形式は、項目特有の文字の表記形式である。例えば、日付の表記形式は、「YY.MM.DD」又は「YY/MM/DD」等である。ここで、「YY」「MM」「DD」は、それぞれ年、月、日を表す数字を意味する。例えば、「MM」の場合、「1〜12」と「01〜09」の数字である。   For example, information used for character recognition of each item of the inspection scenario data 261 includes an item character type, an item character number, an item notation format, and the like. The character type is a character type (for example, a number, an alphabet, a kana, a kanji, or a symbol) used for the item character. The number of characters is the number of characters of the item, and may be the number of digits if the character of the item is a number. The notation format is a character-specific character notation format. For example, the date format is “YY.MM.DD” or “YY / MM / DD”. Here, “YY”, “MM”, and “DD” mean numbers representing year, month, and day, respectively. For example, in the case of “MM”, the numbers are “1-12” and “01-09”.

本実施例は、文字を認識する項目に対応して認識辞書を切り替える。例えば、画像中の日付「15.01.18」が認識辞書を利用せずに文字認識されると、「l(エル)5.O1・旧」と誤認識される可能性がある。画像中の「1」はアルファベットの「エル」に誤認識され、画像中の「0」はアルファベットの「オー」に誤認識され、画像中の「.」は中点に誤認識され、画像中の「18」は、「1」と「8」とが一文字として認識されて「旧」と誤認識されている。   In this embodiment, the recognition dictionary is switched corresponding to the item for recognizing characters. For example, if the date “15.01.18” in the image is recognized without using the recognition dictionary, it may be erroneously recognized as “l (el) 5.O1 · old”. “1” in the image is misrecognized by the alphabet “El”, “0” in the image is misrecognized by the alphabet “O”, “.” In the image is misrecognized by the middle point, In “18”, “1” and “8” are recognized as one character and are erroneously recognized as “old”.

例えば、日付の項目の認識辞書として、文字種別が数字であること、及び表記形式「YY.MM.DD」が登録されていれば、このような誤認識を防止でき、当該日付の項目の文字を正確に認識することができる。   For example, if a character type is a number and a notation format “YY.MM.DD” is registered as a date item recognition dictionary, such misrecognition can be prevented, and characters of the date item can be prevented. Can be accurately recognized.

また、点検シナリオデータ261には項目の点検順序が登録されているので、点検作業の点検順に認識辞書を自動的に切り替えることができ、文字を認識する項目に適切な点検シナリオデータ261を利用して、文字を認識することができる。   Further, since the inspection order of items is registered in the inspection scenario data 261, the recognition dictionary can be automatically switched in the inspection order of the inspection work, and the inspection scenario data 261 appropriate for the item for recognizing characters is used. Can recognize characters.

以上によって、ユーザが機器140のラベル141を携帯端末100のカメラで撮影するだけで、点検作業で入力する必要のある項目の文字が携帯端末100に入力される。これによって、ユーザの点検効率を向上させることができる。   As described above, the user simply captures the label 141 of the device 140 with the camera of the mobile terminal 100, and the characters of items that need to be input in the inspection work are input to the mobile terminal 100. Thereby, a user's inspection efficiency can be improved.

なお、必ずしも、携帯端末100が文字認識部251を有する文字認識装置である必要はない。例えば、携帯端末100は、自身が撮影した画像を、文字認識部251を有するサーバ(文字認識装置)に送信し、サーバが文字認識処理を実行して、文字認識結果を携帯端末100に送信する。そして、携帯端末100が文字認識結果等を携帯端末100のディスプレイに表示してもよい。   Note that the mobile terminal 100 is not necessarily a character recognition device having the character recognition unit 251. For example, the mobile terminal 100 transmits an image captured by itself to a server (character recognition device) having the character recognition unit 251, and the server executes character recognition processing and transmits the character recognition result to the mobile terminal 100. . Then, the mobile terminal 100 may display a character recognition result or the like on the display of the mobile terminal 100.

図2は、実施例1の文字認識装置200のハードウェア構成図である。   FIG. 2 is a hardware configuration diagram of the character recognition device 200 according to the first embodiment.

上記したように、文字認識装置200は、携帯端末100であってもよいし、携帯端末100がネットワークを介して接続可能なサーバであってもよい。   As described above, the character recognition device 200 may be the mobile terminal 100 or a server to which the mobile terminal 100 can be connected via a network.

文字認識装置200は、操作部210、表示部220、画像入力部230、プロセッサ250、メモリ(主記憶装置)260、補助記憶装置270、及びインタフェース(IF)280を有する。   The character recognition device 200 includes an operation unit 210, a display unit 220, an image input unit 230, a processor 250, a memory (main storage device) 260, an auxiliary storage device 270, and an interface (IF) 280.

操作部210は、文字認識装置200のユーザによる操作の入力を受け付ける。操作部210は、例えば、タッチパネル、キーボード、マウス、又はボタン等である。表示部220は、文字認識装置200に入力された画像、及び文字認識結果等を表示するディスプレイ等である。画像入力部230は、CCD(Charge Coupled Device)等の撮像素子を用いて画像を撮像するデジタルカメラ又はスキャナ等である。   The operation unit 210 receives an input of an operation by a user of the character recognition device 200. The operation unit 210 is, for example, a touch panel, a keyboard, a mouse, or a button. The display unit 220 is a display or the like that displays an image input to the character recognition device 200, a character recognition result, and the like. The image input unit 230 is a digital camera, a scanner, or the like that captures an image using an image sensor such as a CCD (Charge Coupled Device).

プロセッサ250は、メモリ260に格納されたプログラムを実行する。メモリ260は、不揮発性の記憶素子であるROM及び揮発性の記憶素子であるRAMを含む。ROMは、不変のプログラム(例えば、BIOS)などを格納する。RAMは、DRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶素子であり、プロセッサ250が実行するプログラム及びプログラムの実行時に使用されるデータを一時的に格納する。   The processor 250 executes a program stored in the memory 260. The memory 260 includes a ROM that is a nonvolatile storage element and a RAM that is a volatile storage element. The ROM stores an immutable program (for example, BIOS). The RAM is a high-speed and volatile storage element such as a DRAM (Dynamic Random Access Memory), and temporarily stores a program executed by the processor 250 and data used when the program is executed.

補助記憶装置270は、例えば、磁気記憶装置(HDD)、フラッシュメモリ(SSD)等の大容量かつ不揮発性の記憶装置であり、プロセッサ250が実行するプログラム及びプログラムの実行時に使用されるデータを格納する。すなわち、プログラムは、補助記憶装置270からメモリ260にロードされて、プロセッサ250によって実行される。   The auxiliary storage device 270 is a large-capacity non-volatile storage device such as a magnetic storage device (HDD) or a flash memory (SSD), and stores a program executed by the processor 250 and data used when the program is executed. To do. That is, the program is loaded from the auxiliary storage device 270 to the memory 260 and executed by the processor 250.

プロセッサ250は、入力された画像の文字を認識する文字認識部251を有する。文字認識部251は、機器特定情報認識部252及び点検項目認識部253を有する。機器特定情報認識部252は、入力された画像から機器特定情報(第1項目)の文字を認識する。点検項目認識部253は、入力された画像から、認識された第1項目に関連付けられた複数の第2項目の文字を認識する。すなわち、点検項目認識部253は、第1項目である機器特定情報によって特定される機器で点検すべき項目の文字を認識する。メモリ260には、文字認識部251に対応するプログラムが記憶され、プロセッサ250が当該プログラムを実行することによって、文字認識部251はプロセッサ250に実装される。   The processor 250 includes a character recognition unit 251 that recognizes characters in the input image. The character recognition unit 251 includes a device identification information recognition unit 252 and an inspection item recognition unit 253. The device identification information recognition unit 252 recognizes the characters of the device identification information (first item) from the input image. The inspection item recognition unit 253 recognizes a plurality of second item characters associated with the recognized first item from the input image. That is, the inspection item recognition unit 253 recognizes characters of items to be inspected with the device specified by the device specifying information that is the first item. The memory 260 stores a program corresponding to the character recognition unit 251, and the character recognition unit 251 is mounted on the processor 250 when the processor 250 executes the program.

メモリ260には、点検シナリオデータ261及び作業ログ262が記憶される。点検シナリオデータ261には、機器の種類ごとに、文字を認識する項目の順序及び各項目の文字の認識に利用する認識辞書等が登録される。点検シナリオデータ261の詳細は図3で説明する。作業ログ262には、各項目の文字認識結果、及び画像を調整するための各種パラメータが登録される。作業ログ262の詳細は図4で説明する。   In the memory 260, inspection scenario data 261 and work log 262 are stored. In the inspection scenario data 261, the order of items for recognizing characters and a recognition dictionary used for recognizing characters of each item are registered for each type of device. Details of the inspection scenario data 261 will be described with reference to FIG. In the work log 262, the character recognition result of each item and various parameters for adjusting the image are registered. Details of the work log 262 will be described with reference to FIG.

インタフェース280は、文字認識装置200をネットワーク又は他の機器に接続するインタフェースである。   The interface 280 is an interface that connects the character recognition device 200 to a network or other devices.

なお、画像は画像入力部230によって撮影される代わりに、インタフェース280から取得されてもよい。具体的には、画像が可搬型記憶媒体に記憶されていて、文字認識装置200は、インタフェース280を介して可搬型記憶媒体に接続され、可搬型記憶媒体に記憶された文字を認識する画像を取得してもよい。また、文字認識装置200にネットワークを介して接続されるサーバ等に画像が記憶されていて、文字認識装置200は、インタフェースを介してサーバ等から画像を取得してもよい。   The image may be acquired from the interface 280 instead of being captured by the image input unit 230. Specifically, the image is stored in the portable storage medium, and the character recognition device 200 is connected to the portable storage medium via the interface 280 and recognizes the image that recognizes the character stored in the portable storage medium. You may get it. Further, an image may be stored in a server or the like connected to the character recognition device 200 via a network, and the character recognition device 200 may acquire an image from the server or the like via an interface.

図3は、実施例1の点検シナリオデータ261の説明図である。   FIG. 3 is an explanatory diagram of the inspection scenario data 261 according to the first embodiment.

点検シナリオデータ261は、場所301、機器番号302、型番303、項目番号304、属性305、認識モード306、文字認識辞書307、単語辞書308、及び表記辞書309を含む。   The inspection scenario data 261 includes a location 301, a device number 302, a model number 303, an item number 304, an attribute 305, a recognition mode 306, a character recognition dictionary 307, a word dictionary 308, and a notation dictionary 309.

場所301には、点検対象となる機器が設置された場所の識別子が登録される。例えば、場所301に登録された「A」はデータセンタAの識別子であり、「B」はデータセンタBの識別子である。機器番号302には、点検対象となる機器を識別するための番号が登録される。型番303には、点検対象となる機器の型番が登録される。項目番号304には、点検対象となる機器に対応して点検する項目を識別するための番号が登録される。属性305には、点検する項目の属性が登録される。   In the place 301, an identifier of the place where the device to be inspected is installed is registered. For example, “A” registered in the location 301 is an identifier of the data center A, and “B” is an identifier of the data center B. In the device number 302, a number for identifying a device to be inspected is registered. In the model number 303, the model number of the device to be inspected is registered. In the item number 304, a number for identifying an item to be inspected corresponding to the device to be inspected is registered. In the attribute 305, an attribute of an item to be inspected is registered.

認識モード306には、点検する項目の文字の認識モードが登録される。例えば、認識モードには、照合モード、読取モード、選択モード、及び直接入力モード等ある。照合モードは、認識された文字が単語辞書308に登録された値と一致する場合、認識された文字を文字認識結果とし、認識された文字が単語辞書308に登録された値と一致しない場合、認識された文字を破棄するモードである。読取モードは、認識された文字を読み取るモードである。選択モードは、表示部220に表示された複数の選択肢から少なくとも一つの選択肢の入力を受け付けるモードである。直接入力モードは、文字や数字をユーザが直接入力するモードである。照合モード及び読取モードは、文字認識装置200が実際に画像から文字を認識するモードであり、選択モード及び直接入力モードは、文字認識装置200における文字の認識が不要なモードである。   In the recognition mode 306, a character recognition mode of an item to be checked is registered. For example, the recognition mode includes a collation mode, a reading mode, a selection mode, and a direct input mode. In the collation mode, when the recognized character matches the value registered in the word dictionary 308, the recognized character is set as a character recognition result, and when the recognized character does not match the value registered in the word dictionary 308, This mode discards recognized characters. The reading mode is a mode for reading recognized characters. The selection mode is a mode that accepts input of at least one option from a plurality of options displayed on the display unit 220. The direct input mode is a mode in which a user directly inputs characters and numbers. The collation mode and the reading mode are modes in which the character recognition device 200 actually recognizes characters from the image, and the selection mode and the direct input mode are modes in which character recognition by the character recognition device 200 is unnecessary.

文字認識辞書307には、項目の文字の種別が登録される。例えば、文字認識辞書307に「英、数」が登録されている項目は、当該項目はアルファベット及び数字によって構成されることを意味する。当該項目の文字を認識する場合には、アルファベット用の文字認識辞書及び数字用の文字認識辞書のみが利用される。   In the character recognition dictionary 307, the character type of the item is registered. For example, an item in which “English, number” is registered in the character recognition dictionary 307 means that the item is composed of alphabets and numbers. When recognizing the character of the item, only the alphabet character recognition dictionary and the numeric character recognition dictionary are used.

単語辞書308には、認識された文字が一致しなければならない単語(値)が登録される。表記辞書309には、項目の文字の表記形式が登録される。例えば、表記辞書309に「NNN−NNNN−JPNN」が登録されている場合、認識された項目の文字が、左から順に、3桁の数字、「−」、4桁の数字、「−」、「JP」、及び2桁の数字という表記形式でなければならないことを意味する。   In the word dictionary 308, words (values) with which recognized characters must match are registered. In the notation dictionary 309, the character notation format of the item is registered. For example, when “NNN-NNNN-JPNN” is registered in the notation dictionary 309, the characters of the recognized items are, in order from the left, three-digit numbers, “−”, four-digit numbers, “−” It means that the format must be “JP” and a two-digit number.

文字認識辞書307、単語辞書308及び表記辞書309は、文字の認識に利用される情報である。   The character recognition dictionary 307, the word dictionary 308, and the notation dictionary 309 are information used for character recognition.

以上によって、点検シナリオデータ261には、点検対象となる機器ごとに、点検する項目と、当該項目の点検順序と、当該項目の認識に用いる情報とが登録される。図3に示すデータセンタAのレコードでは、型番「967−7363−JP03」の機器で点検する項目のグループと、型番「AZ513−88E」の機器で点検する項目のグループとがある。型番「967−7363−JP03」の機器では、「型番」が最初に認識され、次に「S/N(シリアルナンバー)」が認識され、次に「MACアドレス」が認識される。また、型番「AZ513−88E」の機器では、「型番」が最初に認識され、次に、「処理数」が認識される。   As described above, in the inspection scenario data 261, the items to be inspected, the inspection order of the items, and information used for recognition of the items are registered for each device to be inspected. In the record of the data center A shown in FIG. 3, there are a group of items to be inspected by a device having a model number “967-7363-JP03” and a group of items to be inspected by a device having a model number “AZ513-88E”. In the device having the model number “967-7363-JP03”, the “model number” is recognized first, then “S / N (serial number)” is recognized, and then “MAC address” is recognized. In the device having the model number “AZ513-88E”, the “model number” is recognized first, and then the “number of processes” is recognized.

点検シナリオデータ261には機器ごとに点検する項目が登録されているため、最初に型番を認識して、点検作業を実施する機器を特定する必要がある。このため、点検シナリオデータ261のいずれのグループでも型番が最初に点検する項目として登録される。   Since items to be inspected for each device are registered in the inspection scenario data 261, it is necessary to first recognize the model number and specify the device to be inspected. For this reason, in any group of the inspection scenario data 261, the model number is registered as an item to be inspected first.

図4は、実施例1の作業ログ262の説明図である。   FIG. 4 is an explanatory diagram of the work log 262 according to the first embodiment.

作業ログ262は、作業日401、場所402、機器番号403、型番404、項目番号405、属性406、認識モード407、結果値408、パラメータA409、及びパラメータB410を含む。   The work log 262 includes a work date 401, a place 402, a device number 403, a model number 404, an item number 405, an attribute 406, a recognition mode 407, a result value 408, a parameter A 409, and a parameter B 410.

作業日401には、点検作業が実施された年月日が登録される。場所402〜認識モード407は、点検シナリオデータ261の場所301〜認識モード306と同じであるので、説明を省略する。結果値408には、項目の文字認識結果が登録される。パラメータA409及びパラメータB410には、画像を補正するためのパラメータが登録される。画像を補正するためのパラメータについては、図7で詳細に説明する。また、パラメータA409及びパラメータB410には、文字認識にかかった時間、文字認識の全実行回数、及び文字認識の成功回数等が登録されてもよい。例えば、文字認識にかかった時間が所定値以上の項目、及び文字認識の全実行回数に対する成功回数の割合が所定値以下である項目は、文字認識せずにユーザの手入力を促すように点検シナリオデータ261を変更してもよい。また、パラメータA409及びパラメータB410には、文字認識に用いた画像が登録されてもよい。この文字認識に用いた画像の利用は、文字認識結果が成功しているか否かの調査を可能にする。   In the work day 401, the date on which the inspection work was performed is registered. Since the location 402 to the recognition mode 407 are the same as the location 301 to the recognition mode 306 of the inspection scenario data 261, description thereof is omitted. In the result value 408, the character recognition result of the item is registered. Parameters for correcting an image are registered in the parameters A409 and B410. The parameters for correcting the image will be described in detail with reference to FIG. In the parameters A409 and B410, the time required for character recognition, the total number of character recognition executions, the number of successful character recognitions, and the like may be registered. For example, items that require more than a predetermined value for character recognition and items whose ratio of the number of successes to the total number of executions of character recognition is less than or equal to a predetermined value are checked so as to prompt user input without character recognition. The scenario data 261 may be changed. In addition, an image used for character recognition may be registered in the parameter A409 and the parameter B410. The use of the image used for character recognition makes it possible to investigate whether or not the character recognition result is successful.

図5は、実施例1の文字認識部251によって実行される文字認識処理のフローチャートである。   FIG. 5 is a flowchart of character recognition processing executed by the character recognition unit 251 according to the first embodiment.

文字認識処理は、(1)〜(3)の三つのステップを含む。   The character recognition process includes three steps (1) to (3).

(1)点検場所選択受付ステップ(501)
文字認識部251が、点検対象の機器が設置されている場所の選択を受け付ける。
(1) Inspection location selection acceptance step (501)
The character recognition unit 251 accepts selection of a place where the inspection target device is installed.

(2)機器特定ステップ(520)
場所の選択を受け付けた後、文字認識部251の機器特定情報認識部252が、点検対象の機器を特定する文字を認識して、点検対象の機器を特定する。
(2) Device identification step (520)
After accepting the selection of the place, the device identification information recognition unit 252 of the character recognition unit 251 recognizes the character that identifies the device to be inspected and identifies the device to be inspected.

(3)点検項目認識ステップ(530)
点検対象の機器が特定された後、文字認識部251の点検項目認識部253が、点検シナリオデータ261に基づいて、機器特定ステップで特定した機器の点検項目の文字を認識する。
(3) Inspection item recognition step (530)
After the device to be inspected is specified, the inspection item recognition unit 253 of the character recognition unit 251 recognizes the character of the inspection item of the device specified in the device specifying step based on the inspection scenario data 261.

以下、(1)〜(3)のステップの詳細を説明する。   Details of the steps (1) to (3) will be described below.

(1)点検場所選択受付ステップ(501)
ステップ501の処理では、文字認識部251は、図9Aに示す場所選択受付画面900を表示部220に表示し、ユーザから点検場所の選択の入力を受け付ける。場所選択受付画面900には、点検シナリオデータ261の場所301に登録された場所の識別子によって識別される場所の名称が表示される。文字認識部251は、場所の選択の入力を受け付けた場合、点検シナリオデータ261を参照し、入力を受け付けた場所に設置される機器の型番のリスト等を表示部220に表示してもよい。具体的には、文字認識部251は、点検シナリオデータ261に登録されたレコードのうち、場所301に入力を受け付けた場所の識別子が登録されたレコードの型番303に登録された型番を取得し、取得した型番を表示部220に表示する。
(1) Inspection location selection acceptance step (501)
In step 501, the character recognizing unit 251 displays a place selection reception screen 900 shown in FIG. 9A on the display unit 220 and receives an input of inspection place selection from the user. On the place selection reception screen 900, the name of the place identified by the place identifier registered in the place 301 of the inspection scenario data 261 is displayed. When the character recognition unit 251 receives an input of location selection, the character recognition unit 251 may refer to the inspection scenario data 261 and display on the display unit 220 a list of model numbers of devices installed at the location where the input is received. Specifically, the character recognition unit 251 acquires the model number registered in the model number 303 of the record in which the identifier of the place where the input is received in the place 301 is registered among the records registered in the inspection scenario data 261. The acquired model number is displayed on the display unit 220.

(2)機器特定ステップ(520)
次に、文字認識部251は、機器特定ステップ(520)を実行するために、機器特定情報認識部252を呼び出す。機器特定情報認識部252は、点検シナリオデータ261に登録されたレコードのうち、ステップ501の処理で入力を受け付けた場所の識別子が場所301に登録されたレコードを読み込む(502)。
(2) Device identification step (520)
Next, the character recognizing unit 251 calls the device specifying information recognizing unit 252 to execute the device specifying step (520). The device identification information recognizing unit 252 reads a record in which the identifier of the place whose input is received in the process of step 501 is registered in the place 301 among the records registered in the inspection scenario data 261 (502).

次に、機器特定情報認識部252は、作業ログ262に登録されたレコードのうち、ステップ501の処理で入力を受け付けた場所の識別子が場所402に登録されたレコードを読み込む(503)。   Next, the device identification information recognizing unit 252 reads a record in which the identifier of the place that has received the input in the process of step 501 is registered in the place 402 among the records registered in the work log 262 (503).

次に、機器特定情報認識部252は、ステップ502の処理で読み込まれた点検シナリオデータ261及びステップ503の処理で読み込まれた作業ログ262を用いて、型番照合処理を実行する(504)。型番照合処理では、機器特定情報認識部252は、入力された画像から点検対象の機器の型番を機器特定情報として認識する。型番照合処理の詳細は、図6及び図7で説明する。   Next, the device identification information recognizing unit 252 executes the model number matching process using the inspection scenario data 261 read in the process of step 502 and the work log 262 read in the process of step 503 (504). In the model number verification process, the device identification information recognition unit 252 recognizes the model number of the device to be inspected as device identification information from the input image. Details of the model number matching process will be described with reference to FIGS.

(3)点検項目認識ステップ(530)
次に、文字認識部251は、点検項目認識ステップ(530)を実行するために、点検項目認識部253を呼び出す。点検項目認識部253は、点検シナリオデータ261に登録されたレコードのうち、場所301にステップ501の処理で入力を受け付けた場所の識別子が登録され、型番303にステップ504の処理で認識された型番が登録され、かつ次に認識する項目のレコードを読み込む(505)。次に項目する認識するレコードとは、例えば、ステップ504の処理で型番が認識された直後に点検項目認識ステップが実行される場合、項目番号304に型番の次に認識される項目番号が登録されたレコードである。図3に示す点検シナリオデータ261の型番303に「967−7363−JP03」が登録されたレコードにおいては、項目番号304に「2」が登録されたレコードが読み出される。
(3) Inspection item recognition step (530)
Next, the character recognition unit 251 calls the inspection item recognition unit 253 in order to execute the inspection item recognition step (530). Of the records registered in the inspection scenario data 261, the inspection item recognizing unit 253 registers the identifier of the place where the input was received in the process of step 501 in the place 301, and the model number recognized in the process of step 504 in the model number 303. Is read and the record of the item to be recognized next is read (505). For example, when the inspection item recognition step is executed immediately after the model number is recognized in the process of step 504, the item number recognized next to the model number is registered as the record to be recognized as the next item. Record. In the record in which “967-7363-JP03” is registered in the model number 303 of the inspection scenario data 261 illustrated in FIG. 3, the record in which “2” is registered in the item number 304 is read.

次に、点検項目認識部253は、作業ログ262に登録されたレコードのうち、場所402にステップ501の処理で入力を受け付けた場所の識別子が登録され、型番404にステップ504の処理で認識された型番が登録され、かつ次に認識する項目のレコードを読み込む(506)。   Next, of the records registered in the work log 262, the inspection item recognizing unit 253 registers the identifier of the place that has received the input in the process of step 501 in the place 402, and recognizes the identifier of the model 404 in the process of step 504. The record of the item to be recognized next is read (506).

次に、点検項目認識部253は、ステップ505の処理で読み込まれた点検シナリオデータ261及びステップ506の処理で読み込まれた作業ログ262を用いて、項目認識処理を実行する(507)。項目認識処理では、点検項目認識部253は、入力された画像から型番以外の項目の文字を認識する。項目認識処理の詳細は、図6及び図7で説明する。   Next, the inspection item recognition unit 253 executes an item recognition process using the inspection scenario data 261 read in the process of step 505 and the work log 262 read in the process of step 506 (507). In the item recognition process, the inspection item recognition unit 253 recognizes characters of items other than the model number from the input image. Details of the item recognition processing will be described with reference to FIGS.

次に、文字認識部251は、ステップ504の処理で認識された型番に対応する型番以外の全ての項目に対して項目認識処理が実行されたか否かを判定する(508)。   Next, the character recognition unit 251 determines whether or not the item recognition process has been executed for all items other than the model number corresponding to the model number recognized in the process of step 504 (508).

ステップ508の処理において、ステップ504の処理で認識された型番に対応する型番以外の全ての項目に対して項目認識処理が実行されていないと判定された場合(508:NO)、点検項目認識部253は、点検シナリオデータ261を参照して、次に項目を認識する項目を決定する(509)。そして、点検項目認識部253は、ステップ505の処理に戻り、次に認識する項目のレコードを読み出し、項目認識処理を実行する。   In the process of step 508, when it is determined that the item recognition process has not been executed for all items other than the model number corresponding to the model number recognized in the process of step 504 (508: NO), the inspection item recognition unit 253 refers to the inspection scenario data 261 and determines an item to be recognized next (509). And the inspection item recognition part 253 returns to the process of step 505, reads the record of the item recognized next, and performs an item recognition process.

例えば、図3に示す点検シナリオデータ261の型番303に「967−7363−JP03」が登録されたレコードにおいては、項目番号304に「2」が登録されたレコードの項目を認識した場合、次に認識する項目は、項目番号304に「3」が登録されたレコードとなる。   For example, in the record in which “967-7363-JP03” is registered in the model number 303 of the inspection scenario data 261 illustrated in FIG. 3, when the item of the record in which “2” is registered in the item number 304 is recognized, The item to be recognized is a record in which “3” is registered in the item number 304.

一方、ステップ508の処理において、ステップ504の処理で認識された型番に対応する型番以外の全ての項目に対して項目認識処理が実行されたと判定された場合(508:YES)、文字認識部251は、ステップ501の処理で入力を受け付けた場所に設置された全ての機器に対してステップ520及び530の処理が実行されたか否かを判定する(510)。   On the other hand, if it is determined in step 508 that the item recognition process has been executed for all items other than the model number corresponding to the model number recognized in step 504 (508: YES), the character recognition unit 251. Determines whether the processing in steps 520 and 530 has been executed for all the devices installed in the place where the input was received in the processing in step 501 (510).

ステップ510の処理において、ステップ501の処理で入力を受け付けた場所に設置された全ての機器に対してステップ520及び530の処理が実行されていないと判定された場合(510:NO)、文字認識部251は、次の機器を決定し(511)、ステップ502の処理に戻る。   In the process of step 510, if it is determined that the processes of steps 520 and 530 have not been executed for all the devices installed at the place where the input was received in the process of step 501 (510: NO), character recognition The unit 251 determines the next device (511), and returns to the process of step 502.

一方、ステップ510の処理において、ステップ501の処理で入力を受け付けた場所に設置された全ての機器に対してステップ520及び530の処理が実行されたと判定された場合(510:YES)、文字認識処理を終了する。   On the other hand, if it is determined in step 510 that the processes in steps 520 and 530 have been executed for all devices installed in the place where the input was received in step 501 (510: YES), character recognition is performed. The process ends.

図6は、実施例1の型番照合処理及び項目認識処理のフローチャートである。   FIG. 6 is a flowchart of the model number matching process and the item recognition process according to the first embodiment.

型番照合処理は機器特定情報認識部252によって実行され、項目認識処理は点検項目認識部253によって実行されるが、図6では、型番照合処理及び項目認識処理を纏めて説明するので、各処理の主語を文字認識部251として説明する。   The model number matching process is executed by the device identification information recognizing unit 252 and the item recognition process is executed by the inspection item recognizing unit 253. In FIG. 6, the model number matching process and the item recognition process are described together. The subject will be described as the character recognition unit 251.

まず、文字認識部251は、点検シナリオデータ261を参照し、点検する項目が文字認識を必要とするか否かを判定する(601)。文字認識を必要としない項目には、例えば、点検済みであることを示すチェックマークを入力するだけでよい項目、複数の選択肢から少なくとも一つの選択肢を選択する項目、及び、文字又は数字等を直接入力する項目等がある。点検シナリオデータ261の文字認識を必要としない項目のレコードの認識モード306には、その旨を示す情報(例えば選択モード等)が登録される。   First, the character recognition unit 251 refers to the inspection scenario data 261 and determines whether or not the item to be inspected requires character recognition (601). Items that do not require character recognition include, for example, items that only require a check mark indicating that they have been inspected, items that select at least one option from a plurality of options, and characters or numbers directly. There are items to enter. In the record recognition mode 306 of the item that does not require character recognition of the inspection scenario data 261, information (for example, a selection mode) indicating that fact is registered.

ステップ601の処理で、点検する項目が文字認識を必要としないと判定された場合(601:NO)、文字認識部251は、ユーザによるデータの入力を受け付け(602)、ステップ605の処理に進む。   If it is determined in step 601 that the item to be checked does not require character recognition (601: NO), the character recognition unit 251 accepts data input by the user (602), and proceeds to step 605. .

一方、ステップ601の処理で、点検する項目が文字認識を必要とすると判定された場合(601:YES)、文字認識部251は、文字認識前処理を実行する(603)。文字認識前処理では、文字認識部251は、入力された画像を調整し、入力された画像から文字列を抽出する。文字認識前処理の詳細は図7で説明する。   On the other hand, if it is determined in step 601 that the item to be checked requires character recognition (601: YES), the character recognition unit 251 performs pre-character recognition processing (603). In the character recognition pre-processing, the character recognition unit 251 adjusts the input image and extracts a character string from the input image. Details of the character recognition pre-processing will be described with reference to FIG.

次に、文字認識部251は、文字列認識処理を実行する(604)。文字列認識処理では、文字認識部251は、ステップ603の処理で抽出された文字列から、点検する項目の文字列を認識する。文字列認識処理の詳細は図7で説明する。   Next, the character recognition unit 251 executes a character string recognition process (604). In the character string recognition process, the character recognition unit 251 recognizes the character string of the item to be inspected from the character string extracted in the process of step 603. Details of the character string recognition processing will be described with reference to FIG.

次に、文字認識部251は、ステップ604の処理の認識結果をユーザに提示する(605)。ユーザは、ステップ605の処理で提示された内容に基づいて、ステップ604の処理の認識結果が正しいか否かを判断する。ユーザは、ステップ604の処理の認識結果が誤っていると判断した場合、ステップ603及び604の処理を文字認識部251に再度実行させるか、修正内容を文字認識装置200に入力する。   Next, the character recognizing unit 251 presents the recognition result of the processing in step 604 to the user (605). The user determines whether or not the recognition result of the process in step 604 is correct based on the content presented in the process of step 605. When the user determines that the recognition result of the process at step 604 is incorrect, the user causes the character recognition unit 251 to execute the processes at steps 603 and 604 again or inputs correction contents to the character recognition apparatus 200.

次に、文字認識部251は、ステップ604の処理の認識結果及びステップ603の処理で用いたパラメータを作業ログ262に登録し(606)、型番照合処理又は項目認識処理を終了する。   Next, the character recognition unit 251 registers the recognition result of the process in step 604 and the parameters used in the process of step 603 in the work log 262 (606), and ends the model number matching process or the item recognition process.

図7は、実施例1の文字認識前処理及び文字列認識処理のフローチャートである。   FIG. 7 is a flowchart of pre-character recognition processing and character string recognition processing according to the first embodiment.

文字認識前処理及び文字列認識処理では、文字認識部251は、作業ログ262を参照しながら、点検する項目の文字を認識する。なお、作業ログ262には、文字認識が成功した場合の各種パラメータ及び認識結果が登録される。ただし、文字認識が失敗した場合等、作業ログ262には、ユーザ等によってパラメータ又は認識結果が直接入力されてもよい。   In the character recognition pre-processing and the character string recognition processing, the character recognition unit 251 recognizes the character of the item to be checked while referring to the work log 262. In the work log 262, various parameters and recognition results when the character recognition is successful are registered. However, when character recognition fails, a parameter or a recognition result may be directly input to the work log 262 by a user or the like.

まず、文字認識部251には、画像入力部230から画像が入力される(701)。文字認識部251は、作業ログ262のパラメータに含まれる焦点判定パラメータを参照し、ステップ701の処理で入力された画像の焦点が合っているか否かを判定する。例えば、焦点判定パラメータは、文字認識が成功した画像の濃度値の分布であり、文字認識部251は、当該濃度値の分布と入力された画像の濃度値の分布とを比較して、入力された画像の焦点が合っているか否かを判定する。文字認識部251は、入力された画像の焦点が合っていないと判定した場合、新たな画像の入力を促す画面をユーザに提示してもよい。   First, an image is input from the image input unit 230 to the character recognition unit 251 (701). The character recognizing unit 251 refers to the focus determination parameter included in the parameters of the work log 262 and determines whether or not the image input in the process of step 701 is in focus. For example, the focus determination parameter is a density value distribution of an image for which character recognition has been successfully performed, and the character recognition unit 251 compares the density value distribution with the density value distribution of the input image. It is determined whether the image is in focus. If the character recognition unit 251 determines that the input image is not in focus, the character recognition unit 251 may present a screen prompting the user to input a new image.

次に、文字認識部251は、作業ログ262のパラメータに含まれる白黒反転の有無、及び色相・輝度補正パラメータを参照し、ステップ701の処理で入力された画像を補正する(702)。点検作業においては、画像はカメラによって撮像される可能性が高い。例えば、撮像素子と紙とが密着した状態で光を当てて撮像するスキャナ等が撮像した画像では、画質が安定するが、カメラによって撮像された画像の画質は外部環境の影響を受けやすく不安定である。画像の補正の例としては、暗所で撮像された画像のコントラストの補正、及び白黒反転文字を含む画像の白黒反転等がある。作業ログ262の点検する項目のパラメータが白黒反転有りである場合、文字認識部251は、ステップ701の処理で入力された画像の白黒(ネガポジ)を反転させる。また、文字認識部251は、作業ログ262の点検する項目のパラメータに含まれる色相・輝度補正パラメータに基づいて、ステップ701の処理で入力された画像のコントラストを補正する。   Next, the character recognizing unit 251 refers to the presence / absence of black / white reversal and the hue / luminance correction parameters included in the parameters of the work log 262, and corrects the image input in the processing of step 701 (702). In the inspection work, there is a high possibility that an image is captured by a camera. For example, the image quality of an image captured by a scanner that shoots light with the image sensor and paper in close contact with each other is stable, but the image quality of the image captured by the camera is easily affected by the external environment and unstable. It is. Examples of image correction include correction of contrast of an image captured in a dark place, and black and white inversion of an image including black and white reversal characters. If the parameter of the item to be inspected in the work log 262 is black and white reversal, the character recognition unit 251 reverses the black and white (negative / positive) of the image input in the process of step 701. Further, the character recognition unit 251 corrects the contrast of the image input in the process of step 701 based on the hue / brightness correction parameter included in the parameter of the item to be checked in the work log 262.

次に、文字認識部251は、作業ログ262のパラメータに含まれる二値化方式及び二値化パラメータを参照し、ステップ701の処理で入力された画像を二値化する(703)。一般に、カラー画像又はグレー画像は白黒の二値画像に変換され、変換後の二値画像の文字が認識される。適切な二値画像への変換には、ステップ701の処理で入力された画像の状況に応じて適切な二値化方式及び二値化パラメータが利用されなければならない。例えば、文字の色と背景の色との差が小さい画像、コントラストが低い画像、及び薄い文字と濃い背景とを含む画像それぞれに適切な二値化方式及び二値化パラメータが利用されなければならない。文字認識部251は、文字認識が成功した項目の二値化方式及び二値化パラメータを記憶しておき、当該項目の文字を再度認識する場合には、当該二値化方式及び二値化パラメータを利用してカラー画像又はグレー画像を二値画像に変換する。   Next, the character recognition unit 251 refers to the binarization method and the binarization parameter included in the parameters of the work log 262, and binarizes the image input in the process of step 701 (703). Generally, a color image or a gray image is converted into a black and white binary image, and characters in the converted binary image are recognized. For conversion to an appropriate binary image, an appropriate binarization method and binarization parameters must be used in accordance with the situation of the image input in the process of step 701. For example, appropriate binarization schemes and binarization parameters must be used for images with small differences between character color and background color, images with low contrast, and images with light text and dark background, respectively. . The character recognizing unit 251 stores the binarization method and binarization parameter of the item for which character recognition was successful, and when recognizing the character of the item, the binarization method and binarization parameter. Is used to convert a color image or a gray image into a binary image.

次に、文字認識部251は、作業ログ262のパラメータに含まれる撮影方向及び傾きを参照して、ステップ701の処理で入力された画像の射影歪、樽型歪み、又は傾き等を補正する(704)。機器の設置場所によっては読取対象のラベルを正面からカメラで撮影できず、ラベルを斜め方向から撮影せざるを得ない場合、また文字が傾いた状態で撮影せざるを得ない場合がある。ステップ704の処理では、このように撮影された画像の歪み又は傾きが補正される。作業ログ262には、カメラと読取対象との位置関係(例えば、撮影方向等)及び撮影時の文字列の傾きが登録されている。文字認識部251は、作業ログ262を利用して、画像の歪み及び傾きを補正するので、正確かつ高速に画像の歪み及び傾きを補正できる。   Next, the character recognizing unit 251 refers to the shooting direction and inclination included in the parameters of the work log 262 and corrects the projection distortion, barrel distortion, inclination, etc. of the image input in the processing of Step 701 ( 704). Depending on the installation location of the device, the label to be read cannot be photographed from the front by the camera, and the label must be photographed from an oblique direction, or the character may be photographed in an inclined state. In the process of step 704, distortion or inclination of the image thus captured is corrected. In the work log 262, the positional relationship between the camera and the reading target (for example, the shooting direction) and the inclination of the character string at the time of shooting are registered. The character recognizing unit 251 corrects image distortion and inclination using the work log 262, and thus can correct image distortion and inclination accurately and at high speed.

次に、文字認識部251は、作業ログ262のパラメータに含まれる項目間のレイアウト、文字列間距離、及び文字間距離を参照して、ステップ701の処理で画像から点検する項目の文字列を抽出する(705)。文字列抽出方法として連結成分融合法が知られている。連結成分融合法は、二値画像で黒画素が連続した領域を連結成分として抽出し、連結成分の配置関係から文字列を抽出する方法である。具体的には、互いに近接する連結成分の縦方向又は横方向の整列性を考慮して文字列が抽出される。   Next, the character recognizing unit 251 refers to the layout between items, the distance between character strings, and the distance between characters included in the parameters of the work log 262, and determines the character string of the item to be checked from the image in the process of step 701. Extract (705). A connected component fusion method is known as a character string extraction method. The connected component fusion method is a method of extracting a region where black pixels are continuous in a binary image as a connected component and extracting a character string from the arrangement relationship of the connected components. Specifically, a character string is extracted in consideration of the vertical or horizontal alignment of connected components adjacent to each other.

ステップ701の処理で入力された画像は点検する項目以外の文字列を含む可能性がある。このため、文字認識部251は、ステップ701の処理で入力された画像から点検する項目の文字列を選択する。この文字列の選択方法には三つの方法がある。   There is a possibility that the image input in the processing of step 701 includes a character string other than the item to be checked. For this reason, the character recognizing unit 251 selects a character string of an item to be checked from the image input in the process of step 701. There are three methods for selecting the character string.

一つ目の方法は、点検する項目の文字列のみを選択する方法である。本実施例では、ユーザは、点検する項目ごとにカメラで画像を撮影する。この場合、ユーザは、点検する項目の文字列が画像の中央付近に位置するように画像を撮影する。文字認識部251は、ステップ701の処理で入力された画像の中央付近の領域から連結成分融合法を用いて文字列を抽出する。これによって、文字認識部251は、点検する項目の文字列のみを抽出できる。   The first method is to select only the character string of the item to be checked. In this embodiment, the user takes an image with the camera for each item to be inspected. In this case, the user captures an image so that the character string of the item to be checked is located near the center of the image. The character recognition unit 251 extracts a character string from the region near the center of the image input in the process of step 701 using a connected component fusion method. Thereby, the character recognition unit 251 can extract only the character string of the item to be checked.

二つ目の方法は、ステップ701の処理で入力された画像の全ての文字列を抽出し、ステップ604の処理である文字列認識処理で点検する項目の文字列を選択する方法である。具体的には、文字列認識処理では、抽出された全ての文字列のうち点検する項目の単語辞書308及び表記辞書309と一致する文字列が点検する項目として選択される。   The second method is a method of extracting all character strings of the image input in the process of step 701 and selecting a character string of items to be checked in the character string recognition process which is the process of step 604. Specifically, in the character string recognition process, a character string that matches the word dictionary 308 and the notation dictionary 309 of the items to be checked among all the extracted character strings is selected as an item to be checked.

三つ目の方法は、ステップ701の処理で入力された画像を表示部220に表示し、点検する項目の文字列の範囲の指定をユーザから受け付ける方法である。ユーザの指定方法としては、例えば、文字列の中心のみが指定される方法、文字列の両端が指定される方法、及び文字列の四隅が指定される方法等がある。   The third method is a method in which the image input in the process of step 701 is displayed on the display unit 220, and designation of the character string range of the item to be checked is received from the user. Examples of the user designation method include a method in which only the center of the character string is designated, a method in which both ends of the character string are designated, and a method in which the four corners of the character string are designated.

ステップ705の処理では、文字認識部251は、作業ログ262に含まれる文字列間距離及び文字列距離等を参照して、画像から文字列を抽出する。一つ目の方法では、点検する項目の文字列と点検する項目以外の文字列との距離が文字列間距離と比較して所定値より小さい場合、二つの文字列を一つの文字列として誤抽出する可能性がある。また、点検する項目の文字間距離が作業ログ262の文字間距離より所定値より大きい場合、点検する項目の文字列の一部のみしか抽出できない可能性がある。   In the process of step 705, the character recognition unit 251 refers to the distance between character strings and the character string distance included in the work log 262 and extracts a character string from the image. In the first method, if the distance between the character string of the item to be inspected and the character string other than the item to be inspected is smaller than a predetermined value compared to the distance between the character strings, the two character strings are mistakenly regarded as one character string. There is a possibility to extract. If the distance between characters of the item to be checked is larger than the distance between characters in the work log 262, only a part of the character string of the item to be checked may be extracted.

次に、文字認識部251は、文字認識辞書711を参照し、ステップ705の処理で抽出された文字列の個々の文字を認識する(706)。文字認識方法として改良型投影距離(Modified quadratic discriminant functions:MQDF)がある。この方法では、大量の文字が登録された文字認識辞書711が生成される場合、距離尺度を算出するための識別関数がベイズの定理から文字カテゴリごとに算出される。そして、入力された文字を認識する場合、識別関数が出力する距離尺度に基づいて入力された文字を文字カテゴリに分類することによって、入力された文字を認識する。なお、距離尺度に基づいて、文字認識の確からしさを示す文字認識スコアを算出してもよい。   Next, the character recognizing unit 251 refers to the character recognition dictionary 711 and recognizes individual characters in the character string extracted in the process of step 705 (706). As a character recognition method, there is a modified quadrature discriminant function (MQDF). In this method, when a character recognition dictionary 711 in which a large number of characters are registered is generated, an identification function for calculating a distance scale is calculated for each character category from Bayes' theorem. When the input character is recognized, the input character is recognized by classifying the input character into the character category based on the distance scale output by the identification function. Note that a character recognition score indicating the probability of character recognition may be calculated based on the distance scale.

ステップ706の処理では、文字認識部251は、点検シナリオデータの点検する項目のレコードの文字認識辞書307に登録された文字の種別を取得し、取得した文字の種別に対応する文字認識辞書711を参照して、文字を認識する。これによって、文字認識の精度を向上させることができる。   In the processing of step 706, the character recognition unit 251 acquires the character type registered in the character recognition dictionary 307 of the record of the item to be inspected in the inspection scenario data, and stores the character recognition dictionary 711 corresponding to the acquired character type. Refer to and recognize characters. Thereby, the accuracy of character recognition can be improved.

次に、文字認識部251は、ステップ706の処理での文字認識結果に対して単語照合処理及び表記照合処理を実行して、項目の最終的な文字認識結果を算出する(707)。単語照合処理は、ステップ706の処理での文字認識結果と点検シナリオデータ261の点検する項目のレコードの単語辞書308に登録された単語とが一致するか否かを照合する処理である。また、表記照合処理は、ステップ706の処理での文字認識結果の表記形式と点検シナリオデータ261の点検する項目のレコードの表記辞書309に登録された表記形式とが一致するか否かを照合する処理である。   Next, the character recognition unit 251 performs a word matching process and a notation matching process on the character recognition result in the process of step 706 to calculate the final character recognition result of the item (707). The word collating process is a process of collating whether or not the character recognition result in the process of step 706 matches the word registered in the word dictionary 308 of the item record to be inspected in the inspection scenario data 261. Further, the notation collation process collates whether or not the notation format of the character recognition result in the processing of step 706 matches the notation format registered in the notation dictionary 309 of the record of the item to be inspected in the inspection scenario data 261. It is processing.

単語照合処理の具体例について説明する。例えば、点検する項目の単語辞書308に「top」及び「base」の二つの単語が登録され、ステップ706の処理での文字認識結果が「bass」である場合、文字認識部251は、文字認識結果と単語辞書308に登録された単語とが一致しないと判定する。   A specific example of word matching processing will be described. For example, when two words “top” and “base” are registered in the word dictionary 308 of the item to be checked, and the character recognition result in the process of step 706 is “bass”, the character recognition unit 251 performs character recognition. It is determined that the result and the word registered in the word dictionary 308 do not match.

文字認識部251は、文字認識結果「bass」と単語辞書308に登録された「base」とは一文字違いであるので、文字認識結果「bass」を「base」に修正し、「base」を最終的な文字認識として算出してもよい。単語照合処理では、ステップ706の処理での文字認識結果と単語辞書308に登録された単語との類似度(単語照合スコア)を算出し、算出した類似度が所定の値より両者が類似することを示せば、単語辞書308に登録された単語を最終的な文字認識結果として算出してもよい。   The character recognition unit 251 corrects the character recognition result “bass” to “base” because the character recognition result “bass” and the “base” registered in the word dictionary 308 are one character different from each other. It may be calculated as typical character recognition. In the word matching process, the similarity (word matching score) between the character recognition result in the process of step 706 and the word registered in the word dictionary 308 is calculated, and the calculated similarity is similar to the predetermined value. , The word registered in the word dictionary 308 may be calculated as the final character recognition result.

表記照合処理の具体例について説明する。点検する項目の文字が一定のルールで表記される場合、表記照合処理は、ステップ706の処理での文字認識結果が当該ルールと一致するか否かを照合する。例えば、点検する項目が日付である場合、当該項目の表記辞書309には、「YY.MM.DD」又は「YY/MM/DD」等の表記形式が登録されており、表記照合処理は、ステップ706の処理での文字認識結果の表記形式が、「YY.MM.DD」又は「YY/MM/DD」等の表記形式と一致するか否かを照合する。なお、表記照合処理では、ステップ706の処理での文字認識結果が作業ログ262又は表記辞書309に登録された数値又は英字の範囲内であるか否かを判定してもよい。   A specific example of the notation matching process will be described. When the character of the item to be inspected is written according to a certain rule, the notation checking process checks whether or not the character recognition result in step 706 matches the rule. For example, when an item to be checked is a date, a notation format such as “YY.MM.DD” or “YY / MM / DD” is registered in the notation dictionary 309 of the item, It is checked whether or not the notation format of the character recognition result in the process of step 706 matches the notation format such as “YY.MM.DD” or “YY / MM / DD”. In the notation matching process, it may be determined whether or not the character recognition result in the process of step 706 is within the numerical value or alphabetic range registered in the work log 262 or the notation dictionary 309.

また、表記照合処理は、ステップ706の処理での文字認識結果の表記形式と表記辞書309に登録された表記形式との類似度(表記照合スコア)を算出してもよい。   In the notation matching process, the similarity (notation matching score) between the notation format of the character recognition result in the process of step 706 and the notation format registered in the notation dictionary 309 may be calculated.

点検シナリオデータ261の認識モード306に登録されるモードのうち文字認識が必要となるモードには「読取モード」及び「照合モード」がある。「読取モード」は、画像中の文字を認識するモードである。例えば、文字又は数値が可変である項目の認識モードは「読取モード」である。「照合モード」は、単語辞書308に登録された単語と文字認識結果とが一致するか否かを照合するモードである。文字又は数値が決まっている項目の認識モードは「照合モード」である。例えば、「型番」、「S/N」、「MACアドレス」は文字又は数値が決まっているので、これらの項目の認識モードは「照合モード」であり、「処理数」は数値が可変であるので、認識モードは「読取モード」である。   Among the modes registered in the recognition mode 306 of the inspection scenario data 261, the modes that require character recognition include “reading mode” and “collation mode”. “Reading mode” is a mode for recognizing characters in an image. For example, the recognition mode of an item whose character or numerical value is variable is “reading mode”. The “collation mode” is a mode for collating whether or not the word registered in the word dictionary 308 matches the character recognition result. The recognition mode of an item whose character or numerical value is determined is “collation mode”. For example, since the “model number”, “S / N”, and “MAC address” have fixed characters or numerical values, the recognition mode of these items is “collation mode”, and the “processing number” has a variable numerical value. Therefore, the recognition mode is “reading mode”.

「照合モード」の項目では、単語照合処理及び表記照合処理が実行されるが、「読取モード」の項目は単語辞書308が登録されていないので、「読取モード」の項目では表記照合処理のみが実行される。なお、本実施例では、型番の項目の認識モードが「照合モード」であり、単語照合処理及び表記照合処理が実行されるがこれに限定されない。例えば、型番の項目の認識モードが「読取モード」であり、表記照合処理のみが実行されてもよい。ただし、認識精度を向上させるために、型番の項目の文字は、少なくとも表記辞書309を用いて認識されるものとする。型番以外の項目は、各項目に対応する文字の特定に応じて適切な認識モードが設定される。   In the “collation mode” item, word collation processing and notation collation processing are executed. However, since the word dictionary 308 is not registered in the “reading mode” item, only the notation collation processing is performed in the “reading mode” item. Executed. In this embodiment, the recognition mode of the item of the model number is “collation mode”, and the word collation process and the notation collation process are executed. However, the present invention is not limited to this. For example, the recognition mode of the item of the model number may be “reading mode”, and only the notation matching process may be executed. However, in order to improve the recognition accuracy, it is assumed that the characters of the item of the model number are recognized using at least the notation dictionary 309. For items other than the model number, an appropriate recognition mode is set according to the specification of the character corresponding to each item.

点検する項目が日付である場合の表記辞書309には、日付の表記形式の他に図8に示す日付辞書800も登録されていてもよい。図8は、実施例1の日付辞書800の説明図である。   In addition to the date notation format, the date dictionary 800 shown in FIG. 8 may be registered in the notation dictionary 309 when the item to be checked is a date. FIG. 8 is an explanatory diagram of the date dictionary 800 according to the first embodiment.

日付辞書800には、年、月、及び日の表記の定義、並びにこれらの組み合わせである年月日の表記の定義が登録される。日付辞書800は、文脈自由文法の記法であるBNF(Backus−Naur form)によって記述される。   The date dictionary 800 registers definitions of year, month, and day notations, and definitions of year, month, and day that are combinations thereof. The date dictionary 800 is described in BNF (Backus-Nur form) which is a notation of context free grammar.

次に、本実施例で表示部220に表示される画面について図9A〜図9Eを用いて説明する。まず、文字認識部251は、図9Aに示す場所選択受付画面900を表示し、場所の選択の入力を受け付ける。次に、文字認識部251は、場所選択受付画面900で入力を受け付けた場所で点検する機器の型番の一覧を表示する型番一覧表示画面910(図9B参照)を表示する。   Next, screens displayed on the display unit 220 in this embodiment will be described with reference to FIGS. 9A to 9E. First, the character recognition unit 251 displays a place selection reception screen 900 shown in FIG. 9A and receives an input for selecting a place. Next, the character recognizing unit 251 displays a model number list display screen 910 (see FIG. 9B) that displays a list of model numbers of devices to be inspected at the place where the input is received on the place selection reception screen 900.

文字認識部251に画像が入力された場合、文字認識部251は、入力された画像から最初の点検項目である型番の文字を認識し、型番の文字認識結果を含む認識結果表示画面110(図9C参照)を表示する。次に、文字認識部251は、点検シナリオデータ261を参照し、入力された場所の識別子、及び認識された型番に対応する機器の点検項目を取得し、取得した点検項目の一覧を含む点検項目一覧表示画面920(図9D)を表示する。   When an image is input to the character recognizing unit 251, the character recognizing unit 251 recognizes the character of the model number, which is the first inspection item, from the input image, and the recognition result display screen 110 including the character recognition result of the model number (see FIG. 9C) is displayed. Next, the character recognizing unit 251 refers to the inspection scenario data 261, acquires the input location identifier and the inspection item of the equipment corresponding to the recognized model number, and includes the acquired inspection item list. A list display screen 920 (FIG. 9D) is displayed.

次に、文字認識部251に新たな画像が入力された場合、文字認識部251は、入力された画像から次の点検項目であるS/Nの文字を認識し、S/Nの文字認識結果を含む認識結果表示画面(図9E参照)を表示する。   Next, when a new image is input to the character recognizing unit 251, the character recognizing unit 251 recognizes the S / N character as the next inspection item from the input image, and the S / N character recognition result. A recognition result display screen including (see FIG. 9E) is displayed.

なお、文字認識部251は、一つの項目の文字を認識するたびに、認識結果表示画面110を表示する。   Note that the character recognition unit 251 displays the recognition result display screen 110 every time a character of one item is recognized.

図9Aは、実施例1の場所選択受付画面900の説明図である。   FIG. 9A is an explanatory diagram of a place selection reception screen 900 according to the first embodiment.

場所選択受付画面900は、点検シナリオデータ261の場所301に登録された識別子によって識別される場所の名称が選択肢901及び902として表示される。ユーザは、ポインタ903を操作して、点検作業を実施する場所を示す選択肢を選択する。   On the place selection reception screen 900, the name of the place identified by the identifier registered in the place 301 of the inspection scenario data 261 is displayed as options 901 and 902. The user operates the pointer 903 to select an option indicating a place where the inspection work is to be performed.

図9Bは、実施例1の型番一覧表示画面910の説明図である。   FIG. 9B is an explanatory diagram of a model number list display screen 910 according to the first embodiment.

文字認識部251は、場所の選択の入力を受け付けると、点検シナリオデータ261を参照し、場所301に入力を受け付けた場所の識別子が登録されたレコードの型番303に登録された型番を取得し、取得した型番の一覧を型番一覧表示画面910として表示する。   When the character recognition unit 251 receives an input for selecting a place, the character recognition unit 251 refers to the inspection scenario data 261, acquires the model number registered in the model number 303 of the record in which the identifier of the place whose input is received in the place 301 is registered, A list of acquired model numbers is displayed as a model number list display screen 910.

図9Cは、実施例1の型番の認識結果表示画面110の説明図である。   FIG. 9C is an explanatory diagram of a model number recognition result display screen 110 according to the first embodiment.

文字認識部251は、画像が入力されると、最初に型番の文字を認識する。認識結果表示画面110には、型番の文字認識結果が表示される。   When the image is input, the character recognition unit 251 first recognizes the character of the model number. The recognition result display screen 110 displays the character recognition result of the model number.

認識結果表示画面110は、撮影画像表示エリア120及び文字認識結果表示エリア130を含む。撮影画像表示エリア120は、図1で説明した構成と同じであるので、説明を省略する。また、文字認識結果表示エリア130は、認識文字列拡大画像表示部131、文字認識結果表示部132、表記形式表示部931、OKボタン133、及びRetryボタン134を含む。認識文字列拡大画像表示部131、文字認識結果表示部132、OKボタン133、及びRetryボタン134は、図1で説明した構成と同じであるので、説明を省略する。   The recognition result display screen 110 includes a captured image display area 120 and a character recognition result display area 130. The captured image display area 120 has the same configuration as that described with reference to FIG. The character recognition result display area 130 includes a recognized character string enlarged image display unit 131, a character recognition result display unit 132, a notation format display unit 931, an OK button 133, and a Retry button 134. The recognized character string enlarged image display unit 131, the character recognition result display unit 132, the OK button 133, and the Retry button 134 are the same as those described with reference to FIG.

表記形式表示部931には、図7に示す表記照合処理で用いた表記辞書309に登録された表記形式が表示される。これによって、ユーザは、項目の文字認識結果と表記形式とが一致しているかを確認することができる。なお、表記形式表示部931には、数字又は英字等の範囲が表示されてもよいし、図7に示す単語照合処理で用いた単語辞書308に登録された単語が表示されてもよい。   The notation format display unit 931 displays the notation format registered in the notation dictionary 309 used in the notation matching process shown in FIG. As a result, the user can check whether the character recognition result of the item matches the notation format. Note that the notation format display unit 931 may display a range such as numbers or letters, or may display a word registered in the word dictionary 308 used in the word matching process shown in FIG.

図9Cに示す認識結果表示画面110では、文字認識結果表示部132には、ユーザによって操作可能なカーソル932が表示される。また、認識文字列拡大画像表示部131には、カーソル932が位置する文字に対応する文字の画像に位置するカーソル933が表示される。   In the recognition result display screen 110 illustrated in FIG. 9C, the character recognition result display unit 132 displays a cursor 932 that can be operated by the user. The recognized character string enlarged image display unit 131 displays a cursor 933 positioned on the character image corresponding to the character on which the cursor 932 is positioned.

文字認識結果表示部132に表示された文字認識結果が画像の点検する項目の文字と異なる場合、ユーザは、修正する文字までカーソル932を移動させ、正しい文字を入力することができる。カーソル932が位置する文字の画像にカーソル933が位置するので、ユーザは、修正しようとする認識結果の文字に対応する画像を即座に把握することができる。   When the character recognition result displayed on the character recognition result display unit 132 is different from the character of the item to be inspected in the image, the user can move the cursor 932 to the character to be corrected and input the correct character. Since the cursor 933 is positioned on the image of the character where the cursor 932 is positioned, the user can immediately grasp the image corresponding to the character of the recognition result to be corrected.

図9Dは、実施例1の点検項目一覧表示画面920の説明図である。   FIG. 9D is an explanatory diagram of an inspection item list display screen 920 according to the first embodiment.

文字認識部521は、型番の文字を認識すると、点検シナリオデータ261を参照し、場所301に場所選択受付画面900で入力を受け付けた場所の識別子が登録され、かつ型番303に認識された文字が登録されたレコードの属性305に登録された属性を取得し、取得した属性を含む点検項目一覧表示画面920を表示する。   When recognizing the character of the model number, the character recognizing unit 521 refers to the inspection scenario data 261, registers the identifier of the location that has been input on the location selection reception screen 900 in the location 301, and the character recognized in the model number 303 An attribute registered in the attribute 305 of the registered record is acquired, and an inspection item list display screen 920 including the acquired attribute is displayed.

点検項目一覧表示画面920には、点検する機器で点検する項目が表示される。なお、型番の文字が認識済みであるので、図9Dに示す点検項目一覧表示画面920の型番には認識結果が表示される。   On the inspection item list display screen 920, items to be inspected by the device to be inspected are displayed. Since the characters of the model number have already been recognized, the recognition result is displayed in the model number of the inspection item list display screen 920 shown in FIG. 9D.

図9Eは、実施例1のS/Nの認識結果表示画面110の説明図である。   FIG. 9E is an explanatory diagram of the S / N recognition result display screen 110 according to the first embodiment.

次に、文字認識部251は、型番の文字認識が終了すると、新たな画像が入力され、S/Nの文字を認識し、S/Nの認識結果表示画面110を表示する。S/Nの認識結果表示画面110の構成は、図9Cに示す型番の認識結果表示画面の構成と同じである。   Next, when the character recognition of the model number is completed, the character recognition unit 251 receives a new image, recognizes the S / N character, and displays the S / N recognition result display screen 110. The configuration of the S / N recognition result display screen 110 is the same as the configuration of the model number recognition result display screen shown in FIG. 9C.

認識文字列拡大画像表示部131には、S/Nの文字列の画像が拡大表示され、文字認識結果表示部132には、S/Nの文字の認識結果が表示され、表記形式表示部931には、S/Nの単語照合処理で用いた表記辞書309に登録された表記形式が表示される。   The recognized character string enlarged image display unit 131 displays an enlarged image of the S / N character string, the character recognition result display unit 132 displays the recognition result of the S / N character, and the notation format display unit 931. The notation format registered in the notation dictionary 309 used in the S / N word matching process is displayed.

なお、S/Nの認識結果表示画面110でOKボタン133が操作されると、文字認識部251は、図9Dに示す点検項目一覧表示画面920を表示する。この場合の点検項目一覧表示画面920のS/Nには、S/Nの認識結果が表示される。   When the OK button 133 is operated on the S / N recognition result display screen 110, the character recognition unit 251 displays an inspection item list display screen 920 shown in FIG. 9D. In this case, the S / N recognition result is displayed on the S / N of the inspection item list display screen 920.

そして、新たな画像が文字認識部251に入力され、次の項目(MACアドレス)の文字が認識され、MACアドレスの認識結果表示画面110が表示され、OKボタン133が操作されると、点検項目一覧表示画面920が表示される。この処理が最後の項目の文字が認識されるまで繰り返される。   When a new image is input to the character recognition unit 251, the character of the next item (MAC address) is recognized, the MAC address recognition result display screen 110 is displayed, and the OK button 133 is operated, the inspection item A list display screen 920 is displayed. This process is repeated until the character of the last item is recognized.

以上によって、本実施例では、入力された画像に含まれる文字を認識する文字認識装置であって、文字を認識する複数の項目を含む複数のグループと、グループ内での複数の項目の認識順序と、各項目の文字の認識に用いる情報とが登録された認識辞書(点検シナリオデータ261)を記憶する記憶部と、プロセッサと、を備え、認識辞書に登録される項目は、複数の第1項目(例えば型番等の機器特定情報)及び複数の第2項目(機器特定情報以外の点検する項目)を含み、第1項目はグループ内での認識順序が最初の項目であって、第1項目に少なくとも一つの第2項目が関連付けられ、プロセッサは、認識辞書に登録された複数のグループの第1項目の文字の認識に用いる情報に基づいて、入力された画像から第1項目の文字を認識し、認識辞書に登録された認識順序を参照し、認識された文字の第1項目に関連付けられた第2項目から次に文字を認識する第2項目を特定し、特定した第2項目の文字の認識に用いる情報を認識辞書から読み出し、読み出された第2項目の文字の認識に用いる情報に基づいて、入力された画像から当該第2項目の文字を認識する。   As described above, in this embodiment, the character recognition device recognizes characters included in the input image, and includes a plurality of groups including a plurality of items for recognizing characters and a recognition order of the plurality of items in the group. And a storage unit that stores a recognition dictionary (inspection scenario data 261) in which information used for character recognition of each item is registered, and a processor. The items registered in the recognition dictionary include a plurality of first items. It includes items (for example, device identification information such as model numbers) and a plurality of second items (items to be checked other than device identification information). The first item is the first item in the recognition order within the group, and the first item And at least one second item is associated with the processor, and the processor recognizes the character of the first item from the input image based on information used for recognizing the characters of the first item of the plurality of groups registered in the recognition dictionary. Shi Referencing the recognition order registered in the recognition dictionary, specifying the second item for recognizing the next character from the second item associated with the first item of the recognized character, and recognizing the character of the specified second item The information used for the second item is read from the recognition dictionary, and the character of the second item is recognized from the input image based on the read information used for the recognition of the character of the second item.

これによって、項目に対応した文字の認識に用いる情報を用いて項目の文字を認識できるので、文字の認識精度を向上させることができ、ユーザの各項目の手作業による入力を不要として、作業効率を向上させることができる。   As a result, the character of the item can be recognized using the information used for recognizing the character corresponding to the item, so that the character recognition accuracy can be improved, the user does not need to manually input each item, and the work efficiency is improved. Can be improved.

また、本実施例では、第1項目の文字の認識に用いる情報は、前記第1項目の表記形式を含み、前記プロセッサは、前記第1項目の認識された文字の表記形式が当該第1項目の表記形式と一致する場合、当該第1項目の認識された文字を当該第1項目の認識結果とする。これによって、第1項目の認識精度を向上させることができる。なお、第1項目の認識結果によって次の第2項目が決まるので、第1項目が誤認識されると、第2項目の文字の認識に用いる情報が誤って読み出されるので、第1項目の認識精度を向上させる必要がある。   In this embodiment, the information used for recognizing the first item character includes the first item notation format, and the processor recognizes the first item recognized character notation format as the first item. In the case of matching the notation format, the recognized character of the first item is taken as the recognition result of the first item. Thereby, the recognition accuracy of the first item can be improved. Since the next second item is determined by the recognition result of the first item, if the first item is erroneously recognized, the information used for recognizing the character of the second item is erroneously read. There is a need to improve accuracy.

また、本実施例では、プロセッサは、前記認識された第1項目及び第2項目の文字を、作業ログ262として前記記憶部に記憶する。これによって、次の文字認識に前回の文字認識結果を利用することができ、各項目の認識精度を向上させることができる。   In this embodiment, the processor stores the recognized characters of the first item and the second item in the storage unit as the work log 262. Thereby, the previous character recognition result can be used for the next character recognition, and the recognition accuracy of each item can be improved.

また、本実施例では、前記プロセッサは、入力された画像をパラメータに基づいて補正し、前記補正後の画像から認識対象となる項目の文字を認識し、前記文字の認識が成功した場合、前記画像の補正に用いたパラメータを前記作業ログとして前記記憶部に記憶する。これによって、認識が成功した項目のパラメータに基づいて画像を補正することができるので、補正後の画像が文字認識に適切である可能性が高くなり、認識精度を向上させることができる。   Further, in this embodiment, the processor corrects the input image based on the parameters, recognizes the character of the item to be recognized from the corrected image, and when the recognition of the character is successful, Parameters used for image correction are stored in the storage unit as the work log. As a result, the image can be corrected based on the parameter of the item that has been successfully recognized, so that the possibility that the corrected image is appropriate for character recognition increases, and the recognition accuracy can be improved.

また、本実施例では、前記第1項目の文字を認識するための画像が入力され、前記プロセッサは、前記入力された画像から前記第1項目の文字を認識し、前記認識された第1項目の次に認識する第2項目の文字を認識するための画像が入力され、前記プロセッサは、当該入力された画像から当該第2項目の文字を認識し、前記認識された第1項目に関連付けられた最後の第2項目の文字を認識するための画像が入力され、当該入力された画像から当該第2項目の文字を認識するまで繰り返す。例えば、認識する項目が中央付近に存在する画像が入力されれば、当該項目の文字の認識精度を向上させることができる。   Further, in this embodiment, an image for recognizing the character of the first item is input, and the processor recognizes the character of the first item from the input image, and the recognized first item. An image for recognizing the second item character to be recognized next is input, and the processor recognizes the second item character from the input image and is associated with the recognized first item. An image for recognizing the last character of the second item is input, and the process is repeated until the character of the second item is recognized from the input image. For example, if an image in which an item to be recognized exists near the center is input, the recognition accuracy of the character of the item can be improved.

また、本実施例では、プロセッサは、前記認識された第1項目の文字を表示部に表示し、前記認識された第2項目の文字を前記認識辞書に登録された認識順序通りに前記表示部に表示する。これによって、ユーザは、認識順序通りに項目の認識結果を確認できる。   Further, in this embodiment, the processor displays the recognized first item character on the display unit, and the recognized second item character in the recognition order registered in the recognition dictionary. To display. Thereby, the user can confirm the recognition result of the item according to the recognition order.

また、本実施例では、プロセッサは、前記認識された第1項目の文字を前記表示部に表示する場合、又は前記認識された第2項目の文字を前記表示する場合、前記認識辞書に登録された前記認識に用いた情報も前記表示部に表示する。これによって、ユーザは、項目の認識結果とともに、認識に用いた情報も確認できる。   Further, in this embodiment, the processor is registered in the recognition dictionary when displaying the recognized first item character on the display unit or when displaying the recognized second item character. The information used for the recognition is also displayed on the display unit. Thereby, the user can confirm the information used for recognition together with the recognition result of the item.

実施例2について、図10〜図14を用いて説明する。   Example 2 will be described with reference to FIGS.

実施例1では、一つの項目の文字を認識するための一つの画像がカメラで撮影され、文字認識部251に入力され、一つの項目ごとに文字認識処理が実行されたが、本実施例では、型番の文字を認識するための画像が入力されて型番の文字が認識された後、型番以外の項目の文字を認識するための一つの画像が入力され、当該画像から型番以外の全ての点検項目の文字が一括して認識される。   In the first embodiment, one image for recognizing a character of one item is captured by the camera and input to the character recognition unit 251, and character recognition processing is performed for each item. After the image for recognizing the model number character is input and the model number character is recognized, one image for recognizing the character of the item other than the model number is input, and all inspections other than the model number are input from the image The characters of items are recognized at once.

図10は、実施例2の文字認識処理のフローチャートである。図10では、実施例1の図5に示す文字認識処理と同じ処理は同じ符号を付与し、説明を省略する。   FIG. 10 is a flowchart of character recognition processing according to the second embodiment. In FIG. 10, the same process as the character recognition process shown in FIG.

本実施例の文字認識処理は、点検項目認識ステップ(530)が実施例1の文字認識処理と異なる。   The character recognition process of the present embodiment is different from the character recognition process of the first embodiment in the inspection item recognition step (530).

本実施例の点検項目認識ステップでは、点検項目認識部253は、項目一括認識処理を実行し(1001)、項目一括確認処理を実行する(1002)。   In the inspection item recognition step of this embodiment, the inspection item recognition unit 253 executes an item collective recognition process (1001) and an item collective confirmation process (1002).

ステップ1001の処理の項目一括認識処理は、点検する項目の文字を認識するために入力された画像内の全ての点検項目の文字を認識する。項目一括確認処理の詳細は図11で説明する。   In the item collective recognition process of step 1001, the characters of all the inspection items in the input image are recognized in order to recognize the characters of the items to be inspected. Details of the item batch confirmation processing will be described with reference to FIG.

ステップ1002の処理の項目一括確認処理は、ステップ1001の処理における全ての点検項目の認識結果を一括して確認する。項目一括確認処理の詳細は図12で説明する。   In the item batch confirmation process of step 1002, the recognition results of all the inspection items in the process of step 1001 are collectively confirmed. Details of the item batch confirmation processing will be described with reference to FIG.

文字認識部251は、ステップ504の処理で認識された型番に対応する全ての点検項目の文字が認識されたか否かを判定する(1003)。   The character recognizing unit 251 determines whether or not the characters of all inspection items corresponding to the model number recognized in the process of step 504 have been recognized (1003).

ステップ1003の処理で、型番に対応する全ての点検項目の文字が認識されたと判定された場合、ステップ510の処理に進み、ステップ501の処理で入力を受け付けた場所に設置された全ての機器に対してステップ520及び530の処理が実行されたか否かを判定する。   If it is determined in step 1003 that all the check item characters corresponding to the model number have been recognized, the process proceeds to step 510, and all devices installed in the place where the input is received in step 501 are processed. On the other hand, it is determined whether or not the processing of steps 520 and 530 has been executed.

一方、ステップ1003の処理で、型番に対応する全ての点検項目の文字が認識されていないと判定された場合、入力された画像に未認識の項目の文字列が含まれていなかったことか、入力された画像に未認識の項目の文字列が含まれるものの認識に失敗したことが考えられる。このため、文字認識部251は、未認識の項目を特定し(1004)、ステップ1001の処理に戻り、新たな画像の入力を受け付け、項目認識ステップを再度実行する。   On the other hand, if it is determined in the process of step 1003 that the characters of all the check items corresponding to the model number are not recognized, whether or not the character string of the unrecognized item is included in the input image, It is conceivable that recognition of an input image containing a character string of an unrecognized item has failed. For this reason, the character recognizing unit 251 specifies an unrecognized item (1004), returns to the process of step 1001, receives an input of a new image, and executes the item recognition step again.

図11は、実施例2の項目一括認識処理のフローチャートである。   FIG. 11 is a flowchart of item batch recognition processing according to the second embodiment.

実施例1の図3に示す処理では、点検項目ごとに新たな画像が入力され、入力された画像に対して文字認識前処理及び文字列認識処理が実行される。図11に示す項目一括認識処理では、型番以外の項目の文字認識のために入力された一つの画像に対して文字認識前処理及び文字列認識処理が実行され、当該一つの画像から型番以外の項目の文字を認識する。図11では、図6に示す処理と同じ処理は同じ符号を付与し、説明を省略する。   In the processing shown in FIG. 3 of the first embodiment, a new image is input for each inspection item, and character recognition preprocessing and character string recognition processing are executed on the input image. In the item collective recognition processing shown in FIG. 11, character recognition pre-processing and character string recognition processing are executed on one image input for character recognition of items other than the model number, and the one image other than the model number is processed. Recognize item characters. In FIG. 11, the same processes as those shown in FIG.

ステップ601の処理で、全ての項目が文字認識を必要としないと判定された場合(601:NO)、点検項目認識部253は、ユーザによるデータの入力を受け付け、項目一括認識処理を終了する。   If it is determined in step 601 that all items do not require character recognition (601: NO), the inspection item recognition unit 253 accepts input of data by the user and ends the item collective recognition processing.

一方、ステップ601の処理で、いずれかの項目が文字認識を必要とすると判定された場合(601:YES)、点検項目認識部253は、点検シナリオデータ261に登録されたレコードのうち、場所301にステップ501の処理で入力を受け付けた場所の識別子が登録され、型番303にステップ504の処理で認識された型番が登録された全てのレコードを読み込む(1101)。   On the other hand, if it is determined in step 601 that any item requires character recognition (601: YES), the inspection item recognition unit 253 includes the location 301 among the records registered in the inspection scenario data 261. In step 501, the identifier of the place where the input was received is registered, and all records in which the model number recognized in step 504 is registered in the model number 303 are read (1101).

次に、点検項目認識部253は、作業ログ262に登録されたレコードのうち、場所402にステップ501の処理で入力を受け付けた場所の識別子が登録され、型番404にステップ504の処理で認識された型番が登録された全てのレコードを読み込む(1102)。   Next, of the records registered in the work log 262, the inspection item recognizing unit 253 registers the identifier of the place that has received the input in the process of step 501 in the place 402, and recognizes the identifier of the model 404 in the process of step 504. All records with registered model numbers are read (1102).

次に、点検項目認識部253は、文字認識前処理を実行する(603)。本実施例の文字認識前処理では、入力された画像を作業ログ262に登録されたパラメータに基づいて補正し、補正後の画像から全ての文字列を抽出する。   Next, the inspection item recognition unit 253 executes character recognition preprocessing (603). In the character recognition preprocessing of the present embodiment, the input image is corrected based on the parameters registered in the work log 262, and all character strings are extracted from the corrected image.

本実施例の文字認識前処理の詳細について図7のステップ701〜705の処理を用いて説明する。実施例1のステップ702〜704の処理は、ある一つの項目の文字を認識するための一つの画像に対して作業ログ262の当該項目のレコードに含まれるパラメータに基づいて各種処理を実行する。本実施例のステップ702〜704の処理は、型番以外の項目の全ての項目の文字を認識するための一つの画像に対して作業ログ262の点検作業を実施する機器の各項目のパラメータに基づいて各種処理を実行する。この結果、各項目のパラメータに基づいて各種処理が実行された画像が、点検作業を実施する機器の項目の数だけ生成される。   Details of the character recognition pre-processing of the present embodiment will be described using the processing of steps 701 to 705 in FIG. In the processing in steps 702 to 704 of the first embodiment, various processes are executed on one image for recognizing a character of one item based on parameters included in the record of the item of the work log 262. The processing in steps 702 to 704 of the present embodiment is based on the parameters of each item of the device that performs the inspection work of the work log 262 for one image for recognizing the characters of all items other than the model number. Various processes. As a result, as many images as various types of processing are executed based on the parameters of each item are generated as many as the number of items of the device that performs the inspection work.

なお、本実施例のステップ702〜704の処理は、作業ログ262の点検作業を実施する機器の各項目の各パラメータの平均値を算出し、型番以外の項目の全ての項目の文字を認識するための一つの画像に対して各パラメータの平均値に基づいて各種処理を実行してもよい。また、一つの項目のパラメータを選択し、型番以外の項目の全ての項目の文字を認識するための一つの画像に対して一つの項目のパラメータに基づいて各種処理を実行してもよい。   In the processing of steps 702 to 704 of the present embodiment, the average value of each parameter of each item of the device that performs the inspection work of the work log 262 is calculated, and characters of all items other than the model number are recognized. Various processes may be executed on one image for the purpose based on the average value of each parameter. Alternatively, a parameter of one item may be selected, and various processes may be executed based on the parameter of one item for one image for recognizing characters of all items other than the model number.

本実施例のステップ705の処理は、ステップ702〜704の処理が実行された画像の全ての文字列を抽出し、図11に示すステップ1103の処理に進む。   In the process of step 705 of the present embodiment, all character strings of the images for which the processes of steps 702 to 704 have been executed are extracted, and the process proceeds to the process of step 1103 shown in FIG.

ステップ1103の処理では、点検項目認識部253は、点検シナリオデータ261の場所301にステップ501の処理で入力を受け付けた場所の識別子が登録され、かつ型番303にステップ504の処理で認識された型番が登録されたレコードから、次に認識する項目のレコードを読み込む(1103)。   In the processing of step 1103, the inspection item recognition unit 253 registers the identifier of the location that has received the input in the processing of step 501 in the location 301 of the inspection scenario data 261, and the model number recognized in the processing of step 504 in the model number 303. The record of the item to be recognized next is read from the record in which is registered (1103).

次に、点検項目認識部253は、作業ログ262から場所402にステップ501の処理で入力を受け付けた場所の識別子が登録され、かつ型番404にステップ504の処理で認識された型番が登録されたレコードから、次に認識する項目のレコードを読み込む(1104)。   Next, the inspection item recognizing unit 253 registers the identifier of the place where the input has been received in the process of step 501 from the work log 262 in the place 402, and the model number recognized in the process of step 504 is registered in the model number 404. The record of the item to be recognized next is read from the record (1104).

次に、点検項目認識部253は、ステップ603の処理で抽出された文字列から最初の文字列を選択する(1105)。ここで、最初の文字列とは、ステップ603の処理で文字列が画像の上から順に文字列が抽出される場合、一番上に位置する文字列である。なお、ステップ603の処理で文字列を抽出する方向は上から下に限定されず、例えば画像の左から右に抽出されてもよい。   Next, the inspection item recognition unit 253 selects the first character string from the character strings extracted in step 603 (1105). Here, the first character string is the character string positioned at the top when the character string is extracted in order from the top of the image in the process of step 603. Note that the direction in which the character string is extracted in the process of step 603 is not limited from top to bottom, and may be extracted from the left to the right of the image, for example.

なお、ステップ603の文字認識前処理で全ての項目に対応する画像が生成されている場合、ステップ1103の処理で読み込まれた点検シナリオデータ261のレコードの項目に対応する画像から最初に抽出された文字列を選択する。   If images corresponding to all items are generated in the character recognition pre-processing in step 603, the image is first extracted from the image corresponding to the record item in the inspection scenario data 261 read in the processing in step 1103. Select a string.

次に、点検項目認識部253は、文字列認識処理を実行する(604)。   Next, the inspection item recognition unit 253 executes a character string recognition process (604).

本実施例の文字列認識処理について図7のステップ706及び707の処理を用いて説明する。   The character string recognition process of the present embodiment will be described using the processes of steps 706 and 707 in FIG.

ステップ706の処理は、文字認識辞書711を参照し、ステップ1105の処理で選択された文字列の文字を認識する。   In the process of step 706, the character recognition dictionary 711 is referred to and the character of the character string selected in the process of step 1105 is recognized.

ステップ707の処理は、ステップ706の処理での文字認識結果に対して単語照合処理及び表記照合処理を実行する。単語照合処理では、点検項目認識部253は、ステップ706の処理での文字認識結果とステップ1103の処理で読み込まれた点検シナリオデータ261の項目の単語辞書308に登録された単語とが一致するか否かを照合する。また、表記照合処理では、点検項目認識部253は、ステップ706の処理での文字認識結果の表記形式とステップ1103の処理で読み込まれた点検シナリオデータ261の項目の表記辞書309に登録された表記形式とが一致するか否かを照合する。   In the process of step 707, a word matching process and a notation matching process are executed on the character recognition result obtained in the process of step 706. In the word matching process, the check item recognition unit 253 determines whether the character recognition result obtained in step 706 matches the word registered in the word dictionary 308 of the item of the check scenario data 261 read in step 1103. Check whether or not. Further, in the notation matching process, the check item recognition unit 253 includes the notation format of the character recognition result in the process of step 706 and the notation registered in the notation dictionary 309 of the items of the inspection scenario data 261 read in the process of step 1103. Check whether the format matches.

本実施例のステップ707の処理では、単語照合スコア及び表記照合スコアが算出されるものとする。   In the process of step 707 of this embodiment, a word matching score and a notation matching score are calculated.

次に、点検項目認識部253は、ステップ604の処理での文字認識が成功したか否かを判定する(1106)。具体的には、点検項目認識部253は、単語照合スコア及び表記照合スコアの少なくとも一方が閾値以上であれば、ステップ604の処理での文字認識が成功したと判定する。   Next, the inspection item recognition unit 253 determines whether or not the character recognition in the process of Step 604 has been successful (1106). Specifically, the check item recognition unit 253 determines that the character recognition in the process of step 604 has been successful if at least one of the word matching score and the notation matching score is equal to or greater than a threshold value.

ステップ1106の処理において、ステップ604の処理での文字認識が失敗したと判定された場合(1106:NO)、点検項目認識部253は、ステップ603の処理で抽出された全ての文字列に対してステップ604の処理が実行されたか否かを判定する(1107)。   If it is determined in step 1106 that the character recognition in step 604 has failed (1106: NO), the inspection item recognition unit 253 performs the process on all the character strings extracted in step 603. It is determined whether the process of step 604 has been executed (1107).

ステップ1107の処理において、ステップ603の処理で抽出された全ての文字列に対してステップ604の処理が実行されていないと判定された場合(1107:NO)、点検項目認識部253は、ステップ603の処理で抽出された文字列から次の文字列を選択し(1108)、ステップ604の処理に戻る。   If it is determined in step 1107 that the processing in step 604 has not been executed for all the character strings extracted in the processing in step 603 (1107: NO), the inspection item recognition unit 253 performs step 603. The next character string is selected from the character strings extracted in the process (1108), and the process returns to step 604.

一方、ステップ1107の処理において、ステップ603の処理で抽出された全ての文字列に対してステップ604の処理が実行されたと判定された場合(1107:YES)、ステップ1103の処理で読み込まれた点検シナリオデータ261の項目の文字が入力さ入力された画像に含まれていなかったか、当該項目の文字認識に失敗したので、点検項目認識部253は、当該項目を未認識の項目として記憶し(1109)、次の項目を選択し(1112)、ステップ1103の処理に戻る。そして、ステップ1103の処理では、点検シナリオデータ261から選択した次の項目のレコードを読み込む。   On the other hand, if it is determined in step 1107 that the process in step 604 has been executed for all the character strings extracted in step 603 (1107: YES), the inspection read in in step 1103 Since the character of the item of the scenario data 261 is not included in the input image or input, or the character recognition of the item has failed, the inspection item recognition unit 253 stores the item as an unrecognized item (1109). ), Selects the next item (1112), and returns to the processing of step 1103. In step 1103, the record of the next item selected from the inspection scenario data 261 is read.

ステップ1106の処理において、ステップ604の処理での文字認識が成功したと判定された場合(1106:YES)、点検項目認識部253は、ステップ604の処理での文字認識結果を記憶し(1110)、点検作業を実施する機器の全ての項目に対してステップ604の処理が実行されたか否かを判定する(1111)。   If it is determined in step 1106 that the character recognition in step 604 has been successful (1106: YES), the inspection item recognition unit 253 stores the character recognition result in step 604 (1110). Then, it is determined whether or not the process of step 604 has been executed for all items of the equipment to be inspected (1111).

ステップ1111の処理で、点検作業を実施する機器の全ての項目に対してステップ604の処理が実行されたと判定された場合(1111:YES)、項目一括認識処理を終了する。   If it is determined in step 1111 that the process in step 604 has been executed for all items of the equipment to be inspected (1111: YES), the item collective recognition process is terminated.

一方、ステップ1111の処理で、点検作業を実施する機器の全ての項目に対してステップ604の処理が実行されていないと判定された場合(1111:NO)、ステップ1112の処理に進み、点検項目認識部253は、次の項目を選択し、ステップ1103の処理に戻る。   On the other hand, if it is determined in step 1111 that the process of step 604 has not been executed for all items of the equipment that performs the inspection work (1111: NO), the process proceeds to step 1112 to check the items to be checked. The recognition unit 253 selects the next item and returns to the processing of step 1103.

図12は、実施例2の項目一括確認処理のフローチャートである。   FIG. 12 is a flowchart of item batch confirmation processing according to the second embodiment.

まず、点検項目認識部253は、項目一括認識処理で認識された最初の項目を選択する(1201)。   First, the inspection item recognition unit 253 selects the first item recognized in the item collective recognition process (1201).

次に、点検項目認識部253は、ステップ1201の処理で選択した項目の文字認識結果を含む認識結果表示画面110を表示し、当該項目の文字認識結果をユーザに提示する(1202)。ステップ1202の処理では、ユーザは、認識結果表示画面110を見て、ステップ1201の処理で選択した項目の文字認識結果が正しいか否かを判断する。ユーザは、文字認識結果が誤っていると判断した場合、文字一括認識処理を点検項目認識部253に再度実行させるか、修正内容を文字認識装置200に入力する。   Next, the inspection item recognition unit 253 displays the recognition result display screen 110 including the character recognition result of the item selected in step 1201, and presents the character recognition result of the item to the user (1202). In the process of step 1202, the user looks at the recognition result display screen 110 and determines whether or not the character recognition result of the item selected in the process of step 1201 is correct. If the user determines that the character recognition result is incorrect, the user causes the inspection item recognition unit 253 to execute the character batch recognition process again, or inputs correction contents to the character recognition device 200.

次に、点検項目認識部253は、ステップ1201の処理で選択した文字認識結果又はユーザによって修正された文字認識結果、及びステップ603の処理で用いたパラメータを、作業ログ262に登録する(1203)。   Next, the inspection item recognition unit 253 registers the character recognition result selected in the process of step 1201 or the character recognition result corrected by the user and the parameters used in the process of step 603 in the work log 262 (1203). .

次に、点検項目認識部253は、項目一括認識処理で認識された全ての項目にステップ1202及び1203の処理が実行されたか否かを判定する(1204)。   Next, the inspection item recognition unit 253 determines whether or not the processing of steps 1202 and 1203 has been performed on all items recognized in the item collective recognition processing (1204).

ステップ1204の処理で、項目一括認識処理で認識された全ての項目にステップ1202及び1203の処理が実行されていないと判定された場合(1204:NO)、点検項目認識部253は、点検一括認識処理で認識された次の項目を選択し(1205)、ステップ1202の処理に戻る。   If it is determined in step 1204 that the processing in steps 1202 and 1203 has not been executed for all items recognized in the item collective recognition processing (1204: NO), the inspection item recognition unit 253 performs inspection collective recognition. The next item recognized in the process is selected (1205), and the process returns to step 1202.

一方、ステップ1204の処理で、項目一括認識処理で認識された全ての項目にステップ1202及び1203の処理が実行されたと判定された場合(1204:YES)、点検項目認識部253は、ステップ1109の処理で未認識の項目が記憶されたか否かを判定する(1206)。   On the other hand, when it is determined in the process of step 1204 that the processes of steps 1202 and 1203 have been executed for all items recognized in the item collective recognition process (1204: YES), the inspection item recognition unit 253 It is determined whether or not an unrecognized item is stored in the process (1206).

ステップ1206の処理において、ステップ1109の処理で未認識の項目が記憶されたと判定された場合(1206:YES)、点検項目認識部253は、ステップ1109の処理で記憶された未認識の項目の一覧を含む未認識項目表示画面1400を表示し(1207)、項目一括確認処理を終了する。未認識項目表示画面1400の詳細は図14で説明する。   If it is determined in step 1206 that an unrecognized item is stored in step 1109 (1206: YES), inspection item recognition unit 253 lists unrecognized items stored in step 1109. The unrecognized item display screen 1400 including "1207" is displayed (1207), and the item batch confirmation process is terminated. Details of the unrecognized item display screen 1400 will be described with reference to FIG.

一方、ステップ1206の処理において、ステップ1109の処理で未認識の項目が記憶されていないと判定された場合(1206:NO)、点検項目認識部253は、項目一括確認処理を終了する。   On the other hand, in the process of step 1206, when it is determined that the unrecognized item is not stored in the process of step 1109 (1206: NO), the inspection item recognition unit 253 ends the item batch confirmation process.

次に、図13A〜図14を用いて、本実施例で表示される画面について説明する。   Next, screens displayed in the present embodiment will be described with reference to FIGS. 13A to 14.

まず、点検項目認識部253は、図12に示す項目一括確認処理のステップ1201の処理の実行前に型番の認識結果表示画面110を表示する。図13Aは、実施例2の型番の認識結果表示画面110の説明図である。   First, the inspection item recognition unit 253 displays the model number recognition result display screen 110 before the execution of the step 1201 of the item collective confirmation processing shown in FIG. FIG. 13A is an explanatory diagram of a model number recognition result display screen 110 according to the second embodiment.

図13Aに示す型番の認識結果表示画面110は、図1で説明した認識結果表示画面110と同じく、撮影画像表示エリア120及び文字認識結果表示エリア130を含む。   Similar to the recognition result display screen 110 described in FIG. 1, the model number recognition result display screen 110 shown in FIG. 13A includes a captured image display area 120 and a character recognition result display area 130.

撮影画像表示エリア120には、項目一括認識処理の文字認識前処理のステップ701の処理で入力された画像が表示される。また、撮影画像表示エリア120に表示された画像では、点検項目の文字が認識された文字列の画像が矩形1301及び1302によって囲まれて表示される。   In the captured image display area 120, an image input in the process of step 701 of the character recognition pre-processing of the item batch recognition process is displayed. Further, in the image displayed in the captured image display area 120, the image of the character string in which the character of the inspection item is recognized is displayed surrounded by the rectangles 1301 and 1302.

文字認識結果表示エリア130は、型番認識結果表示部1311及び点検項目表示部1312を含む。型番認識結果表示部1311には、型番照合504で認識された型番の文字が表示される。点検項目表示部1312には、認識された型番の機器で点検すべき項目が点検順序に従って表示される。   The character recognition result display area 130 includes a model number recognition result display unit 1311 and an inspection item display unit 1312. The model number recognition result display unit 1311 displays the characters of the model number recognized by the model number verification 504. The inspection item display unit 1312 displays items to be inspected by the recognized model number device in accordance with the inspection order.

撮影画像表示エリア120に表示された画像で、項目一括確認処理を実行する場合、ユーザはOKボタン133を操作する。撮影画像表示エリア120に表示された画像に点検対象の文字列が含まれず、新たな画像を入力する場合、ユーザはRetryボタン134を操作する。   When executing the item batch confirmation process on the image displayed in the captured image display area 120, the user operates the OK button 133. When a character string to be inspected is not included in the image displayed in the captured image display area 120 and a new image is input, the user operates the Retry button 134.

次に、図12に示す項目一括確認処理のステップ1201の処理では、最初に点検する項目(S/N)が選択され、ステップ1202の処理で、項目(S/N)の認識結果表示画面110が表示される。図13Bは、実施例2の項目(S/N)の認識結果表示画面110の説明図である。   Next, in the process of step 1201 of the item batch confirmation process shown in FIG. 12, the item (S / N) to be inspected first is selected, and in the process of step 1202, the recognition result display screen 110 of the item (S / N) is selected. Is displayed. FIG. 13B is an explanatory diagram of an item (S / N) recognition result display screen 110 according to the second embodiment.

項目(S/N)の認識結果表示画面110の撮影画像表示エリア120に表示された画像では、認識結果の項目であるS/Nの文字列の画像を囲む矩形1301が強調表示される。一方、認識結果の項目でないMACの文字列の画像を囲む矩形1302は強調表示されない。   In the image displayed in the captured image display area 120 of the item (S / N) recognition result display screen 110, a rectangle 1301 surrounding the image of the S / N character string that is the item of the recognition result is highlighted. On the other hand, the rectangle 1302 surrounding the MAC character string image which is not an item of the recognition result is not highlighted.

文字認識結果表示エリア130は、図9Eと同じであるので説明を省略する。   The character recognition result display area 130 is the same as that in FIG.

ユーザは、項目(S/N)の認識結果表示画面110で認識結果が正しいと判断した場合、認識結果の修正が完了した場合、OKボタン133を操作する。ユーザによってOKボタン133が操作された場合、点検項目認識部253は、次の項目(MAC)の認識結果表示画面110(図13C参照)を表示する。一方、ユーザは、撮影画像表示エリア120に表示された画像に点検すべき項目の文字列が含まれないことに気づいた場合、Retryボタン134を操作する。この場合、点検項目認識部253は、新たな画像の入力を受け付け、再度項目一括認識処理を実行する。   When the user determines that the recognition result is correct on the item (S / N) recognition result display screen 110, or when the correction of the recognition result is completed, the user operates the OK button 133. When the user operates the OK button 133, the inspection item recognition unit 253 displays the recognition result display screen 110 (see FIG. 13C) for the next item (MAC). On the other hand, when the user notices that the character string of the item to be checked is not included in the image displayed in the captured image display area 120, the user operates the Retry button 134. In this case, the inspection item recognition unit 253 receives an input of a new image and executes the item collective recognition process again.

図13Cは、実施例2の項目(MAC)の認識結果表示画面110の説明図である。   FIG. 13C is an explanatory diagram of an item (MAC) recognition result display screen 110 according to the second embodiment.

項目(MAC)の認識結果表示画面110の撮影画像表示エリア120に表示された画像では、認識結果の項目であるMACの文字列の画像を囲む矩形1302が強調表示される。一方、認識結果の項目でないS/Nの文字列の画像を囲む矩形1301は強調表示されない。   In the image displayed in the captured image display area 120 of the item (MAC) recognition result display screen 110, a rectangle 1302 surrounding the MAC character string image that is the item of the recognition result is highlighted. On the other hand, a rectangle 1301 surrounding an image of an S / N character string that is not a recognition result item is not highlighted.

文字認識結果表示エリア130は、図9Eと同じであるので説明を省略する。   The character recognition result display area 130 is the same as that in FIG.

図14は、実施例2の未認識項目表示画面1400の説明図である。   FIG. 14 is an explanatory diagram of an unrecognized item display screen 1400 according to the second embodiment.

未認識項目表示画面1400には、点検作業を実施する機器の点検すべき項目のうち、項目一括認識処理で認識されていない項目の一覧が表示される。   The unrecognized item display screen 1400 displays a list of items that are not recognized in the item collective recognition process among the items to be inspected of the device that performs the inspection work.

以上によって、本実施例では、第1項目の文字を認識するための画像が入力され、前記プロセッサは、前記入力された画像から前記第1項目の文字を認識し、前記認識された第1項目に関連付けられた第2項目の文字を認識するための画像が入力され、前記プロセッサは、当該入力された画像から前記認識された第1項目に関連付けられた第2項目の文字を認識する。これによって、第2項目を特定するために必要な項目である第1項目用の画像から第1項目の文字を認識するので、第1項目の認識精度を向上させつつ、第2項目は一つの画像から一括して認識するので、第2項目ごとに画像を入力する必要がなくなり、ユーザの作業効率を向上させることができる。   As described above, in this embodiment, an image for recognizing the first item character is input, and the processor recognizes the first item character from the input image, and the recognized first item. An image for recognizing the character of the second item associated with is input, and the processor recognizes the character of the second item associated with the recognized first item from the input image. As a result, since the character of the first item is recognized from the image for the first item, which is an item necessary for specifying the second item, the second item is one item while improving the recognition accuracy of the first item. Since it recognizes collectively from an image, it becomes unnecessary to input an image for every 2nd item, and a user's working efficiency can be improved.

実施例3について、図15〜図16Bを用いて説明する。   A third embodiment will be described with reference to FIGS. 15 to 16B.

実施例2では、型番の文字を認識するための画像が入力されて型番の文字が認識された後、一つの画像が入力され、当該画像から型番以外の全ての点検項目の文字が一括して認識されたが、本実施例では、入力された一つの画像から型番を含む全ての項目の文字が一括して認識される。   In Example 2, after the image for recognizing the model number character is input and the model number character is recognized, one image is input, and the characters of all the inspection items other than the model number are collectively collected from the image. Although recognized, in this embodiment, characters of all items including the model number are collectively recognized from one input image.

図15は、実施例3の文字認識処理のフローチャートである。図15では、実施例1の図5及び実施例2の図10に示す文字認識処理と同じ処理は同じ符号を付与し、説明を省略する。   FIG. 15 is a flowchart of character recognition processing according to the third embodiment. In FIG. 15, the same process as the character recognition process shown in FIG. 5 of the first embodiment and FIG. 10 of the second embodiment is given the same reference numeral, and the description is omitted.

本実施例の文字認識処理は、図10に示すステップ504の処理(型番照合処理)を実行せず、また、図10に示すステップ1001の処理(項目一括認識処理)の代わりに全項目一括認識処理を実行し(1501)、図10に示すステップ1002の処理(項目一括確認処理)の代わりに全項目一括確認処理を実行する(1502)。   In the character recognition process of this embodiment, the process of step 504 (model number verification process) shown in FIG. 10 is not executed, and all item batch recognition is performed instead of the process of step 1001 (item batch recognition process) shown in FIG. The process is executed (1501), and the all item collective confirmation process is executed (1502) instead of the process of step 1002 (item collective confirmation process) shown in FIG.

ステップ1501の処理で実行される全項目一括認識処理では、文字認識部251は、入力された画像から文字列を抽出し、抽出した文字列から型番を含む全ての項目の文字を認識する。   In the all item collective recognition process executed in step 1501, the character recognition unit 251 extracts a character string from the input image, and recognizes characters of all items including the model number from the extracted character string.

全項目一括認識処理は、基本的には項目一括認識処理と同じ処理で実現可能である。しかし、全項目一括認識処理は、型番を含む全ての項目の文字を認識する点で図10に示す項目一括認識処理と相違する。   The all item collective recognition process can be basically realized by the same process as the item collective recognition process. However, the all item collective recognition process is different from the item collective recognition process shown in FIG. 10 in that characters of all items including the model number are recognized.

全項目一括認識処理では、入力された画像から最初に型番の文字を認識する必要がある。このため、型番の文字が認識される前のステップ1103の処理では、文字認識部251は、ステップ501の処理で入力を受け付けた場所に設置される全ての機器の型番のレコードを点検シナリオデータ261から読み込み、ステップ604の処理で型番の文字を認識する。もしくは、点検シナリオデータ261の機器番号302の順に、一つずつ型番のレコードを読み込み、ステップ604の処理で型番の文字を認識する。ステップ1104の処理でも、ステップ1103の処理と同じく入力を受け付けた場所に設置された機器の型番のレコードを作業ログ262から読み込む。なお、型番の文字が認識された後の全項目一括認識処理は、項目一括認識処理と同じである。   In the all item collective recognition process, it is necessary to first recognize the character of the model number from the input image. For this reason, in the process of step 1103 before the characters of the model number are recognized, the character recognition unit 251 records the model number records of all the devices installed in the place where the input is received in the process of step 501 as the inspection scenario data 261. The character of the model number is recognized in the process of step 604. Alternatively, model number records are read one by one in the order of the device number 302 of the inspection scenario data 261, and the characters of the model number are recognized in the process of step 604. Also in the process of step 1104, the record of the model number of the device installed at the place where the input is received is read from the work log 262 as in the process of step 1103. The all item collective recognition process after the character of the model number is recognized is the same as the item collective recognition process.

全項目一括確認処理は、基本的には、項目一括認識確認処理と同じ処理で実現可能である。全項目一括確認処理は、型番の文字認識結果を示す認識結果表示画面110も表示する点で、項目一括確認処理と異なる。   The all item collective confirmation process can be basically realized by the same process as the item collective recognition confirmation process. The all item batch check process is different from the item batch check process in that a recognition result display screen 110 showing the character recognition result of the model number is also displayed.

次に、図16A及び図16Bを用いて、本実施例で表示される画面について説明する。   Next, a screen displayed in this embodiment will be described with reference to FIGS. 16A and 16B.

まず、文字認識部251は、全項目一括確認処理で最初の項目(型番)の認識結果表示画面110(図16B参照)を表示する前に、点検項目の一覧を表示する認識結果表示画面110を表示する。図16Aは、実施例3の点検項目の一覧を表示する認識結果表示画面110の説明図である。   First, the character recognition unit 251 displays a recognition result display screen 110 that displays a list of inspection items before displaying the recognition result display screen 110 (see FIG. 16B) of the first item (model number) in the all item batch confirmation process. indicate. FIG. 16A is an explanatory diagram of a recognition result display screen 110 that displays a list of inspection items according to the third embodiment.

図16Aに示す認識結果表示画面110は、撮影画像表示エリア120及び文字認識結果表示エリア130を含む。   The recognition result display screen 110 illustrated in FIG. 16A includes a captured image display area 120 and a character recognition result display area 130.

撮影画像表示エリア120には、全項目一括認識処理で入力された画像が表示される。また、撮影画像表示エリア120に表示された画像では、型番として認識された文字列の画像が矩形1601によって囲まれて表示され、型番以外の点検項目として認識された文字列の画像点検項目の文字が認識された文字列の画像が矩形1301及び1302によって囲まれて表示される。   In the captured image display area 120, an image input in the batch recognition process for all items is displayed. In the image displayed in the photographed image display area 120, an image of a character string recognized as a model number is surrounded and displayed by a rectangle 1601, and characters of an image inspection item of a character string recognized as an inspection item other than the model number are displayed. An image of a character string in which is recognized is surrounded by rectangles 1301 and 1302 and displayed.

型番の文字列を囲む矩形1601と点検項目の文字列を囲む矩形1301及び1302とは、型番の文字列であるか点検項目の文字列であるかをユーザが特定可能なように表示される。例えば、矩形1601は実線で表示され、矩形1301及び1302は点線で表示される。   The rectangle 1601 surrounding the character string of the model number and the rectangles 1301 and 1302 surrounding the character string of the inspection item are displayed so that the user can specify whether they are the character string of the model number or the character string of the inspection item. For example, the rectangle 1601 is displayed as a solid line, and the rectangles 1301 and 1302 are displayed as dotted lines.

文字認識結果表示エリア130は点検項目表示部1312を含み、点検項目表示部1312には点検すべき型番を含む項目が点検順序に表示される。   The character recognition result display area 130 includes an inspection item display unit 1312. The inspection item display unit 1312 displays items including the model number to be inspected in the inspection order.

OKボタン133が操作されると、文字認識部251は、最初の項目である型番の認識結果表示画面110を表示する。図16Bは、実施例3の型番の認識結果表示画面110の説明図である。図16Bに示す型番の認識結果表示画面110は、型番の認識結果が表示される点以外は、図13Bに示す項目(S/N)の認識結果表示画面110と同じであり、同じ構成は同じ符号を付与し、説明を省略する。   When the OK button 133 is operated, the character recognition unit 251 displays the recognition result display screen 110 of the model number that is the first item. FIG. 16B is an explanatory diagram of a model number recognition result display screen 110 according to the third embodiment. The model number recognition result display screen 110 shown in FIG. 16B is the same as the item (S / N) recognition result display screen 110 shown in FIG. 13B except that the model number recognition result is displayed, and the same configuration is the same. Reference numerals are assigned and description is omitted.

撮影画像表示エリア120に表示される画像においては、文字認識結果表示エリア130に認識結果が表示されている型番の文字列の矩形1601が例えば実線で強調表示される。なお、S/Nの文字列を囲む矩形1301及びMACの文字列を囲む矩形1302は点線で表示されるが、次に認識結果が表示される矩形1301の点線の点と点との距離を、矩形1302の点線の点と点との距離を長くすることによって、次に認識結果が表示される項目の文字列を囲む矩形と、その他の項目の文字列を囲む矩形とを把握しやすいようにする。   In the image displayed in the captured image display area 120, the character string rectangle 1601 of the model number whose recognition result is displayed in the character recognition result display area 130 is highlighted with a solid line, for example. Note that the rectangle 1301 surrounding the S / N character string and the rectangle 1302 surrounding the MAC character string are displayed as dotted lines, and the distance between the dotted lines of the rectangle 1301 where the recognition result is displayed next is expressed as By increasing the distance between the dotted points of the rectangle 1302, the rectangle surrounding the character string of the item for which the recognition result is displayed next and the rectangle surrounding the character string of the other item can be easily grasped. To do.

OKボタン133が操作されると、文字認識部251は、次の項目である項目(MAC)の認識結果表示画面110を表示する。   When the OK button 133 is operated, the character recognition unit 251 displays a recognition result display screen 110 for the next item (MAC).

本実施例では、プロセッサは、入力された一つの画像から、前記第1項目の文字を認識し、前記入力された画像から、前記認識された第1項目に関連付けられた全ての第2項目の文字を一括で認識する。これによって、一つの画像を入力するだけで、全ての項目の文字が一括で認識されるので、ユーザの作業効率を向上させることができる。   In the present embodiment, the processor recognizes the character of the first item from one input image, and from all the second items associated with the recognized first item from the input image. Recognize characters at once. As a result, the characters of all items can be recognized at once by inputting only one image, so that the user's work efficiency can be improved.

本実施例では、文字認識部251は、ある機器で点検作業が実施され、当該機器の項目の文字が認識された場合、文字が認識された項目の相対的な配置関係(レイアウト)を作業ログ262にとして記憶する。配置関係とは、例えば、型番の下方にS/Nが位置し、S/Nの下方にMACが位置する等の位置関係であってもよいし、項目の重心間の距離であってもよい。位置関係は上下方向に限定されず、左右方向の位置関係を含んでもよい。   In this embodiment, the character recognition unit 251 performs an inspection operation on a certain device, and when the character of the item of the device is recognized, the character recognition unit 251 displays the relative arrangement relationship (layout) of the item on which the character is recognized as a work log. As 262. The arrangement relationship may be, for example, a positional relationship such that the S / N is located below the model number and the MAC is located below the S / N, or may be the distance between the centroids of the items. . The positional relationship is not limited to the vertical direction, and may include a horizontal positional relationship.

そして、同じ機器で点検作業が実施される場合、文字認識部251は、作業ログ262の認識する項目のレコードのレイアウトを参照し、文字を認識する項目の文字列の抽出する領域を入力された画像から特定する。そして、文字認識部251は、特定した領域から文字列を抽出し、抽出した文字列の文字を認識する。このように、作業ログ262のレイアウトを参照して特定された文字列の抽出位置から文字列を抽出するので、入力された画像の全ての位置から文字列を抽出する必要がなくなり、文字認識装置200の処理負荷を軽減できる。本実施例は、複数の項目を一括で認識する処理を実行する実施例2及び2に適用可能である。   When the inspection work is performed with the same equipment, the character recognition unit 251 is input with reference to the layout of the record of the item recognized in the work log 262 and an area for extracting the character string of the item that recognizes the character. Identify from the image. Then, the character recognition unit 251 extracts a character string from the identified area, and recognizes the character in the extracted character string. As described above, since the character string is extracted from the extracted position of the character string specified with reference to the layout of the work log 262, it is not necessary to extract the character string from all the positions of the input image. 200 processing loads can be reduced. This embodiment can be applied to Embodiments 2 and 2 in which processing for recognizing a plurality of items at once is executed.

本実施例の文字認識処理について実施例2を用いて説明する。   A character recognition process according to this embodiment will be described with reference to the second embodiment.

まず、図10に示す項目一括確認処理のステップ1203の処理で、ステップ1202の認識結果表示画面110が表示された項目の文字認識結果及び画像を補正するためのパラメータを作業ログ262に登録する際に、当該項目の文字が認識された文字列の位置を示す座標も作業ログ262に登録する。例えば、作業ログ262に登録される座標は、入力された画像の文字列が抽出された領域の重心の座標である。そして、文字認識部251は、当該項目の項目番号より一つ前の項目の文字列の座標から当該項目の文字列の座標までの向き及び距離を計算し、計算した向き及び距離を当該項目の作業ログ262に登録する。このように、本実施例の項目一括確認処理では、確認する項目の作業ログ262に、当該項目の一つ前の項目の文字列の座標からの向き及び距離がレイアウトとして登録される。   First, in the process of step 1203 of the item batch confirmation process shown in FIG. 10, when registering the character recognition result of the item displayed on the recognition result display screen 110 of step 1202 and the parameters for correcting the image in the work log 262. In addition, coordinates indicating the position of the character string in which the character of the item is recognized are also registered in the work log 262. For example, the coordinates registered in the work log 262 are the coordinates of the center of gravity of the area where the character string of the input image is extracted. Then, the character recognition unit 251 calculates the direction and distance from the character string coordinate of the item immediately before the item number of the item to the character string coordinate of the item, and calculates the calculated direction and distance of the item. Register in the work log 262. As described above, in the item batch confirmation process of this embodiment, the direction and distance from the coordinates of the character string of the previous item are registered as a layout in the work log 262 of the item to be confirmed.

次に、作業ログ262に登録されたレイアウトを用いた項目一括認識処理について図11を用いて説明する。実施例2は、ステップ603の処理の文字認識前処理で入力された画像から文字列を抽出したが、本実施例は、ステップ603の処理の文字認識前処理で文字列を抽出せずに、ステップ1105の処理で文字列を抽出し、抽出した文字列を選択する。   Next, the item collective recognition process using the layout registered in the work log 262 will be described with reference to FIG. In the second embodiment, the character string is extracted from the image input in the character recognition pre-processing in step 603, but in this embodiment, the character string is not extracted in the character recognition pre-processing in step 603. In step 1105, a character string is extracted, and the extracted character string is selected.

本実施例のステップ1105の処理で実行される文字列抽出処理について説明する。文字認識部251は、ステップ1104の処理で読み込まれた文字を認識する項目の作業ログ262からレイアウトを取得する。そして、ステップ1105の処理では、文字認識部251は、文字を認識する項目の一つ前の項目の文字列の位置から、取得したレイアウトに含まれる向き及び距離によって特定される領域の文字列を抽出し、抽出した文字列を選択して、ステップ604の文字列認識処理を実行する。   A character string extraction process executed in the process of step 1105 of this embodiment will be described. The character recognizing unit 251 acquires a layout from the work log 262 of the item for recognizing the character read in the process of step 1104. Then, in the processing of step 1105, the character recognition unit 251 determines the character string of the area specified by the direction and distance included in the acquired layout from the position of the character string of the item immediately preceding the item for recognizing the character. The extracted character string is selected, and the character string recognition process in step 604 is executed.

このように、本実施例では、入力された画像の全ての文字列を抽出せずに、項目ごとに限定された領域から文字列を抽出するので、文字認識装置200の処理負荷を軽減できる。また、文字を認識する項目の文字列が位置する可能性が高い領域から文字列が抽出され、抽出された文字列の文字が認識されるので、認識精度も向上させることができる。   As described above, in this embodiment, since the character string is extracted from the area limited for each item without extracting all the character strings of the input image, the processing load of the character recognition device 200 can be reduced. In addition, since the character string is extracted from the region where the character string of the item for recognizing the character is highly likely to be located, and the character of the extracted character string is recognized, the recognition accuracy can be improved.

なお、同じ機器に複数回点検作業が実施される場合、カメラの画角が点検作業ごとに異なる可能性があるが、文字認識前処理で、画角の違いを補正することによって文字列を正確に抽出できる。また、点検作業毎に項目のレイアウトを統計的に解析し、解析結果を作業ログ262に登録することによって、画角の違いを吸収できる。   Note that when the same equipment is inspected multiple times, the angle of view of the camera may vary from inspection to inspection, but the character string can be accurately corrected by correcting the difference in the angle of view in the character recognition pre-processing. Can be extracted. Further, by statistically analyzing the layout of items for each inspection operation and registering the analysis result in the operation log 262, the difference in the angle of view can be absorbed.

また、作業ログ262のレイアウトは項目の文字列の周辺の文字列の座標等を含んでもよい。この場合、文字認識部251は、文字を認識する項目の文字列を抽出する場合、認識対象とならない周辺の文字列の座標付近の文字列を抽出しない。文字を認識する項目の周辺の文字列が抽出されないので、候補となる文字列を減らすことができ、認識精度を向上させることができる。   Further, the layout of the work log 262 may include the coordinates of character strings around the character string of the item. In this case, when extracting the character string of the item for recognizing the character, the character recognizing unit 251 does not extract the character string near the coordinates of the surrounding character string that is not the recognition target. Since the character string around the item for character recognition is not extracted, the number of candidate character strings can be reduced, and the recognition accuracy can be improved.

実施例1〜3では、文字認識部251に入力される画像は静止画であるものとして説明したが、文字認識部251に入力される画像は動画であってもよい。ユーザが点検作業をする機器のラベル等の動画を撮影し、当該動画がリアルタイムで文字認識部251に入力され、文字認識部251がリアルタイムで文字認識処理を実行してもよい。なお、文字認識部251は、ある機器の全ての項目の文字認識が終了した時点で、動画の撮影を終了させて、認識結果をユーザに確認させてもよい。   In the first to third embodiments, the image input to the character recognition unit 251 is described as a still image. However, the image input to the character recognition unit 251 may be a moving image. The user may shoot a moving image such as a label of a device on which an inspection operation is performed, the moving image may be input to the character recognition unit 251 in real time, and the character recognition unit 251 may execute the character recognition processing in real time. Note that the character recognition unit 251 may end the shooting of the moving image and allow the user to check the recognition result when the character recognition of all items of a certain device is completed.

実施例1〜3では、文字認識部251は、一つの画像から文字を認識するが、複数の画像から文字を認識してもよい。例えば、文字認識部251に動画が入力され、入力された動画に含まれる複数のフレーム画像から文字を認識し、認識結果が同じフレーム画像が所定数以上あれば、当該認識結果を記憶する。これによって、認識精度を向上させることができる。   In the first to third embodiments, the character recognition unit 251 recognizes characters from one image, but may recognize characters from a plurality of images. For example, a moving image is input to the character recognition unit 251, a character is recognized from a plurality of frame images included in the input moving image, and if a predetermined number or more of the same number of frame images have the same recognition result, the recognition result is stored. Thereby, recognition accuracy can be improved.

実施例1〜3で認識する文字は項目の名称の周辺に記載された点検対象となる文字列であるが、項目の名称の文字列及び当該項目の点検対象となる文字列の文字を認識してもよい。これは、同じ表記の文字列が一つの画像に存在する場合に有効である。例えば、文字認識部251に入力された画像に次回点検予定日の日付と前回点検日の日付とが含まれている場合等である。例えば、図1に示すラベル141からは、項目名の名称「S/N」と点検対象となる文字列「17120401161」との組み合わせ、及び項目の名称「MAC」と点検対象となる文字列「C08ADE14CB60」との組み合わせが抽出される。   The characters recognized in the first to third embodiments are character strings to be inspected written around the name of the item, but recognize the character string of the item name and the character string to be inspected of the item. May be. This is effective when a character string with the same notation exists in one image. For example, this is the case where the image input to the character recognition unit 251 includes the date of the next scheduled inspection date and the date of the previous inspection date. For example, from the label 141 shown in FIG. 1, the combination of the item name “S / N” and the character string “1710401161” to be inspected, and the item name “MAC” and the character string “C08ADE14CB60 to be inspected”. ”Is extracted.

また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。   Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment. Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.

また、前記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。   Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor.

各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリや、ハードディスク、SSD(Solid State Drive)などの記録装置、または、IC(Integrated Circuit)カード、SDカード、DVD(Digital Versatile Disc)などの記録媒体に置くことができる。   Information such as programs, tables, and files that realize each function is stored in memory, a hard disk, a recording device such as an SSD (Solid State Drive), an IC (Integrated Circuit) card, an SD card, a DVD (Digital Versatile Disc), etc. Can be placed on any recording medium.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。   Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

200 文字認識装置
210 操作部
220 表示部
230 画像入力部
250 プロセッサ
251 文字認識部
252 機器特定情報認識部
253 点検項目認識部
260 メモリ
261 点検シナリオデータ
262 作業ログ
270 補助記憶装置
200 Character Recognition Device 210 Operation Unit 220 Display Unit 230 Image Input Unit 250 Processor 251 Character Recognition Unit 252 Device Specific Information Recognition Unit 253 Inspection Item Recognition Unit 260 Memory 261 Inspection Scenario Data 262 Work Log 270 Auxiliary Storage Device

Claims (12)

入力された画像に含まれる文字を認識する文字認識装置であって、
文字を認識する複数の項目を含む複数のグループと、前記グループに含まれる複数の項目の当該グループ内での認識順序と、各項目の文字の認識に用いる情報とが登録された認識辞書を記憶する記憶部と、
プロセッサと、を備え、
前記認識辞書に登録される項目は、複数の第1項目及び複数の第2項目を含み、
前記第1項目は前記グループ内での認識順序が最初の項目であって、前記第1項目に少なくとも一つの第2項目が関連付けられ、
前記プロセッサは、
前記認識辞書に登録された複数のグループの第1項目の文字の認識に用いる情報に基づいて、入力された画像から前記第1項目の文字を認識し、
前記認識辞書に登録された前記認識順序を参照し、前記認識された文字の第1項目に関連付けられた第2項目から次に文字を認識する第2項目を特定し、
前記特定した第2項目の文字の認識に用いる情報を前記認識辞書から読み出し、
前記読み出された第2項目の文字の認識に用いる情報に基づいて、入力された画像から当該第2項目の文字を認識することを特徴とする文字認識装置。
A character recognition device for recognizing characters included in an input image,
A recognition dictionary in which a plurality of groups including a plurality of items for recognizing characters, a recognition order of a plurality of items included in the group in the group, and information used for recognizing characters of each item are stored. A storage unit to
And a processor,
Items registered in the recognition dictionary include a plurality of first items and a plurality of second items,
The first item is the first item in the recognition order in the group, and at least one second item is associated with the first item;
The processor is
Recognizing characters of the first item from an input image based on information used for recognizing characters of the first item of a plurality of groups registered in the recognition dictionary;
Referring to the recognition order registered in the recognition dictionary, specifying a second item for recognizing a character next from a second item associated with the first item of the recognized character;
Read information used for recognizing the character of the specified second item from the recognition dictionary,
A character recognition device that recognizes the character of the second item from the input image based on the information used for recognizing the character of the read second item.
請求項1に記載の文字認識装置であって、
前記第1項目の文字の認識に用いる情報は、前記第1項目の表記形式を含み、
前記プロセッサは、前記第1項目の認識された文字の表記形式が当該第1項目の表記形式と一致する場合、当該第1項目の認識された文字を当該第1項目の認識結果とすることを特徴とする文字認識装置。
The character recognition device according to claim 1,
The information used for recognizing the character of the first item includes the notation format of the first item,
When the notation format of the recognized character of the first item matches the notation format of the first item, the processor sets the recognized character of the first item as a recognition result of the first item. Character recognition device.
請求項1に記載の文字認識装置であって、
前記プロセッサは、前記認識された第1項目及び第2項目の文字を、作業ログとして前記記憶部に記憶することを特徴とする文字認識装置。
The character recognition device according to claim 1,
The processor stores the recognized characters of the first item and the second item in the storage unit as a work log.
請求項3に記載の文字認識装置であって、
前記プロセッサは、
入力された画像をパラメータに基づいて補正し、前記補正後の画像から認識対象となる項目の文字を認識し、
前記文字の認識が成功した場合、前記画像の補正に用いたパラメータを前記作業ログとして前記記憶部に記憶することを特徴とする文字認識装置。
The character recognition device according to claim 3,
The processor is
Correct the input image based on the parameters, recognize the character of the item to be recognized from the corrected image,
The character recognition device, wherein when the character recognition is successful, the storage unit stores the parameters used for correcting the image as the work log.
請求項3に記載の文字認識装置であって、
前記プロセッサは、
入力された画像から文字列を抽出し、
前記抽出した文字列から認識対象となる項目の文字の認識に用いる情報に基づいて文字を認識し、
前記文字の認識が成功した場合、前記文字を認識した項目と当該項目より認識順序が一つ前の項目との配置関係を前記作業ログに登録し、
当該項目の文字を再度認識する場合、前記作業ログに登録された配置関係に基づいて、入力された画像から文字列を抽出する領域を特定し、
前記特定した領域から文字列を抽出することを特徴とする文字認識装置。
The character recognition device according to claim 3,
The processor is
Extract a character string from the input image,
Recognizing characters based on information used for recognizing characters of items to be recognized from the extracted character strings,
When the recognition of the character is successful, the arrangement relationship between the item that recognized the character and the item whose recognition order is one before the item is registered in the work log,
When recognizing the character of the item, based on the arrangement relationship registered in the work log, specify the area to extract the character string from the input image,
A character recognition apparatus, wherein a character string is extracted from the specified area.
請求項1に記載の文字認識装置であって、
前記第1項目の文字を認識するための画像が入力され、前記プロセッサは、前記入力された画像から前記第1項目の文字を認識し、
前記認識された第1項目の次に認識する第2項目の文字を認識するための画像が入力され、前記プロセッサは、当該入力された画像から当該第2項目の文字を認識し、
前記認識された第1項目に関連付けられた最後の第2項目の文字を認識するための画像が入力され、当該入力された画像から当該第2項目の文字を認識するまで繰り返すことを特徴とする文字認識装置。
The character recognition device according to claim 1,
An image for recognizing the character of the first item is input, and the processor recognizes the character of the first item from the input image,
An image for recognizing a second item character recognized next to the recognized first item is input, and the processor recognizes the second item character from the input image,
An image for recognizing the character of the last second item associated with the recognized first item is input, and the process is repeated until the character of the second item is recognized from the input image. Character recognition device.
請求項1に記載の文字認識装置であって、
前記第1項目の文字を認識するための画像が入力され、前記プロセッサは、前記入力された画像から前記第1項目の文字を認識し、
前記認識された第1項目に関連付けられた第2項目の文字を認識するための画像が入力され、前記プロセッサは、当該入力された画像から前記認識された第1項目に関連付けられた全ての第2項目の文字を一括で認識することを特徴とする文字認識装置。
The character recognition device according to claim 1,
An image for recognizing the character of the first item is input, and the processor recognizes the character of the first item from the input image,
An image for recognizing the character of the second item associated with the recognized first item is input, and the processor selects all the second items associated with the recognized first item from the input image. 2. A character recognition apparatus characterized by recognizing two items of characters collectively.
請求項1に記載の文字認識装置であって、
前記プロセッサは、
入力された一つの画像から、前記第1項目の文字を認識し、
前記入力された画像から、前記認識された第1項目に関連付けられた全ての第2項目の文字を一括で認識することを特徴とする文字認識装置。
The character recognition device according to claim 1,
The processor is
Recognizing the characters of the first item from one input image,
A character recognition apparatus that collectively recognizes characters of all second items associated with the recognized first item from the input image.
請求項1に記載の文字認識装置であって、
前記プロセッサは、
前記認識された第1項目の文字を表示部に表示し、
前記認識された第2項目の文字を前記認識辞書に登録された認識順序通りに前記表示部に表示することを特徴とする文字認識装置。
The character recognition device according to claim 1,
The processor is
Displaying the character of the recognized first item on the display unit;
The character recognition apparatus, wherein the recognized second item character is displayed on the display unit in a recognition order registered in the recognition dictionary.
請求項9に記載の文字認識装置であって、
前記プロセッサは、前記認識された第1項目の文字を前記表示部に表示する場合、又は前記認識された第2項目の文字を前記表示部に前記表示する場合、前記認識辞書に登録された前記認識に用いた情報も前記表示部に表示することを特徴とする文字認識装置。
The character recognition device according to claim 9,
The processor, when displaying the recognized first item of characters on the display unit, or when displaying the recognized second item of characters on the display unit, the processor registered in the recognition dictionary The character recognition apparatus characterized by also displaying the information used for recognition on the said display part.
入力された画像に含まれる文字を認識する文字認識装置における文字認識方法であって、
前記文字認識装置は、記憶部とプロセッサとを有し、
前記記憶部には、文字を認識する複数の項目を含む複数のグループと、前記グループに含まれる複数の項目の当該グループ内での認識順序と、各項目の文字の認識に用いる情報とが登録された認識辞書が記憶され、
前記認識辞書に登録される項目は、複数の第1項目及び複数の第2項目を含み、
前記第1項目は前記グループ内での認識順序が最初の項目であって、前記第1項目に少なくとも一つの第2項目が関連付けられ、
前記文字認識方法は、
前記プロセッサが、前記認識辞書に登録された複数のグループの第1項目の文字の認識に用いる情報に基づいて、入力された画像から前記第1項目の文字を認識し、
前記プロセッサが、前記認識辞書に登録された前記認識順序を参照し、前記認識された文字の第1項目に関連付けられた第2項目から次に文字を認識する第2項目を特定し、
前記プロセッサが、前記特定した第2項目の文字の認識に用いる情報を前記認識辞書から読み出し、
前記プロセッサが、前記読み出された第2項目の文字の認識に用いる情報に基づいて、入力された画像から当該第2項目の文字を認識することを特徴とする文字認識方法。
A character recognition method in a character recognition device for recognizing characters included in an input image,
The character recognition device includes a storage unit and a processor,
Registered in the storage unit are a plurality of groups including a plurality of items for recognizing characters, a recognition order of a plurality of items included in the group in the group, and information used for character recognition of each item The recognized recognition dictionary is stored,
Items registered in the recognition dictionary include a plurality of first items and a plurality of second items,
The first item is the first item in the recognition order in the group, and at least one second item is associated with the first item;
The character recognition method is:
The processor recognizes the character of the first item from the input image based on information used for recognizing the character of the first item of a plurality of groups registered in the recognition dictionary;
The processor refers to the recognition order registered in the recognition dictionary, specifies a second item for recognizing a character next from a second item associated with the first item of the recognized character,
The processor reads information used for recognizing the character of the specified second item from the recognition dictionary,
The character recognition method characterized by recognizing the character of the said 2nd item from the input image based on the information used for the recognition of the character of the said read 2nd item of the said processor.
入力された画像に含まれる文字を認識する処理を装置が有するプロセッサに実行させるプログラムであって、
前記装置は、記憶部と前記プロセッサとを有し、
前記記憶部には、文字を認識する複数の項目を含む複数のグループと、前記グループに含まれる複数の項目の当該グループ内での認識順序と、各項目の文字の認識に用いる情報とが登録された認識辞書が記憶され、
前記認識辞書に登録される項目は、複数の第1項目及び複数の第2項目を含み、
前記第1項目は前記グループ内での認識順序が最初の項目であって、前記第1項目に少なくとも一つの第2項目が関連付けられ、
前記処理では、
前記プロセッサが、前記認識辞書に登録された複数のグループの第1項目の文字の認識に用いる情報に基づいて、入力された画像から前記第1項目の文字を認識し、
前記プロセッサが、前記認識辞書に登録された前記認識順序を参照し、前記認識された文字の第1項目に関連付けられた第2項目から次に文字を認識する第2項目を特定し、
前記プロセッサが、前記特定した第2項目の文字の認識に用いる情報を前記認識辞書から読み出し、
前記プロセッサが、前記読み出された第2項目の文字の認識に用いる情報に基づいて、入力された画像から当該第2項目の文字を認識することを特徴とするプログラム。
A program for causing a processor included in an apparatus to execute processing for recognizing characters included in an input image,
The apparatus includes a storage unit and the processor,
Registered in the storage unit are a plurality of groups including a plurality of items for recognizing characters, a recognition order of a plurality of items included in the group in the group, and information used for character recognition of each item The recognized recognition dictionary is stored,
Items registered in the recognition dictionary include a plurality of first items and a plurality of second items,
The first item is the first item in the recognition order in the group, and at least one second item is associated with the first item;
In the process,
The processor recognizes the character of the first item from the input image based on information used for recognizing the character of the first item of a plurality of groups registered in the recognition dictionary;
The processor refers to the recognition order registered in the recognition dictionary, specifies a second item for recognizing a character next from a second item associated with the first item of the recognized character,
The processor reads information used for recognizing the character of the specified second item from the recognition dictionary,
The program for recognizing the character of the second item from the input image based on the information used for recognizing the character of the read second item.
JP2015135059A 2015-07-06 2015-07-06 Character recognition device, character recognition method, and program Expired - Fee Related JP6527410B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015135059A JP6527410B2 (en) 2015-07-06 2015-07-06 Character recognition device, character recognition method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015135059A JP6527410B2 (en) 2015-07-06 2015-07-06 Character recognition device, character recognition method, and program

Publications (2)

Publication Number Publication Date
JP2017016549A true JP2017016549A (en) 2017-01-19
JP6527410B2 JP6527410B2 (en) 2019-06-05

Family

ID=57830875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015135059A Expired - Fee Related JP6527410B2 (en) 2015-07-06 2015-07-06 Character recognition device, character recognition method, and program

Country Status (1)

Country Link
JP (1) JP6527410B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018045480A (en) * 2016-09-15 2018-03-22 株式会社アイエスピー Method and program for acquiring document information with guidance, and portable terminal device
JP2018129689A (en) * 2017-02-08 2018-08-16 パナソニック株式会社 Character recognition system, character recognition method, and character recognition server
JP2018136830A (en) * 2017-02-23 2018-08-30 凸版印刷株式会社 Mobile terminal device, program for extracting serial code, and server apparatus
CN109214381A (en) * 2017-07-03 2019-01-15 发那科株式会社 Numerical control program conversion equipment
CN110378217A (en) * 2019-06-13 2019-10-25 平安科技(深圳)有限公司 Application verification method, device and electronic equipment based on optical character identification
WO2020158955A1 (en) * 2019-02-01 2020-08-06 エックスリープ株式会社 Information processing device
JP2021012741A (en) * 2020-10-22 2021-02-04 日本電気株式会社 Image processor, method for processing image, and program
WO2021033603A1 (en) * 2019-08-21 2021-02-25 京セラドキュメントソリューションズ株式会社 Image-reading device
JP6884911B1 (en) * 2020-07-14 2021-06-09 九電ビジネスソリューションズ株式会社 Operation and maintenance system, operation and maintenance method and operation and maintenance program
WO2022254560A1 (en) * 2021-05-31 2022-12-08 株式会社KPMG Ignition Tokyo Data matching using text data generated by optical character recognition
US11605219B2 (en) 2018-04-02 2023-03-14 Nec Corporation Image-processing device, image-processing method, and storage medium on which program is stored
WO2024053411A1 (en) * 2022-09-05 2024-03-14 ダイキン工業株式会社 Information terminal, character recognition method, and character recognition program
JP7490028B2 (en) 2022-09-09 2024-05-24 三菱マテリアル株式会社 Estimation device, estimation system, estimation method, and program
JP7511982B2 (en) 2020-08-25 2024-07-08 日東工業株式会社 Power distribution equipment survey system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06208650A (en) * 1992-04-03 1994-07-26 Iiguretsuku Syst:Kk Method and device for recognizing information
JP2001224557A (en) * 1999-09-09 2001-08-21 Matsushita Electric Ind Co Ltd Data input device, data input system, display data analyszer and medium
JP2006277315A (en) * 2005-03-29 2006-10-12 Nec Corp Pattern recognition device, pattern recognition method, and electronic equipment provided with the pattern recognition device
JP2013161395A (en) * 2012-02-08 2013-08-19 Asahi Glass Co Ltd Data management system, management data extraction method and management data extraction program
JP2015011674A (en) * 2013-07-02 2015-01-19 三菱電機ビルテクノサービス株式会社 Portable terminal for meter reading

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06208650A (en) * 1992-04-03 1994-07-26 Iiguretsuku Syst:Kk Method and device for recognizing information
JP2001224557A (en) * 1999-09-09 2001-08-21 Matsushita Electric Ind Co Ltd Data input device, data input system, display data analyszer and medium
JP2006277315A (en) * 2005-03-29 2006-10-12 Nec Corp Pattern recognition device, pattern recognition method, and electronic equipment provided with the pattern recognition device
JP2013161395A (en) * 2012-02-08 2013-08-19 Asahi Glass Co Ltd Data management system, management data extraction method and management data extraction program
JP2015011674A (en) * 2013-07-02 2015-01-19 三菱電機ビルテクノサービス株式会社 Portable terminal for meter reading

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018045480A (en) * 2016-09-15 2018-03-22 株式会社アイエスピー Method and program for acquiring document information with guidance, and portable terminal device
JP2018129689A (en) * 2017-02-08 2018-08-16 パナソニック株式会社 Character recognition system, character recognition method, and character recognition server
JP2018136830A (en) * 2017-02-23 2018-08-30 凸版印刷株式会社 Mobile terminal device, program for extracting serial code, and server apparatus
CN109214381A (en) * 2017-07-03 2019-01-15 发那科株式会社 Numerical control program conversion equipment
JP2019016001A (en) * 2017-07-03 2019-01-31 ファナック株式会社 Nc program conversion apparatus
US10410080B2 (en) 2017-07-03 2019-09-10 Fanuc Corporation NC-program conversion device
US11605219B2 (en) 2018-04-02 2023-03-14 Nec Corporation Image-processing device, image-processing method, and storage medium on which program is stored
JPWO2020158955A1 (en) * 2019-02-01 2021-12-02 エックスリープ株式会社 Information processing equipment
WO2020158955A1 (en) * 2019-02-01 2020-08-06 エックスリープ株式会社 Information processing device
CN110378217A (en) * 2019-06-13 2019-10-25 平安科技(深圳)有限公司 Application verification method, device and electronic equipment based on optical character identification
WO2021033603A1 (en) * 2019-08-21 2021-02-25 京セラドキュメントソリューションズ株式会社 Image-reading device
JP2022017914A (en) * 2020-07-14 2022-01-26 九電ビジネスソリューションズ株式会社 Operation maintenance system, operation maintenance method, and operation maintenance program
JP6884911B1 (en) * 2020-07-14 2021-06-09 九電ビジネスソリューションズ株式会社 Operation and maintenance system, operation and maintenance method and operation and maintenance program
JP7511982B2 (en) 2020-08-25 2024-07-08 日東工業株式会社 Power distribution equipment survey system
JP7111143B2 (en) 2020-10-22 2022-08-02 日本電気株式会社 Image processing device, image processing method and program
JP2021012741A (en) * 2020-10-22 2021-02-04 日本電気株式会社 Image processor, method for processing image, and program
WO2022254560A1 (en) * 2021-05-31 2022-12-08 株式会社KPMG Ignition Tokyo Data matching using text data generated by optical character recognition
WO2024053411A1 (en) * 2022-09-05 2024-03-14 ダイキン工業株式会社 Information terminal, character recognition method, and character recognition program
JP7490028B2 (en) 2022-09-09 2024-05-24 三菱マテリアル株式会社 Estimation device, estimation system, estimation method, and program

Also Published As

Publication number Publication date
JP6527410B2 (en) 2019-06-05

Similar Documents

Publication Publication Date Title
JP6527410B2 (en) Character recognition device, character recognition method, and program
US11170248B2 (en) Video capture in data capture scenario
US9785627B2 (en) Automated form fill-in via form retrieval
KR101199747B1 (en) Word recognition method and recording medium of program recognition word and information process device
JP6528147B2 (en) Accounting data entry support system, method and program
KR102208683B1 (en) Character recognition method and apparatus thereof
CN111353501A (en) Book point-reading method and system based on deep learning
JP4661921B2 (en) Document processing apparatus and program
JP6831951B2 (en) Image recognition system
US11321936B2 (en) Image processing device, image processing method, and storage medium storing program
JPWO2015064107A1 (en) Management system, list creation device, data structure and print label
JP6458239B1 (en) Image recognition system
JP6000992B2 (en) Document file generation apparatus and document file generation method
US10706581B2 (en) Image processing apparatus for clipping and sorting images from read image according to cards and control method therefor
CN111340023A (en) Text recognition method and device, electronic equipment and storage medium
US20230215201A1 (en) Identify card number
US20160259988A1 (en) Delivery system and computer readable storage medium
US10438097B2 (en) Recognition device, recognition method, and computer program product
JP2018156308A (en) Information processing device, information processing system, and program
JP2009093305A (en) Business form recognition system
JP6432179B2 (en) Document file generation apparatus and document file generation method
US20130330005A1 (en) Electronic device and character recognition method for recognizing sequential code
JP2017173925A (en) Optical character recognition device
JP2019016128A (en) Image similarity determining program, image similarity determining device and image similarity determining method
CN110647785B (en) Method and device for identifying accuracy of input text and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190510

R150 Certificate of patent or registration of utility model

Ref document number: 6527410

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees