JP2016212812A - Information processor and information processing program - Google Patents
Information processor and information processing program Download PDFInfo
- Publication number
- JP2016212812A JP2016212812A JP2015098655A JP2015098655A JP2016212812A JP 2016212812 A JP2016212812 A JP 2016212812A JP 2015098655 A JP2015098655 A JP 2015098655A JP 2015098655 A JP2015098655 A JP 2015098655A JP 2016212812 A JP2016212812 A JP 2016212812A
- Authority
- JP
- Japan
- Prior art keywords
- character
- input
- character recognition
- result
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Character Discrimination (AREA)
Abstract
Description
本発明は、情報処理装置及び情報処理プログラムに関する。 The present invention relates to an information processing apparatus and an information processing program.
特許文献1には、クレジットカード入会申込書のイメージデータを自動的に文字認識するに際し、この文字認識を補完するオペレーターによる入力処理時間の短縮とコスト削減を可能とすることを課題とし、イメージ認識部は多数の記入済みクレジットカード入会申込書のイメージをスキャナによりコンピュータに取り込み、文字認識部は、所定の読み取りフォーマットにしたがいクレジットカード入会申込書の文字を認識し当該クレジットカード入会申込書に対応するデータファイルの所定の欄に認識データを入力し、データ入力部は、データファイルの、文字認識にエラーが発生して文字が入力されていない不完全入力欄にキーボードと音声のいずれか一方の入力に基づいて補完データを入力することが開示されている。
In
特許文献2には、誤認識文字を修正して編集するキー入力編集方法及び編集装置に関し、誤認識文字の修正操作の効率化を図ることを課題とし、スキャナ又はファクシミリ装置を介したイメージデータのイメージデータ・ファイルに格納し、帳票定義情報ファイル等による定義情報にしたがってイメージデータ・ファイルから行/フィールド/カラム単位でイメージデータを読出して文字認識部により文字認識し、認識文字をデータベースにイメージデータと対応して格納し、編集処理部により同一文字種又は同一文字コードの認識文字とそのイメージデータとを対応させて行/フィールド/カラム単位で表示部に表示し、誤認識文字をキーボードから修正入力し、データベースに格納された認識文字を修正することが開示されている。
特許文献3には、文字データの入力エラーを検出することを目的とし、画像入力部により文字情報を光学的に読取り、その文字情報をキー入力部からキー入力し、画像入力部により読取られ文字認識部で文字認識されたデータとキー入力されたデータとを文字照合部で比較し、この比較結果が一致を示したとき、そのデータを正しいデータとして出力し、不一致を示したときには、そのデータの修正が必要である旨を表示部で告知し、この告知後にキー入力されたデータを正しいデータとして出力し、画像入力結果とキー入力結果とを比較してエラーを検出しているため、チェックディジット等による論理的な判定が不可能な場合でもエラーを検出でき、またキーパンチャが2度キー入力するよりも速く処理できるので、データ入力処理工数を削減できることが開示されている。
本発明は、文字認識対象に対して文字認識、人手で入力する場合に比べて、データ入力の誤り率を増大させることなく、人手で入力する場合の工数を削減するようにした情報処理装置及び情報処理プログラムを提供することを目的としている。 The present invention relates to an information processing apparatus capable of reducing man-hours when inputting manually and without increasing the error rate of data input, compared with a case where character recognition is performed on a character recognition target and inputting manually. The purpose is to provide an information processing program.
かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。
請求項1の発明は、文字認識対象を3種類のいずれかに分類する分類手段と、前記分類手段によって第1の種類に分類された場合に、前記文字認識対象の文字認識結果を抽出する抽出手段と、前記分類手段によって第2の種類に分類された場合に、前記文字認識対象の文字認識結果を抽出し、該文字認識対象を人手で入力させるように制御する第1の制御手段と、前記分類手段によって第3の種類に分類された場合に、前記文字認識対象を複数人の人手で入力させるように制御する第2の制御手段を具備することを特徴とする情報処理装置である。
The gist of the present invention for achieving the object lies in the inventions of the following items.
According to the first aspect of the present invention, there is provided a classifying unit for classifying the character recognition target into one of three types, and an extraction for extracting a character recognition result of the character recognition target when the character recognition target is classified into the first type by the classifying unit. And a first control means for extracting the character recognition result of the character recognition target and controlling the character recognition target to be manually input when the character is classified into the second type by the classification means; An information processing apparatus comprising: a second control unit configured to control a character recognition target to be manually input by a plurality of people when the classification unit classifies the third type.
請求項2の発明は、前記第1の制御手段の制御によって抽出された文字認識結果と人手で入力された入力結果、又は、前記第2の制御手段の制御によって入力された複数の入力結果を統合する統合手段をさらに具備することを特徴とする請求項1に記載の情報処理装置である。
According to a second aspect of the present invention, a character recognition result extracted by the control of the first control means and an input result input by hand, or a plurality of input results input by the control of the second control means. The information processing apparatus according to
請求項3の発明は、前記統合手段は、文字認識結果と入力結果が異なる場合、又は、複数の入力結果が異なる場合は、人手による選択又は入力をさせるように制御することを特徴とする請求項2に記載の情報処理装置である。
The invention according to
請求項4の発明は、前記分類手段は、前記文字認識対象の文字認識結果の認識確度を予め定められた複数の閾値と比較することによって分類を行うことを特徴とする請求項1から3のいずれか一項に記載の情報処理装置である。
The invention according to
請求項5の発明は、コンピュータを、文字認識対象を3種類のいずれかに分類する分類手段と、前記分類手段によって第1の種類に分類された場合に、前記文字認識対象の文字認識結果を抽出する抽出手段と、前記分類手段によって第2の種類に分類された場合に、前記文字認識対象の文字認識結果を抽出し、該文字認識対象を人手で入力させるように制御する第1の制御手段と、前記分類手段によって第3の種類に分類された場合に、前記文字認識対象を複数人の人手で入力させるように制御する第2の制御手段として機能させるための情報処理プログラムである。 According to a fifth aspect of the present invention, when the computer classifies the character recognition target into one of the three types, and the classification unit classifies the character recognition target as the first type, the character recognition result of the character recognition target is Extracting means for extracting and first control for extracting the character recognition result of the character recognition target and controlling the character recognition target to be manually input when the character is classified into the second type by the classification means And an information processing program for functioning as second control means for controlling the character recognition target to be manually input by a plurality of persons when classified by the classification means into a third type.
請求項1の情報処理装置によれば、文字認識対象に対して文字認識、人手で入力する場合に比べて、データ入力の誤り率を増大させることなく、人手で入力する場合の工数を削減することができる。 According to the information processing apparatus of the first aspect, compared with the case of character recognition and manual input with respect to the character recognition target, man-hours for manual input are reduced without increasing the data input error rate. be able to.
請求項2の情報処理装置によれば、2つの結果データを統合することができる。 According to the information processing apparatus of the second aspect, the two result data can be integrated.
請求項3の情報処理装置によれば、文字認識結果と入力結果が異なる場合、又は、複数の入力結果が異なる場合は、人手による選択又は入力をさせるように制御することができる。 According to the information processing apparatus of the third aspect, when the character recognition result and the input result are different, or when a plurality of input results are different, it is possible to control to make manual selection or input.
請求項4の情報処理装置によれば、文字認識対象の文字認識結果の認識確度を予め定められた複数の閾値と比較することによって分類を行うことができる。 According to the information processing apparatus of the fourth aspect, classification can be performed by comparing the recognition accuracy of the character recognition result of the character recognition target with a plurality of predetermined threshold values.
請求項5の情報処理プログラムによれば、文字認識対象に対して文字認識、人手で入力する場合に比べて、データ入力の誤り率を増大させることなく、人手で入力する場合の工数を削減することができる。
According to the information processing program of
まず、本実施の形態を説明する前に、その前提又は本実施の形態を利用する情報処理装置について、図8〜12を用いて説明する。なお、この説明は、本実施の形態の理解を容易にすることを目的とするものである。
図8は、本実施の形態が利用される処理例を示す説明図である。「住所」、「氏名」、「商品番号」等の各種番号が記入された帳票内のデータを入力する業務がある。例えば、図8の例に示すように、氏名欄812、住所欄814、商品番号欄816を有している帳票画像810があり、その氏名欄812、住所欄814、商品番号欄816内に、手書きで文字が記載される。
一般に、この帳票画像810を見て、情報処理装置800を用いて、オペレーター(ユーザー)によって人手(キー入力)による入力が行われているため、データ入力費用が課題となっている。
誤りの入力を排除するために、図9の例に示されるように、従来の人手入力の場合には、複数の人(Aさん、Bさん)が同じ帳票画像810を見て、人手入力装置(Aさん)920A、人手入力装置(Bさん)920Bで並行にキー入力(ダブル入力)を行う。突き合わせ処理モジュール940では、人手入力装置(Aさん)920A、人手入力装置(Bさん)920Bのそれぞれで入力を行った結果を突き合わせる。2つの結果が同じであれば(「結果が同じ場合」946)、そのまま入力結果のデータを採用する(「キー入力結果が合っていると判断する」948)。2つの結果が異なる場合は(「結果が異なる場合」942)、キー入力結果が間違っていると判断する(「キー入力結果が間違っていると判断する」944)。間違っている場合には、別の処理(再入力等)を行うことになる。
背景技術に挙げた特許文献3等においては、図10の例に示すように、人手入力装置(Bさん)920Bを文字認識器1030で代替する技術が開示されている。Aさんが見てキー入力を行っている帳票画像810と同じものを文字認識器1030に入力する。文字認識器1030は、入力された帳票画像810内の文字(具体的には、氏名欄812、住所欄814、商品番号欄816内に記載されている文字)を認識し、認識結果を出力する。突き合わせ処理モジュール1040は、人手入力装置(Aさん)1020でのAさんの入力結果と、文字認識器1030の認識結果を突き合わせて、2つの結果が同じであれば(「結果が同じ場合」1046)、そのまま入力結果(認識結果)のデータを採用する(「キー入力結果及び認識結果が合っていると判断する」1048)。2つの結果が異なる場合は(「結果が異なる場合」1042)、キー入力結果又は文字認識結果が間違っていると判断する(「キー入力結果又は認識結果が間違っていると判断する」1044)。この場合には、別の処理(再入力等)を行うことになる。
上記に示したように、文字認識器1030と人手による入力(人手入力装置(Aさん)1020)のダブル入力を行うのが従来技術である。
First, before describing the present embodiment, the premise or an information processing apparatus using the present embodiment will be described with reference to FIGS. This description is intended to facilitate understanding of the present embodiment.
FIG. 8 is an explanatory diagram showing a processing example in which this exemplary embodiment is used. There is a task of inputting data in a form in which various numbers such as “address”, “name”, and “product number” are entered. For example, as shown in the example of FIG. 8, there is a
Generally, looking at the
In order to eliminate erroneous input, as shown in the example of FIG. 9, in the case of conventional manual input, a plurality of people (Mr. A, Mr. B) see the
In
As described above, it is a conventional technique to perform double input of the
図10の例に示した従来技術では、文字認識器1030の認識率が悪い場合には、その文字認識器1030の悪い認識率に引きずられて、最終的なデータ入力の品質が悪くなってしまう場合がある。
図11、図12に示す例を用いて説明する。なお、図11に示す例は図9に示す例に対応し、図12に示す例は図10の示す例に対応している。
図11、図12では、2つの結果が異なる場合には(「結果が異なる場合」1142、1242)、統合処理モジュール1160、1260は、「Cさん」(人手入力装置(Cさん)1150、1250)の入力結果を利用する場合を示す。
ここで、人の誤り率をrとする。
図11に示す例のように、人が2人で入力する場合には、どちらも誤る確率は、1−(1−r)2である。最終的なデータが誤っている確率Eは、さらに、Cさんも誤る場合であるため、E=r[1−(1−r)2]となる。人の誤り率をr=0.01とすると、図11の場合のデータ誤り率は、1.99×10−4となる。
次に、文字認識器1030の誤り率をRとする。最終的な誤り率は、E=r[1−(1−r)(1−R)]となる。
R=0.01であれば、図11と図12に示す例の結果は同じとなる。しかしながら、文字認識器1030の誤り率が大きな場合、例えば、R=0.1の場合は、最終的な誤り率は、E=1.09×10−3となり、約1桁誤り率が大きくなってしまう。
In the prior art shown in the example of FIG. 10, when the recognition rate of the
This will be described with reference to examples shown in FIGS. The example shown in FIG. 11 corresponds to the example shown in FIG. 9, and the example shown in FIG. 12 corresponds to the example shown in FIG.
11 and 12, when the two results are different (“if the results are different” 1142 and 1242), the
Here, let r be the human error rate.
As in the example shown in FIG. 11, when two people are input, the probability of error is 1− (1−r) 2 . Since the probability E that the final data is wrong is also a case where Mr. C is wrong, E = r [1- (1-r) 2 ]. If the human error rate is r = 0.01, the data error rate in the case of FIG. 11 is 1.99 × 10 −4 .
Next, let R be the error rate of the
If R = 0.01, the results shown in FIGS. 11 and 12 are the same. However, when the error rate of the
データ入力を行う場合に、文字認識器を利用するとデータ誤り率が増加する問題がある。
この問題を避けるためには、文字認識器を利用せず、人手でダブル入力を行えばよい。
ただし、この場合には、2人分の工数を常に必要としてしまうことになる。
When inputting data, if a character recognizer is used, there is a problem that the data error rate increases.
In order to avoid this problem, it is sufficient to manually perform double input without using a character recognizer.
However, in this case, man-hours for two people are always required.
以下、図面に基づき本発明を実現するにあたっての好適な各種の実施の形態の例を説明する。
図1は、第1の実施の形態の構成例についての概念的なモジュール構成図を示している。
なお、モジュールとは、一般的に論理的に分離可能なソフトウェア(コンピュータ・プログラム)、ハードウェア等の部品を指す。したがって、本実施の形態におけるモジュールはコンピュータ・プログラムにおけるモジュールのことだけでなく、ハードウェア構成におけるモジュールも指す。それゆえ、本実施の形態は、それらのモジュールとして機能させるためのコンピュータ・プログラム(コンピュータにそれぞれの手順を実行させるためのプログラム、コンピュータをそれぞれの手段として機能させるためのプログラム、コンピュータにそれぞれの機能を実現させるためのプログラム)、システム及び方法の説明をも兼ねている。ただし、説明の都合上、「記憶する」、「記憶させる」、これらと同等の文言を用いるが、これらの文言は、実施の形態がコンピュータ・プログラムの場合は、記憶装置に記憶させる、又は記憶装置に記憶させるように制御するという意味である。また、モジュールは機能に一対一に対応していてもよいが、実装においては、1モジュールを1プログラムで構成してもよいし、複数モジュールを1プログラムで構成してもよく、逆に1モジュールを複数プログラムで構成してもよい。また、複数モジュールは1コンピュータによって実行されてもよいし、分散又は並列環境におけるコンピュータによって1モジュールが複数コンピュータで実行されてもよい。なお、1つのモジュールに他のモジュールが含まれていてもよい。また、以下、「接続」とは物理的な接続の他、論理的な接続(データの授受、指示、データ間の参照関係等)の場合にも用いる。「予め定められた」とは、対象としている処理の前に定まっていることをいい、本実施の形態による処理が始まる前はもちろんのこと、本実施の形態による処理が始まった後であっても、対象としている処理の前であれば、そのときの状況・状態に応じて、又はそれまでの状況・状態に応じて定まることの意を含めて用いる。「予め定められた値」が複数ある場合は、それぞれ異なった値であってもよいし、2以上の値(もちろんのことながら、全ての値も含む)が同じであってもよい。また、「Aである場合、Bをする」という意味を有する記載は、「Aであるか否かを判断し、Aであると判断した場合はBをする」の意味で用いる。ただし、Aであるか否かの判断が不要である場合を除く。
また、システム又は装置とは、複数のコンピュータ、ハードウェア、装置等がネットワーク(一対一対応の通信接続を含む)等の通信手段で接続されて構成されるほか、1つのコンピュータ、ハードウェア、装置等によって実現される場合も含まれる。「装置」と「システム」とは、互いに同義の用語として用いる。もちろんのことながら、「システム」には、人為的な取り決めである社会的な「仕組み」(社会システム)にすぎないものは含まない。
また、各モジュールによる処理毎に又はモジュール内で複数の処理を行う場合はその処理毎に、対象となる情報を記憶装置から読み込み、その処理を行った後に、処理結果を記憶装置に書き出すものである。したがって、処理前の記憶装置からの読み込み、処理後の記憶装置への書き出しについては、説明を省略する場合がある。なお、ここでの記憶装置としては、ハードディスク、RAM(Random Access Memory)、外部記憶媒体、通信回線を介した記憶装置、CPU(Central Processing Unit)内のレジスタ等を含んでいてもよい。
Hereinafter, examples of various preferred embodiments for realizing the present invention will be described with reference to the drawings.
FIG. 1 is a conceptual module configuration diagram of a configuration example according to the first embodiment.
The module generally refers to components such as software (computer program) and hardware that can be logically separated. Therefore, the module in the present embodiment indicates not only a module in a computer program but also a module in a hardware configuration. Therefore, the present embodiment is a computer program for causing these modules to function (a program for causing a computer to execute each procedure, a program for causing a computer to function as each means, and a function for each computer. This also serves as an explanation of the program and system and method for realizing the above. However, for the sake of explanation, the words “store”, “store”, and equivalents thereof are used. However, when the embodiment is a computer program, these words are stored in a storage device or stored in memory. This means that control is performed so as to be stored in the apparatus. Modules may correspond to functions one-to-one, but in mounting, one module may be configured by one program, or a plurality of modules may be configured by one program, and conversely, one module May be composed of a plurality of programs. The plurality of modules may be executed by one computer, or one module may be executed by a plurality of computers in a distributed or parallel environment. Note that one module may include other modules. Hereinafter, “connection” is used not only for physical connection but also for logical connection (data exchange, instruction, reference relationship between data, etc.). “Predetermined” means that the process is determined before the target process, and not only before the process according to this embodiment starts but also after the process according to this embodiment starts. In addition, if it is before the target processing, it is used in accordance with the situation / state at that time or with the intention to be decided according to the situation / state up to that point. When there are a plurality of “predetermined values”, they may be different values, or two or more values (of course, including all values) may be the same. In addition, the description having the meaning of “do B when it is A” is used in the meaning of “determine whether or not it is A and do B when it is judged as A”. However, the case where it is not necessary to determine whether or not A is excluded.
In addition, the system or device is configured by connecting a plurality of computers, hardware, devices, and the like by communication means such as a network (including one-to-one correspondence communication connection), etc., and one computer, hardware, device. The case where it implement | achieves by etc. is also included. “Apparatus” and “system” are used as synonymous terms. Of course, the “system” does not include a social “mechanism” (social system) that is an artificial arrangement.
In addition, when performing a plurality of processes in each module or in each module, the target information is read from the storage device for each process, and the processing result is written to the storage device after performing the processing. is there. Therefore, description of reading from the storage device before processing and writing to the storage device after processing may be omitted. Here, the storage device may include a hard disk, a RAM (Random Access Memory), an external storage medium, a storage device via a communication line, a register in a CPU (Central Processing Unit), and the like.
以下、文字認識対象として、文字画像を主に例示して説明する。ただし、文字画像に限定する必要はない。例えば、ストローク情報によって構成されているオンライン文字であってもよい。また、手書き文字に限らず、印刷文字等であってもよい。
本実施の形態である情報処理装置100は、文字画像108内に含まれている文字を示すテキストデータを出力データ152とするものであって、図1の例に示すように、文字認識モジュール110、文字列分類モジュール120、認識結果選択モジュール130、人手入力モジュール140、結果統合モジュール150を有している。
Hereinafter, a character image will be mainly exemplified and described as a character recognition target. However, it is not necessary to limit to a character image. For example, it may be an online character configured by stroke information. Moreover, not only a handwritten character but a printed character etc. may be sufficient.
The
文字認識モジュール110は、文字列分類モジュール120、認識結果選択モジュール130と接続されており、文字画像108(具体例として、文字画像(A山B雄)108A、文字画像(C川D介)108B等)を受け付け、文字列分類モジュール120に認識確度112を、認識結果選択モジュール130に認識結果116を渡す。文字認識モジュール110は、文字画像108を文字認識する。テキストデータである認識結果116と、その認識結果116の認識確度112を出力する既存の文字認識技術を用いればよい。ここで、認識確度112の値が高いほど、その認識結果116である確率が高いことを示しているものとする。
文字列分類モジュール120は、文字認識モジュール110、認識結果選択モジュール130、人手入力モジュール140、結果統合モジュール150と接続されており、閾値118を受け付け、文字認識モジュール110から認識確度112を受け取り、認識結果選択モジュール130、人手入力モジュール140、結果統合モジュール150に分類結果122を渡す。文字列分類モジュール120は、文字認識対象である文字画像108を3種類のいずれかに分類する。
また、文字列分類モジュール120は、文字認識対象の文字画像108の文字認識結果の認識確度112を予め定められた複数の閾値118と比較することによって分類を行うようにしてもよい。具体的には、閾値118として、Th1、Th2(Th1はTh2より高い閾値)を用いて、分類結果122として第1の種類、第2の種類、第3の種類のいずれかを出力するようにしてもよい。認識確度112がTh1より高い場合(つまり、文字認識モジュール110による認識結果116を採用してもよい場合)は、第1の種類に分類し、認識確度112がTh1以下であって、Th2より高い場合(つまり、「文字認識モジュール110による認識結果116を採用してもよい場合」ではなく、かつ「文字認識モジュール110による認識結果116を採用してはならない場合」ではない場合)は、第2の種類に分類し、認識確度112がTh2以下の場合(つまり、文字認識モジュール110による認識結果116を採用してはならない場合)、第3の種類に分類する。
The
The character
Further, the character
認識結果選択モジュール130は、文字認識モジュール110、文字列分類モジュール120、結果統合モジュール150と接続されており、文字認識モジュール110から認識結果116を、文字列分類モジュール120から分類結果122を受け取り、結果統合モジュール150に認識結果132を渡す。認識結果選択モジュール130は、文字列分類モジュール120によって第1の種類に分類された場合に、文字認識対象の文字画像108に対する文字認識モジュール110による認識結果116を抽出する。また、認識結果選択モジュール130は、文字列分類モジュール120によって第2の種類に分類された場合に、文字認識対象の文字画像108に対する文字認識モジュール110による認識結果116を抽出する。つまり、分類結果122が第1の種類又は第2の種類である場合は、認識結果116を認識結果132として結果統合モジュール150に渡す。
人手入力モジュール140は、文字列分類モジュール120、結果統合モジュール150と接続されており、文字画像108を受け付け、文字列分類モジュール120から分類結果122を受け取り、結果統合モジュール150に人手入力結果142を渡す。人手入力モジュール140は、文字列分類モジュール120によって第2の種類に分類された場合に、文字認識対象の文字画像108を対象として人手で入力させるように制御する。また、人手入力モジュール140は、文字列分類モジュール120によって第3の種類に分類された場合に、文字認識対象の文字画像108を対象として複数人の人手で入力させるように制御する。つまり、分類結果122が第2の種類又は第3の種類である場合は、人手入力結果142(第2の種類の場合は1つの入力結果、第3の種類の場合は複数の入力結果)を結果統合モジュール150に渡す。以下、複数人の例として、2人の場合を示すが、3人以上であってもよい。
The recognition
The
結果統合モジュール150は、文字列分類モジュール120、認識結果選択モジュール130、人手入力モジュール140と接続されており、文字列分類モジュール120から分類結果122を、認識結果選択モジュール130から認識結果132を、人手入力モジュール140から人手入力結果142を受け取り、出力データ152を出力する。結果統合モジュール150は、文字列分類モジュール120によって第2の種類に分類された場合は、認識結果選択モジュール130によって抽出された文字認識結果を出力データ152として出力する。結果統合モジュール150は、文字列分類モジュール120によって第2の種類に分類された場合は、認識結果選択モジュール130によって抽出された文字認識結果と人手入力モジュール140によって人手で入力された入力結果を統合する。又は、結果統合モジュール150は、文字列分類モジュール120によって第3の種類に分類された場合は、人手入力モジュール140の制御によって入力された複数の入力結果を統合する。
結果統合モジュール150は、認識結果132と人手入力結果142が異なる場合、又は、複数の人手入力結果142が異なる場合は、人手による選択(認識結果132、人手入力結果142のいずれかの選択、複数の人手入力結果142のうちの1つの選択)又は人手による入力をさせるように制御するようにしてもよい。ここでの人手は、人手入力モジュール140によって入力を行ったユーザーであってもよいが、好ましくは、人手入力モジュール140によって入力を行ったユーザー以外のユーザーがよい。
The
When the
図1に示す例を用いて、動作例を説明する。
帳票画像が文字画像108として入力される。例えば、帳票の中の氏名欄の画像が入力される。特に切り取られている必要はないが、本例では、氏名欄が切り取られて、文字画像(A山B雄)108A、文字画像(C川D介)108B等のように入力される例を示している。
文字画像108は、文字認識モジュール110において、認識が行われ、認識確度112と認識結果116を出力する。
認識確度112は、文字列分類モジュール120に入力され、図4の例で後述するように、(1)〜(3)の3種の文字列に分類する。文字列分類モジュール120では2つの閾値118を用いる。
認識結果選択モジュール130では、(1)又は(2)の場合に、認識結果116を選択する。
人手入力モジュール140では、(2)の場合には、1人分の人手データ入力を行うように、データ表示及び、データ受け取りを行う。(3)の場合には、2人分の人手データ入力を行うように、データ表示及び、データ受け取りを行う。
結果統合モジュール150では、分類結果122にしたがって、認識結果132と人手入力モジュール140の結果(人手入力結果142)を統合して最終的な処理を行う。最終的な処理の例として、図11、図12の例で後述するように、2つの結果を突き合わせて、結果が異なるようであれば、人手入力を行う等の処理を行う。結果統合モジュール150による処理結果が出力データ152となる。本出力データ152は、データ入力の内容(文字画像108に対応するテキストデータ)となる。
なお、文字列は、1文字以上の文字の連なりをいう。したがって、1文字も文字列と称する。
An example of operation will be described using the example shown in FIG.
A form image is input as a
The
The
The recognition
In the case of (2), the
In the
A character string refers to a sequence of one or more characters. Therefore, one character is also called a character string.
閾値はTh1、Th2の2つではなくてもよい。どちらか1つでもよい。
Th1のみであれば、
(1)文字認識モジュール110のみでデータ入力を行う。
(2)文字認識モジュール110と人でダブル入力を行う。
の選択を行うことができる。この場合は、認識結果選択モジュール130は不要である。
Th2のみであれば、
(2)文字認識モジュール110と人でダブル入力を行う。
(3)人でダブル入力を行う。
の選択を行うことができる。
あるいは、Th1とTh2を同じ値に設定することにより、
(1)文字認識モジュール110のみでデータ入力を行う。
(3)人でダブル入力を行う。
の選択を行うことができる。
The threshold value may not be two of Th1 and Th2. Either one is acceptable.
If only Th1,
(1) Data input is performed only by the
(2) The
Can be selected. In this case, the recognition
If only Th2,
(2) The
(3) A person double-inputs.
Can be selected.
Alternatively, by setting Th1 and Th2 to the same value,
(1) Data input is performed only by the
(3) A person double-inputs.
Can be selected.
図2は、本実施の形態を利用したシステム構成例を示す説明図である。
情報処理装置100、画像読取装置210、入力用端末220A、入力用端末220B、入力用端末220Cは、通信回線290を介してそれぞれ接続されている。通信回線290は、無線、有線、これらの組み合わせであってもよく、例えば、通信インフラとしてのインターネット、イントラネット等であってもよい。
入力用端末220は、ユーザー222によって操作される。例えば、画像読取装置210は帳票画像810を読み取り、情報処理装置100に送信する。情報処理装置100による制御によって、第2の種類の場合は入力用端末220Aに画像読取装置210で読み取られた文字画像が送信され、ユーザー222Aによる入力結果を入力用端末220Aが情報処理装置100に送信する。また、情報処理装置100による制御によって、第3の種類の場合は入力用端末220A、入力用端末220Bに画像読取装置210で読み取られた文字画像が送信され、ユーザー222Aによる入力結果を入力用端末220Aが情報処理装置100に送信し、ユーザー222Bによる入力結果を入力用端末220Bが情報処理装置100に送信する。そして、文字認識モジュール110による認識結果116とユーザー222Aによる入力結果が異なる場合、又は、ユーザー222Aによる入力結果とユーザー222Bによる入力結果が異なる場合は、入力用端末220Cに画像読取装置210で読み取られた文字画像が送信され、ユーザー222Cによる入力結果を入力用端末220Cが情報処理装置100に送信する。
そして、情報処理装置100は、第1の種類の場合は、文字認識モジュール110による認識結果116を出力し、第2の種類の場合は、文字認識モジュール110による認識結果116とユーザー222Aによる入力結果を統合した結果を出力し、第3の種類の場合は、ユーザー222Aによる入力結果とユーザー222Bによる入力結果を統合した結果を出力する。ここでの統合結果は、両者が同じである場合はその値(入力結果又は認識結果)、異なる場合はユーザー222Cによる入力結果である。
FIG. 2 is an explanatory diagram showing a system configuration example using the present embodiment.
The
The input terminal 220 is operated by the user 222. For example, the
The
図3は、第1の実施の形態による処理例を示すフローチャートである。
ステップS302では、文字認識モジュール110は、文字画像108を受け付ける。
ステップS304では、文字認識モジュール110は、文字画像108を認識する。
ステップS306では、文字列分類モジュール120は、認識確度(K)112を判断し、「K>Th1」の場合はステップS308へ進み、「Th2<K≦Th1」の場合はステップS312へ進み、「K≦Th2」の場合はステップS318へ進む。
ステップS308では、認識結果選択モジュール130は、認識結果116を選択する。
ステップS310では、結果統合モジュール150は、認識結果132を出力データ152とする。
FIG. 3 is a flowchart illustrating a processing example according to the first exemplary embodiment.
In step S302, the
In step S304, the
In step S306, the character
In step S308, the recognition
In step S <b> 310, the
ステップS312では、認識結果選択モジュール130は、認識結果116を選択する。
ステップS314では、人手入力モジュール140は、1人分の人手データ入力を促す。
ステップS316では、人手入力モジュール140は、人手入力結果を受け付ける。
ステップS318では、人手入力モジュール140は、2人分の人手データ入力を促す。
ステップS320では、人手入力モジュール140は、2人分の人手入力結果を受け付ける。
ステップS322では、突き合わせ処理を行い、「同じ」場合はステップS324へ進み、「異なる」場合はステップS326へ進む。
ステップS324では、結果統合モジュール150は、人手入力結果142を出力データ152とする。
ステップS326では、結果統合モジュール150は、統合処理を行う。
In step S312, the recognition
In step S314, the
In step S316, the
In step S318, the
In step S320, the
In step S322, a matching process is performed. If “same”, the process proceeds to step S324, and if “different”, the process proceeds to step S326.
In step S324, the
In step S326, the
図4は、本実施の形態による処理例を示す説明図である。図4、5は、本実施の形態による処理例の概要を示すものである。
情報処理装置100は、文字認識器410(文字認識モジュール110に相当)、文字認識器420(文字認識モジュール110に相当)、人手入力装置(Aさん)430、人手入力装置(Bさん)440、人手入力装置(Cさん)450と接続されており、文字画像108を受け付ける。
データ入力を行う対象である文字画像108を情報処理装置100で下記3種類に分類する。
(1)文字認識器のみでデータ入力を行う。
(2)文字認識器と人でダブル入力を行う。
(3)人でダブル入力を行う。
従来技術では上記(2)のみであったために、全体の誤り率が高くなってしまっていたことが課題であった。本実施の形態では、文字認識器420の認識率が悪い文字画像108の場合には、上記(3)とすることにより、誤り率の劣化を防ぐ。
さらに、(3)とした場合、人手が2人必要となるため、全体の工数が増大する。これを避けるため、文字認識率の認識率が高い入力画像の場合には、人手入力を行わず、文字認識器410のみで処理を行う。
上記で示したように、3種の処理に分類することにより、データ入力の精度と工数削減を同時に実現することとなる。
図4に示す例では、人手入力装置(Aさん)430、人手入力装置(Bさん)440、人手入力装置(Cさん)450の操作者はそれぞれ異なっているが、人手入力装置(Aさん)430と人手入力装置(Bさん)440の操作者は同じ人でもよい。又は、人手入力装置(Aさん)430と人手入力装置(Cさん)450の操作者は同じ人でもよい。
FIG. 4 is an explanatory diagram showing a processing example according to the present embodiment. 4 and 5 show an outline of a processing example according to this embodiment.
The
The
(1) Data is input only with a character recognizer.
(2) Double input with character recognizer and person.
(3) A person double-inputs.
In the prior art, since only (2) was mentioned above, the problem was that the overall error rate was high. In the present embodiment, in the case of the
Furthermore, in the case of (3), since two people are required, the total man-hour increases. In order to avoid this, in the case of an input image with a high character recognition rate, manual input is not performed, and only the
As described above, by classifying into three types of processing, data input accuracy and man-hour reduction can be realized at the same time.
In the example shown in FIG. 4, the operators of the manual input device (Mr. A) 430, the manual input device (
図5は、本実施の形態による処理例の概要を示す説明図である。
文字画像108として、文字画像(A山B雄)108A、文字画像(C川D介)108B、文字画像(E田F子)108C、文字画像(G谷H郎)108Dを対象とする。
文字認識器510は、文字画像(A山B雄)108A、文字画像(C川D介)108B、文字画像(E田F子)108Cを受け付ける。
人手入力装置520は、文字画像(C川D介)108B、文字画像(E田F子)108C、文字画像(G谷H郎)108Dを受け付ける。
人手入力装置530は、文字画像(G谷H郎)108Dを受け付ける。
つまり、情報処理装置100は、入力した文字列を、次の3種類に分類する。
(1)文字認識器のみでデータ入力を行う場合。
(2)文字認識器と人でダブル入力を行う場合。
(3)複数人でダブル入力を行う場合。
上記(1)の場合と、(2)の場合は、文字認識器510に文字画像108を送る。
上記(2)の場合と(3)の場合は、人が入力できるように文字画像108を送る。また、(3)の場合は、複数人によるデータ入力ができるように文字画像108を送る。
例えば、文字画像(A山B雄)108Aは「(1)文字認識器のみでデータ入力を行う」に該当した場合、文字認識器510によって認識処理を行う。
例えば、文字画像(C川D介)108B、文字画像(E田F子)108Cは「(2)文字認識器と人でダブル入力を行う」に該当した場合、文字認識器510によって認識処理を行い、人手入力装置520によって人手入力が行われる。
例えば、文字画像(G谷H郎)108Dは「(3)人でダブル入力を行う」に該当した場合、人手入力装置520と人手入力装置530によって人手入力が行われる。
FIG. 5 is an explanatory diagram showing an outline of a processing example according to the present embodiment.
As the
The
The
The
That is, the
(1) When inputting data using only a character recognizer.
(2) When performing double input with a character recognizer and a person.
(3) When double input is performed by multiple people.
In the case of (1) and (2), the
In the case of (2) and (3) above, the
For example, if the character image (A mountain B male) 108A corresponds to “(1) Input data only with character recognizer”, the
For example, when the character image (via C River D) 108B and the character image (E field F child) 108C correspond to “(2) Double input with a character recognizer and a person”, the
For example, when the character image (H. Gani) 108D corresponds to “(3) Performing double input by person”, manual input is performed by the
文字列分類モジュール120による分類は、認識確度112を用いて行う。認識確度112は文字認識モジュール110による処理結果である認識結果116に対する確信度である。
ここで認識確度をKとする。また、2つの閾値Th1、Th2を用意する。
このとき、下記のように分類する。
(1)K>Th1の場合:文字認識器のみでデータ入力を行う。
(2)Th2<K≦Th1の場合:文字認識器と人でダブル入力を行う。
(3)K≦Th2の場合:複数人でダブル入力を行う。
なお、上記式での等号の位置はどこでもよい。例えば、以下のようにしてもよい。
(1)K≧Th1の場合:文字認識器のみでデータ入力を行う。
(2)Th2≦K<Th1の場合:文字認識器と人でダブル入力を行う。
(3)K<Th2の場合:人でダブル入力を行う。
Classification by the character
Here, the recognition accuracy is K. Two threshold values Th1 and Th2 are prepared.
At this time, it is classified as follows.
(1) When K> Th1: Data input is performed only with a character recognizer.
(2) When Th2 <K ≦ Th1: Double input is performed by a character recognizer and a person.
(3) When K ≦ Th2: Double input is performed by a plurality of persons.
In addition, the position of the equal sign in the above formula may be anywhere. For example, the following may be used.
(1) When K ≧ Th1: Data input is performed only with the character recognizer.
(2) When Th2 ≦ K <Th1: Double input is performed by a character recognizer and a person.
(3) When K <Th2: A person performs double input.
認識確度の算出方法としては、下記のように様々な従来例を用いればよい。例えば、特開平5−040853、特開平5−020500、特開平5−290169、特開平8−101880、特開2011−113125(出力値を認識確度として用いる)、特開2013−069132(出力値を認識確度として用いる)等がある。
これらの中で、各文字に対する認識確度を用いるものがある。文字毎の認識確度を文字列の認識確度に変換する方式としては、下記のように様々な方式の中から適切なものを選択すればよい。
・文字列内の最大文字認識確度を文字列の認識確度とする。
・文字列内の最小文字認識確度を文字列の認識確度とする。
・文字列内の平均(最頻値、中央値等)文字認識確度を文字列の認識確度とする。
As a method for calculating the recognition accuracy, various conventional examples may be used as described below. For example, JP-A-5-040853, JP-A-5-020500, JP-A-5-290169, JP-A-8-101880, JP-A-2011-113125 (using an output value as recognition accuracy), JP-A-2013-0669132 (output value Used as recognition accuracy).
Some of these use recognition accuracy for each character. As a method for converting the recognition accuracy for each character into the recognition accuracy of the character string, an appropriate one may be selected from various methods as described below.
• The maximum character recognition accuracy in the character string is used as the character string recognition accuracy.
• The minimum character recognition accuracy in the character string is used as the character string recognition accuracy.
-The average (mode, median, etc.) character recognition accuracy in the character string is used as the character string recognition accuracy.
図6は、第2の実施の形態の構成例についての概念的なモジュール構成図である。
情報処理装置600は、文字列分類モジュール610、文字認識選択モジュール620、文字認識モジュール630、人手入力モジュール640、結果統合モジュール650を有している。
文字列分類モジュール610は、文字認識選択モジュール620、人手入力モジュール640、結果統合モジュール650と接続されており、文字画像608を受け付け、文字認識選択モジュール620、人手入力モジュール640、結果統合モジュール650に分類結果612を渡す。文字列分類モジュール610は、文字列分類モジュール120と同等の機能を有している。ただし、文字認識による認識確度を用いて分類を行ってもよいし、認識確度以外の情報を用いて分類を行うようにしてもよい。例えば、文字認識モジュール630による文字認識処理を行って、その認識確度を用いるようにしてもよいし、文字認識モジュール630以外の文字認識処理を行って、その認識確度を用いるようにしてもよい。また、文字画像608が文字認識に適している画像であるか否かを判断(「適している」、「適していない」、「「適している」、「適していない」のいずれでもない」の3つに分類)するようにしてもよい。
文字認識選択モジュール620は、文字列分類モジュール610、文字認識モジュール630と接続されており、文字列分類モジュール610から分類結果612を受け取り、文字認識モジュール630に文字認識選択結果622を渡す。文字認識選択モジュール620は、第1の種類、第2の種類に分類された場合に、文字認識モジュール630に処理を行わせる。
文字認識モジュール630は、文字認識選択モジュール620、結果統合モジュール650と接続されており、文字画像608を受け付け、文字認識選択モジュール620から文字認識選択結果622を受け取り、結果統合モジュール650に認識結果632を渡す。文字認識モジュール630は、文字認識モジュール110と同等の処理を行う。ただし、ここでの文字認識処理は、必ずしも認識確度を出力する必要はない。
人手入力モジュール640は、文字列分類モジュール610、結果統合モジュール650と接続されており、文字画像608を受け付け、文字列分類モジュール610から分類結果612を受け取り、結果統合モジュール650に人手入力結果642を渡す。人手入力モジュール640は、人手入力モジュール140と同等の処理を行う。
結果統合モジュール650は、文字列分類モジュール610、文字認識モジュール630、人手入力モジュール640と接続されており、文字列分類モジュール610から分類結果612を、文字認識モジュール630から認識結果632を、人手入力モジュール640から人手入力結果642を受け取り、出力データ652を出力する。結果統合モジュール650は、結果統合モジュール150と同等の処理を行う。
FIG. 6 is a conceptual module configuration diagram of a configuration example according to the second embodiment.
The
The character
The character
The
The
The
図6に示す例を用いて、動作例を説明する。
第1の実施の形態では、文字認識結果の認識確度を用いて、文字列分類を行ったが、必ずしもその手法を採る必要はない。別手法で文字列分類を行ってもよい。
帳票画像が文字画像608として入力される(第1の実施の形態と同じ)。
文字列分類モジュール610では、図4の例に示された(1)〜(3)の3種の文字列に分類する。例えば、文字列分類モジュール610の中に文字認識器が入っており、認識確度を用いて分類を行う等の手法でもよいし、あるいは、文字認識は行わない手法でもよい。例えば、文字認識用の特徴抽出を行い、その特徴が特徴空間において予め定められた第1の部分空間(文字と認識するのに適している空間)にある場合は、第1の種類に分類し、予め定められた第3の部分空間(文字と認識できない空間)にある場合は、第3の種類に分類し、それ以外の場合(「文字と認識するのに適している空間」、「文字と認識できない空間」のいずれでもない場合)は第2の種類に分類するようにしてもよい。
文字認識選択モジュール620では、(1)又は(2)の場合に、文字認識を行うように選択する。文字認識モジュール630では、文字認識選択モジュール620による文字認識選択結果622を用いて文字認識処理を行う。
人手入力モジュール640では、(2)の場合には、1人分の人手データ入力を行うように、データ表示及び、データ受け取りを行う。(3)の場合には、2人分の人手データ入力を行うように、データ表示及び、データ受け取りを行う。
結果統合モジュール650では、分類結果612にしたがって、認識結果632と人手入力モジュール640による人手入力結果642を統合して最終的な処理を行う。最終的な処理の例として、図11、図12の例に示したように、2つの結果を突き合わせて、結果が異なるようであれば、人手入力を行う等の処理を行う。結果統合モジュール650による処理結果が出力データ652となる。本出力データ652は、データ入力の内容(文字画像608に対応するテキストデータ)となる。
An example of operation will be described using the example shown in FIG.
In the first embodiment, the character string classification is performed using the recognition accuracy of the character recognition result, but it is not always necessary to adopt this method. Character string classification may be performed by another method.
A form image is input as a character image 608 (same as in the first embodiment).
The character
In the case of (1) or (2), the character
In the case of (2), the
In the
図7は、第2の実施の形態による処理例を示すフローチャートである。
ステップS702では、文字列分類モジュール610は、文字画像608を受け付ける。
ステップS704では、文字列分類モジュール610は、文字画像608を分類する。
ステップS706では、文字列分類モジュール610は、分類結果612を判断し、「パターンA」の場合はステップS708へ進み、「パターンB」の場合はステップS712へ進み、「パターンC」の場合はステップS720へ進む。
ステップS708では、文字認識選択モジュール620は、文字認識を行うよう選択する。
ステップS710では、文字認識モジュール630は、文字認識を行う。
ステップS712では、文字認識選択モジュール620は、文字認識を行うよう選択する。
ステップS714では、文字認識モジュール630は、文字認識を行う。
ステップS716では、人手入力モジュール640は、1人分の人手データ入力を促す。
ステップS718では、人手入力モジュール640は、人手入力結果を受け付ける。
ステップS720では、人手入力モジュール640は、2人分の人手データ入力を促す。
ステップS722では、人手入力モジュール640は、2人分の人手入力結果を受け付ける。
ステップS724では、突き合わせ処理を行い、「同じ」場合はステップS726へ進み、「異なる」場合はステップS728へ進む。
ステップS726では、結果統合モジュール650は、人手入力結果642を出力データ652とする。
ステップS728では、結果統合モジュール650は、統合処理を行う。
FIG. 7 is a flowchart illustrating a processing example according to the second exemplary embodiment.
In step S702, the character
In step S704, the character
In step S706, the character
In step S708, the character
In step S710, the
In step S712, the character
In step S714, the
In step S716, the
In step S718, the
In step S720, the
In step S722, the
In step S724, a matching process is performed. If “same”, the process proceeds to step S726, and if “different”, the process proceeds to step S728.
In step S726, the
In step S728, the
次に、本実施の形態による効果例を示す。
E=r[1−(1−r)2]と人の誤り率をr=0.01とした場合、図11の場合のデータ誤り率は、1.99×10−4となる。この場合を例に採り、効果を示す。
例えば、文字認識器の誤り率を1.99×10−4となるように、閾値Th1と閾値Th2を設定することにより、文字認識器を用いた場合であっても、2人のダブル入力時と同じ誤り率でデータ入力が可能となる。
さらに、文字認識器の誤り率を1.99×10−4となるように、閾値Th1を制御すると、閾値Th1以上の認識確度の場合では、人の工数が全く不要となるため、工数の削減も可能となる。
さらに、下記の場合を例にとり、具体的な効果を説明する。
・閾値Th1以上の文字列の割合:40%(この場合の文字認識器の誤り率:0.0001)
・閾値Th2以上、Th1未満の文字列の割合:20%(この場合の文字認識器の誤り率:0.01)
・閾値Th2未満の文字列の割合:40%(この場合の文字認識器の誤り率:0.1)
の場合を考える。
(1)従来技術(特開平6−274679)の場合、
文字列あたり、常に1人は入力するため、この場合の工数を1とする。
また全体の誤り率は、E=4.96×10−4となる(下記参照)。
文字認識器の平均の誤り率は、
R=0.0001×0.4+0.01×0.2+0.1×0.4≒0.04
となるため、E=r[1−(1−r)(1−R)]より、全体の誤り率Eは、E=4.96×10−4となる。
(2)本実施の形態の場合、
文字列あたりの工数は、1×0.2+2×0.4=1.0となり、従来技術と同じである。
本実施の形態では、
・閾値Th1以上の場合の誤り率:0.0001
・閾値Th2以上、Th1未満の場合の誤り率:1.99×10−4
・閾寝Th2未満の場合の誤り率(人ダブル入力の誤り率と同じ):1.99×10−4
それぞれの割合を考慮すると、全体の誤り率は、
0.0001×0.4+1.99×10−4×0.6=1.6×10−4
上記で示したように、本実施の形態を用いることによって、工数は同じであるにも関わらず、誤り率は、約1/3に減少させることができる。
Next, an effect example according to the present embodiment will be described.
When E = r [1- (1-r) 2 ] and the human error rate is r = 0.01, the data error rate in the case of FIG. 11 is 1.99 × 10 −4 . This case is taken as an example to show the effect.
For example, when the threshold value Th1 and the threshold value Th2 are set so that the error rate of the character recognizer is 1.99 × 10 −4 , even when the character recognizer is used, when two people double-input Data can be input with the same error rate.
Further, if the threshold value Th1 is controlled so that the error rate of the character recognizer is 1.99 × 10 −4 , the number of man-hours is not required in the case of recognition accuracy equal to or higher than the threshold value Th1, and therefore the man-hour is reduced. Is also possible.
Further, specific effects will be described by taking the following case as an example.
-Ratio of character string greater than or equal to threshold Th1: 40% (error rate of character recognizer in this case: 0.0001)
-Ratio of character string not less than threshold Th2 and less than Th1: 20% (error rate of character recognizer in this case: 0.01)
-Ratio of character string less than threshold Th2: 40% (error rate of character recognizer in this case: 0.1)
Consider the case.
(1) In the case of the prior art (Japanese Patent Laid-Open No. 6-274679),
Since one person always inputs per character string, the man-hour in this case is 1.
The overall error rate is E = 4.96 × 10 −4 (see below).
The average error rate of the character recognizer is
R = 0.0001 × 0.4 + 0.01 × 0.2 + 0.1 × 0.4≈0.04
Therefore, from E = r [1- (1-r) (1-R)], the overall error rate E is E = 4.96 × 10 −4 .
(2) In the case of this embodiment,
The number of man-hours per character string is 1 × 0.2 + 2 × 0.4 = 1.0, which is the same as the conventional technology.
In this embodiment,
Error rate when threshold Th1 or more: 0.0001
Error rate when threshold value is Th2 or more and less than Th1: 1.99 × 10 −4
Error rate when threshold sleep is less than Th2 (same as human double input error rate): 1.99 × 10 −4
Considering the proportion of each, the overall error rate is
0.0001 × 0.4 + 1.99 × 10 −4 × 0.6 = 1.6 × 10 −4
As described above, by using this embodiment, the error rate can be reduced to about 3 even though the man-hour is the same.
図13を参照して、本実施の形態の情報処理装置のハードウェア構成例について説明する。図13に示す構成は、例えばパーソナルコンピュータ(PC)等によって構成されるものであり、スキャナ等のデータ読み取り部1317と、プリンタ等のデータ出力部1318を備えたハードウェア構成例を示している。 A hardware configuration example of the information processing apparatus according to the present embodiment will be described with reference to FIG. The configuration illustrated in FIG. 13 is configured by, for example, a personal computer (PC) or the like, and illustrates a hardware configuration example including a data reading unit 1317 such as a scanner and a data output unit 1318 such as a printer.
CPU(Central Processing Unit)1301は、前述の実施の形態において説明した各種のモジュール、すなわち、文字認識モジュール110、文字列分類モジュール120、認識結果選択モジュール130、人手入力モジュール140、結果統合モジュール150、文字列分類モジュール610、文字認識選択モジュール620、文字認識モジュール630、人手入力モジュール640、結果統合モジュール650等の各モジュールの実行シーケンスを記述したコンピュータ・プログラムにしたがった処理を実行する制御部である。
A CPU (Central Processing Unit) 1301 includes various modules described in the above-described embodiments, that is, a
ROM(Read Only Memory)1302は、CPU1301が使用するプログラムや演算パラメータ等を格納する。RAM(Random Access Memory)1303は、CPU1301の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を格納する。これらはCPUバス等から構成されるホストバス1304により相互に接続されている。 A ROM (Read Only Memory) 1302 stores programs used by the CPU 1301, calculation parameters, and the like. A RAM (Random Access Memory) 1303 stores programs used in the execution of the CPU 1301, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus 1304 including a CPU bus or the like.
ホストバス1304は、ブリッジ1305を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス1306に接続されている。 The host bus 1304 is connected via a bridge 1305 to an external bus 1306 such as a PCI (Peripheral Component Interconnect / Interface) bus.
キーボード1308、マウス等のポインティングデバイス1309は、操作者により操作される入力デバイスである。ディスプレイ1310は、液晶表示装置又はCRT(Cathode Ray Tube)等があり、各種情報をテキストやイメージ情報として表示する。
A
HDD(Hard Disk Drive)1311は、ハードディスク(フラッシュメモリ等であってもよい)を内蔵し、ハードディスクを駆動し、CPU1301によって実行するプログラムや情報を記録又は再生させる。ハードディスクには、文字画像108、認識確度112、認識結果116、分類結果122、認識結果132、人手入力結果142、出力データ152等が格納される。さらに、その他の各種データ、各種コンピュータ・プログラム等が格納される。
An HDD (Hard Disk Drive) 1311 includes a hard disk (may be a flash memory or the like), drives the hard disk, and records or reproduces a program executed by the CPU 1301 and information. The hard disk stores a
ドライブ1312は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体1313に記録されているデータ又はプログラムを読み出して、そのデータ又はプログラムを、インタフェース1307、外部バス1306、ブリッジ1305、及びホストバス1304を介して接続されているRAM1303に供給する。リムーバブル記録媒体1313も、ハードディスクと同様のデータ記録領域として利用可能である。 The drive 1312 reads data or a program recorded on a removable recording medium 1313 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and reads the data or program into an interface 1307 and an external bus 1306. , The bridge 1305, and the RAM 1303 connected via the host bus 1304. The removable recording medium 1313 can also be used as a data recording area similar to a hard disk.
接続ポート1314は、外部接続機器1315を接続するポートであり、USB、IEEE1394等の接続部を持つ。接続ポート1314は、インタフェース1307、及び外部バス1306、ブリッジ1305、ホストバス1304等を介してCPU1301等に接続されている。通信部1316は、通信回線に接続され、外部とのデータ通信処理を実行する。データ読み取り部1317は、例えばスキャナであり、ドキュメントの読み取り処理を実行する。データ出力部1318は、例えばプリンタであり、ドキュメントデータの出力処理を実行する。 The connection port 1314 is a port for connecting the external connection device 1315 and has a connection unit such as USB and IEEE1394. The connection port 1314 is connected to the CPU 1301 and the like via the interface 1307, the external bus 1306, the bridge 1305, the host bus 1304, and the like. A communication unit 1316 is connected to a communication line and executes data communication processing with the outside. The data reading unit 1317 is, for example, a scanner, and executes document reading processing. The data output unit 1318 is, for example, a printer, and executes document data output processing.
なお、図13に示す情報処理装置のハードウェア構成は、1つの構成例を示すものであり、本実施の形態は、図13に示す構成に限らず、本実施の形態において説明したモジュールを実行可能な構成であればよい。例えば、一部のモジュールを専用のハードウェア(例えば特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)等)で構成してもよく、一部のモジュールは外部のシステム内にあり通信回線で接続しているような形態でもよく、さらに図13に示すシステムが複数互いに通信回線によって接続されていて互いに協調動作するようにしてもよい。また、特に、パーソナルコンピュータの他、携帯情報通信機器(携帯電話、スマートフォン、モバイル機器、ウェアラブルコンピュータ等を含む)、情報家電、ロボット、複写機、ファクシミリ、スキャナ、プリンタ、複合機(スキャナ、プリンタ、複写機、ファクシミリ等のいずれか2つ以上の機能を有している画像処理装置)などに組み込まれていてもよい。 Note that the hardware configuration of the information processing apparatus illustrated in FIG. 13 illustrates one configuration example, and the present embodiment is not limited to the configuration illustrated in FIG. 13, and the modules described in the present embodiment are executed. Any configuration is possible. For example, some modules may be configured with dedicated hardware (for example, Application Specific Integrated Circuit (ASIC), etc.), and some modules are in an external system and connected via a communication line Alternatively, a plurality of systems shown in FIG. 13 may be connected to each other via communication lines so as to cooperate with each other. In particular, in addition to personal computers, portable information communication devices (including mobile phones, smartphones, mobile devices, wearable computers, etc.), information appliances, robots, copiers, facsimiles, scanners, printers, multifunction devices (scanners, printers, It may be incorporated in an image processing apparatus having any two or more functions such as a copying machine and a facsimile.
なお、前述の各種の実施の形態を組み合わせてもよく(例えば、ある実施の形態内のモジュールを他の実施の形態内に追加する、入れ替えをする等も含む)、また、各モジュールの処理内容として背景技術で説明した技術を採用してもよい。
また、前述の実施の形態の説明において、予め定められた値との比較において、「以上」、「以下」、「より高い」、「より低い(未満)」としたものは、その組み合わせに矛盾が生じない限り、それぞれ「より高い」、「より低い(未満)」、「以上」、「以下」としてもよい。
Note that the above-described various embodiments may be combined (for example, adding or replacing a module in one embodiment in another embodiment), and processing contents of each module The technique described in the background art may be employed.
Further, in the description of the above-described embodiment, “more than”, “less than”, “higher”, and “lower (less than)” in the comparison with a predetermined value contradict the combination. As long as the above does not occur, “higher”, “lower (less than)”, “more than”, and “less than” may be used.
前述の実施の形態では、「画像」を入力して、画像に対して文字認識を行う例を示していたが、文字認識は必ずしも「画像」に対するものに限定する必要はない。筆順情報(ストローク情報)等を用いて文字認識を行ってもよい。その場合、人手入力する際には、筆順データを人間が読めるように画像化すればよい。
前述の実施の形態では、人のダブル入力としていたが、ダブル(2人)ではなく、複数であれば何人でもよい。
また、人(1人)と文字認識器のダブル入力としていたが、人(1人以上)と、文字認識器の入力としてもよい。例えば、人が2人と文字認識器の入力としてもよい。
人は文字認識結果を見て、入力(あるいは、文字認識器の結果を修正)してもよい。
本実施の形態では、文字認識器は、論理的に1個の文字認識器として外部から見えていればよい。つまり、複数の文字認識器の出力を統合して1つの認識結果を出すような認識器であることを妨げるものではない。
In the above-described embodiment, an example in which “image” is input and character recognition is performed on the image is shown. However, character recognition is not necessarily limited to “image”. Character recognition may be performed using stroke order information (stroke information) or the like. In that case, when inputting manually, the stroke order data may be imaged so that it can be read by humans.
In the above-described embodiment, human double input is used. However, the number is not double (two) but may be any number as long as there are a plurality.
Moreover, although it was set as the double input of a person (one person) and a character recognizer, it is good also as input of a person (one or more persons) and a character recognizer. For example, two people may be input as a character recognizer.
The person may see the character recognition result and input (or correct the result of the character recognizer).
In the present embodiment, the character recognizer only needs to be seen from the outside as one logical character recognizer. That is, it does not preclude the recognition device from integrating the outputs of a plurality of character recognition devices to produce one recognition result.
なお、説明したプログラムについては、記録媒体に格納して提供してもよく、また、そのプログラムを通信手段によって提供してもよい。その場合、例えば、前記説明したプログラムについて、「プログラムを記録したコンピュータ読み取り可能な記録媒体」の発明として捉えてもよい。
「プログラムを記録したコンピュータ読み取り可能な記録媒体」とは、プログラムのインストール、実行、プログラムの流通等のために用いられる、プログラムが記録されたコンピュータで読み取り可能な記録媒体をいう。
なお、記録媒体としては、例えば、デジタル・バーサタイル・ディスク(DVD)であって、DVDフォーラムで策定された規格である「DVD−R、DVD−RW、DVD−RAM等」、DVD+RWで策定された規格である「DVD+R、DVD+RW等」、コンパクトディスク(CD)であって、読出し専用メモリ(CD−ROM)、CDレコーダブル(CD−R)、CDリライタブル(CD−RW)等、ブルーレイ・ディスク(Blu−ray(登録商標) Disc)、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、ハードディスク、読出し専用メモリ(ROM)、電気的消去及び書換可能な読出し専用メモリ(EEPROM(登録商標))、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)、SD(Secure Digital)メモリーカード等が含まれる。
そして、前記のプログラム又はその一部は、前記記録媒体に記録して保存や流通等させてもよい。また、通信によって、例えば、ローカル・エリア・ネットワーク(LAN)、メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、イントラネット、エクストラネット等に用いられる有線ネットワーク、又は無線通信ネットワーク、さらにこれらの組み合わせ等の伝送媒体を用いて伝送させてもよく、また、搬送波に乗せて搬送させてもよい。
さらに、前記のプログラムは、他のプログラムの一部分であってもよく、又は別個のプログラムと共に記録媒体に記録されていてもよい。また、複数の記録媒体に分割して記録されていてもよい。また、圧縮や暗号化等、復元可能であればどのような態様で記録されていてもよい。
The program described above may be provided by being stored in a recording medium, or the program may be provided by communication means. In that case, for example, the above-described program may be regarded as an invention of a “computer-readable recording medium recording the program”.
The “computer-readable recording medium on which a program is recorded” refers to a computer-readable recording medium on which a program is recorded, which is used for program installation, execution, program distribution, and the like.
The recording medium is, for example, a digital versatile disc (DVD), which is a standard established by the DVD Forum, such as “DVD-R, DVD-RW, DVD-RAM,” and DVD + RW. Standard “DVD + R, DVD + RW, etc.”, compact disc (CD), read-only memory (CD-ROM), CD recordable (CD-R), CD rewritable (CD-RW), Blu-ray disc ( Blu-ray (registered trademark) Disc), magneto-optical disk (MO), flexible disk (FD), magnetic tape, hard disk, read-only memory (ROM), electrically erasable and rewritable read-only memory (EEPROM (registered trademark)) )), Flash memory, Random access memory (RAM) SD (Secure Digital) memory card and the like.
The program or a part of the program may be recorded on the recording medium for storage or distribution. Also, by communication, for example, a local area network (LAN), a metropolitan area network (MAN), a wide area network (WAN), a wired network used for the Internet, an intranet, an extranet, or a wireless communication It may be transmitted using a transmission medium such as a network or a combination of these, or may be carried on a carrier wave.
Furthermore, the program may be a part of another program, or may be recorded on a recording medium together with a separate program. Moreover, it may be divided and recorded on a plurality of recording media. Further, it may be recorded in any manner as long as it can be restored, such as compression or encryption.
100…情報処理装置
108…文字画像
110…文字認識モジュール
112…認識確度
116…認識結果
118…閾値
120…文字列分類モジュール
122…分類結果
130…認識結果選択モジュール
132…認識結果
140…人手入力モジュール
142…人手入力結果
150…結果統合モジュール
152…出力データ
210…画像読取装置
220…入力用端末
222…ユーザー
290…通信回線
600…情報処理装置
608…文字画像
610…文字列分類モジュール
612…分類結果
620…文字認識選択モジュール
622…文字認識選択結果
630…文字認識モジュール
632…認識結果
640…人手入力モジュール
642…人手入力結果
650…結果統合モジュール
652…出力データ
DESCRIPTION OF
Claims (5)
前記分類手段によって第1の種類に分類された場合に、前記文字認識対象の文字認識結果を抽出する抽出手段と、
前記分類手段によって第2の種類に分類された場合に、前記文字認識対象の文字認識結果を抽出し、該文字認識対象を人手で入力させるように制御する第1の制御手段と、
前記分類手段によって第3の種類に分類された場合に、前記文字認識対象を複数人の人手で入力させるように制御する第2の制御手段
を具備することを特徴とする情報処理装置。 A classifying means for classifying the character recognition target into one of three types;
Extracting means for extracting the character recognition result of the character recognition target when the classification means classifies the first type;
A first control unit that extracts a character recognition result of the character recognition target when the classification unit classifies the second type and controls the character recognition target to be manually input;
An information processing apparatus comprising: a second control unit configured to control the character recognition target to be manually input by a plurality of people when the classification unit classifies the third type.
をさらに具備することを特徴とする請求項1に記載の情報処理装置。 An integration unit that integrates the character recognition result extracted by the control of the first control unit and the input result input manually or the plurality of input results input by the control of the second control unit; The information processing apparatus according to claim 1, wherein:
ことを特徴とする請求項2に記載の情報処理装置。 3. The information processing according to claim 2, wherein the integration unit performs control so that selection or input is performed manually when a character recognition result and an input result are different, or when a plurality of input results are different. apparatus.
ことを特徴とする請求項1から3のいずれか一項に記載の情報処理装置。 The said classification | category means classify | categorizes by comparing the recognition accuracy of the character recognition result of the said character recognition object with several predetermined threshold values. Information processing device.
文字認識対象を3種類のいずれかに分類する分類手段と、
前記分類手段によって第1の種類に分類された場合に、前記文字認識対象の文字認識結果を抽出する抽出手段と、
前記分類手段によって第2の種類に分類された場合に、前記文字認識対象の文字認識結果を抽出し、該文字認識対象を人手で入力させるように制御する第1の制御手段と、
前記分類手段によって第3の種類に分類された場合に、前記文字認識対象を複数人の人手で入力させるように制御する第2の制御手段
として機能させるための情報処理プログラム。 Computer
A classifying means for classifying the character recognition target into one of three types;
Extracting means for extracting the character recognition result of the character recognition target when the classification means classifies the first type;
A first control unit that extracts a character recognition result of the character recognition target when the classification unit classifies the second type and controls the character recognition target to be manually input;
An information processing program for functioning as second control means for controlling the character recognition target to be manually input by a plurality of persons when classified by the classification means into a third type.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015098655A JP6575132B2 (en) | 2015-05-14 | 2015-05-14 | Information processing apparatus and information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015098655A JP6575132B2 (en) | 2015-05-14 | 2015-05-14 | Information processing apparatus and information processing program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019087249A Division JP6801741B2 (en) | 2019-05-07 | 2019-05-07 | Information processing equipment and information processing programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016212812A true JP2016212812A (en) | 2016-12-15 |
JP6575132B2 JP6575132B2 (en) | 2019-09-18 |
Family
ID=57550216
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015098655A Active JP6575132B2 (en) | 2015-05-14 | 2015-05-14 | Information processing apparatus and information processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6575132B2 (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019159374A (en) * | 2018-03-07 | 2019-09-19 | 富士ゼロックス株式会社 | Information processing apparatus and program |
JP2019164600A (en) * | 2018-03-20 | 2019-09-26 | 富士ゼロックス株式会社 | Information processor and program |
JP2019168855A (en) * | 2018-03-22 | 2019-10-03 | 富士ゼロックス株式会社 | Information processing device and program |
WO2019215994A1 (en) * | 2018-05-08 | 2019-11-14 | 日本電気株式会社 | Image determination system, image determination method, and image determination program |
JP2019215747A (en) * | 2018-06-13 | 2019-12-19 | 富士ゼロックス株式会社 | Information processing device and program |
JP2020046721A (en) * | 2018-09-14 | 2020-03-26 | 富士ゼロックス株式会社 | Information processing apparatus and program |
US20200097746A1 (en) * | 2018-09-25 | 2020-03-26 | Fuji Xerox Co., Ltd. | Information processing apparatus and non-transitory computer readable medium storing program |
JP2020047097A (en) * | 2018-09-20 | 2020-03-26 | 富士ゼロックス株式会社 | Information processing device and program |
JP2020052571A (en) * | 2018-09-25 | 2020-04-02 | 富士ゼロックス株式会社 | Information processing apparatus and program |
CN111476073A (en) * | 2019-01-24 | 2020-07-31 | 富士施乐株式会社 | Information processing apparatus, recording medium, and information processing method |
CN111476240A (en) * | 2019-01-24 | 2020-07-31 | 富士施乐株式会社 | Information processing apparatus, recording medium, and information processing method |
JP2021005159A (en) * | 2019-06-25 | 2021-01-14 | 富士ゼロックス株式会社 | Information processing apparatus and program |
US10963684B2 (en) | 2018-03-22 | 2021-03-30 | Fuji Xerox Co., Ltd. | Information processing apparatus and non-transitory computer readable recording medium |
US11042733B2 (en) | 2018-09-18 | 2021-06-22 | Fujifilm Business Innovation Corp. | Information processing apparatus for text recognition, non-transitory computer readable medium for text recognition process and information processing method for text recognition |
US11200450B2 (en) | 2019-04-17 | 2021-12-14 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium for selecting a proper version of a recognition dictionary that is not necessarily a latest version |
US11537812B2 (en) | 2019-10-24 | 2022-12-27 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium storing program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008502961A (en) * | 2004-06-24 | 2008-01-31 | シーメンス アクチェンゲゼルシャフト | Method for automatic detection of performance data of reading system |
-
2015
- 2015-05-14 JP JP2015098655A patent/JP6575132B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008502961A (en) * | 2004-06-24 | 2008-01-31 | シーメンス アクチェンゲゼルシャフト | Method for automatic detection of performance data of reading system |
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019159374A (en) * | 2018-03-07 | 2019-09-19 | 富士ゼロックス株式会社 | Information processing apparatus and program |
JP7147208B2 (en) | 2018-03-20 | 2022-10-05 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
JP2019164600A (en) * | 2018-03-20 | 2019-09-26 | 富士ゼロックス株式会社 | Information processor and program |
JP2019168855A (en) * | 2018-03-22 | 2019-10-03 | 富士ゼロックス株式会社 | Information processing device and program |
US10963684B2 (en) | 2018-03-22 | 2021-03-30 | Fuji Xerox Co., Ltd. | Information processing apparatus and non-transitory computer readable recording medium |
US11042695B2 (en) | 2018-03-22 | 2021-06-22 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium for generating input screen information |
JP7095346B2 (en) | 2018-03-22 | 2022-07-05 | 富士フイルムビジネスイノベーション株式会社 | Information processing equipment and programs |
WO2019215994A1 (en) * | 2018-05-08 | 2019-11-14 | 日本電気株式会社 | Image determination system, image determination method, and image determination program |
JPWO2019215994A1 (en) * | 2018-05-08 | 2020-12-17 | 日本電気株式会社 | Image judgment system, image judgment method and image judgment program |
CN110598683B (en) * | 2018-06-13 | 2023-08-08 | 富士胶片商业创新有限公司 | Information processing apparatus, information processing method, and computer readable medium |
US10817756B2 (en) | 2018-06-13 | 2020-10-27 | Fuji Xerox Co., Ltd. | Information processing apparatus and non-transitory computer readable medium |
CN110598683A (en) * | 2018-06-13 | 2019-12-20 | 富士施乐株式会社 | Information processing apparatus, information processing method, and computer program |
JP2019215747A (en) * | 2018-06-13 | 2019-12-19 | 富士ゼロックス株式会社 | Information processing device and program |
JP7243097B2 (en) | 2018-09-14 | 2023-03-22 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
JP2020046721A (en) * | 2018-09-14 | 2020-03-26 | 富士ゼロックス株式会社 | Information processing apparatus and program |
US11042733B2 (en) | 2018-09-18 | 2021-06-22 | Fujifilm Business Innovation Corp. | Information processing apparatus for text recognition, non-transitory computer readable medium for text recognition process and information processing method for text recognition |
JP2020047097A (en) * | 2018-09-20 | 2020-03-26 | 富士ゼロックス株式会社 | Information processing device and program |
JP7268316B2 (en) | 2018-09-20 | 2023-05-08 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
US10867168B2 (en) | 2018-09-25 | 2020-12-15 | Fuji Xerox Co., Ltd. | Information processing apparatus and non-transitory computer readable medium storing program |
US11093775B2 (en) | 2018-09-25 | 2021-08-17 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium storing program |
JP2020052571A (en) * | 2018-09-25 | 2020-04-02 | 富士ゼロックス株式会社 | Information processing apparatus and program |
CN110942075A (en) * | 2018-09-25 | 2020-03-31 | 富士施乐株式会社 | Information processing apparatus, storage medium, and information processing method |
JP7263721B2 (en) | 2018-09-25 | 2023-04-25 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
US20200097746A1 (en) * | 2018-09-25 | 2020-03-26 | Fuji Xerox Co., Ltd. | Information processing apparatus and non-transitory computer readable medium storing program |
US10997452B2 (en) | 2019-01-24 | 2021-05-04 | Fuji Xerox Co., Ltd. | Information processing apparatus and non-transitory computer readable medium storing program |
CN111476073B (en) * | 2019-01-24 | 2023-07-18 | 富士胶片商业创新有限公司 | Information processing apparatus, recording medium, and information processing method |
US11100356B2 (en) | 2019-01-24 | 2021-08-24 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium storing program |
CN111476240A (en) * | 2019-01-24 | 2020-07-31 | 富士施乐株式会社 | Information processing apparatus, recording medium, and information processing method |
CN111476073A (en) * | 2019-01-24 | 2020-07-31 | 富士施乐株式会社 | Information processing apparatus, recording medium, and information processing method |
CN111476240B (en) * | 2019-01-24 | 2023-07-25 | 富士胶片商业创新有限公司 | Information processing apparatus, recording medium, and information processing method |
US11200450B2 (en) | 2019-04-17 | 2021-12-14 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium for selecting a proper version of a recognition dictionary that is not necessarily a latest version |
JP2021005159A (en) * | 2019-06-25 | 2021-01-14 | 富士ゼロックス株式会社 | Information processing apparatus and program |
US11321955B2 (en) | 2019-06-25 | 2022-05-03 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium |
JP7338265B2 (en) | 2019-06-25 | 2023-09-05 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
US11537812B2 (en) | 2019-10-24 | 2022-12-27 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium storing program |
Also Published As
Publication number | Publication date |
---|---|
JP6575132B2 (en) | 2019-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6575132B2 (en) | Information processing apparatus and information processing program | |
CN109118420B (en) | Watermark identification model establishing and identifying method, device, medium and electronic equipment | |
US20150254869A1 (en) | Image processing apparatus, image processing method, and storage medium | |
CN104915668A (en) | Character information identification method for medical image and device thereof | |
US20180174324A1 (en) | Image processing apparatus for clipping and sorting images from read image according to cards and control method therefor | |
US10643097B2 (en) | Image processing apparatuses and non-transitory computer readable medium | |
JP6828333B2 (en) | Image processing equipment and image processing program | |
US9811719B2 (en) | Information processing apparatus and method, and non-transitory computer readable medium | |
JP6801741B2 (en) | Information processing equipment and information processing programs | |
US9779263B2 (en) | Access right estimation apparatus and non-transitory computer readable medium | |
US8749854B2 (en) | Image processing apparatus, method for performing image processing and computer readable medium | |
JP2006236217A (en) | Person recognition system, person recognition method, and person recognition program | |
JP6988160B2 (en) | Information processing equipment and information processing programs | |
JP2018185601A (en) | Information processing apparatus and information processing program | |
US20150043832A1 (en) | Information processing apparatus, information processing method, and computer readable medium | |
US11165737B2 (en) | Information processing apparatus for conversion between abbreviated name and formal name | |
US8736912B2 (en) | Image processing apparatus, image processing method and computer readable medium | |
JP2022003446A (en) | Information processing device | |
JP2011008584A (en) | Apparatus and program for processing information | |
JP6682827B2 (en) | Information processing apparatus and information processing program | |
JP6003677B2 (en) | Image processing apparatus and image processing program | |
US20180241905A1 (en) | Image processing apparatus and non-transitory computer readable medium | |
JP4258966B2 (en) | Image input / output device | |
JP2021018520A (en) | Information processor, information processing method, and program | |
US11030473B2 (en) | Information processing apparatus and non-transitory computer readable medium storing information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190507 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190723 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190805 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6575132 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |