JP7268316B2 - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP7268316B2
JP7268316B2 JP2018176360A JP2018176360A JP7268316B2 JP 7268316 B2 JP7268316 B2 JP 7268316B2 JP 2018176360 A JP2018176360 A JP 2018176360A JP 2018176360 A JP2018176360 A JP 2018176360A JP 7268316 B2 JP7268316 B2 JP 7268316B2
Authority
JP
Japan
Prior art keywords
character string
information processing
recognition result
control unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018176360A
Other languages
English (en)
Other versions
JP2020047097A (ja
Inventor
祐司 米田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2018176360A priority Critical patent/JP7268316B2/ja
Publication of JP2020047097A publication Critical patent/JP2020047097A/ja
Application granted granted Critical
Publication of JP7268316B2 publication Critical patent/JP7268316B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Discrimination (AREA)

Description

本発明は、情報処理装置及びプログラムに関する。
例えば、特許文献1には、文字認識対象を人手で入力する場合の工数を削減可能な情報処理装置が記載されている。この情報処理装置は、文字認識対象を3種類のいずれかに分類する分類手段と、分類手段によって第1の種類に分類された場合に、文字認識対象の文字認識結果を抽出する抽出手段と、を備える。また、この情報処理装置は、分類手段によって第2の種類に分類された場合に、文字認識対象の文字認識結果を抽出し、文字認識対象を人手で入力させるように制御する第1の制御手段と、分類手段によって第3の種類に分類された場合に、文字認識対象を複数人の人手で入力させるように制御する第2の制御手段と、を備える。
特開2016-212812号公報
ところで、手書き文字等の認識対象を読み取って得られた画像について文字認識処理を行った際に、認識結果としての文字列を表示した状態で、画像についての確認作業が行われる場合がある。しかしながら、認識結果としての文字列が表示された状態では、画像の確認者がその文字列に依存してしまい、適切な確認作業を行うことが難しい場合がある。
本発明は、画像の認識結果としての文字列を表示した状態で、画像についての確認作業を行う場合と比較して、認識結果に依存せずに確認作業を行うことができる情報処理装置及びプログラムを提供することを目的とする。
上記目的を達成するために、請求項1に記載の情報処理装置は、認識の対象とする画像を表示させる制御を行う第1制御部と、前記画像の認識結果としての第1文字列を取得する取得部と、前記第1文字列が非表示の状態で、ユーザによる前記画像についての第2文字列の入力を受け付ける受付部と、前記第1文字列と前記第2文字列とを比較した結果に基づいて、前記画像についての最終的な認識結果を表示させる制御を行う第2制御部と、を備え、前記取得部は、前記第1文字列の確からしさを示す確信度を取得し、前記第1制御部は、前記確信度及び前記画像の画数に応じて、前記画像の拡大率を変更して表示させる制御を行う
また、請求項2に記載の情報処理装置は、請求項1に記載の発明において、前記第2制御部が、前記第1文字列と前記第2文字列とが一致する場合、前記最終的な認識結果として、前記一致した文字列を表示させる制御を行う。
また、請求項3に記載の情報処理装置は、請求項1又は2に記載の発明において、前記第2制御部が、前記第1文字列と前記第2文字列とが不一致の場合、前記最終的な認識結果として、前記第1文字列及び前記第2文字列のいずれか一方を選択させる制御を行う。
また、請求項4に記載の情報処理装置は、請求項3に記載の発明において、前記第2制御部が、前記第1文字列及び前記第2文字列の双方を表示させる制御を更に行う。
また、請求項5に記載の情報処理装置は、請求項4に記載の発明において、前記第2制御部が、前記第1文字列と前記第2文字列との異なる部分を強調して表示させる制御を更に行う。
また、請求項6に記載の情報処理装置は、請求項1に記載の発明において、記受付部が、前記確信度と予め定められた閾値とを比較した結果に基づいて、前記第1文字列を非表示の状態にするか否かを切り替える。
また、請求項7に記載の情報処理装置は、請求項6に記載の発明において、前記受付部が、前記確信度が前記閾値より大きい場合に、前記第1文字列を表示の状態とし、前記第2文字列の入力を受け付けない。
また、請求項8に記載の情報処理装置は、請求項7に記載の発明において、前記第2制御部が、前記最終的な認識結果として、前記第1文字列を表示させる制御を更に行う。
また、請求項9に記載の情報処理装置は、請求項6~8のいずれか1項に記載の発明において、前記受付部が、前記確信度が前記閾値以下である場合に、前記第1文字列を非表示の状態とし、前記第2文字列の入力を受け付ける。
また、請求項10に記載の情報処理装置は、請求項1~9のいずれか1項に記載の発明において、前記第1文字列が、光学的文字認識処理により認識された文字列であるとされている。
また、請求項11に記載の情報処理装置は、請求項1~9のいずれか1項に記載の発明において、前記第1文字列が、前記ユーザとは別のユーザにより入力された文字列であるとされている。
また、請求項12に記載の情報処理装置は、請求項1~9のいずれか1項に記載の発明において、前記取得部が、前記画像の認識結果としての第3文字列を更に取得し、前記第2制御部が、前記第1文字列、前記第2文字列、及び前記第3文字列を比較した結果に基づいて、前記最終的な認識結果を表示させる制御を更に行う。
また、請求項13に記載の情報処理装置は、請求項12に記載の発明において、前記第1文字列が、前記ユーザとは別のユーザにより入力された文字列であり、前記第3文字列が、光学的文字認識処理により認識された文字列であるとされている。
また、請求項14に記載の情報処理装置は、請求項13に記載の発明において、前記第2制御部が、前記第1文字列、前記第2文字列、及び前記第3文字列の2つ以上が一致する場合、前記最終的な認識結果として、前記一致した文字列を表示させる制御を行う。
また、請求項15に記載の情報処理装置は、請求項13又は14に記載の発明において、前記第2制御部が、前記第1文字列、前記第2文字列、及び前記第3文字列が不一致の場合、前記最終的な認識結果として、前記第1文字列、前記第2文字列、及び前記第3文字列のいずれか1つを選択させる制御を行う。
更に、上記目的を達成するために、請求項16に記載のプログラムは、コンピュータを、請求項1~15のいずれか1項に記載の情報処理装置が備える各部として機能させる。
請求項1及び請求項16に係る発明によれば、画像の認識結果としての文字列を表示した状態で、画像についての確認作業を行う場合と比較して、認識結果に依存せずに確認作業を行うことができる。
請求項2に係る発明によれば、一致した文字列を最終的な認識結果として表示させない場合と比較して、確認作業を効率的に行うことができる。
請求項3に係る発明によれば、不一致の2つの文字列のいずれかを選択させない場合と比較して、確認作業の精度を向上させることができる。
請求項4に係る発明によれば、不一致の2つの文字列を表示させない場合と比較して、文字列の選択を容易に行うことができる。
請求項5に係る発明によれば、不一致の2つの文字列の異なる部分を強調表示させない場合と比較して、文字列の選択を適切に行うことができる。
請求項6に係る発明によれば、確信度に応じて第1文字列の表示/非表示を切り替えない場合と比較して、確認作業を効率的に行うことができる。
請求項7に係る発明によれば、確信度が大きいにも係わらず第2文字列の入力を受け付ける場合と比較して、確認作業を効率的に行うことができる。
請求項8に係る発明によれば、確信度が大きいにも係わらず第1文字列を最終的な認識結果として表示させない場合と比較して、確認作業を効率的に行うことができる。
請求項9に係る発明によれば、確信度が小さいにも係わらず第2文字列の入力を受け付けない場合と比較して、確認作業の精度を向上させることができる。
請求項10に係る発明によれば、光学的文字認識処理により認識された文字列を用いる場合であっても、認識結果に依存せずに確認作業を行うことができる。
請求項11に係る発明によれば、別のユーザにより入力された文字列を用いる場合であっても、認識結果に依存せずに確認作業を行うことができる。
請求項12に係る発明によれば、3つの文字列を考慮しない場合と比較して、認識作業の精度を向上させることができる。
請求項13に係る発明によれば、別のユーザにより入力された文字列、及び、光学的文字認識処理により認識された文字列を用いる場合であっても、認識結果に依存せずに確認作業を行うことができる。
請求項14に係る発明によれば、2つ以上一致した文字列を最終的な認識結果として表示させない場合と比較して、確認作業を効率的に行うことができる。
請求項15に係る発明によれば、不一致の3つの文字列のいずれかを選択させない場合と比較して、確認作業の精度を向上させることができる。
第1の実施形態に係る情報処理システムの構成の一例を示す図である。 第1の実施形態に係るサーバ装置の電気的な構成の一例を示すブロック図である。 第1の実施形態に係るサーバ装置の概念的な構成の一例を示すブロック図である。 実施形態に係る端末装置のUI画面の一例を示す正面図である。 第1の実施形態に係るサーバ装置の機能的な構成の一例を示すブロック図である。 実施形態に係る認識結果管理テーブルの一例を示す図である。 第1の実施形態に係るによる確認処理プログラムによる処理の流れの一例を示すフローチャートである。 第1の実施形態に係る端末装置のUI画面の一例を示す正面図である。 第1の実施形態に係る第1確認処理の流れの一例を示すフローチャートである。 第1の実施形態に係る端末装置のUI画面の他の例を示す正面図である。 第1の実施形態に係る端末装置のUI画面の他の例を示す正面図である。 第1の実施形態に係る端末装置のUI画面の他の例を示す正面図である。 第1の実施形態に係る第2確認処理の流れの一例を示すフローチャートである。 第1の実施形態に係る端末装置のUI画面の他の例を示す正面図である。 第1の実施形態に係る端末装置のUI画面の他の例を示す正面図である。 第1の実施形態に係る端末装置のUI画面の他の例を示す正面図である。 第1の実施形態に係る端末装置のUI画面の他の例を示す正面図である。 第2の実施形態に係るサーバ装置の機能的な構成の一例を示すブロック図である。 第3の実施形態に係る拡大率テーブルの一例を示す図である。 第3の実施形態に係る端末装置のUI画面の一例を示す正面図である。
以下、図面を参照して、本発明を実施するための形態の一例について詳細に説明する。
[第1の実施形態]
図1は、第1の実施形態に係る情報処理システム90の構成の一例を示す図である。
図1に示すように、本実施形態に係る情報処理システム90は、サーバ装置10と、端末装置40A、40B、・・・と、画像読取装置50と、を備えている。なお、サーバ装置10は、情報処理装置の一例である。
サーバ装置10は、ネットワークNを介して、端末装置40A、40B、・・・、及び画像読取装置50の各々と通信可能に接続されている。このサーバ装置10には、一例として、サーバコンピュータや、パーソナルコンピュータ(PC:Personal Computer)等の汎用的なコンピュータが適用される。また、このネットワークNには、一例として、インターネットや、LAN(Local Area Network)、WAN(Wide Area Network)等が適用される。
画像読取装置50は、紙媒体の帳票等を光学的に読み取って画像を取得し、取得した画像(以下、「帳票画像」という。)をサーバ装置10に送信する機能を備えている。なお、ここでいう帳票としては、例えば、住所欄や氏名欄等の複数の項目を含む各種の帳票が用いられる。この帳票には、これら複数の項目の各々について手書き文字や、印刷文字等が記入されている。サーバ装置10は、具体的には後述するように、画像読取装置50から受信した帳票画像に対して、光学的文字認識処理の一例であるOCR(Optical Character Recognition)処理を行い、複数の項目の各々に対応する画像についてのテキストデータ(以下、「文字列」ともいう。)を取得する。なお、この文字列とは、1文字以上の文字の連なりを意味し、1文字であっても文字列と称する。
端末装置40Aは、確認作業を行う確認者(ユーザ)U1が操作する端末装置であり、端末装置40Bは、確認作業を行う確認者U2が操作する端末装置である。これら複数の端末装置40A、40B、・・・を区別して説明する必要がない場合には、端末装置40A、40B、・・・を総称して端末装置40ともいう。また、これら複数の確認者U1、U2、・・・を区別して説明する必要がない場合には、確認者U1、U2、・・・を総称して確認者Uともいう。この端末装置40には、一例として、パーソナルコンピュータ(PC)等の汎用的なコンピュータや、スマートフォン、タブレット端末等の携帯可能な端末装置等が適用される。なお、端末装置40には、確認者Uが確認作業を行うための確認作業アプリケーション・プログラム(以下、「確認作業アプリ」ともいう。)がインストールされており、確認作業用のUI(User Interface)画面を生成して表示する。
サーバ装置10は、認識の対象とする画像を、端末装置40のUI画面に表示させる制御を行う。確認者Uは、当該画像を見ながら、当該画像に対応する文字列を入力する。端末装置40は、UI画面を介して入力を受け付けた文字列を確認結果としてサーバ装置10に送信する。サーバ装置10は、例えば、OCR処理により得られた文字列と、確認者Uの入力により得られた文字列とを比較した結果に基づいて、最終的な認識結果を出力し、端末装置40のUI画面に表示させる制御を行う。
図2は、第1の実施形態に係るサーバ装置10の電気的な構成の一例を示すブロック図である。
図2に示すように、本実施形態に係るサーバ装置10は、制御部12と、記憶部14と、表示部16と、操作部18と、通信部20と、を備えている。
制御部12は、CPU(Central Processing Unit)12A、ROM(Read Only Memory)12B、RAM(Random Access Memory)12C、及び入出力インターフェース(I/O)12Dを備えており、これら各部がバスを介して各々接続されている。
I/O12Dには、記憶部14と、表示部16と、操作部18と、通信部20と、を含む各機能部が接続されている。これらの各機能部は、I/O12Dを介して、CPU12Aと相互に通信可能とされる。
制御部12は、サーバ装置10の一部の動作を制御するサブ制御部として構成されてもよいし、サーバ装置10の全体の動作を制御するメイン制御部の一部として構成されてもよい。制御部12の各ブロックの一部又は全部には、例えば、LSI(Large Scale Integration)等の集積回路又はIC(Integrated Circuit)チップセットが用いられる。上記各ブロックに個別の回路を用いてもよいし、一部又は全部を集積した回路を用いてもよい。上記各ブロック同士が一体として設けられてもよいし、一部のブロックが別に設けられてもよい。また、上記各ブロックのそれぞれにおいて、その一部が別に設けられてもよい。制御部12の集積化には、LSIに限らず、専用回路又は汎用プロセッサを用いてもよい。
記憶部14としては、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等が用いられる。記憶部14には、本実施形態に係る確認処理を行うための確認処理プログラム14Aが記憶される。なお、この確認処理プログラム14Aは、ROM12Bに記憶されていてもよい。また、記憶部14には、確認処理に用いる認識結果管理テーブル14Bが記憶されている。
確認処理プログラム14Aは、例えば、サーバ装置10に予めインストールされていてもよい。確認処理プログラム14Aは、不揮発性の記憶媒体に記憶して、又はネットワークNを介して配布して、サーバ装置10に適宜インストールすることで実現してもよい。なお、不揮発性の記憶媒体の例としては、CD-ROM(Compact Disc Read Only Memory)、光磁気ディスク、HDD、DVD-ROM(Digital Versatile Disc Read Only Memory)、フラッシュメモリ、メモリカード等が想定される。
表示部16には、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイ等が用いられる。表示部16は、タッチパネルを一体的に有していてもよい。操作部18には、例えば、キーボードやマウス等の操作入力用のデバイスが設けられている。表示部16及び操作部18は、サーバ装置10のユーザから各種の指示を受け付ける。表示部16は、ユーザから受け付けた指示に応じて実行された処理の結果や、処理に対する通知等の各種の情報を表示する。
通信部20は、インターネットや、LAN、WAN等のネットワークNに接続されており、画像読取装置50や端末装置40との間でネットワークNを介して通信が可能とされる。
次に、図3を参照して、第1の実施形態に係るサーバ装置10の概念的な構成について説明する。
図3は、第1の実施形態に係るサーバ装置10の概念的な構成の一例を示すブロック図である。
図3に示すように、本実施形態に係るサーバ装置10は、文字認識部210、文字列分類部220、認識結果指定部230、人手入力部240、及び結果統合部250を備えている。これらの各部は、CPU12Aが確認処理プログラム14Aを実行することにより実現される。
文字認識部210は、文字列分類部220及び認識結果指定部230と接続されており、例えば、帳票画像に含まれる各項目についての画像(以下、「認識対象画像」という。)を受け付け、文字列分類部220に確信度を、認識結果指定部230に認識結果としての文字列を渡す。文字認識部210は、受け付けた認識対象画像に対してOCR処理を行い文字列として認識する。なお、文字列の認識方法としては、認識結果としての文字列、及び、その文字列の確信度を出力する公知の技術を用いればよい。ここでいう確信度とは、文字列の確からしさを示す指標である。つまり、確信度の値が高いほど、認識対象画像とその認識結果としての文字列とが一致する確率が高いことを示している。この確信度の導出方法としては、例えば、特開2016-212812号公報(特許文献1)に記載されている、特開平5-040853公報、特開平5-020500号公報、特開平5-290169号公報、特開平8-101880号公報、特開2011-113125号公報、及び特開2013-069132号公報等に記載の公知の技術を用いればよい。なお、これらの中で、各文字に対する確信度を用いるものがあるが、文字毎の確信度を文字列の確信度に変換する手法としては、下記に示す様々な手法の中から適切なものを選択すればよい。
・文字列内の各文字についての確信度の最大値を文字列の確信度とする。
・文字列内の各文字についての確信度の最小値を文字列の確信度とする。
・文字列内の各文字についての確信度の平均値(最頻値、中央値等)を文字列の確信度とする。
文字列分類部220は、文字認識部210、認識結果指定部230、人手入力部240、及び結果統合部250と接続されており、予め定められた閾値Th1、Th2を受け付け、文字認識部210から確信度を受け取り、認識結果指定部230、人手入力部240、及び結果統合部250に分類結果を渡す。文字列分類部220は、一例として、認識対象画像を、下記に示す3つの種類のいずれかに分類する。ここでいう種類とは、最終的な認識結果としての文字列を得る方法の種類のことである。但し、本実施形態では、一例として、複数の閾値Th1、Th2(<Th1)を用いて、確信度をKとした場合について示す。
(種類1)K>Th1の場合、OCR処理により得られた文字列を最終的な認識結果とする。
(種類2)Th2<K≦Th1の場合、OCR処理により得られた文字列と、1名の確認者Uの入力により得られた文字列とを比較した結果に基づいて、最終的な認識結果を決定する。
(種類3)K≦Th2の場合、複数名の確認者Uの入力により得られた複数の文字列を比較した結果に基づいて、最終的な認識結果を決定する。
つまり、文字列分類部220は、認識対象画像の認識結果についての確信度Kを複数の閾値Th1、Th2と比較することによって、分類結果として、種類1、種類2、及び種類3のいずれかを出力する。なお、K≦Th2の場合に、種類3に代えて、種類2を出力してもよいし、Th2<K≦Th1の場合に、種類2に代えて、種類3を出力してもよい。また、K>Th1の場合に、種類1に代えて、種類2又は種類3を出力してもよい。
認識結果指定部230は、文字認識部210、文字列分類部220、及び結果統合部250と接続されており、文字認識部210から認識結果としての文字列を、文字列分類部220から分類結果を受け取り、結果統合部250に認識結果を渡す。認識結果指定部230は、文字列分類部220によって種類1又は種類2に分類された場合に、認識対象画像に対する文字認識部210による認識結果としての文字列を指定して出力する。また、認識結果指定部230は、文字列分類部220によって種類3に分類された場合に、認識対象画像に対する文字認識部210による認識結果としての文字列を出力しない。
人手入力部240は、文字列分類部220及び結果統合部250と接続されており、認識対象画像を受け付け、文字列分類部220から分類結果を受け取り、結果統合部250に人手入力結果を渡す。人手入力部240は、文字列分類部220によって種類2に分類された場合に、認識対象画像を対象として1名の確認者Uで文字列を入力させるように制御を行う。また、人手入力部240は、文字列分類部220によって種類3に分類された場合に、認識対象画像を対象として複数名の確認者Uで文字列を入力させるように制御する。つまり、分類結果が種類2である場合は、人手入力結果として、1つの入力結果を結果統合部250に渡し、分類結果が種類3である場合は、人手入力結果として、複数の入力結果を結果統合部250に渡す。なお、本実施形態では、複数名の一例として、2名の場合を示すが、3名以上であってもよい。
結果統合部250は、文字列分類部220、認識結果指定部230、及び人手入力部240と接続されており、文字列分類部220から分類結果を、認識結果指定部230から認識結果としての文字列を、人手入力部240から人手入力結果としての文字列を受け取り、最終的な認識結果としての文字列を出力データとして出力する。結果統合部250は、文字列分類部220によって種類1に分類された場合は、認識結果指定部230によって指定された認識結果としての文字列を出力データとして出力する。また、結果統合部250は、文字列分類部220によって種類2に分類された場合は、認識結果指定部230によって指定された認識結果としての文字列と、人手入力部240によって1名の確認者Uにより入力された入力結果としての文字列とを比較した結果に基づいて、最終的な認識結果としての文字列を出力データとして出力する。また、結果統合部250は、文字列分類部220によって種類3に分類された場合は、人手入力部240によって複数名の確認者Uにより入力された複数の入力結果としての文字列を比較した結果に基づいて、最終的な認識結果としての文字列を出力データとして出力する。この出力データは、例えば、端末装置40に出力されて、端末装置40のUI画面に表示される。
図4は、本実施形態に係る端末装置40のUI画面60の一例を示す正面図である。
図4に示すUI画面60は、左側に帳票画像全体のプレビュー60Aが表示され、右側に複数の項目の各々についての認識対象画像を含む確認訂正UI60Bが表示される。この場合、プレビュー60Aの画像62Aが、確認訂正UI60Bの画像62Bに対応している。このUI画面60の例では、画像62Bの最終的な認識結果として、文字列62Cが表示されている。
なお、上記閾値は、Th1、Th2の2つに限定されず、どちらか1つでもよい。例えば、Th1のみであれば、種類1及び種類2のいずれかの選択とされる。この場合、認識結果指定部230は不要である。一方、Th2のみであれば、種類2及び種類3のいずれかの選択とされる。あるいは、Th1及びTh2を同一の値に設定することで、種類1及び種類3のいずれかの選択とされる。
ところで、上述の種類2又は種類3に分類された場合、認識結果としての文字列を表示した状態で、確認者Uによる確認作業が行われる場合がある。しかしながら、認識結果としての文字列が表示された状態では、確認者Uがその文字列に依存してしまい、適切な確認作業を行うことが難しい場合がある。
このため、本実施形態に係るサーバ装置10のCPU12Aは、記憶部14に記憶されている確認処理プログラム14AをRAM12Cに書き込んで実行することにより、図5に示す各部として機能する。
図5は、第1の実施形態に係るサーバ装置10の機能的な構成の一例を示すブロック図である。
図5に示すように、本実施形態に係るサーバ装置10のCPU12Aは、第1表示制御部30、取得部32、受付部34、及び第2表示制御部36として機能する。なお、第1表示制御部30は、第1制御部の一例であり、第2表示制御部36は、第2制御部の一例である。また、第1表示制御部30及び第2表示制御部36は1つの表示制御部として実現してもよい。また、これら第1表示制御部30、取得部32、受付部34、及び第2表示制御部36は、上述した人手入力部240及び結果統合部250の各々による具体的な構成を示している。
本実施形態に係る第1表示制御部30は、認識対象画像を表示させる制御を行う。本実施形態では、認識対象画像を、確認者Uの端末装置40のUI画面に表示させる制御を行う。
本実施形態に係る取得部32は、認識対象画像の認識結果としての第1文字列を取得する。この第1文字列は、図6に示す認識結果管理テーブル14Bから取得される。なお、種類2に分類された場合、第1文字列は、OCR処理により認識された文字列である。一方、種類3に分類された場合、第1文字列は、確認者Uとは別の確認者Yにより入力された文字列である。
図6は、本実施形態に係る認識結果管理テーブル14Bの一例を示す図である。
図6に示す認識結果管理テーブル14Bには、項目毎に、スキャン画像(認識対象画像)、認識結果(第1文字列)、及び確信度が対応付けられて登録されている。
本実施形態に係る受付部34は、第1文字列が非表示の状態で、確認者Uによる認識対象画像についての第2文字列の入力を受け付ける。この第2文字列の入力は、確認者Uの端末装置40のUI画面を介して受け付けられる。
本実施形態に係る第2表示制御部36は、第1文字列と第2文字列とを比較した結果に基づいて、認識対象画像についての最終的な認識結果を表示させる制御を行う。本実施形態では、最終的な認識結果を、確認者Uの端末装置40のUI画面に表示させる制御を行う。
具体的には、第1文字列と第2文字列とが一致する場合、最終的な認識結果として、一致した文字列(本実施形態では第1文字列とする。)を表示させる制御を行う。一方、第1文字列と第2文字列とが不一致の場合、最終的な認識結果として、第1文字列及び第2文字列のいずれか一方を選択させる制御を行う。具体的には、第1文字列及び第2文字列の双方を表示させ、確認者Uにいずれか一方を選択させる。この場合、第1文字列と第2文字列との異なる部分を強調して表示させ、確認者Uが2つの文字列の相違点を視認し易くすることが望ましい。なお、ここでいう強調には、一例として、文字色を異ならせる、文字サイズを異ならせる、背景色を付与する、更には、下線や、斜体、太字、囲み線等の文字飾りを付与する等が含まれる。
また、取得部32は、第1文字列の確信度を、一例として、図6に示す認識結果管理テーブル14Bから取得するようにしてもよい。この場合、受付部34は、確信度と閾値(一例として、閾値Th1)とを比較した結果に基づいて、第1文字列を非表示の状態にするか否かを切り替える。具体的には、確信度が閾値Th1より大きい場合、つまり、種類1に分類された場合に、第1文字列を表示の状態とし、第2文字列の入力を受け付けない。この場合、第2表示制御部36は、最終的な認識結果として、第1文字列を表示させる制御を行う。一方、確信度が閾値Th1以下である場合、つまり、種類2又は種類3に分類された場合に、第1文字列を非表示の状態とし、第2文字列の入力を受け付ける。
次に、図7を参照して、第1の実施形態に係るサーバ装置10の作用を説明する。
図7は、第1の実施形態に係るによる確認処理プログラム14Aによる処理の流れの一例を示すフローチャートである。
まず、サーバ装置10に対して、確認処理の開始が指示されると、確認処理プログラム14Aが起動され、以下の各ステップを実行する。
図7のステップ100では、文字認識部210が、画像読取装置50から受信した帳票画像に含まれる複数の項目の各々についての認識対象画像の入力を受け付ける。
ステップ102では、文字認識部210が、ステップ100で受け付けた複数の項目の各々についての認識対象画像の第1文字列を認識する。本実施形態では、一例として、OCR処理により第1文字列を認識する。また、このとき、第1文字列の確信度を導出し、得られた第1文字列及び確信度を、各項目の認識対象画像に対応付けて、一例として、図6に示す認識結果管理テーブル14Bに格納する。
ステップ104では、文字列分類部220が、ステップ102で導出した確信度(=K)と閾値Th1、Th2との比較を行う。確信度Kが閾値Th1より大きい、つまり、種類1に分類された場合(K>Th1の場合)、ステップ106に移行する。また、確信度Kが閾値Th2より大きく閾値Th1以下、つまり、種類2に分類された場合(Th2<K≦Th1の場合)、ステップ112に移行する。また、確信度Kが閾値Th2以下、つまり、種類3に分類された場合(K≦Th2の場合)、ステップ114に移行する。
ステップ106では、種類1に分類された場合の処理として、第1表示制御部30が、認識対象画像を、端末装置40のUI画面に表示させる制御を行う。
ステップ108では、取得部32が、認識対象画像の認識結果としての第1文字列を、一例として、図6に示す認識結果管理テーブル14Bから取得する。
ステップ110では、第2表示制御部36が、ステップ108で取得した第1文字列を最終的な認識結果として、一例として、図8に示すように、端末装置40のUI画面に表示させる制御を行い、ステップ116に移行する。
図8は、第1の実施形態に係る端末装置40のUI画面64の一例を示す正面図である。
図8に示すUI画面64は、設問名、スキャン画像、確信度、確認結果、及び最終結果を含んでいる。なお、設問名は、項目を表し、スキャン画像は、認識対象画像を表す。
図8に示すUI画面64においては、種類1に分類されたスキャン画像(本例では「富士太郎」である。)に対して、OCR処理により認識された第1文字列「富士太郎」が確認結果に表示される。更に、第1文字列「富士太郎」は最終的な認識結果として最終結果にも表示される。なお、種類2に分類されたスキャン画像(本例では「223-0886」及び「横浜市」である。)に対しては、第1文字列を確認結果として表示せず、確認者Uによる確認結果の入力を受け付け可能とされている。
一方、図7のステップ112では、種類2に分類された場合の処理として、図9に示す第1確認処理の各ステップが実行される。
図9は、第1の実施形態に係る第1確認処理の流れの一例を示すフローチャートである。
図9のステップ120では、第1表示制御部30が、認識対象画像を、端末装置40のUI画面に表示させる制御を行う。
ステップ122では、取得部32が、認識対象画像の認識結果としての第1文字列を、一例として、図6に示す認識結果管理テーブル14Bから取得する。
ステップ124では、受付部34が、確認処理が必要な項目であるか否かを判定する。確認処理が必要な項目ではないと判定した場合(否定判定の場合)、ステップ126に移行し、確認処理が必要な項目であると判定した場合(肯定判定の場合)、ステップ128に移行する。
ステップ126では、第2表示制御部36が、ステップ122で取得した第1文字列を最終的な認識結果として指定し、ステップ142に移行する。
一方、ステップ128では、受付部34が、一例として、上述の図8に示すスキャン画像(本例では「223-0886」である。)のように、第1文字列が非表示の状態で、図10に示すように、端末装置40のUI画面を介して、確認者Uから第2文字列の入力を受け付ける。
図10は、第1の実施形態に係る端末装置40のUI画面の他の例を示す正面図である。
図10に示すUI画面66では、種類2に分類されたスキャン画像(本例では「223-0886」である。)に対して、確認者Uにより第2文字列が確認結果として入力されている。
ステップ130では、第2表示制御部36が、ステップ122で取得した第1文字列と、ステップ128で入力を受け付けた第2文字列とが一致するか否かを判定する。第1文字列と第2文字列とが一致すると判定した場合(肯定判定の場合)、ステップ126に移行し、第1文字列と第2文字列とが一致しないと判定した場合(否定判定の場合)、ステップ132に移行する。
ステップ132では、第2表示制御部36が、端末装置40のUI画面に対して、2つの文字列の異なる部分を強調して表示させる制御を行う。
ステップ134では、第2表示制御部36が、第2文字列を訂正されたか否かを判定する。第2文字列が訂正されないと判定した場合(否定判定の場合)、ステップ136に移行し、第2文字列が訂正されたと判定した場合(肯定判定の場合)、ステップ138に移行する。
ステップ136では、第2表示制御部36が、端末装置40のUI画面を介して、文字列の選択を受け付ける制御を行う。
一方、ステップ138では、第2表示制御部36が、端末装置40のUI画面を介して、訂正後の文字列の選択を受け付ける制御を行う。
ステップ140では、第2表示制御部36が、ステップ136又はステップ138で選択された文字列を最終的な認識結果として指定し、ステップ142に移行する。
ステップ142では、第2表示制御部36が、一例として、図11に示すように、端末装置40のUI画面に対して、ステップ126で指定された第1文字列を最終的な認識結果として表示させる制御を行う。また、第2表示制御部36が、一例として、図12に示すように、端末装置40のUI画面に対して、ステップ140で指定された文字列を最終的な認識結果として表示させる制御を行う。そして、第2表示制御部36は、図7に示すステップ116にリターンする。
図11は、第1の実施形態に係る端末装置40のUI画面の他の例を示す正面図である。
図11に示すUI画面68では、種類2に分類されたスキャン画像(本例では「223-0886」である。)に対して、確認者Uにより確認結果として入力された第2文字列が第1文字列と一致する。このため、第1文字列が最終結果として表示されている。
なお、第2文字列の入力を受け付ける場合に、例えば、半角/全角等の入力規則等を表示させてもよいし、バリデーションチェック等を行うようにしてもよい。
図12は、第1の実施形態に係る端末装置40のUI画面の他の例を示す正面図である。
図12に示すUI画面70では、種類2に分類されたスキャン画像(本例では「横浜市」である。)に対して、確認者Uにより確認結果として入力された第2文字列が第1文字列と一致しない。このため、いずれかの文字列を選択可能とされている。
図12に示すUI画面70では、確認者Uによる入力結果としての「横浜市」、及び、OCR処理による認識結果としての「模浜市」の各々にチェックボックスが付与されている。この場合、「模浜市」が第1文字列、「横浜市」が第2文字列に対応する。このように、第1文字列と第2文字列とが不一致である場合、これらを並べて表示させる。すなわち、第1文字列は、第2文字列の入力時点では表示されず、不一致が確認された時点で表示されるため、確認者Uは、第1文字列に依存することなく、第2文字列を入力することが可能とされる。
また、第1文字列と第2文字列との間では、「模」の字と、「横」の字とが異なることが視覚的に分かるように、強調表示の一例として、各々の字に下線が付与されている。
図12に示すUI画面70のスキャン画像(本例では「横浜市」)に対して、確認者Uは、最終確認を行い、いずれかの文字列が正しい場合には、正しい文字列のチェックボックスにチェックを入れて選択する。一方、どちらも誤りである場合には、第2文字列の入力結果を訂正し、訂正後の第2文字列のチェックボックスにチェックを入れて選択する。
本実施形態においては、項目毎に、確認者Uが第1文字列と第2文字列とを最終的に確認した上で、チェックが行われる。このため、第三者による最終確認が不要とされ、確認作業に要する工数が削減される。
一方、図7のステップ114では、種類3に分類された場合の処理として、図13に示す第2確認処理の各ステップが実行される。
図13は、第1の実施形態に係る第2確認処理の流れの一例を示すフローチャートである。
なお、図13に示す第2確認処理では、第1文字列がOCR処理で得られた文字列ではなく、第2文字列の確認者Uとは別の確認者Uにより入力された文字列とされる。ここでは、説明を容易にするため、第1文字列を入力する1人目の確認者Uを確認者U1、第2文字列を入力する2人目の確認者Uを確認者U2として区別する。
図13のステップ150では、第1表示制御部30が、確認処理を行う確認者が1人目の確認者U1であるか否かを判定する。1人目の確認者U1であると判定された場合(肯定判定の場合)、ステップ152に移行し、1人目の確認者U1ではなく、2人目の確認者U2であると判定された場合(否定判定の場合)、ステップ160に移行する。
上記において、確認者U1であるか、あるいは、確認者U2であるかは、一例として、上述の図6に示す認識結果管理テーブル14BのOCR処理による認識結果に、確認者U1により入力された第1文字列が追加されているか否かで判定される。追加の有無は、例えば、第1文字列が追加されていることを示す追加フラグを付与しておくことで判定される。第1文字列に追加フラグが付与されていない場合、第1文字列はOCR処理による認識結果のみであり、確認処理を行うのは確認者U1と判定される。一方、第1文字列に追加フラグが付与されている場合、確認者U1により入力された第1文字列が追加されており、確認処理を行うのは確認者U2と判定される。
ステップ152では、第1表示制御部30が、認識対象画像を、端末装置40のUI画面に表示させる制御を行う。
ステップ154では、受付部34が、端末装置40のUI画面を介して、文字列の入力を受け付ける。この場合も、OCR処理による認識結果は、非表示とされ、1人目の確認者U1は、スキャン画像を見ながら、確認結果としての文字列を入力する。
ステップ156では、受付部34が、一例として、ステップ154で入力を受け付けた文字列を第1文字列として、図6に示す認識結果管理テーブル14Bに追加し、図7に示すステップ116にリターンする。
一方、ステップ160では、第1表示制御部30が、認識対象画像を、端末装置40のUI画面に表示させる制御を行う。
ステップ162では、取得部32が、認識対象画像の追加された第1文字列を、一例として、図6に示す認識結果管理テーブル14Bから取得する。
ステップ164では、受付部34が、一例として、図14に示すように、確認者U1により入力された第1文字列が非表示の状態で、端末装置40のUI画面を介して、確認者U2による第2文字列の入力を受け付ける。
図14は、第1の実施形態に係る端末装置40のUI画面の他の例を示す正面図である。
図14に示すUI画面72では、種類3に分類されたスキャン画像(本例では「富士太郎」である。)に対して、確認結果の欄に第1文字列が非表示とされ、第2文字列が入力待ちの状態とされている。
ステップ166では、第2表示制御部36が、ステップ162で取得した追加の第1文字列と、ステップ164で入力を受け付けた第2文字列とが一致するか否かを判定する。追加の第1文字列と第2文字列とが一致すると判定した場合(肯定判定の場合)、ステップ168に移行し、追加の第1文字列と第2文字列とが一致しないと判定した場合(否定判定の場合)、ステップ170に移行する。
ステップ168では、第2表示制御部36が、ステップ162で取得した追加の第1文字列を最終的な認識結果として指定し、ステップ180に移行する。
この場合、ステップ180では、第2表示制御部36が、一例として、図15に示すように、端末装置40のUI画面に対して、ステップ168で指定された追加の第1文字列を最終的な認識結果として表示させる制御を行い、図7に示すステップ116にリターンする。
図15は、第1の実施形態に係る端末装置40のUI画面の他の例を示す正面図である。
図15に示すUI画面74では、種類3に分類されたスキャン画像(本例では「富士太郎」である。)に対して、確認者U2により確認結果として入力された第2文字列が追加の第1文字列と一致する。このため、追加の第1文字列が最終結果として表示されている。
なお、第2文字列の入力を受け付ける場合に、上述したように、例えば、半角/全角等の入力規則等を表示させてもよいし、バリデーションチェック等を行うようにしてもよい。
一方、ステップ170では、第2表示制御部36が、端末装置40のUI画面に対して、一例として、図16に示すように、2つの文字列の異なる部分を強調して表示させる制御を行う。
図16は、第1の実施形態に係る端末装置40のUI画面の他の例を示す正面図である。
図16に示すUI画面76では、種類3に分類されたスキャン画像(本例では「富士太郎」である。)に対して、確認者U2により確認結果として入力された第2文字列が追加の第1文字列と一致しない。このため、いずれかの文字列を選択可能とされている。
図16に示すUI画面76では、確認者U2による入力結果としての「富工太郎」、及び、確認者U1による入力結果としての「富士太郎」の各々にチェックボックスが付与されている。この場合、「富士太郎」が第1文字列、「富工太郎」が第2文字列に対応する。このように、第1文字列と第2文字列とが不一致である場合、これらを並べて表示させる。なお、このとき、OCR処理による認識結果も並べて表示させるようにしてもよい。すなわち、第1文字列は、第2文字列の入力時点では表示されず、不一致が確認された時点で表示されるため、確認者U2は、追加の第1文字列に依存することなく、第2文字列を入力することが可能とされる。
また、第1文字列と第2文字列との間では、「士」の字と、「工」の字とが異なることが視覚的に分かるように、強調表示の一例として、各々の字に下線が付与されている。
図16に示すUI画面76のスキャン画像(本例では「富士太郎」)に対して、確認者U2は、最終確認を行い、いずれかの文字列が正しい場合には、一例として、後述の図17に示すように、正しい文字列のチェックボックスにチェックを入れて選択する。一方、どちらも誤りである場合には、第2文字列の入力結果を訂正し、訂正後の第2文字列のチェックボックスにチェックを入れて選択する。
ステップ172では、第2表示制御部36が、第2文字列を訂正されたか否かを判定する。第2文字列が訂正されないと判定した場合(否定判定の場合)、ステップ174に移行し、第2文字列が訂正されたと判定した場合(肯定判定の場合)、ステップ176に移行する。
ステップ174では、第2表示制御部36が、端末装置40のUI画面を介して、文字列の選択を受け付ける制御を行う。
一方、ステップ176では、第2表示制御部36が、端末装置40のUI画面を介して、訂正後の文字列の選択を受け付ける制御を行う。
ステップ178では、第2表示制御部36が、ステップ174又はステップ176で選択された文字列を最終的な認識結果として指定し、ステップ180に移行する。
この場合、ステップ180では、第2表示制御部36が、一例として、図17に示すように、端末装置40のUI画面に対して、ステップ178で指定された文字列を最終的な認識結果として表示させる制御を行う。そして、第2表示制御部36は、図7に示すステップ116にリターンする。
図17は、第1の実施形態に係る端末装置40のUI画面の他の例を示す正面図である。
図17に示すUI画面78では、確認者U2が最終確認を行い選択された文字列(本例では「富士太郎」である。)が最終結果として表示されている。
次に、図7に戻り、ステップ116では、第2表示制御部36が、最後の項目であるか否かを判定する。最後の項目であると判定した場合(肯定判定の場合)、本確認処理プログラム14Aによる一連の処理を終了し、最後の項目ではないと判定した場合(否定判定の場合)、ステップ104に戻り処理を繰り返す。
このように本実施形態によれば、スキャン画像の確認作業を、OCR処理及び1名の確認者で行う場合に、確認者はOCR処理による認識結果に依存せずに確認作業を行える。また、スキャン画像の確認作業を、2名の確認者で行う場合に、一方の確認者は他方の確認者による認識結果に依存せずに確認作業を行える。
[第2の実施形態]
上記第1の実施形態では、OCR処理及び1名の確認者で確認作業を行う形態、及び、2名の確認者で確認作業を行う形態について説明したが、本実施形態では、OCR処理及び2名の確認者で確認作業を行う形態について説明する。
図18は、第2の実施形態に係るサーバ装置11の機能的な構成の一例を示すブロック図である。
図18に示すように、本実施形態に係るサーバ装置11のCPU12Aは、第1表示制御部30、取得部32、受付部34、及び第2表示制御部36として機能する。
本実施形態に係る取得部32は、認識対象画像の認識結果としての第3文字列を更に取得する。
本実施形態に係る第2表示制御部36は、第1文字列、第2文字列、及び第3文字列を比較した結果に基づいて、最終的な認識結果を表示させる制御を更に行う。
本実施形態において、第1文字列は、第2文字列を入力した確認者とは別の確認者により入力された文字列であり、第3文字列は、OCR処理により認識された文字列である。
第2表示制御部36は、第1文字列、第2文字列、及び第3文字列の2つ以上が一致する場合、最終的な認識結果として、一致した文字列を表示させる制御を行う。また、第2表示制御部36は、第1文字列、第2文字列、及び第3文字列が不一致の場合、最終的な認識結果として、第1文字列、第2文字列、及び第3文字列のいずれか1つを確認者に選択させる制御を行う。
このように本実施形態によれば、スキャン画像の確認作業を、OCR処理及び2名の確認者で行う場合に、一方の確認者はOCR処理及び他方の確認者による認識結果に依存せずに確認作業を行える。
[第3の実施形態]
通常、上述の画像は既定のサイズで表示されるため、複雑な文字列等の確認作業の際に見づらい場合がある。特に、確信度の低い文字列の画像は見づらいことが多く、確認者が画像を誤って認識してしまう可能性が高い。これに対して、本実施形態では、確信度に応じて画像の拡大を行う形態について説明する。
図19は、第3の実施形態に係る拡大率テーブル14Cの一例を示す図である。
図19に示す拡大率テーブル14Cでは、確信度及び画数に応じて、画像の拡大率が設定されている。この拡大率テーブル14Cは、記憶部14に記憶されている。
例えば、項目毎の画像を認識して得られた文字列の文字毎に、画数を導出し、導出した画数の最大値(最大画数)を、当該画像の画数とする。あるいは、類似文字数の多さ(例えば、「邉」等)及び確信度から、画像の拡大率を変更するようにしてもよい。なお、画像の拡大率の変更は、第1表示制御部30(図5参照)により実行される。
また、確信度の低い項目である場合に閾値毎に拡大率を指定してもよいし、確信度に比例して拡大率を変更するようにしてもよい。なお、上記の類似文字や画数に関する情報は、予め用意したデータベース(DB)から取得するようにしてもよい。
また、表示領域のサイズの問題で画像を拡大した際に枠内に表示できない場合には、枠内に収まる最大拡大率で表示させてもよいし、オーバーレイ表示により拡大して表示するようにしてもよい。
図20は、第3の実施形態に係る端末装置40のUI画面の一例を示す正面図である。
図20に示すUI画面82では、上述の図19に示す拡大率テーブル14Cを用いて、複数のスキャン画像の各々が拡大された状態で表示されている。
図20に示すように、スキャン画像(わたなべ)の場合、確信度が50%、最大画数が4画である。このため、図19に示す拡大率テーブル14Cから、拡大率は120%で表示される。同様に、スキャン画像(渡邉)の場合、確信度が30%、最大画数が17画である。このため、拡大率は200%で表示される。また、スキャン画像(渡辺)の場合、確信度が70%、最大画数が11画である。このため、拡大率は150%で表示される。
このように本実施形態によれば、スキャン画像が拡大表示されるため、確認者が確認作業を行う際に、スキャン画像の視認性が向上する。
以上、実施形態に係る情報処理装置の一例としてサーバ装置を例示して説明したが、実施形態に係る情報処理装置として端末装置を適用してもよい。実施形態は、サーバ装置が備える各部の機能をコンピュータに実行させるためのプログラムの形態としてもよい。実施形態は、このプログラムを記憶したコンピュータが読み取り可能な記憶媒体の形態としてもよい。
その他、上記実施形態で説明したサーバ装置の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。
また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。
また、上記実施形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。実施形態は、例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって実現してもよい。
10、11 サーバ装置
12 制御部
12A CPU
12B ROM
12C RAM
12D I/O
14 記憶部
14A 確認処理プログラム
14B 認識結果管理テーブル
14C 拡大率テーブル
16 表示部
18 操作部
20 通信部
30 第1表示制御部
32 取得部
34 受付部
36 第2表示制御部
40、40A、40B 端末装置
50 画像読取装置
90 情報処理システム
210 文字認識部
220 文字列分類部
230 認識結果指定部
240 人手入力部
250 結果統合部

Claims (16)

  1. 認識の対象とする画像を表示させる制御を行う第1制御部と、
    前記画像の認識結果としての第1文字列を取得する取得部と、
    前記第1文字列が非表示の状態で、ユーザによる前記画像についての第2文字列の入力を受け付ける受付部と、
    前記第1文字列と前記第2文字列とを比較した結果に基づいて、前記画像についての最終的な認識結果を表示させる制御を行う第2制御部と、
    を備え
    前記取得部は、前記第1文字列の確からしさを示す確信度を取得し、
    前記第1制御部は、前記確信度及び前記画像の画数に応じて、前記画像の拡大率を変更して表示させる制御を行う
    情報処理装置。
  2. 前記第2制御部は、前記第1文字列と前記第2文字列とが一致する場合、前記最終的な認識結果として、前記一致した文字列を表示させる制御を行う請求項1に記載の情報処理装置。
  3. 前記第2制御部は、前記第1文字列と前記第2文字列とが不一致の場合、前記最終的な認識結果として、前記第1文字列及び前記第2文字列のいずれか一方を選択させる制御を行う請求項1又は2に記載の情報処理装置。
  4. 前記第2制御部は、前記第1文字列及び前記第2文字列の双方を表示させる制御を更に行う請求項3に記載の情報処理装置。
  5. 前記第2制御部は、前記第1文字列と前記第2文字列との異なる部分を強調して表示させる制御を更に行う請求項4に記載の情報処理装置。
  6. 記受付部は、前記確信度と予め定められた閾値とを比較した結果に基づいて、前記第1文字列を非表示の状態にするか否かを切り替える請求項1に記載の情報処理装置。
  7. 前記受付部は、前記確信度が前記閾値より大きい場合に、前記第1文字列を表示の状態とし、前記第2文字列の入力を受け付けない請求項6に記載の情報処理装置。
  8. 前記第2制御部は、前記最終的な認識結果として、前記第1文字列を表示させる制御を更に行う請求項7に記載の情報処理装置。
  9. 前記受付部は、前記確信度が前記閾値以下である場合に、前記第1文字列を非表示の状態とし、前記第2文字列の入力を受け付ける請求項6~8のいずれか1項に記載の情報処理装置。
  10. 前記第1文字列は、光学的文字認識処理により認識された文字列である請求項1~9のいずれか1項に記載の情報処理装置。
  11. 前記第1文字列は、前記ユーザとは別のユーザにより入力された文字列である請求項1~9のいずれか1項に記載の情報処理装置。
  12. 前記取得部は、前記画像の認識結果としての第3文字列を更に取得し、
    前記第2制御部は、前記第1文字列、前記第2文字列、及び前記第3文字列を比較した結果に基づいて、前記最終的な認識結果を表示させる制御を更に行う請求項1~9のいずれか1項に記載の情報処理装置。
  13. 前記第1文字列は、前記ユーザとは別のユーザにより入力された文字列であり、
    前記第3文字列は、光学的文字認識処理により認識された文字列である請求項12に記載の情報処理装置。
  14. 前記第2制御部は、前記第1文字列、前記第2文字列、及び前記第3文字列の2つ以上が一致する場合、前記最終的な認識結果として、前記一致した文字列を表示させる制御を行う請求項13に記載の情報処理装置。
  15. 前記第2制御部は、前記第1文字列、前記第2文字列、及び前記第3文字列が不一致の場合、前記最終的な認識結果として、前記第1文字列、前記第2文字列、及び前記第3文字列のいずれか1つを選択させる制御を行う請求項13又は14に記載の情報処理装置。
  16. コンピュータを、請求項1~15のいずれか1項に記載の情報処理装置が備える各部として機能させるためのプログラム。
JP2018176360A 2018-09-20 2018-09-20 情報処理装置及びプログラム Active JP7268316B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018176360A JP7268316B2 (ja) 2018-09-20 2018-09-20 情報処理装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018176360A JP7268316B2 (ja) 2018-09-20 2018-09-20 情報処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2020047097A JP2020047097A (ja) 2020-03-26
JP7268316B2 true JP7268316B2 (ja) 2023-05-08

Family

ID=69901453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018176360A Active JP7268316B2 (ja) 2018-09-20 2018-09-20 情報処理装置及びプログラム

Country Status (1)

Country Link
JP (1) JP7268316B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000288477A (ja) 1999-04-05 2000-10-17 Toshiba Corp コーディングシステムと郵便物区分システムとコーディング方法
JP2000298700A (ja) 2000-01-01 2000-10-24 Hitachi Ltd Ocr認識結果の補正方法
JP2008502961A (ja) 2004-06-24 2008-01-31 シーメンス アクチェンゲゼルシャフト 読取システムの動作性能データの自動検出方法
JP2016212812A (ja) 2015-05-14 2016-12-15 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
JP2017162147A (ja) 2016-03-09 2017-09-14 キヤノン株式会社 情報処理装置、プログラム及び情報処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000288477A (ja) 1999-04-05 2000-10-17 Toshiba Corp コーディングシステムと郵便物区分システムとコーディング方法
JP2000298700A (ja) 2000-01-01 2000-10-24 Hitachi Ltd Ocr認識結果の補正方法
JP2008502961A (ja) 2004-06-24 2008-01-31 シーメンス アクチェンゲゼルシャフト 読取システムの動作性能データの自動検出方法
JP2016212812A (ja) 2015-05-14 2016-12-15 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
JP2017162147A (ja) 2016-03-09 2017-09-14 キヤノン株式会社 情報処理装置、プログラム及び情報処理方法

Also Published As

Publication number Publication date
JP2020047097A (ja) 2020-03-26

Similar Documents

Publication Publication Date Title
RU2634194C1 (ru) Верификация результатов оптического распознавания символов
JP2007317022A (ja) 手書文字処理装置及び手書文字処理方法
US10706581B2 (en) Image processing apparatus for clipping and sorting images from read image according to cards and control method therefor
JP2010217996A (ja) 文字認識装置、文字認識プログラム、および文字認識方法
US11520835B2 (en) Learning system, learning method, and program
KR20210086836A (ko) 텍스트 기반 이미지 검색을 위한 이미지 데이터 처리 방법
US8750571B2 (en) Methods of object search and recognition
JP7243409B2 (ja) 情報処理装置及びプログラム
CN109074355A (zh) 用于表意字符分析的方法和系统
CN110619212B (zh) 一种基于字符串的恶意软件识别方法、系统及相关装置
JP7268316B2 (ja) 情報処理装置及びプログラム
CN110942075A (zh) 信息处理装置、存储介质及信息处理方法
CN110942068B (zh) 信息处理装置、存储介质及信息处理方法
CN112149402B (zh) 文档对比方法、装置、电子设备和计算机可读存储介质
CN103778210A (zh) 一种待分析文件的文件具体类型的判断方法及装置
JP7331551B2 (ja) 情報処理装置及び情報処理プログラム
US20210064815A1 (en) Information processing apparatus and non-transitory computer readable medium
JP7338265B2 (ja) 情報処理装置及びプログラム
JP2020047031A (ja) 文書検索装置、文書検索システム及びプログラム
JP7421384B2 (ja) 情報処理装置、修正候補表示方法、及びプログラム
JP2004206521A (ja) 文書検索装置および文書検索プログラム
JP7268311B2 (ja) 情報処理装置及びプログラム
JP2013196091A (ja) データ修正装置
JP2011100332A (ja) 姓名による属性解析方法、プログラム及びシステム
KR20160073146A (ko) 혼동행렬을 이용한 필기인식 단어 보정 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230404

R150 Certificate of patent or registration of utility model

Ref document number: 7268316

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150