JP2021047693A - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP2021047693A
JP2021047693A JP2019170518A JP2019170518A JP2021047693A JP 2021047693 A JP2021047693 A JP 2021047693A JP 2019170518 A JP2019170518 A JP 2019170518A JP 2019170518 A JP2019170518 A JP 2019170518A JP 2021047693 A JP2021047693 A JP 2021047693A
Authority
JP
Japan
Prior art keywords
family register
image data
cleansing
copy
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019170518A
Other languages
English (en)
Inventor
上條 裕義
Hiroyoshi Kamijo
裕義 上條
直浩 糠谷
naohiro Nukaya
直浩 糠谷
知寿子 仙頭
Chizuko Sendo
知寿子 仙頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2019170518A priority Critical patent/JP2021047693A/ja
Priority to US16/781,429 priority patent/US11410442B2/en
Priority to CN202010158221.7A priority patent/CN112528999A/zh
Publication of JP2021047693A publication Critical patent/JP2021047693A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/412Layout analysis of documents structured with printed lines or input boxes, e.g. business forms or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/155Removing patterns interfering with the pattern to be recognised, such as ruled lines or underlines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/414Extracting the geometrical structure, e.g. layout tree; Block segmentation, e.g. bounding boxes for graphics or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/416Extracting the logical structure, e.g. chapters, sections or page numbers; Identifying elements of the document, e.g. authors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Character Discrimination (AREA)
  • Character Input (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

【課題】画像データに表されている情報に関わらず一定の処理によって、除去対象の情報が表されていない画像データを生成する場合と比べて、除去対象の情報が表されていない画像データの生成の精度を向上させることにある。【解決手段】プロセッサは、文書を表す第1画像データを受け付け、当該文書の外観的特徴に応じた処理によって、当該第1画像データに表されている情報のうち除去対象の情報を表さず当該除去対象以外の情報を表す第2画像データを生成する。【選択図】図1

Description

本発明は、情報処理装置及びプログラムに関する。
画像データから文字を認識する場合、その認識の精度を高めるために、認識対象以外の除去対象の情報が表されていない画像データを生成することがある。
特許文献1には、帳票の種類を判定してマスク処理を変更する装置が記載されている。
特許文献2には、戸籍に関する情報を含むチェック画像を表示する装置が記載されている。
特許文献3には、認識画像の状態に応じてOCRエンジンを指定し、その指定されたOCRエンジンを用いて文字認識処理を行う装置が記載されている。
特許文献4には、項目の情報が記載されている書類の画像と、無記入の書類の画像とを位置合わせして、差分画像を求めることで、項目の情報が記載された部分の画像を抽出する装置が記載されている。
特開2017−212575号公報 特開2015−90657号公報 特開2007−65994号公報 特開2019−32645号公報
ところで、画像データに表されている情報に関わらず一定の処理によって、除去対象の情報が表されていない画像データを生成しようとすると、画像データに表されている情報によっては、除去対象の情報が表された画像データが生成されたり、認識対象の情報が表されていない画像データが生成されたりすることがある。
本発明の目的は、画像データに表されている情報に関わらず一定の処理によって、除去対象の情報が表されていない画像データを生成する場合と比べて、除去対象の情報が表されていない画像データの生成の精度を向上させることにある。もしくは、本発明の目的は、画像データに表されている情報に関わらず一定の認識処理によって認識対象となる文字を認識する場合と比べて、認識対象の文字の認識の精度を向上させることにある。
請求項1に係る発明によれば、プロセッサを有し、前記プロセッサは、文書を表す第1画像データを受け付け、前記文書の外観的特徴に応じた処理によって、前記第1画像データに表されている情報のうち除去対象の情報を表さず前記除去対象以外の情報を表す第2画像データを生成する、情報処理装置である。
請求項2に係る発明によれば、プロセッサを有し、前記プロセッサは、文書を表す画像データを受け付け、前記画像データに表されている文字を認識する処理であって前記文書の外観的特徴に応じた処理によって、前記文字を認識する、情報処理装置である。
請求項3に係る発明によれば、前記外観的特徴は、前記文書中の枠の形状である、ことを特徴とする請求項1又は請求項2に記載の情報処理装置である。
請求項4に係る発明によれば、前記外観的特徴は、前記文書中の文字の形状である、ことを特徴とする請求項1又は請求項2に記載の情報処理装置である。
請求項5に係る発明によれば、コンピュータに、文書を表す第1画像データを受け付けさせ、前記文書の外観的特徴に応じた処理によって、前記第1画像データに表されている情報のうち除去対象の情報を表さず前記除去対象以外の情報を表す第2画像データを生成させる、プログラムである。
請求項6に係る発明によれば、コンピュータに、文書を表す第1画像データを受け付けさせ、前記第1画像データに表されている文字を認識する処理であって前記文書の外観的特徴に応じた処理によって、前記文字を認識させる、プログラムである。
請求項1,5に係る発明によれば、画像データに表されている情報に関わらず一定の処理によって、除去対象の情報が表されていない画像データを生成する場合と比べて、除去対象の情報が表されていない画像データの生成の精度を向上させることができる。
請求項2,6に係る発明によれば、画像データに表されている情報に関わらず一定の認識処理によって認識対象となる文字を認識する場合と比べて、認識対象の文字の認識の精度を向上させることができる。
請求項3に係る発明によれば、文書中の枠の形状に関わらず一定の処理によって、除去対象の情報が表されていない画像データを生成する場合と比べて、除去対象の情報が表されていない画像データの生成の精度を向上させることができる。もしくは、文書中の枠の形状に関わらず一定の処理によって認識対象となる文字を認識する場合と比べて、認識対象の文字の認識の精度を向上させることができる。
請求項4に係る発明によれば、文書中の文字の形状に関わらず一定の処理によって、除去対象の情報が表されていない画像データを生成する場合と比べて、除去対象の情報が表されていない画像データの生成の精度を向上させることができる。もしくは、文書中の文字の形状に関わらず一定の処理によって認識対象となる文字を認識する場合と比べて、認識対象の文字の認識の精度を向上させることができる。
第1実施形態に係る情報処理装置の構成を示すブロック図である。 第1実施形態に係る情報処理装置が有する機能の一部を示すブロック図である。 第1実施形態の実施例1に係る処理の流れを示すフローチャートを示す図である。 戸籍謄本の一例を示す図である。 戸籍謄本の一例を示す図である。 戸籍謄本の一例を示す図である。 戸籍謄本の一例を示す図である。 クレンジング学習器を示す図である。 戸籍謄本の一例を示す図である。 戸籍謄本の一例を示す図である。 戸籍謄本の一例を示す図である。 戸籍謄本の一例を示す図である。 第1実施形態の実施例4に係る処理の流れを示すフローチャートを示す図である。 クレンジング学習器を示す図である。 戸籍謄本の一例を示す図である。 第2実施形態の実施例1に係る処理の流れを示すフローチャートを示す図である。 第2実施形態の実施例2に係る処理の流れを示すフローチャートを示す図である。 第2実施形態の実施例3に係る処理の流れを示すフローチャートを示す図である。 戸籍謄本の一例を示す図である。 文字認識学習器を示す図である。 文字認識辞書を示す図である。
<第1実施形態>
図1を参照して、第1実施形態に係る情報処理装置10について説明する。図1には、情報処理装置10のハードウェアの構成の一例が示されている。
情報処理装置10は、例えば、通信装置12と、UI14と、記憶装置16と、画像読取装置18と、プロセッサ20とを含む。もちろん、情報処理装置10は、これら以外の構成を含んでもよい。
通信装置12は通信インターフェースであり、他の装置にデータを送信する機能、及び、他の装置から送信されてきたデータを受信する機能を有する。通信装置12は、無線通信機能を有してもよいし、有線通信機能を有してもよい。通信装置12は、無線通信又は有線通信を利用することで通信経路を介して他の装置と通信してもよい。通信経路は、例えば、LAN(Local Area Network)等のネットワークやインターネット等である。通信装置12は、近距離無線通信等を利用することで他の装置と通信してもよい。近距離無線通信は、例えば、Bluetooth(登録商標)やRFID(Radio Frequency Identifier)やNFC等である。
UI14はユーザインターフェースであり、表示装置と操作装置とを含む。表示装置は、液晶ディスプレイやELディスプレイ等である。操作装置は、キーボードや入力キーや操作パネル等である。UI14は、表示装置と操作装置とを兼ね備えたタッチパネル等のUIであってもよい。
記憶装置16は、各種のデータを記憶する1又は複数の記憶領域を構成する装置である。記憶装置16は、例えば、ハードディスクドライブ、各種のメモリ(例えばRAMやDRAMやROM等)、その他の記憶装置(例えば光ディスク等)、又は、それらの組み合わせである。1又は複数の記憶装置16が情報処理装置10に含まれている。
画像読取装置18は、画像データを読み取るように構成されている装置である。画像読取装置18は、イメージスキャナであってもよいし、カメラ等の撮影装置であってもよい。イメージスキャナは、光学的に読取対象をスキャンすることで当該読取対象を表す画像データを生成するように構成されている装置である。撮影装置は、読取対象を撮影することで当該読取対象を表す画像データを生成するように構成されている装置である。読取対象は、例えば文書である。画像読取装置18によって文書がスキャン又は撮影されることで、当該文書を表す画像データが生成される。ここでの文書は、文字が記載や印刷されている用紙に限られず、文書が記載や印刷されている物体であればどのような物であってもよい。例えば、曲面を有する物体の当該曲面に文字列が印刷されており、その文字列を表す画像データが生成されてもよい。文書は、例えば、戸籍謄本や住民票等の各種証明書や、各種の伝票(例えば宅配便に用いられる伝票等)等である。もちろん、これら以外の物体が、文書の概念の範疇に含まれてもよい。
プロセッサ20は、画像データに対してクレンジング処理を実行するように構成されている。クレンジング処理は、画像データに表されている情報のうち除去対象の情報を表さず除去対象以外の情報を表す画像データを生成する処理である。クレンジング処理は、画像データから除去対象の情報を除去することで、除去対象の情報を表さず除去対象以外の情報を表す画像データを生成する処理であってもよいし、画像データから除去対象以外の情報を抽出し、その抽出された情報を表す画像データを生成する処理であってもよい。クレンジング処理は、画像データを加工することで、除去対象の情報を表さず除去対象以外の情報を表す画像データを生成してもよい。除去対象の情報を表さず除去対象以外の情報を表す画像データを生成するという意味で、クレンジング処理はフィルタ処理であるともいえる。画像データに表されている情報は、例えば、画像データに表されている文字や、文字以外の図形(例えば線や枠等)等である。
クレンジング処理の対象となる画像データは、文書を表す画像データである。当該画像データは、画像読取装置18によって生成された画像データであってもよいし、情報処理装置10以外の他の装置から情報処理装置10に送信されて通信装置12によって受信された画像データであってもよいし、可搬性の記憶媒体(例えば光ディスク等)に記憶されて当該記憶媒体から情報処理装置10に入力された画像データであってもよい。
画像読取装置18は、情報処理装置10に設けられていなくてもよい。この場合、プロセッサ20は、通信装置12によって受信された画像データや、可搬性の記憶媒体から情報処理装置10に入力された画像データに対してクレンジング処理を実行する。
なお、クレンジング処理の対象となる画像データは、BMP形式やJPEG形式やPDF形式等を有するデータであってもよいし、テキストデータであってもよい。
例えば、クレンジング処理は、文字認識処理の前に実行される前処理である。文字認識処理は、画像データから文字を認識する処理である。クレンジング処理は、例えば、画像データから文字が認識され易くするために実行される処理である。例えば、クレンジング処理が実行された後の画像データに対して文字認識処理が実行される。文字認識処理として、例えば、OCR(Optical Character Recognition)処理が用いられる。例えば、文書に対してOCR処理が実行されることで、当該文書から文字が認識される。
除去対象の情報は、文字認識処理によって認識されるべきである文字以外の情報である。除去対象の情報は、例えば、画像データに表されている文書の種類や、文書が作成された時代や、文書の作成者や、文書の用途等に応じて変わり得る情報である。
以下では、クレンジング処理が実行される前の画像データを「第1画像データ」と称し、クレンジング処理が実行された後の画像データを「第2画像データ」と称することとする。
プロセッサ20は、文書を表す第1画像データに表されている情報のうち除去対象以外の特定の情報に応じたクレンジング処理によって、当該第1画像データに表されている情報のうち除去対象の情報を表さず除去対象以外の情報を表す第2画像データを生成する。つまり、プロセッサ20は、除去対象以外の特定の情報に応じてクレンジング処理を変更して、クレンジング処理を第1画像データに対して実行する。プロセッサ20は、特定の情報に応じて、クレンジング処理の方式(例えばクレンジング処理のアルゴリズム)を変更してもよいし、クレンジング処理のエンジンを変更してもよい。クレンジング処理のエンジンの概念の範疇には、クレンジング処理を人工知能によって実現するクレンジング学習器が含まれてもよい。例えば、文書の一例である戸籍謄本には、偽造防止やコピー防止等を目的として、透かし文字や透かし図形等の地紋が記載される場合がある。戸籍謄本を表す第1画像データに対してクレンジング処理を実行することで、第1画像データから地紋が消され、地紋以外の文字列や枠等の図形が消されない。つまり、地紋を表さず、地紋以外の文字列や枠等の図形を表す第2画像データが生成される。
例えば、特定の情報毎に、特定の情報とクレンジング処理とが紐付けられており、プロセッサ20は、第1画像データに表されている特定の情報に紐付けられているクレンジング処理を当該第1画像データに実行する。
特定の情報は、除去対象の情報に関連する情報であり、例えば、除去対象の情報が有する特徴に対応する情報や、除去対象の情報に関連する事柄に対応する情報や、除去対象の情報が有する特徴が反映された情報や、除去対象の情報に関連する事柄が反映された情報等である。特定の情報は、除去対象の情報に応じて変わり得る情報であってもよい。つまり、特定の情報は、除去対象の情報毎に異なる情報であってもよい。除去対象の情報が有する特徴や、除去対象の情報に関連する事項は、除去対象の情報に応じて変わる場合がある。除去対象の情報は、画像データに表されている文書の種類や、文書が作成された時代や、文書の作成者や、文書の用途等に応じて変わり得る情報であるため、除去対象の情報に関連する特定の情報も、文書の種類や、文書が作成された時代や、文書の作成者や、文書の用途等に応じて変わり得る情報である。
特定の情報は、例えば、第1画像データに表されている文書に記載されている特定の文字列である。特定の文字列は、例えば、特定のキーワードや、複数の特定のキーワードの組み合わせ等である。特定の文字列は、除去対象の情報が有する特徴に対応する文字列や、除去対象の情報に関連する事項に対応する文字列や、除去対象の情報が有する特徴が反映された文字列や、除去対象の情報に関連する事項が反映された文字列等である。特定の文字列は、除去対象の情報に応じて変わり得る文字列である。例えば、除去対象の情報に応じて、特定の文字列であるキーワードや複数のキーワードの組み合わせ等が変わり得る。
特定の文字列は、第1画像データに表されている文書において特定の位置に記載されている文字列であってもよい。特定の位置は、除去対象の情報に応じて変わり得る特定の文字列が記載されると推定される位置である。
また、特定の情報は、第1画像データに表されている特定の文字列に対応する対応文字列であってもよい。対応文字列は、例えば、特定の文字列の周囲に記載されている文字列である。
プロセッサ20は、特定の文字列に関連する属性に応じてクレンジング処理を変更してもよい。当該属性は、例えば、第1画像データに表されている文書において特定の文字列が記載されている位置である。当該位置は、除去対象の情報が有する特徴に対応する位置や、除去対象の情報に関連する事柄に対応する位置や、除去対象の情報が有する特徴が反映された位置や、除去対象の情報に関連する事柄が反映された位置等である。当該位置は、除去対象の情報に応じて変わり得る位置である。
また、プロセッサ20は、画像データに対して文字認識処理を実行することで、当該画像データから文字を認識してもよい。例えば、プロセッサ20は、上記の第2画像データに対して文字認識処理を実行することで、当該第2画像データから文字を認識する。文字認識処理は、人工知能を用いた学習器によって実現されてもよい。
文字認識処理は、情報処理装置10以外の他の装置(例えば、サーバや、パーソナルコンピュータ(以下、「PC」と称する)等)によって実行されてもよい。例えば、情報処理装置10にてクレンジング処理が実行されることで第2画像データが生成され、当該第2画像データが他の装置に送信され、当該他の装置にて、当該第2画像データに対して文字認識処理が実行されることで、当該第2画像データから文字が認識されてもよい。
情報処理装置10は、イメージスキャナそのものであってもよいし、イメージスキャナやプリンタ等を有する画像形成装置(例えば複合機)であってもよいし、イメージスキャナを有しておらずカメラを有する装置(例えば、PCやタブレットPCやスマートフォンや携帯電話やその他の装置)であってもよい。もちろん、上述したように、情報処理装置10は、イメージスキャナやカメラ等の画像読取装置18を有していない装置(例えばPC等)であってもよい。
以下の説明では、情報処理装置10は、画像読取装置18と文字認識機能とを有するものとする。つまり、情報処理装置10は、文書をスキャン又は撮影することで画像データを生成し、当該画像データから文字を認識するように構成されているものとする。
以下、図2を参照して、情報処理装置10が有する機能の一部について説明する。図2には、情報処理装置10が有する機能の一部が示されている。図2に示されている機能の一部は、クレンジング処理についての機能と文字認識処理についての機能である。
情報処理装置10は、クレンジング学習器22と、文字認識学習器24と、文字認識辞書26とを有する。クレンジング学習器22は、クレンジング処理を実行するように構成されている。文字認識学習器24は、文字認識処理を実行するように構成されている。文字認識辞書26は、文字認識処理のために用いられる文字が登録されている辞書のデータである。具体的には、文字認識辞書26は、画像データから文字を認識するために、画像データから抽出された文字の特徴と照合される文字が登録されている辞書のデータである。なお、文字認識辞書26は、文字認識学習器24に含まれてもよい。
クレンジング学習器22及び文字認識学習器24は、例えば、人工知能によって実現されてもよい。この場合、クレンジング学習器22は、人工知能が学習した内容に応じて異なるクレンジング処理を実行することになる。同様に、文字認識学習器24は、人工知能が学習した内容に応じて異なる文字認識処理を実行することになる。人工知能に用いられるアルゴリズムは特に限定されず、どのようなアルゴリズムが用いられてもよい。アルゴリズムとして、例えば機械学習が用いられる。機械学習として、教師あり学習が用いられてもよいし、教師なし学習が用いられてもよいし、強化学習が用いられてもよい。具体的には、ディープラーニング(例えば、多層パーセプトロン、畳み込みニューラルネットワーク、再帰型ニューラルネットワーク、オートエンコーダ、制限ボルツマンマシン等)、パーセプトロン、バックプロパゲーション、アソシアトロン、サポートベクタマシン、決定木、k近傍法、線形回帰、自己組織マップ、ボルツマンマシン、主成分分析、クラスタ分析、又は、Qラーニング等が用いられてもよい。なお、機械学習以外のアルゴリズムとして、遺伝的アルゴリズムや山登り法等が用いられてもよい。もちろん、これら以外のアルゴリズムが用いられてもよい。
第1実施形態においては、情報処理装置10は、複数の異なるクレンジング学習器22を有する。各クレンジング学習器22は、異なるクレンジング処理を実行する。例えば、各クレンジング学習器22は、文書の種類毎に異なるクレンジング学習器であってもよいし、文書が作成された時代毎に異なるクレンジング学習器であってもよいし、文書の作成者毎に異なるクレンジング学習器であってもよいし、文書の用途毎に異なるクレンジング学習器であってもよい。
例えば、ある種類の文書に用いられるクレンジング学習器22は、当該種類の文書に特化したクレンジング学習器であり、当該種類の文書を表す第1画像データから、当該種類の文書に含まれている除去対象の情報を表さず除去対象以外の情報を表す第2画像データを生成するように構成されている。当該クレンジング学習器22が人工知能によって実現される場合、当該クレンジング学習器22を実現する人工知能は、当該種類の文書に含まれている除去対象の情報を表さず除去対象以外の情報を表す第2画像データを生成するように学習させられている。
具体例を挙げて説明すると、文書である戸籍謄本用のクレンジング学習器22は、戸籍謄本に特化したクレンジング学習器である。戸籍謄本用のクレンジング学習器22は、戸籍謄本を表す第1画像データから、当該戸籍謄本に含まれている除去対象の情報を表さず除去対象以外の情報を表す第2画像データを生成するように構成されている。戸籍謄本用のクレンジング学習器22が人工知能によって実現される場合、戸籍謄本用のクレンジング学習器22を実現する人工知能は、戸籍謄本に含まれている除去対象の情報を表さず除去対象以外の情報を表す第2画像データを生成するように学習させられている。
また、文書である伝票用のクレンジング学習器22は、伝票に特化したクレンジング学習器である。伝票用のクレンジング学習器22は、伝票を表す第1画像データから、当該伝票に含まれている除去対象の情報を表さず除去対象以外の情報を表す第2画像データを生成するように構成されている。伝票用のクレンジング学習器22が人工知能によって実現される場合、伝票用のクレンジング学習器22を実現する人工知能は、伝票に含まれている除去対象の情報を表さず除去対象以外の情報を表す第2画像データを生成するように学習させられている。
また、各クレンジング学習器22は、除去対象の情報毎に異なるクレンジング学習器である。例えば、除去対象の情報に関連する特定の情報毎に異なるクレンジング学習器22が作成されており、クレンジング学習器22には、当該クレンジング学習器22によって表されなくなる除去対象の情報に関連する特定の情報が紐付けられている。ある特定の情報が紐付けられているクレンジング学習器22は、当該特定の情報に関連する除去対象の情報に特化したクレンジング学習器である。
以下、第1実施形態の各実施例について説明する。
(第1実施形態の実施例1)
図3を参照して、第1実施形態の実施例1について説明する。図3には、第1実施形態の実施例1に係る処理の流れを示すフローチャートが示されている。
まず、画像読取装置18によって文書が読み取られ、当該文書を表す第1画像データが生成される(S01)。
次に、プロセッサ20は、第1画像データから特定の情報(例えばキーワード等)を抽出する(S02)。例えば、プロセッサ20は、第1画像データを対象として、画像補正、2値化、レイアウト解析及び表構造解析等を実行し、特定の情報を抽出するための簡易な文字認識処理を実行することで、当該第1画像データから特定の情報を抽出する。簡易な文字認識処理は、例えば、文字認識学習器24が実行する文字認識処理ほど文字認識の精度は高くないが、特定の情報を抽出し得る程度の精度を有する文字認識処理である。
次に、プロセッサ20は、複数のクレンジング学習器22の中から、読み取られた文書の種類に特化したクレンジング学習器22であって、第1画像データから抽出された特定の情報が紐付けられているクレンジング学習器22を選択する(S03)。つまり、プロセッサ20は、第1画像データから抽出された特定の情報に関連する除去対象の情報に特化したクレンジング学習器22を選択する。なお、ユーザがUI14を操作することで文書の種類を指定してもよいし、プロセッサ20が第1画像データを解析することで文書の種類を特定してもよい。
次に、プロセッサ20は、S03にて選択されたクレンジング学習器22を用いて第1画像データにクレンジング処理を実行する(S04)。これにより、除去対象の情報を表さず除去対象以外の情報を表す第2画像データが生成される。
次に、プロセッサ20は、文字認識学習器24を用いて第2画像データに文字認識処理を実行する(S05)。文字認識学習器24は、例えば、第2画像データに表されている文書のレイアウトを解析し、当該文書から行や列を抽出し、その抽出した行や列から文字を抽出し、その抽出した文字を正規化し、正規化された文字の特徴を抽出し、文字認識辞書26に登録されている文字と抽出された文字の特徴とをマッチングすることで、第2画像データから文字を認識する。また、文字認識学習器24は、文字列の意味を解析する知識処理を実行してもよい。なお、文字認識処理は、情報処理装置10以外の他の装置によって実行されてもよい。
以下、第1実施形態の実施例1の具体例について説明する。第1実施形態の実施例1では、読取対象の文書に記載されている特定のキーワード、又は、複数の特定のキーワードの組み合わせが、特定の情報として用いられる。プロセッサ20は、特定のキーワード又は複数の特定のキーワードの組み合わせに応じたクレンジング学習器22を選択してクレンジング処理を実行する。
ここでは一例として、読取対象の文書は戸籍謄本であり、戸籍謄本を表す画像データにクレンジング処理を実行するものとする。
ここで、戸籍の様式について説明する。戸籍の様式には、平成6年式戸籍、昭和23年式戸籍、大正4年式戸籍、及び、明治31年式戸籍がある。なお、明治19年式戸籍が用いられる場合もあるが、ここではその説明を省略する。以下では、平成6年式戸籍の様式を有する戸籍謄本を「平成6年式戸籍謄本」と称し、昭和23年式戸籍の様式を有する戸籍謄本を「昭和23年式戸籍謄本」と称し、大正4年式戸籍の様式を有する戸籍謄本を「大正4年式戸籍謄本」と称し、明治31年式戸籍の様式を有する戸籍謄本を「明治31年式戸籍謄本」と称することとする。
一般的に、平成6年式戸籍は、活字によって作成され、昭和23年式戸籍は、活字又は手書きによって作成され、大正4年式戸籍は、活字又は手書きによって作成され、明治31年式戸籍は、活字又は手書きによって作成されている。もちろん、戸籍謄本を発行する地方自治体(例えば都道府県や市区町村等)によっては、これらとは異なる戸籍謄本が用いられる場合もあり得る。
図4には、平成6年式戸籍謄本の一例が示されている。図4に示されている平成6年式戸籍謄本28は、一般的な平成6年式戸籍謄本の一例に過ぎない。戸籍謄本を発行する地方公共団体(例えば都道府県や市区町村等)によっては、戸籍謄本の様式が若干異なることがあるが、平成6年式戸籍謄本の基本的な様式は、平成6年式戸籍謄本28の様式と同じである。
平成6年式戸籍謄本28は、基本的には、本籍と筆頭者の氏名とが記載される記載欄28a、戸籍事項が記載される記載欄28b、除籍された戸籍記載者の名等が記載される記載欄28c、戸籍記載者の名等が記載される記載欄28d、身分事項が記載される記載欄28e、及び、地方公共団体が記載すべき記載欄28f等を有する。
記載欄28bには、符号28gが指し示すように、文字列「改製事由」の右側に、文字列「平成6年法務省令第51号附則第2条第1項による改製」が記載されている。
除籍された戸籍記載者の氏名等が記入される記載欄28cには、文字列「戸籍に記載されている者」の下側に、「除籍」を表す除籍マーク28hが記載されている。
記載欄28c等には、符号28iが指し示すように、文字列「続柄」が記載されている。
記載欄28fには、符号28jが指し示すように、文字列「発行番号」が記載されており、その文字列「発行番号」の右側に番号が記載されている
符号28mが指し示すように、符号28kが指し示す文字列「本籍」の右側に、住所を表す文字列が記載されている。
平成6年式戸籍謄本28では、文字を書き進める方向は横書きである。
図5には、昭和23年式戸籍謄本の一例が示されている。図5に示されている昭和23年式戸籍謄本30は、一般的は昭和23年式戸籍謄本の一例に過ぎない。戸籍謄本を発行する地方公共団体(例えば都道府県や市区町村等)によっては、戸籍謄本の様式が若干異なることがあるが、昭和23年式戸籍謄本の基本的な様式は、昭和23年式戸籍謄本30の様式と同じである。
昭和23年式戸籍謄本30は、基本的には、欄外表示30a、本籍地と筆頭者の氏名とが記載される記載欄30b、戸籍事項が記載される記載欄30c、身分事項が記載される記載欄30d、筆頭者の名が記載される記載欄30e、家族の身分事項が記載される記載欄30f、及び、地方公共団体が記載すべき記載欄30g等を有する。
除籍された者の名が記載されている記載欄には、バツ印が記載される。例えば、記載欄30eに名が記入されている者は除籍されているため、記載欄30eに、符号30hが指し示すバツ印が記載されている。
符号30iが指し示すように、文字列「名氏」が記載されている。また、記載欄30bには、符号30jが指し示すように、文字列「籍本」の下側に、住所を表す文字列が記載されている。
昭和23年式戸籍謄本30では、文字を書き進める方向は、縦書きである。また、昭和23年式戸籍謄本30の全体は、A4サイズの横型の形状を有する。
図6には、大正4年式戸籍謄本の一例が示されている。図6に示されている大正4年式戸籍謄本32は、一般的な大正4年式戸籍謄本の一例に過ぎない。戸籍謄本を発行する地方公共団体(例えば都道府県や市区町村等)によっては、戸籍謄本の様式が若干異なることがあるが、大正4年式戸籍謄本の基本的な様式は、大正4年式戸籍謄本32の様式と同じである。
大正4年式戸籍謄本32は、基本的には、欄外表示32a、本籍地と前戸主の氏名とが記載される記載欄32b、文字列「戸主」が記載される記載欄32c、戸主の事項が記載される記載欄32d、戸主名が記載される記載欄32e、家族の事項が記載される記載欄32f、及び、役所が記載すべき記載欄32g等を有する。
文字列「籍本」の下側に、符号32hが指し示すように、住所を表す文字列が記載されており、更に下側には、符号32iが指し示すように、文字列「主戸前」が記載されている。このように、大正4年式戸籍謄本32には、戸籍の最初に記載されている者の氏名を「前戸主」と称している。また、家長を「戸主」と称している。
大正4年式戸籍謄本においては、一般的に、平仮名は存在するが、昭和23年式戸籍謄本や平成6年式戸籍謄本と比べると、平仮名の数は少ない。
図7には、明治31年式戸籍謄本の一例が示されている。図7に示されている明治31年式戸籍謄本34は、一般的な明治31年式戸籍謄本の一例に過ぎない。戸籍謄本を発行する地方公共団体(例えば都道府県や市区町村等)によっては、戸籍謄本の様式が若干異なることがあるが、明治31年式戸籍謄本の基本的な様式は、明治31年式戸籍謄本34の様式と同じである。
明治31年式戸籍謄本34は、基本的には、本籍地と前戸主の氏名とが記載される記載欄34a、文字列「戸主」が記載される記載欄34b、戸主の事項が記載される記載欄34c、戸主名が記載される記載欄34d、及び、家族の事項が記載される記載欄34e等を有する。
文字列「地籍本」の下側に、符号34fが指し示すように、住所を表す文字列が記載されており、更に下側には、符号34gが指し示すように、文字列「主戸前」が記載されている。このように、明治31年式戸籍謄本34には、戸籍の最初に記載されている者の氏名を「前戸主」と称している。また、家長を「戸主」と称している。
戸主名が記載される記載欄34dの左側に、符号34hが指し示すように、文字列「戸主ト為タル原因及び年月日」が記載されており、その欄には、戸主となるための原因及び年月日が記載される。また、旧漢字が用いられることがある。例えば、文字「県」の旧漢字が用いられる。
明治31年式戸籍謄本においては、一般的に、大正4年式戸籍謄本と比べると、平仮名の数は少ない。一般的に、明治31年式戸籍謄本の上段には平仮名は使われておらず、下段に記載された氏名の一部に平仮名が使用される。
偽造防止やコピー防止等を目的として、透かし文字や透かし図形等の地紋が、戸籍謄本の背景に記載される場合がある。地紋は、地紋以外の文字の認識率を低下させる要因となる場合があるため、除去対象の情報の一例に該当する。また、地紋以外の特定のキーワード又は複数の特定のキーワードの組み合わせが、特定の情報として用いられる。
図4から図7に示すように、戸籍謄本の構造や、戸籍謄本に記載されている内容は、その戸籍謄本が作成された時代毎に異なっている。また、地紋も、その地紋が記載されている戸籍謄本が作成された時代毎に異なっている。戸籍謄本が作成された時代を反映した特定のキーワード又は複数の特定のキーワードの組み合わせを抽出することで、当該戸籍謄本が作成された時代が推定される。つまり、読取対象の戸籍謄本が、平成6年式戸籍謄本、昭和23年式戸籍謄本、大正4年式戸籍謄本、又は、明治31年式戸籍謄本のいずれかであることが推定される。以下、各戸籍謄本に記載されているキーワードについて説明する。
図4に示すように、平成6年式戸籍謄本28には、符号28kが指し示すように、文字列「本籍」が記載されており、当該文字列「本籍」の下側に文字列「氏名」が記載されている。
図5に示すように、昭和23年式戸籍謄本30の記載欄30bには、文字列「籍本」が記載されており、当該文字列「籍本」の下側に記載された住所の文字列の下側に、文字列「名氏」が記載されている。
図6に示すように、大正4年式戸籍謄本32の記載欄32bには、文字列「籍本」が記載されており、当該文字列「籍本」の下側に記載された住所の文字列の下側に、文字列「主戸前」が記載されている。
図7に示すように、明治31年式戸籍謄本34の記載欄34aには、文字列「地籍本」が記載されており、当該文字列「地籍本」の下側に記載された住所の文字列の下側に、文字列「主戸前」が記載されている。
各戸籍謄本に記載されている上記の文字列を比較すると、各文字列に差異があることが分かる。各文字列を整理すると以下のようになる。
・平成6年式戸籍謄本 :文字列「本籍」と文字列「氏名」
・昭和23年式戸籍謄本:文字列「籍本」と文字列「名氏」
・大正4年式戸籍謄本 :文字列「籍本」と文字列「主戸前」
・明治31年式戸籍謄本:文字列「地籍本」と文字列「主戸前」
つまり、文字列「本籍」と文字列「氏名」との組み合わせは、平成6年式戸籍謄本28の時代を反映した複数の特定のキーワードの組み合わせであるといえる。
また、文字列「籍本」と文字列「名氏」との組み合わせは、昭和23年式戸籍謄本30の時代を反映した複数の特定のキーワードの組み合わせであるといえる。
また、文字列「籍本」と文字列「主戸前」との組み合わせは、大正4年式戸籍謄本32の時代を反映した複数の特定のキーワードの組み合わせであるといえる。
また、文字列「地籍本」と文字列「主戸前」との組み合わせは、明治31年式戸籍謄本34の時代を反映した複数の特定のキーワードの組み合わせであるといえる。
上記のように、戸籍謄本の時代によって特定のキーワードが異なるため、読取対象の戸籍謄本を表す第1画像データから抽出された特定のキーワード又は複数の特定のキーワードの組み合わせに基づいて、当該戸籍謄本の時代が推定される。
プロセッサ20は、第1画像データから抽出された特定のキーワード又は複数の特定のキーワードの組み合わせに応じたクレンジング学習器22を選択し、選択したクレンジング学習器22を用いてクレンジング処理を実行する。
第1画像データから抽出された特定のキーワード又は複数の特定のキーワードの組み合わせに応じたクレンジング学習器22は、当該特定のキーワード又は当該複数の特定のキーワードの組み合わせが抽出された戸籍謄本に特化したクレンジング学習器22である。特定のキーワード又は複数の特定のキーワードの組み合わせは、戸籍謄本の時代を反映した文字列であるため、当該戸籍謄本に特化したクレンジング学習器22は、当該戸籍謄本の時代に特化したクレンジング学習器であるといえる。その戸籍謄本に特化したクレンジング学習器22とは、当該戸籍謄本を表す第1画像データから、地紋を表さず地紋以外の情報を表す第2画像データを生成するように学習されたクレンジング学習器である。
図8には、各時代の戸籍謄本に特化したクレンジング学習器22が示されている。
クレンジング学習器22Aは、平成6年式戸籍謄本に特化したクレンジング学習器である。クレンジング学習器22Aには、複数の特定のキーワードの組み合わせである、文字列「本籍」と文字列「氏名」との組み合わせが予め紐付けられている。
クレンジング学習器22Bは、昭和23年式戸籍謄本に特化したクレンジング学習器である。クレンジング学習器22Bには、複数の特定のキーワードの組み合わせである、文字列「籍本」と文字列「名氏」との組み合わせが予め紐付けられている。
クレンジング学習器22Cは、大正4年式戸籍謄本に特化したクレンジング学習器である。クレンジング学習器22Cには、複数の特定のキーワードの組み合わせである、文字列「籍本」と文字列「主戸前」との組み合わせが予め紐付けられている。
クレンジング学習器22Dは、明治31年式戸籍謄本に特化したクレンジング学習器である。クレンジング学習器22Dには、複数の特定のキーワードの組み合わせである、文字列「地籍本」と文字列「主戸前」との組み合わせが予め紐付けられている。
例えば、各時代の戸籍謄本によって、地紋の形状、大きさ及び位置等が異なる。従って、ある時代の戸籍謄本に記載されている地紋の形状、大きさ及び位置等を、当該時代の戸籍謄本に特化したクレンジング学習器22に予め学習させておくことで、当該クレンジング学習器22は、当該時代の戸籍謄本を表す第1画像データから、地紋を表さず地紋以外の情報を表す第2画像データを生成することができるようになる。クレンジング学習器22は、地紋を削除することで第2画像データを生成してもよいし、第1画像データから地紋以外の情報を抽出し、その抽出した情報を表す第2画像データを生成してもよい。
例えば、クレンジング学習器22Aは、平成6年式戸籍謄本に記載される地紋の形状、大きさ及び位置等を予め学習し、平成6年式戸籍謄本を表す第1画像データから、地紋を表さす地紋以外の情報を表す第2画像データを生成するように予め学習したクレンジング学習器である。
同様に、クレンジング学習器22Bは、昭和23年式戸籍謄本に記載される地紋の形状、大きさ及び位置等を予め学習し、昭和23年式戸籍謄本を表す第1画像データから、地紋を表さず地紋以外の情報を表す第2画像データを生成するように予め学習したクレンジング学習器である。
同様に、クレンジング学習器22Cは、大正4年式戸籍謄本に記載される地紋の形状、大きさ及び位置等を予め学習し、大正4年式戸籍謄本を表す第1画像データから、地紋を表さず地紋以外の情報を表す第2画像データを生成するように予め学習したクレンジング学習器である。
同様に、クレンジング学習器22Dは、明治31年式戸籍謄本に記載される地紋の形状、大きさ及び位置等を予め学習し、明治31年式戸籍謄本を表す第1画像データから、地紋を表さず地紋以外の情報を表す第2画像データを生成するように予め学習したクレンジング学習器である。
ここでは一例として、各クレンジング学習器22は、少なくとも地紋以外の文字を表す第2画像データを生成するように予め学習されている。各クレンジング学習器22の学習の程度や学習に用いられる教師データ等によっては、第2画像データに、文字以外の情報である罫線等が表されることがある。また、各クレンジング学習器22の学習の程度や学習に用いられる教師データ等によっては、下地や背景以外の情報(例えば文字の上から付いた汚れ等)が除去されることがある。
図9を参照して、処理の一例について説明する。図9には、大正4年式戸籍謄本32が示されている。この大正4年式戸籍謄本32が読取対象の文書である。大正4年式戸籍謄本32には、地紋32jが印刷されている。地紋32jは、複数の文字列「禁複写」によって構成されている。各文字列「禁複写」は、例えば透かし文字である。
まず、地紋32jが重畳された状態の大正4年式戸籍謄本32を画像読取装置18によって読み取る。これにより、地紋32jが重畳された状態の大正4年式戸籍謄本32を表す第1画像データが生成される。
次に、プロセッサ20は、画像補正、2値化、レイアウト解析及び表構造解析等を実行し、簡易な文字認識処理を実行することで、当該第1画像データから特定のキーワード又は複数の特定のキーワードを抽出する。
例えば、符号32kが指し示す文字列「籍本」と、符号32mが指し示す文字列「主戸前」とが抽出された場合、読取対象の戸籍謄本は大正4年式戸籍謄本32であると推定される。
次に、図8に示すように、プロセッサ20は、クレンジング学習器22A,22B,22C,22Dの中から、複数の特定のキーワードの組み合わせである、文字列「籍本」と文字列「主戸前」との組み合わせが紐付けられているクレンジング学習器22Cを選択する。これにより、大正4年式戸籍謄本32に特化したクレンジング学習器22Cが選択される。
プロセッサ20は、第1画像データに対してクレンジング学習器22Cを用いてクレンジング処理を実行することで、第2画像データを生成する。このようにして生成された第2画像データは、地紋32jが表されておらず、地紋32j以外の文字が表されている画像データである。例えば、図6に示すように、地紋32jが表されていない大正4年式戸籍謄本32を表す第2画像データが生成される。なお、クレンジング学習器22Cの学習の程度や学習に用いられる教師データ等によっては、罫線等が表されていない第2画像データが生成される場合がある。このようにして生成された第2画像データに対して文字認識処理を実行することで、地紋32jが表されていない第2画像データから文字が認識される。
大正4年式戸籍謄本32以外の戸籍謄本についても同様に、抽出された特定のキーワード又は複数の特定のキーワードの組み合わせに紐付けられたクレンジング学習器22が選択されてクレンジング処理が実行される。
(第1実施形態の実施例2)
第1実施形態の実施例2では、プロセッサ20は、第1画像データに表されている文書において特定の位置に記載されている特定の情報(例えばキーワード等)を抽出し、その抽出された特定の情報が紐付けられているクレンジング学習器22を用いてクレンジング処理を実行する。
以下、具体例を挙げて第1実施形態の実施例2について詳しく説明する。第1実施形態の実施例1の具体例と同様に、ここでは一例として、読取対象の文書は戸籍謄本であり、特定の情報は、戸籍謄本の時代を反映した複数の特定のキーワードの組み合わせである。
昭和23年式戸籍謄本30、大正4年式戸籍謄本32、及び、明治31年式戸籍謄本34は、ほぼ同じ構造を有している場合があるが、記載されているキーワードが異なる場合がある。第1実施形態の実施例1にて説明したように、これらの戸籍謄本の間では、複数の特定のキーワードの組み合わせが異なる。
第1実施形態の実施例2では、複数の特定のキーワードが検出される座標を予め定めておき、プロセッサ20は、当該座標から複数の特定のキーワードの組み合わせを検出し、その組み合わせに紐付けられているクレンジング学習器22を用いてクレンジング処理を実行する。
図10から図12には、キーワードが検出される座標が示されている。図10には、昭和23年式戸籍謄本30が示されており、図11には、大正4年式戸籍謄本32が示されており、図12には、明治31年式戸籍謄本34が示されている。
各戸籍謄本において、ほぼ同じ座標が、キーワードが検出される座標として定められている。例えば、昭和23年式戸籍謄本30においては、符号30k,30mのそれぞれが指し示す太枠の領域が、特定のキーワードが検出される領域であり、その領域の座標が定められている。大正4年式戸籍謄本32においては、符号32n,32pのそれぞれが指し示す太枠の領域が、特定のキーワードが検出される領域であり、その領域の座標が定められている。明治31年式戸籍謄本34においては、符号34i,34jのそれぞれが指し示す太枠の領域が、特定のキーワードが検出される領域である。
例えば、上記のようにして定められた座標から、文字列「地籍本」と文字列「主戸前」との組み合わせが検出された場合、読取対象の戸籍謄本は、明治31年式戸籍謄本34であると推定される。プロセッサ20は、文字列「地籍本」と文字列「主戸前」との組み合わせに紐付けられているクレンジング学習器22Dを用いてクレンジング処理を実行する。他の時代の戸籍謄本についても同様である。
(第1実施形態の実施例3)
第1実施形態の実施例3では、プロセッサ20は、第1画像データに表されている文書において特定の情報(例えばキーワード等)が記載されている位置に応じたクレンジング学習器22を選択し、その選択したクレンジング学習器22を用いてクレンジング処理を実行する。
以下、具体例を挙げて第1実施形態の実施例3について詳しく説明する。第1実施形態の実施例1の具体例と同様に、ここでは一例として、読取対象の文書は戸籍謄本であり、特定の情報は、戸籍謄本の時代を反映した特定のキーワードである。
図4に示すように、平成6年式戸籍謄本28においては、文字列「本籍」という特定のキーワードが左上側の位置に記載されている。図5に示すように、昭和23年式戸籍謄本30においては、文字列「籍本」という特定のキーワードが右上側の位置に記載されている。図6に示すように、大正4年式戸籍謄本32においては、文字列「籍本」という特定のキーワードが右上側の位置に記載されている。図7に示すように、明治31年式戸籍謄本34においては、文字列「地籍本」という特定のキーワードが右上側の位置に記載されている。このように、戸籍謄本の時代によって、特定のキーワードが記載されている位置が異なり、特定のキーワードが記載されている位置は、戸籍謄本の時代を反映しているといえる。
平成6年式戸籍謄本に特化したクレンジング学習器22Aには、文字列「本籍」と、その文字列「本籍」が記載されている位置(例えば左上側の位置)を示す情報とが予め紐付けられている。
昭和23年式戸籍謄本に特化したクレンジング学習器22Bには、文字列「籍本」と、その文字列「籍本」が記載されている位置(例えば右上側の位置)を示す情報とが予め紐付けられている。
大正4年式戸籍謄本に特化したクレンジング学習器22Cには、文字列「籍本」と、その文字列「籍本」が記載されている位置(例えば右上側の位置)を示す情報とが予め紐付けられている。
明治31年式戸籍謄本に特化したクレンジング学習器22Dには、文字列「地籍本」と、その文字列「地籍本」が記載されている位置(例えば右上側の位置)を示す情報とが予め紐付けられている。
例えば、第1画像データから文字列「本籍」が検出され、その検出された位置が、第1画像データが表す戸籍謄本の左上側の位置である場合、読取対象の戸籍謄本は、平成6年式戸籍謄本であると推定される。プロセッサ20は、文字列「本籍」と左上側の位置とに紐付けられているクレンジング学習器22Aを用いてクレンジング処理を実行する。他の時代の戸籍謄本についても同様である。
なお、特定のキーワードが抽出された位置によっては、読取対象の戸籍謄本の時代が推定されずに、読取対象の戸籍謄本に特化したクレンジング学習器22が選択されない場合、第1実施形態の実施例1又は実施例2を組み合わせることで、読取対象の戸籍謄本に特化したクレンジング学習器22が選択されてもよい。
(第1実施形態の実施例4)
第1実施形態の実施例4においては、プロセッサ20は、第1画像データに表されている文書から特定の文字列を検索し、当該特定の文字列に対応する対応文字列を当該第1画像データから抽出する。そして、プロセッサ20は、当該対応文字列に応じたクレンジング学習器22を用いてクレンジング処理を実行する。以下、特定の文字列を「キー」と称し、対応文字列を「バリュー」と称することとする。
図13を参照して、第1実施形態の実施例4に係る処理の流れについて説明する。図13には、第1実施形態の実施例4に係る処理の流れを示すフローチャートが示されている。
まず、画像読取装置18によって文書が読み取られ、当該文書を表す第1画像データが生成される(S10)。
次に、プロセッサ20は、第1画像データからキーを検索する(S11)。キーは、予め定められている。例えば、プロセッサ20は、第1画像データを対象として、画像補正、2値化、レイアウト解析及び表構造解析等を実行し、キーを検索するための簡易な文字認識処理を実行することで、当該第1画像データからキーを検索する。簡易な文字認識処理は、例えば、文字認識学習器24が実行する文字認識処理ほど文字認識の精度は高くないが、キーを検索し得る程度の制度を有する文字認識処理である。
次に、プロセッサ20は、第1画像データからキーに対応するバリューを抽出する(S12)。例えば、プロセッサ20は、キーが記載されている位置を基準として予め定められた方向の領域に記載されている文字列をバリューとして抽出する。例えば、キーの上側、下側、右側又は左側等の領域が予め定められており、プロセッサ20は、その定められた領域内に記載されている文字列をバリューとして抽出する。このようにバリューが抽出されるように、当該バリューに対応するキーが設定される。
次に、プロセッサ20は、複数のクレンジング学習器22の中から、読み取られた文書の種類に特化したクレンジング学習器22であって、抽出されたバリューに紐付けられているクレンジング学習器22を選択する(S13)。なお、ユーザがUI14を操作することで文書の種類を特定してもよいし、プロセッサ20が第1画像データを解析することで文書の種類を特定してもよい。
次に、プロセッサ20は、S13にて選択されたクレンジング学習器22を用いて第1画像データにクレンジング処理を実行する(S14)。これにより、除去対象の情報を表さず除去対象以外の情報を表す第2画像データが生成される。
次に、プロセッサ20は、文字認識学習器24を用いて第2画像データに文字認識処理を実行する(S15)。これにより、第2画像データから文字が認識される。
以下、第1実施形態の実施例4の具体例について説明する。第1実施形態の実施例1の具体例と同様に、ここでは一例として、読取対象の文書は戸籍謄本であり、除去対象の情報は地紋である。バリューは、戸籍謄本を発行した地方公共団体(例えば都道府県や市区町村等)を反映した文字列である。例えば、バリューは、戸籍謄本を発行した地方公共団体の名称を示す文字列である。
戸籍謄本に記載される地紋は、当該戸籍謄本を発行した地方公共団体毎に異なる場合がある。例えば、地紋として、戸籍謄本を発行した地方公共団体の名称等が用いられる場合があるため、地紋は地方公共団体毎に異なることがある。戸籍謄本を発行した地方公共団体を反映した文字列であるバリューを抽出することで、当該戸籍謄本を発行した地方公共団体が推定される。
プロセッサ20は、バリューに応じたクレンジング学習器22を選択し、選択したクレンジング学習器22を用いてクレンジング処理を実行する。
バリューに応じたクレンジング学習器22は、当該バリューが抽出された戸籍謄本に特化したクレンジング学習器22である。バリューは、戸籍謄本を発行した地方公共団体を反映した文字列であるため、当該バリューが抽出された戸籍謄本に特化したクレンジング学習器22は、当該戸籍謄本を発行した地方公共団体に特化したクレンジング学習器であるといえる。その戸籍謄本に特化したクレンジング学習器22とは、当該戸籍謄本を表す第1画像データから、地紋を表さず地紋以外の情報を表す第2画像データを生成するように学習されたクレンジング学習器である。
図14には、各地方公共団体が発行した戸籍謄本に特化したクレンジング学習器22が示されている。ここでは一例として、都道府県毎に地紋が異なるものとする。
クレンジング学習器22Eは、北海道が発行した戸籍謄本に特化したクレンジング学習器であり、バリューである文字列「北海道」が予め紐付けられている。
クレンジング学習器22Fは、東京都が発行した戸籍謄本に特化したクレンジング学習器であり、バリューである文字列「東京都」が予め紐付けられている。
クレンジング学習器22Gは、沖縄県が発行した戸籍謄本に特化したクレンジング学習器であり、バリューである文字列「沖縄県」が予め紐付けられている。
その他の県や府についても同様にクレンジング学習器22が予め用意されている。
例えば、都道府県毎に、地紋の形状、大きさ及び位置等が異なる。従って、ある県が発行した戸籍謄本に記載されている地紋の形状、大きさ及び位置等を、当該県に特化したクレンジング学習器22に予め学習させておくことで、当該クレンジング学習器22は、当該県が発行した戸籍謄本を表す第1画像データから、地紋を表さず地紋以外の情報を表す第2画像データを生成することができるようになる。
例えば、クレンジング学習器22Eは、北海道が発行する戸籍謄本に記載されている地紋の形状、大きさ及び位置等を予め学習し、北海道が発行する戸籍謄本を表す第1画像データから、地紋を表さず地紋以外の情報を表す第2画像データを生成するように予め学習したクレンジング学習器である。
同様に、クレンジング学習器22Fは、東京都が発行する戸籍謄本に記載されている地紋の形状、大きさ及び位置等を予め学習し、東京都が発行する戸籍謄本を表す第1画像データから、地紋を表さず地紋以外の情報を表す第2画像データを生成するように予め学習したクレンジング学習器である。
同様に、クレンジング学習器22Gは、沖縄県が発行する戸籍謄本に記載されている地紋の形状、大きさ及び位置等を予め学習し、沖縄県が発行する戸籍謄本を表す第1画像データから、地紋を表さず地紋以外の情報を表す第2画像データを生成するように予め学習したクレンジング学習器である。
他の県や府に特化しているクレンジング学習器22についても同様である。
ここでは一例として、各クレンジング学習器22は、少なくとも地紋以外の文字を表す第2画像データを生成するように予め学習されている。各クレンジング学習器22の学習の程度が学習に用いられる教師データ等によっては、第2画像データに、文字以外の情報である罫線等が表されることがある。
図15を参照して、処理の一例について説明する。図15には、東京都が発行した昭和23年式戸籍謄本30が示されている。この昭和23年式戸籍謄本30が読取対象の文書である。東京都が発行した昭和23年式戸籍謄本30には、地紋30nが印刷されている。地紋30nは、複数の文字「X」によって構成されている。各文字「X」は、例えば透かし文字である。
まず、地紋30nが重畳された状態の昭和23年式戸籍謄本30を画像読取装置18によって読み取る。これにより、地紋30nが重畳された状態の昭和23年式戸籍謄本30を表す第1画像データが生成される。
次に、プロセッサ20は、画像補正、2値化、レイアウト解析及び表構造解析等を実行し、簡易な文字認識処理を実行することで、当該第1画像データからキーを検索する。ここでは一例として、キーは、文字列「本籍」、文字列「籍本」又は文字列「地籍本」である。地方公共団体を反映したバリュー(例えば地方公共団体の名称を示すバリュー)が抽出されるようにキーが定められる。文字列「本籍」、文字列「籍本」又は文字列「地籍本」の周囲には、地方公共団体を示す文字列が記載されていると推定される。それ故、キーとして、文字列「本籍」、文字列「籍本」又は文字列「地籍本」が用いられる。
次に、プロセッサ20は、キーである文字列「本籍」、文字列「籍本」又は文字列「地籍本」の位置を基準として、予め定められた方向の領域内にてバリューを検索する。予め定められた方向の領域は、キーの位置を基準として、地方公共団体を反映したバリューが記載されていると推定される方向の領域である。プロセッサ20は、例えば、文字列「本籍」、文字列「籍本」又は文字列「地籍本」の位置の右側又は下側の領域内にてバリューを検索する。
図15に示す例では、符号30pが指し示す文字列「籍本」がキーであり、当該文字列「籍本」が検索される。そして、当該文字列「籍本」の右側又は下側の領域内からバリューが検索される。ここでは、符号30qが指し示すように、文字列「籍本」の下側の領域から、バリューである文字列「東京都・・・」が検索される。
プロセッサ20は、文字列「籍本」の下側の領域から、バリューである文字列「東京都・・・」を抽出する。バリューである文字列「東京都・・・」には、文字列「東京都」が含まれているため、読取対象の戸籍謄本は、東京都が発行した戸籍謄本であると推定される。
次に、図14に示すように、プロセッサ20は、クレンジング学習器22E,22F,22G,・・・の中から、バリューに含まれる文字列「東京都」が紐付けられているクレンジング学習器22Fを選択する。これにより、東京都に特化したクレンジング学習器22Fが選択される。
プロセッサ20は、第1画像データに対してクレンジング学習器22Fを用いてクレンジング処理を実行することで、第2画像データを生成する。このようにして生成された第2画像データは、地紋30nが表されておらず、地紋30n以外の文字が表された画像データである。例えば、地紋30nが表されていない昭和23年式戸籍謄本30を表す第2画像データが生成される。なお、クレンジング学習器22Fの学習の程度や学習に用いられる教師データ等によっては、罫線等が表されていない第2画像データが生成される場合がある。このようにして生成された第2画像データに対して文字認識処理を実行することで、地紋30nが表されていない第2画像データから文字が認識される。
他の地方公共団体が発行した戸籍謄本についても同様に、キーに対応するバリューが抽出され、そのバリューに紐付けられたクレンジング学習器22が選択されてクレンジング処理が実行される。
なお、対応文字列であるバリューが、地域の旧名称を現す文字列である場合、プロセッサ20は、当該旧名称に対応する現在の名称に応じたクレンジング学習器22を用いてクレンジング処理を実行する。
例えば、バリューが、現在の地方公共団体の名称を表しておらず、過去の地方公共団体の名称を表している場合、プロセッサ20は、当該過去の名称に対応する現在の名称に応じたクレンジング学習器22を用いてクレンジング処理を実行する。
具体的には、過去の地方公共団体の名称と、当該過去の地方公共団体に対応する現在の地方公共団体の名称とが予め紐付けられており、その紐付けを示す管理情報(例えばテーブル等)が、予め記憶装置16等に記憶されている。プロセッサ20は、当該テーブルを参照することで、抽出された旧名称に対応する現在の名称を特定し、その現在の名称に紐付けられているクレンジング学習器22を用いてクレンジング処理を実行する。
例えば、「信濃」や「阿波」等は旧県名であり、このような旧県名を表す文字列がバリューとして抽出される場合がある。この場合、プロセッサ20は、上記のテーブルを参照することで、抽出された旧県名に対応する現在の県名を特定する。例えば、「信濃」は現在の「長野県」であるため、バリューとして文字列「信濃」が抽出された場合、プロセッサ20は、「信濃」に対応する「長野県」に紐付けられたクレンジング学習器22を用いてクレンジング処理を実行する。
(第1実施形態の実施例5)
第1実施形態の実施例5では、プロセッサ20は、キーの位置を基準としてバリューが記載されている方向に応じたクレンジング学習器22を用いてクレンジング処理を実行する。ここでは一例として、キーは、文字列「本籍」、文字列「籍本」又は文字列「地籍本」であり、バリューは、地方公共団体の名称を示す文字列である。
例えば、図4に示すように、平成6年式戸籍謄本28においては、キーである文字列「本籍」の右側に、バリューである文字列「XX県・・・」が記載されている。図5に示すように、昭和23年式戸籍謄本30においては、キーである文字列「籍本」の下側に、バリューである文字列「XX県・・・」が記載されている。図6に示すように、大正4年式戸籍謄本32においては、キーである文字列「籍本」の下側に、バリューである文字列「XX県・・・」が記載されている。図7に示すように、明治31年式戸籍謄本34においては、キーである文字列「地籍本」の下側に、バリューである文字列「XX県・・・」が記載されている。
実施例5では、キーの右側からバリューが抽出された場合、プロセッサ20は、平成6年式戸籍謄本に特化したクレンジング学習器22Aを用いてクレンジング処理を実行する。キーの下側からバリューが抽出された場合、プロセッサ20は、昭和23年式戸籍謄本に特化したクレンジング学習器22B、大正4年式戸籍謄本に特化したクレンジング学習器22C、又は、明治31年式戸籍謄本に特化したクレンジング学習器22Dを用いてクレンジング処理を実行する。
(第1実施形態の実施例6)
以下、第1実施形態の実施例6について説明する。読取対象の文書が戸籍謄本であり、戸籍謄本の時代に特化したクレンジング学習器22を選択する場合、除籍を表す情報に応じてクレンジング学習器22が選択されてもよい。
例えば、図4に示されている平成6年式戸籍謄本28においては、符号28hが指し示すように、除籍されている者については、枠で囲まれた文字列「除籍」が記載されている。一方、図5に示されている昭和23年式戸籍謄本30においては、符号30hが指し示すように、除籍されている者については、バツ印が記載されている。大正4年式戸籍謄本32及び明治31年式戸籍謄本34においても、除籍されている者については、バツ印が記載される。
実施例6では、枠で囲まれた文字列「除籍」が抽出された場合、プロセッサ20は、平成6年式戸籍謄本に特化したクレンジング学習器22Aを用いてクレンジング処理を実行する。バツ印が抽出された場合、プロセッサ20は、昭和23年式戸籍謄本に特化したクレンジング学習器22B、大正4年式戸籍謄本に特化したクレンジング学習器22C、又は、明治31年式戸籍謄本に特化したクレンジング学習器22Dを用いてクレンジング処理を実行する。
<第2実施形態>
以下、第2実施形態について説明する。第2実施形態に係る情報処理装置10は、第1実施形態と同様に、通信装置12と、UI14と、記憶装置16と、画像読取装置18と、プロセッサ20とを含む。
第2実施形態においては、プロセッサ20は、第1画像データに表されている文書の外観的特徴に応じたクレンジング処理によって、当該第1画像データに表されている情報のうち除去対象の情報を表さず除去対象以外の情報を表す第2画像データを生成する。つまり、プロセッサ20は、文書の外観的特徴に応じてクレンジング処理を変更して、クレンジング処理を第1画像データに実行する。プロセッサ20は、文書の外観的特徴に応じて、クレンジング処理の方式を変更してもよいし、クレンジング処理のエンジンを変更してもよい。
別の例として、プロセッサ20は、画像データに表されている文書の外観的特徴に応じた文字認識処理によって、当該画像データから文字を認識してもよい。つまり、プロセッサ20は、文書の外観的特徴に応じて文字認識処理を変更して、文字認識処理を画像データに実行する。プロセッサ20は、文書の外観的特徴に応じて、文字認識処理の方式(例えば文字認識処理のアルゴリズム)を変更してもよいし、文字認識処理のエンジンを変更してもよい。文字認識処理のエンジンの概念の範疇には、文字認識処理を人工知能によって実現する文字認識学習器が含まれてもよい。更に別の例として、プロセッサ20は、文書の外観的特徴に応じて、文字認識に用いられる辞書を変更してもよい。
プロセッサ20は、第1画像データに表されている文書の外観的特徴に応じたクレンジング処理を実行することで第2画像データを生成し、当該外観的特徴に応じた文書認識処理を実行することで当該第2画像データから文字を認識してもよい。
文書の外観的特徴は、文字認識の対象とならない情報であり、例えば、読取対象の文書の特徴が反映された情報である。文書の外観的特徴は、文書の種類や、文書が作成された時代や、文書の作成者や、文書の用途等に応じて変わり得る。文書の外観的特徴は、例えば、文書中の枠の形状である。
また、第2実施形態に係る情報処理装置10は、第1実施形態と同様に、クレンジング学習器22と、文字認識学習器24と、文字認識辞書26とを有する。
以下、第2実施形態の各実施例について説明する。
(第2実施形態の実施例1)
第2実施形態の実施例1では、プロセッサ20は、文書の外観的特徴に応じてクレンジング処理を変更してクレンジング処理に実行する。
例えば、第2実施形態に係る情報処理装置10は、複数の異なるクレンジング学習器22を有する。第1画像データに表されている文書の外観的特徴毎に異なるクレンジング学習器22が作成されており、クレンジング学習器22には、外観的特徴を示す情報が紐付けられている。除去対象の情報及び文書の外観的特徴は、文書の種類や、文書が作成された時代や、文書の作成者や、文書の用途等に応じて変わり得る。つまり、除去対象の情報と文書の外観的特徴は対応関係を有する。ある文書の外観的特徴を示す情報が紐付けられているクレンジング学習器22は、当該外観的特徴に対応する除去対象の情報に特化したクレンジング学習器であり、第1画像データから、当該外観的特徴に対応する除去対象を表さず除去対象以外の情報を表す第2画像データを生成するように学習されている。
図16を参照して、第2実施形態の実施例1について説明する。図16には、第2実施形態の実施例1に係る処理の流れを示すフローチャートが示されている。
まず、画像読取装置18によって文書が読み取られ、当該文書を表す第1画像データが生成される(S20)。
次に、プロセッサ20は、第1画像データに表されている文書の外観的特徴を当該第1画像データから抽出する(S21)。例えば、公知の技術を用いることで外観的特徴が抽出される。
次に、プロセッサ20は、複数のクレンジング学習器22の中から、読み取られた文書の種類に特化したクレンジング学習器22であって、第1画像データから抽出された文書の外観的特徴を示す情報が紐付けられているクレンジング学習器22を選択する(S22)。なお、ユーザがUI14を操作することで文書の種類を指定してもよいし、プロセッサ20が第1画像データを解析することで文書の種類を特定してもよい。
次に、プロセッサ20は、S22にて選択されたクレンジング学習器22を用いて第1画像データにクレンジング処理を実行する(S23)。これにより、除去対象の情報を表さず除去対象以外の情報を表す第2画像データが生成される。
次に、プロセッサ20は、文字認識学習器24を用いて第2画像データに文字認識処理を実行する(S24)。これにより、第2画像データから文字が認識される。なお、文字認識処理は、情報処理装置10以外の他の装置によって実行されてもよい。
(第2実施形態の実施例2)
第2実施形態の実施例2では、プロセッサ20は、文書の外観的特徴に応じて文書認識処理を変更して文書認識処理を実行する。
例えば、第2実施形態に係る情報処理装置10は、複数の異なる文字認識学習器24を有する。各文字認識学習器24は、異なる文字認識処理を実行する。例えば、文字認識学習器24は、文書の種類毎に異なる文字認識学習器であってもよいし、文書が作成された時代毎に異なる文字認識学習器であってもよいし、文書の作成者毎に異なる文字認識学習器であってもよいし、文書の用途毎に異なる文字認識学習器であってもよい。例えば、各文字認識学習器24で、画像データに表されている文書のレイアウト解析のアルゴリズム、行や列を抽出するアルゴリズム、行や列から文字を抽出するアルゴリズム、文字の正規化のアルゴリズム、文字の特徴の抽出のアルゴリズム、文字認識辞書に登録されている文字と抽出された特徴とのマッチングのアルゴリズム、又は、知識処理のアルゴリズム等が異なる。
文書の種類や、文書が作成された時代や、文書の作成者や、文書の用途等に応じて、文書に記載されている文字の特徴(例えば、文字の字体(つまり文字の形状)や、文字の大きさや、文字のかすれや、文字の書き方等)が異なる場合がある。また、文書の外観的特徴は、文書の種類や、文書が作成された時代や、文書の作成者や、文書の用途等に応じて変わり得る。従って、文書に記載されている文字の特徴と当該文書の外観的特徴は対応関係を有する。
読取対象の文書の外観的特徴毎に異なる文字認識学習器24が作成されており、文字認識学習器24には、外観的特徴を示す情報が紐付けられている。ある文書の外観的特徴を示す情報が紐付けられている文字認識学習器24は、当該外観的特徴に対応する文字の特徴に特化した文字認識学習器であり、当該外観的特徴を有する文書から文字を認識するように学習されている。
図17を参照して、第2実施形態の実施例2について説明する。図17には、第2実施形態の実施例2に係る処理の流れを示すフローチャートが示されている。
まず、画像読取装置18によって文書が読み取られ、当該文書を表す画像データが生成される(S30)。
次に、プロセッサ20は、S30にて生成された画像データに表されている文書の外観的特徴を当該画像データから抽出する(S31)。
次に、プロセッサ20は、複数の文字認識学習器24の中から、読み取られた文書の種類に特化した文字認識学習器24であって、S30にて生成された画像データから抽出された文書の外観的特徴を示す情報が紐付けられている文字認識学習器24を選択する(S32)。なお、ユーザがUI14を操作することで文書の種類を指定してもよいし、プロセッサ20が画像データを解析することで文書の種類を特定してもよい。
次に、プロセッサ20は、S32にて選択された文字認識学習器24を用いて画像データに文字認識処理を実行する(S33)。これにより、画像データから文字が認識される。
(第2実施形態の実施例3)
第2実施形態の実施例3では、プロセッサ20は、文書の外観的特徴に応じた文字認識辞書を用いて文字認識処理を実行する。
例えば、第2実施形態に係る情報処理装置10は、複数の異なる文字認識辞書26を有する。例えば、文字認識辞書26は、文書の種類毎に異なる文字認識辞書であってもよいし、文書が作成された時代毎に異なる文字認識辞書であってもよいし、文書の作成者毎に異なる文字認識辞書であってもよい。
読取対象の文書の外観的特徴毎に異なる文字認識辞書26が作成されており、文字認識辞書26には、外観的特徴を示す情報が紐付けられている。ある文書の外観的特徴を示す情報が紐付けられている文字認識辞書26は、当該外観的特徴に対応する文字の特徴に特化した文字認識辞書であり、当該外観的特徴を有する文書から文字が認識されるように、当該外観的特徴に対応する文字の特徴が登録されている。
図18を参照して、第2実施形態の実施例3について説明する。図18には、第2実施形態の実施例3に係る処理の流れを示すフローチャートが示されている。
まず、画像読取装置18によって文書が読み取られ、当該文書を表す画像データが生成される(S40)。
次に、プロセッサ20は、S40にて生成された画像データに表されている文書の外観的特徴を当該画像データから抽出する(S41)。
次に、プロセッサ20は、複数の文字認識辞書26の中から、読み取られた文書の種類に特化した文字認識辞書26であって、S40にて生成された画像データから抽出された文書の外観的特徴を示す情報が紐付けられている文字認識辞書26を選択する(S42)。
次に、プロセッサ20は、S42にて選択された文字認識辞書26を用いて画像データに文字認識処理を実行する(S43)。これにより、画像データから文字が認識される。
以下、具体例を挙げて第2実施形態について詳しく説明する。ここでは一例として、読取対象の文書は戸籍謄本であり、外観的特徴は文書中の枠の形状である。
一般的に、戸籍謄本中の枠の形状は、戸籍謄本の時代毎に異なる。例えば、図4に示されている平成6年式戸籍謄本28は2列の枠を有し、文字を書き進める方向は横書きである。一方、図5に示されている昭和23年式戸籍謄本30、図6に示されている大正4年式戸籍謄本32、及び、図7に示されている明治31年式戸籍謄本34は、平成6年式戸籍謄本28よりも多くの列の枠を有し、文字を書き進める方向は縦書きである。このように、平成6年式戸籍謄本28の枠の形状は、他の戸籍謄本の枠の形状と異なるため、枠の形状によって、平成6年式戸籍謄本28と他の戸籍謄本とを区別することができる。
また、図19に示すように、昭和23年式戸籍謄本30には、文字列「籍本」の記載欄の左側に、大正4年式戸籍謄本32や明治31年式戸籍謄本34にはない太い枠(例えば符号30rが指し示す枠)が形成されている。この太い枠の有無によって、昭和23年式戸籍謄本30と他の戸籍謄本とを区別することができる。
上記のように、戸籍謄本の時代によって枠の形状が異なるため、読取対象の戸籍謄本を表す画像データから抽出された枠の形状に基づいて、当該戸籍謄本の時代が推定される。
第2実施形態の実施例1では、例えば、プロセッサ20は、公知技術を用いることで、読取対象の戸籍謄本を表す第1画像データから枠の形状を抽出し、その枠の形状に応じたクレンジング学習器22を選択し、選択したクレンジング学習器22を用いてクレンジング処理を実行する。第1画像データから抽出された枠の形状に応じたクレンジング学習器22は、当該枠の形状が抽出された戸籍謄本に特化したクレンジング学習器22である。枠の形状は戸籍謄本の時代を反映しているため、当該戸籍謄本に特化したクレンジング学習器22は、当該戸籍謄本の時代に特化したクレンジング学習器であるといえる。その戸籍謄本に特化したクレンジング学習器22は、当該戸籍謄本を表す第1画像データから、地紋を表さず地紋以外の情報を表す第2画像データを生成するように学習されたクレンジング学習器である。
例えば、クレンジング学習器22Aには、平成6年式戸籍謄本の枠の形状が予め紐付けられており、クレンジング学習器22Bには、昭和23年式戸籍謄本の枠の形状が予め紐付けられており、クレンジング学習器22Cには、大正4年式戸籍謄本の枠の形状が予め紐付けられており、クレンジング学習器22Dには、明治31年式戸籍謄本の枠の形状が予め紐付けられている。
例えば、読取対象の戸籍謄本を表す第1画像データから、昭和23年式戸籍謄本28に含まれる枠の形状(例えば符号30rが指し示す枠の形状)が抽出された場合、プロセッサ20は、クレンジング学習器22A,22B,22C,22Dの中から、抽出された枠の形状が紐付けられているクレンジング学習器22Bを選択する。これにより、昭和23年式戸籍謄本に特化したクレンジング学習器22Bが選択される。
プロセッサ20は、第1画像データに対してクレンジング学習器22Bを用いてクレンジング処理を実行することで、第2画像データを生成する。
昭和23年式戸籍謄本28以外の戸籍謄本についても同様に、抽出された枠の形状に紐付けられたクレンジング学習器22が選択されてクレンジング処理が実行される。
第2実施形態の実施例2では、例えば、プロセッサ20は、公知技術を用いることで、読取対象の戸籍謄本を表す画像データから枠の形状を抽出し、その枠の形状に応じた文字認識学習器24を選択し、選択した文字認識学習器24を用いて文字認識処理を実行する。画像データから抽出された枠の形状に応じた文字認識学習器24は、当該枠の形状が抽出された戸籍謄本に特化した文字認識学習器24である。枠の形状は戸籍謄本の時代を反映しているため、当該戸籍謄本に特化した文字認識学習器24は、当該戸籍謄本の時代に特化した文字認識学習器であるといえる。
図20には、各戸籍謄本の時代に特化した文字認識学習器24が示されている。文字認識学習器24Aは、平成6年式戸籍謄本に特化した文字認識学習器である。文字認識学習器24Aには、平成6年式戸籍謄本の枠の形状が予め紐付けられている。文字認識学習器24Bは、昭和23年式戸籍謄本に特化した文字認識学習器である。文字認識学習器24Bには、昭和23年式戸籍謄本の枠の形状が予め紐付けられている。文字認識学習器24Cは、大正4年式戸籍謄本に特化した文字認識学習器である。文字認識学習器24Cには、大正4年式戸籍謄本の枠の形状が予め紐付けられている。文字認識学習器24Dは、明治31年式戸籍謄本に特化した文字認識学習器である。文字認識学習器24Dには、明治31年式戸籍謄本の枠の形状が予め紐付けられている。
例えば、読取対象の戸籍謄本を表す画像データから、昭和23年式戸籍謄本28に含まれる枠の形状(例えば符号30rが指し示す枠の形状)が抽出された場合、プロセッサ20は、文字認識学習器24A,24B,24C,24Dの中から、抽出された枠の形状が紐付けられている文字認識学習器24Bを選択する。これにより、昭和23年式戸籍謄本に特化した文字認識学習器24Bが選択される。
プロセッサ20は、画像データに対して文字認識学習器24Bを用いて文字認識処理を実行することで、当該画像データから文字を認識する。
昭和23年式戸籍謄本28以外の戸籍謄本についても同様に、抽出された枠の形状に紐付けられた文字認識学習器24が選択されて文字認識処理が実行される。
第2実施形態の実施例3では、例えば、プロセッサ20は、公知技術を用いることで、読取対象の戸籍謄本を表す画像データから枠の形状を抽出し、その枠の形状に応じた文字認識辞書26を選択し、選択した文字認識辞書26を用いて文字認識処理を実行する。画像データから抽出された枠の形状に応じた文字認識辞書26は、当該枠の形状が抽出された戸籍謄本に特化した文字認識辞書である。枠の形状は戸籍謄本の時代を反映しているため、当該戸籍謄本に特化した文字認識辞書26は、当該戸籍謄本の時代に特化した文字認識辞書であるといえる。
図21には、各戸籍謄本の時代に特化した文字認識辞書26が示されている。文字認識辞書26Aは、平成6年式戸籍謄本に特化した文字認識辞書である。文字認識辞書26Aには、平成6年式戸籍謄本の枠の形状が予め紐付けられている。文字認識辞書26Bは、昭和23年式戸籍謄本に特化した文字認識辞書である。文字認識辞書26Bには、昭和23年式戸籍謄本の枠の形状が予め紐付けられている。文字認識辞書26Cは、大正4年式戸籍謄本に特化した文字認識辞書である。文字認識辞書26Cには、大正4年式戸籍謄本の枠の形状が予め紐付けられている。文字認識辞書26Dは、明治31年式戸籍謄本に特化した文字認識辞書である。文字認識辞書26Dには、明治31年式戸籍謄本の枠の形状が予め紐付けられている。
例えば、読取対象の戸籍謄本を表す画像データから、昭和23年式戸籍謄本28に含まれる枠の形状(例えば符号30rが指し示す枠の形状)が抽出された場合、プロセッサ20は、文字認識辞書26A,26B,26C,26Dの中から、抽出された枠の形状が紐付けられている文字認識辞書26Bを選択する。これにより、昭和23年式戸籍謄本に特化した文字認識辞書26Bが選択される。
プロセッサ20は、画像データに対して文字認識辞書26Bを用いて文字認識処理を実行することで、当該画像データから文字を認識する。
昭和23年式戸籍謄本28以外の戸籍謄本についても同様に、抽出された枠の形状に紐付けられた文字認識辞書26が選択されて文字認識処理が実行される。
(第2実施形態の実施例4)
第2実施形態の実施例4では、文書の外観的特徴は、文書中の文字の形状である。例えば、戸籍謄本が作成された時代に応じて、戸籍謄本が活字又は手書きで作成される。また、同じ時代の戸籍謄本であっても、活字で作成される戸籍謄本と、手書きで作成される戸籍謄本とが存在する場合がある。例えば、戸籍謄本が電子化されている場合、戸籍謄本が活字で作成され、戸籍謄本が電子化されていない場合、戸籍謄本が手書きで作成されることがある。
第2実施形態の実施例4では、プロセッサ20は、読取対象の文書中の文字の形状に応じたクレンジング処理を実行する。例えば、活字に特化したクレンジング学習器22と、手書きに特化したクレンジング学習器22とが予め作成される。活字に特化したクレンジング学習器22は、活字で作成された戸籍謄本を表す第1画像データから、除去対象の情報(例えば地紋)を表さず除去対象以外の情報を表す第2画像データを生成するように学習されたクレンジング学習器である。手書きに特化したクレンジング学習器22は、手書きで作成された戸籍謄本を表す第1画像データから、除去対象の情報を表さず除去対象以外の情報を表す第2画像データを生成するように学習されたクレンジング学習器である。活字に特化したクレンジング学習器22には、活字を示す情報が予め紐付けられており、手書きに特化したクレンジング学習器22には、手書きを示す情報が予め紐付けられている。
プロセッサ20は、公知技術を用いることで、第2画像データに表されている読取対象の戸籍謄本が、活字によって作成されたか、手書きによって作成されたかを特定する。例えば、プロセッサ20は、読取対象の戸籍謄本を表す第2画像データに対して文字認識処理を実行し、当該戸籍謄本に記載されている活字及び手書き文字のそれぞれの数をカウントし、活字及び手書き文字のそれぞれの数に基づいて、当該戸籍謄本が活字又は手書きのいずれかによって作成されたのかを特定する。例えば、プロセッサ20は、活字の数が手書き文字の数よりも多い場合、当該戸籍謄本は活字で作成された文書であると特定し、手書き文字の数が活字の数よりも多い場合、当該戸籍謄本は手書きで作成された文書であると特定する。もちろん、プロセッサ20は、別の技術を用いることで、読取対象の文書が、活字又は手書きのいずれかによって作成された文書であることを特定してもよい。
読取対象の戸籍謄本が活字によって作成された場合、プロセッサ20は、活字を示す情報が紐付けられているクレンジング学習器22を用いてクレンジング処理を実行する。読取対象の戸籍謄本が手書きによって作成された場合、プロセッサ20は、手書きを示す情報が紐付けられているクレンジング学習器22を用いてクレンジング処理を実行する。
別の例として、プロセッサ20は、読取対象の文書中の文字の形状に応じた文字認識処理を実行してもよい。例えば、活字に特化した文字認識学習器24と、手書きに特化した文字認識学習器24とが予め作成される。活字に特化した文字認識学習器24は、活字で作成された戸籍謄本を表す画像データから活字を認識するように学習された文字認識学習器である。手書きに特化した文字認識学習器24は、手書きで作成された戸籍謄本を表す画像データから手書きの文字を認識するように学習された文字認識学習器である。活字に特化した文字認識学習器24には、活字を示す情報が予め紐付けられており、手書きに特化した文字認識学習器24には、手書きを示す情報が予め紐付けられている。
読取対象の戸籍謄本が活字によって作成された場合、プロセッサ20は、活字を示す情報が紐付けられている文字認識学習器24を用いて文字認識処理を実行する。読取対象の戸籍謄本が手書きによって作成された場合、プロセッサ20は、手書きを示す情報が紐付けられている文字認識学習器24を用いて文字認識処理を実行する。
更に別の例として、プロセッサ20は、読取対象の文書中の文字の形状に応じた文字認識辞書を用いて文字認識処理を実行してもよい。例えば、活字に特化した文字認識辞書26と、手書きに特化した文字認識辞書26とが予め作成される。活字に特化した文字認識辞書26は、画像データから活字を認識するための文字が登録されている辞書である。手書きに特化した文字認識辞書26は、画像データから手書きの文字を認識するための文字が登録されている辞書である。活字に特化した文字認識辞書26には、活字を示す情報が予め紐付けられており、手書きに特化した文字認識辞書26には、手書きを示す情報が予め紐付けられている。
読取対象の戸籍謄本が活字によって作成された場合、プロセッサ20は、活字を示す情報が紐付けられている文字認識辞書26を用いて文字認識処理を実行する。読取対象の戸籍謄本が手書きによって作成された場合、プロセッサ20は、手書きを示す情報が紐付けられている文字認識辞書26を用いて文字認識処理を実行する。
また、戸籍謄本が手書きで作成されている場合、プロセッサ20は、手書きの文字の書体(例えば、大字、変体仮名、崩し字、異体字、草書体等)を特定し、その特定した書体に応じて、クレンジング学習器22、文字認識学習器24又は文字認識辞書26を変更してもよい。
文字認識辞書26は、文字認識学習器24に含まれていてもよい。この場合、外観的特徴に応じて、文字認識処理のアルゴリズム又は文字認識辞書が変更されてもよいし、文字認識処理のアルゴリズムと文字認識辞書の両方が変更されてもよい。
上述した第1実施形態及び第2実施形態では、文書の一例として戸籍謄本を例に挙げて各実施例について説明したが、戸籍謄本は文書の一例に過ぎず、読取対象の文書は戸籍謄本以外の文書であってもよい。戸籍謄本以外の文書が読取対象の文書であっても、戸籍謄本と同様に各実施例に係る処理が実行される。
上記各実施形態において、プロセッサとは広義的なプロセッサを指し、汎用的なプロセッサ(例えばCPU: Central Processing Unit、等)や、専用のプロセッサ(例えばGPU: Graphics Processing Unit、ASIC: Application Specific Integrated Circuit、FPGA: Field Programmable Gate Array、プログラマブル論理デバイス、等)を含むものである。また上記各実施形態におけるプロセッサの動作は、1つのプロセッサによって成すのみでなく、物理的に離れた位置に存在する複数のプロセッサが協働して成すものであってもよい。また、プロセッサの各動作の順序は上記各実施形態において記載した順序のみに限定されるものではなく、適宜変更してもよい。
10 情報処理装置、18 画像読取装置、20 プロセッサ。

Claims (6)

  1. プロセッサを有し、
    前記プロセッサは、
    文書を表す第1画像データを受け付け、
    前記文書の外観的特徴に応じた処理によって、前記第1画像データに表されている情報のうち除去対象の情報を表さず前記除去対象以外の情報を表す第2画像データを生成する、
    情報処理装置。
  2. プロセッサを有し、
    前記プロセッサは、
    文書を表す画像データを受け付け、
    前記画像データに表されている文字を認識する処理であって前記文書の外観的特徴に応じた処理によって、前記文字を認識する、
    情報処理装置。
  3. 前記外観的特徴は、前記文書中の枠の形状である、
    ことを特徴とする請求項1又は請求項2に記載の情報処理装置。
  4. 前記外観的特徴は、前記文書中の文字の形状である、
    ことを特徴とする請求項1又は請求項2に記載の情報処理装置。
  5. コンピュータに、
    文書を表す第1画像データを受け付けさせ、
    前記文書の外観的特徴に応じた処理によって、前記第1画像データに表されている情報のうち除去対象の情報を表さず前記除去対象以外の情報を表す第2画像データを生成させる、
    プログラム。
  6. コンピュータに、
    文書を表す第1画像データを受け付けさせ、
    前記第1画像データに表されている文字を認識する処理であって前記文書の外観的特徴に応じた処理によって、前記文字を認識させる、
    プログラム。
JP2019170518A 2019-09-19 2019-09-19 情報処理装置及びプログラム Pending JP2021047693A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019170518A JP2021047693A (ja) 2019-09-19 2019-09-19 情報処理装置及びプログラム
US16/781,429 US11410442B2 (en) 2019-09-19 2020-02-04 Information processing apparatus and non-transitory computer readable medium
CN202010158221.7A CN112528999A (zh) 2019-09-19 2020-03-09 信息处理装置以及记录媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019170518A JP2021047693A (ja) 2019-09-19 2019-09-19 情報処理装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2021047693A true JP2021047693A (ja) 2021-03-25

Family

ID=74876370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019170518A Pending JP2021047693A (ja) 2019-09-19 2019-09-19 情報処理装置及びプログラム

Country Status (3)

Country Link
US (1) US11410442B2 (ja)
JP (1) JP2021047693A (ja)
CN (1) CN112528999A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022091608A (ja) * 2020-12-09 2022-06-21 富士フイルムビジネスイノベーション株式会社 情報処理装置、及び情報処理プログラム
JP2022095391A (ja) * 2020-12-16 2022-06-28 富士フイルムビジネスイノベーション株式会社 情報処理装置、及び情報処理プログラム

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07282198A (ja) * 1994-04-15 1995-10-27 Hitachi Ltd 活字文字認識装置
JP2006085463A (ja) * 2004-09-16 2006-03-30 Oki Electric Ind Co Ltd 文字認識装置およびその認識方法
JP2007060634A (ja) * 2005-07-29 2007-03-08 Canon Inc 画像処理装置、画像処理装置の制御方法及びコンピュータ可読記憶媒体
JP2007122210A (ja) * 2005-10-26 2007-05-17 Oki Electric Ind Co Ltd 更新履歴管理装置および更新履歴管理方法
JP2009116520A (ja) * 2007-11-05 2009-05-28 Oki Electric Ind Co Ltd 画像認識装置、画像認識方法及びプログラム
US20130182293A1 (en) * 2012-01-17 2013-07-18 Fuji Xerox Co., Ltd. Image reader, mobile terminal apparatus, and non-transitory computer readable medium
JP2016004335A (ja) * 2014-06-14 2016-01-12 国立大学法人北陸先端科学技術大学院大学 文字認識処理方法
JP2016057925A (ja) * 2014-09-10 2016-04-21 キヤノン株式会社 画像分類装置、画像分類システム、画像分類方法およびプログラム
JP2016130942A (ja) * 2015-01-14 2016-07-21 富士ゼロックス株式会社 情報処理装置、システム及びプログラム
JP2017027365A (ja) * 2015-07-22 2017-02-02 株式会社富士通コンピュータテクノロジーズ 帳票判別プログラム、帳票判別方法及び帳票判別装置
US20190340429A1 (en) * 2018-05-01 2019-11-07 Scribe Fusion, LLC System and Method for Processing and Identifying Content in Form Documents
US10594899B1 (en) * 2019-02-15 2020-03-17 Kyocera Document Solutions Inc. Methods and system for generating a confidential document
JP2021012589A (ja) * 2019-07-08 2021-02-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007065994A (ja) 2005-08-31 2007-03-15 Ricoh Co Ltd 文書ocr実行装置
US9645978B2 (en) * 2011-11-16 2017-05-09 Microsoft Technology Licensing, Llc Techniques for the automatic animation of changes to document content
JP2015090657A (ja) 2013-11-07 2015-05-11 沖電気工業株式会社 情報処理装置、情報処理システム、及びプログラム
JP6694587B2 (ja) 2016-05-25 2020-05-20 富士ゼロックス株式会社 画像読込み装置及びプログラム
JP2019032645A (ja) 2017-08-07 2019-02-28 大日本印刷株式会社 書類管理装置、書類管理方法、および、書類管理装置用のプログラム
JP6930455B2 (ja) * 2018-02-28 2021-09-01 京セラドキュメントソリューションズ株式会社 情報処理装置
US10922537B2 (en) * 2018-05-01 2021-02-16 Scribe Fusion, LLC System and method for processing and identifying content in form documents
JP7224856B2 (ja) * 2018-11-02 2023-02-20 キヤノン株式会社 画像生成装置、画像生成方法、及びプログラム
US11188745B2 (en) * 2019-09-13 2021-11-30 At&T Intellectual Property I, L.P. Enhancing electronic documents for character recognition

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07282198A (ja) * 1994-04-15 1995-10-27 Hitachi Ltd 活字文字認識装置
JP2006085463A (ja) * 2004-09-16 2006-03-30 Oki Electric Ind Co Ltd 文字認識装置およびその認識方法
JP2007060634A (ja) * 2005-07-29 2007-03-08 Canon Inc 画像処理装置、画像処理装置の制御方法及びコンピュータ可読記憶媒体
JP2007122210A (ja) * 2005-10-26 2007-05-17 Oki Electric Ind Co Ltd 更新履歴管理装置および更新履歴管理方法
JP2009116520A (ja) * 2007-11-05 2009-05-28 Oki Electric Ind Co Ltd 画像認識装置、画像認識方法及びプログラム
US20130182293A1 (en) * 2012-01-17 2013-07-18 Fuji Xerox Co., Ltd. Image reader, mobile terminal apparatus, and non-transitory computer readable medium
JP2016004335A (ja) * 2014-06-14 2016-01-12 国立大学法人北陸先端科学技術大学院大学 文字認識処理方法
JP2016057925A (ja) * 2014-09-10 2016-04-21 キヤノン株式会社 画像分類装置、画像分類システム、画像分類方法およびプログラム
JP2016130942A (ja) * 2015-01-14 2016-07-21 富士ゼロックス株式会社 情報処理装置、システム及びプログラム
JP2017027365A (ja) * 2015-07-22 2017-02-02 株式会社富士通コンピュータテクノロジーズ 帳票判別プログラム、帳票判別方法及び帳票判別装置
US20190340429A1 (en) * 2018-05-01 2019-11-07 Scribe Fusion, LLC System and Method for Processing and Identifying Content in Form Documents
US10594899B1 (en) * 2019-02-15 2020-03-17 Kyocera Document Solutions Inc. Methods and system for generating a confidential document
JP2021012589A (ja) * 2019-07-08 2021-02-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
CN112528999A (zh) 2021-03-19
US20210089804A1 (en) 2021-03-25
US11410442B2 (en) 2022-08-09

Similar Documents

Publication Publication Date Title
KR100292098B1 (ko) 문자 인식 장치 및 방법
KR100412317B1 (ko) 문자인식/수정방법및장치
US7668814B2 (en) Document management system
US20060285748A1 (en) Document processing device
US11475688B2 (en) Information processing apparatus and information processing method for extracting information from document image
US11379690B2 (en) System to extract information from documents
JP2014182477A (ja) プログラム及び帳票処理装置
JP2021047693A (ja) 情報処理装置及びプログラム
JP7351159B2 (ja) 情報処理装置及びプログラム
JP5353325B2 (ja) 文書データ生成装置と文書データ生成方法
CN116324910A (zh) 用于执行设备上图像到文本转换的方法和系统
Belay Deep learning for Amharic text-image recognition: algorithm, dataset and application
JP2022095391A (ja) 情報処理装置、及び情報処理プログラム
US20220309272A1 (en) Information processing apparatus and non-transitory computer readable medium storing program
AbdelRaouf Offline printed Arabic character recognition
US20230343123A1 (en) Using model uncertainty for contextual decision making in optical character recognition
Balasooriya Improving and Measuring OCR Accuracy for Sinhala with Tesseract OCR Engine
US11315351B2 (en) Information processing device, information processing method, and information processing program
JP2004005761A (ja) キーワード抽出・検索装置
JP2022116983A (ja) 画像処理装置、画像処理方法及びプログラム
Suen et al. Farsi script recognition: a survey
US20180198950A1 (en) Information processing apparatus and recording medium
Alkholy Arabic optical character recognition using local invariant features
JP2023002090A (ja) 情報処理システム、表示制御方法及びプログラム
Ediriweera Improviing the accuracy of the output of sinhala ocr by using a dictionary

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230815

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240220