JP7444495B2 - Ocrベース文書分析システム及び方法 - Google Patents

Ocrベース文書分析システム及び方法 Download PDF

Info

Publication number
JP7444495B2
JP7444495B2 JP2022563495A JP2022563495A JP7444495B2 JP 7444495 B2 JP7444495 B2 JP 7444495B2 JP 2022563495 A JP2022563495 A JP 2022563495A JP 2022563495 A JP2022563495 A JP 2022563495A JP 7444495 B2 JP7444495 B2 JP 7444495B2
Authority
JP
Japan
Prior art keywords
information
ocr
character
document analysis
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022563495A
Other languages
English (en)
Other versions
JP2023522360A (ja
Inventor
リ、ピョン-チョル
ソ、クァン-イル
キム、サン-ヒョン
オ、チン-ソル
ファン、チャン-ヒョン
チュン、アン-チェ
チェ、チュ-ヨン
Original Assignee
アジャイルソーダ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020200050179A external-priority patent/KR102149050B1/ko
Priority claimed from KR1020200050180A external-priority patent/KR102149052B1/ko
Priority claimed from KR1020200050181A external-priority patent/KR102149051B1/ko
Application filed by アジャイルソーダ インコーポレイテッド filed Critical アジャイルソーダ インコーポレイテッド
Publication of JP2023522360A publication Critical patent/JP2023522360A/ja
Application granted granted Critical
Publication of JP7444495B2 publication Critical patent/JP7444495B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Character Discrimination (AREA)
  • Character Input (AREA)

Description

本発明は、OCRベース文書分析システム及び方法に関し、より詳細には、OCR認識に基づいて認識されたテキストに対する相対的な位置情報、認識された項目間の連結、認識された情報に対する信頼点数を提供することによって、データテーブルの再構成、予測正確度検査者による確認作業時間を減少させることができるOCRベース文書分析システム及び方法に関する。
個人や企業は、経済活動中に収集する領収書を、経費報告、支出決議などの会計処理或いは総合所得税申告などの税務処理のための事後証明書類として保管して管理する。
このように保管及び管理される領収書は紙でできているため、根本的に原本き損の危険があり、汚損、紛失、腐敗への露出を予防しなければならない技術的、経済的な負担があり、領収書保管量の増大に比例して領収書保管空間を増やさなければならないという問題点がある。
また、個人や企業の担当者は、上記の会計処理或いは税務処理に必要な情報を、手書き入力方式で従来の領収書から抽出し分類して帳簿に記入したり、会計管理プログラムが設置されたPCに入力、保存したりするため、情報抽出作業が不便である問題がある。
一方、文書に含まれている文字(テキスト)イメージは、機械エンコーディングによって変換できるが、機械エンコーディングによって変換された文字は電子的に編集、検索などが可能であり、変換された文字はファイルなどの形態でデータベースに保存することも可能である。
このような機械エンコーディングは、主に光学文字認識(OCR)によって行われてよく、コンピュータなどを用いてイメージベースのテキスト文書を自動で感知、識別及びエンコードすることができる。
韓国登録特許第10-1139801号公報(発明の名称:領収書判読を用いる自動情報収集システム及び方法)には、従来の領収書に印刷された購買物品、購買数量、使用金額などをOCRで読み取って保存することによって、当該領収書の使用者の購買情報を自動で収集、管理する構成が開示されている。
しかしながら、従来技術によるOCRは、低品質のプリンタ又はファクシミリなどで印刷されたり、解像度の低い撮影手段でイメージ化されたり、しわがよったり、又は傾いた状態で撮影されたりしたイメージは、OCRの認識正確度が低下する問題点がある。
また、従来技術による情報収集システムは、単に、物品、数量、使用金額などに対する認識が可能であるだけで、認識された項目間の連結関係は分からないという問題点がある。
また、従来技術による情報収集システムは、バーコード付き領収書、特に、別のスキャナー装置を用いてデジタルデータ化された領収書を認識するように構成されており、一般的な領収書は認識し難い問題点がある。
また、従来技術による情報収集システムは、文書から文字のみを認識するため、認識された文字と文字間の関係が分からない問題点がある。
また、従来技術による情報収集システムは、OCRで文字を認識しても、認識された文字を適切なDBのフィールドに保存できない問題点がある。
また、従来技術による情報収集システムは、新しい項目に対する認識がし難く、認識された項目を含む再構成フォームを生成できない問題点がある。
また、従来技術による情報収集システム及び方法は、OCRで収集された情報に対して、検査者が認識情報の異常有無を全て確認しなければならない問題点がある。
このような問題点を解決するために、本発明は、OCR認識に基づいて認識されたテキストに対する相対的な位置情報、認識された項目間の連結、認識された情報に対する信頼点数を提供することによって、データテーブルの再構成、予測正確度検査者による確認作業時間を減少させることができるOCRベース文書分析システム及び方法を提供することを目的とする。
上記の目的を達成するために、本発明の一実施例は、OCRベース文書分析システムであって、客体探知モデルを用いて認識対象イメージにおいて任意の形式(form)、文字及び数字のうち少なくとも一つの客体の位置を探知するが、探知された形式、文字及び数字の客体の周りに沿って四角形状を表示して四角形状のピクセル位置値を生成し、OCRモデルを用いて前記四角形状のピクセル内で認識される文字及び数字情報を出力し、前記生成された四角形状のピクセル位置値に基づいて隣接した全ての四角形状のピクセルを連結し、前記連結された四角形状のピクセル位置に、前記OCRモデルによって認識された文字及び数字情報をマッチさせてディスプレイする文書分析装置からなることを特徴とする。
また、前記実施例に係る文書分析装置は、任意の文書で用いられる文字(項目)情報を定義した項目DBを生成及び保存し、
前記認識された文字に対して項目DBの文字情報との比較によって矯正するか否かを決定し、認識された文字が矯正されることにより、前記認識された文字、矯正された文字及び数字情報を反映してディスプレイすることを特徴とする。
また、前記実施例に係る文書分析装置は、OCRモデルを用いた認識率に基づく認識された文字及び数字の信頼点数を算出し、算出された信頼点数を前記ディスプレイ情報に反映して視覚的に表示されるようにし、前記信頼点数は、補正モデルを用いてフォーム、形状、位置のうち少なくとも一つの補正を行うことによって算出される再建率がさらに反映されることを特徴とする。
また、前記実施例に係る文書分析装置は、認識対象イメージを受信する入力部;前記受信した認識対象イメージにおいて客体探知モデルを用いて任意の形式(form)、文字及び数字の客体のうち少なくとも一つの位置を探知し、探知された形式、文字及び数字の客体の周りに四角形状を表示し、表示された四角形状のピクセル位置値を生成する客体探知モデリング部;OCRモデルを用いて前記四角形状のピクセル内で認識される文字及び数字情報を出力するOCRモデリング部;前記生成された四角形状のピクセル位置値と、前記認識された文字及び数字情報に基づいて、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動するが、文字情報が検索されると、移動中に検索された全ての四角形状のピクセルを連結し、前記連結された四角形状のピクセル位置に、前記OCRモデルによって認識された文字及び数字情報をマッチさせてディスプレイさせるフォーム構成モデリング部;及び、前記生成された四角形状のピクセル位置値、認識された文字、数字情報及びマッチング結果と、特定機関で使用する文書データのフォームを保存するデータベース;を含むことを特徴とする。
また、上記の実施例に係る客体探知モデルは、PSENet(Progressive Scale Expansion Network)ベースのディープラーニングモデルを用いて、文書イメージを含む学習データから形状、文字及び数字の客体の位置探知と、探知された形式、文字及び数字の客体の周りに沿って四角形状を表示し、前記表示された前記四角形式のピクセル位置値生成を学習することを特徴とする。
また、前記実施例に係る客体探知モデルは、原本イメージ、文書の任意の部分が折れたイメージ、文書の位置が任意の角度で傾いたイメージ、任意の照度を有する明るさが調節されたイメージ、文書に表示された内容が鮮明でなく途切れた連結線を持つイメージ、文書の任意の部分が屈曲したイメージ、数字と連結線が重なったイメージに基づいて学習データを学習することを特徴とする。
また、前記実施例に係るフォーム構成モデリング部は、前記生成された四角形状のピクセル位置値と、前記認識された数字情報に基づいて、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動できる。
また、前記実施例に係るフォーム構成モデリング部は、移動中に検索される全ての四角形状のピクセルを連結し、前記連結された四角形状の配列情報を分析し、あらかじめ保存された特定機関文書の配列情報と比較し、前記比較の結果、特定機関文書の配列情報がマッチすれば、前記特定機関文書の四角形状ピクセル位置に、認識された数字情報をマッチさせてディスプレイさせることを特徴とする。
また、前記実施例に係るフォーム構成モデリングは、生成された四角形状のピクセル中心点にマーカーを表示し、前記認識された数字情報に基づいて、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動できる。
また、前記実施例に係るフォーム構成モデリング部は、移動中に検索される全ての四角形状のピクセルを連結し、連結された四角形状のマーカー位置情報を分析し、あらかじめ保存された特定機関文書の配列情報と比較し、前記比較の結果、特定機関文書の配列情報がマッチすれば、前記特定機関文書の四角形状ピクセル位置に、認識された数字情報をマッチさせてディスプレイさせることを特徴とする。
また、前記実施例に係る文書分析装置は、認識対象イメージを受信する入力部;前記認識対象イメージから認識される文字情報と比較するために、任意の文書で用いられる文字(項目)情報を定義した項目DBを生成する項目DB生成部;前記受信した認識対象イメージにおいて客体探知モデルを用いて任意の形式(form)、文字及び数字の客体のうち少なくとも一つの位置を探知し、探知された形式、文字及び数字の客体の周りに四角形状を表示し、表示された四角形状のピクセル位置値を生成する客体探知モデリング部;OCRモデルを用いて前記四角形状のピクセル内で認識される文字及び数字情報を出力するOCRモデリング部;前記認識された文字情報を項目DBと比較し、認識された文字を項目DBの文字情報に矯正することにより、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動するが、文字情報が検索されると、移動中に検索された全ての四角形状のピクセルを連結し、前記連結された四角形状のピクセル位置に、前記OCRモデルによって矯正された文字及び数字情報をマッチさせてディスプレイさせるフォーム構成モデリング部;及び、前記生成された四角形状のピクセル位置値、矯正された文字及び数字情報及びマッチング結果と、特定機関で使用する文書データのフォームを保存するデータベースを含むことを特徴とする。
また、前記実施例に係るフォーム構成モデリング部は、自然語処理(Natural Language Processing,NLP)により、探知された文字に対して分析することを特徴とする。
また、前記実施例に係るフォーム構成モデリング部は、認識された文字と項目DB情報とを比較し、認識された文字に対する信頼点数を算出することを特徴とする。
また、前記実施例に係るフォーム構成モデリング部は、数字の客体の四角形状ピクセルサイズに対して、横長及び縦長が、隣接した他の四角形状ピクセルの横長及び縦長と同一であるか又は他のボックスの横長及び縦長に含まれると連結されるようにすることを特徴とする。
また、前記実施例に係るフォーム構成モデリング部は、最も近い左側及び上側の四角形状ピクセルのうち少なくとも一つを連結し、連結された四角形状ピクセル内の文字の客体を探すまで連結することを特徴とする。
また、前記実施例に係るフォーム構成モデリング部は、検索された四角形状のピクセルが空欄であれば、左側方向に位置した後、四角形状のピクセルと連結することを特徴とする。
また、前記実施例に係る文書分析装置は、信頼点数によって、正常認識領域と、誤った領域及び補正領域を含む誤り発生領域とが互いに異なる色相の視覚化情報で表示されるようにすることを特徴とする。
また、前記実施例に係る文書分析装置は、認識対象イメージを受信する入力部;前記受信した認識対象イメージにおいて客体探知モデルを用いて形式、文字及び数字の客体のうち少なくとも一つの位置を探知し、探知された形式、文字及び数字の客体の周りに四角形状を表示し、表示された四角形状のピクセル位置値を生成する客体探知モデリング部;OCRモデルを用いて前記四角形状のピクセル内で認識される文字及び数字情報を出力するOCRモデリング部;前記認識された文字を項目DBの文字情報に矯正することにより、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動するが、文字情報が検索されると、移動中に検索された全ての四角形状のピクセルを連結し、前記連結された四角形状のピクセル位置に、前記OCRモデルによって矯正された文字及び数字情報をマッチさせてディスプレイさせるフォーム構成モデリング部;補正モデルを用いて前記認識された文字及び数字の信頼点数を算出し、算出された信頼点数に基づいて前記ディスプレイに反映して視覚的に表示されるようにする信頼度評価部;及び、前記生成された四角形状のピクセル位置値、認識された文字、数字情報、信頼情報と、特定機関で使用する文書データのフォームを保存するデータベース;を含むことを特徴とする。
また、前記実施例に係る文書分析装置は、認識対象イメージに含まれた文字に対して任意の文書からあらかじめ設定された文字に対する項目DB情報を生成する項目DB生成部;をさらに含むことができる。
また、前記フォーム構成モデリング部は、前記探知された文字の客体に対して項目DB情報とマッチさせ、マッチング結果によって認識された文字が矯正されると、前記矯正された文字を反映させることを特徴とする。
また、前記実施例に係るフォーム構成モデリング部は、文字及び数字の四角形状ボックスの色相が、正常認識領域と、誤った領域及び補正領域を含む誤り発生領域とが互いに異なる色相で表示されることを特徴とする。
また、本発明の一実施例に係る文書分析方法は、a)文書分析装置が、受信した認識対象イメージにおいて客体探知モデルを用いて任意の形式、文字及び数字の客体のうち少なくとも一つの位置を探知し、探知された形式、文字及び数字の客体の周りに四角形状を表示して四角形状のピクセル位置値を生成する段階;b)前記文書分析装置が、OCRモデルを用いて探知された四角形状ピクセル内で認識される文字及び数字情報を出力する段階;及び、c)前記文書分析装置が、前記生成された四角形状のピクセル位置値と、前記認識された文字及び数字情報に基づいて、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動するが、文字情報が検索されると、移動中に検索された全ての四角形状のピクセルを連結し、前記連結された四角形状のピクセル位置に、前記OCRモデルによって認識された文字及び数字情報をマッチさせてディスプレイさせる段階;を含む。
また、前記実施例は、a)段階の客体探知モデルがPSENet(Progressive Scale Expansion Network)ベースのディープラーニングモデルを用いて、文書イメージを含む学習データから形状、文字及び数字の客体の位置探知と、探知された形状、文字及び数字の客体の周りに沿って四角形状のボックスと前記四角形状のピクセル位置値生成を学習することを特徴とする。
また、前記実施例は、前記a)段階の客体探知モデルが、原本イメージ、文書の任意の部分が折れたイメージ、文書の位置が任意の角度で傾いたイメージ、任意の照度を有する明るさが調節されたイメージ、文書に表示された内容が鮮明でなく途切れた連結線を持つイメージ、文書の任意の部分が屈曲したイメージ、数字と連結線が重なったイメージに基づいて学習データを学習することを特徴とする。
また、前記実施例に係るc)段階は、c-1)生成された四角形状のピクセル位置値と、前記認識された文字及び数字情報に基づいて、数字情報を有する任意の四角形状のピクセル位置を開始位置にして文字情報が検索されるまで左側方向及び上側方向に移動する段階;c-2)前記文字情報が検索されると、移動中に検索された全ての四角形状のピクセルを連結する段階;及び、c-3)前記四角形状のピクセル位置には認識された文字と数字情報をマッチさせてディスプレイする段階;を含むことを特徴とする。
また、前記実施例に係るc)段階は、c’-1)前記生成された四角形状のピクセル位置値と、前記認識された数字情報に基づいて、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動する段階;c’-2)前記移動中に検索される全ての四角形状のピクセルを連結する段階;及び、c’-3)前記連結された四角形状の配列情報を分析し、あらかじめ保存された特定機関文書の配列情報と比較し、前記比較の結果、特定機関文書の配列情報がマッチすれば、前記特定機関文書の四角形状ピクセル位置に、認識された数字情報をマッチさせてディスプレイする段階;を含むことを特徴とする。
また、前記実施例に係るc)段階は、c”-1)生成された四角形状のピクセルの中心点にマーカー(520)を表示する段階;c”-2)前記認識された数字情報に基づいて、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動し、移動中に検索される全ての四角形状のピクセルを連結する段階;c”-3)連結された四角形状のマーカー(520)位置情報を分析し、あらかじめ保存された特定機関文書の配列情報と比較する段階;及び、c”-4)前記比較結果、特定機関文書の配列情報がマッチすれば、前記特定機関文書の四角形状ピクセル位置に、認識された数字情報をマッチさせてディスプレイする段階;を含むことを特徴とする。
また、前記実施例に係るb)段階は、文書分析装置が前記認識対象イメージから認識される文字情報と比較するために、任意の文書で用いられる文字(項目)情報を定義した項目DBを生成する段階;及び、文書分析装置が探知された文字の客体に対して項目DB情報とマッチさせ、マッチング結果によって、認識された文字を矯正する段階;をさらに含むことを特徴とする。
また、前記実施例に係る文書分析探知装置は、探知された文字の客体に対して自然語処理(Natural Language Processing,NLP)によって文字を分析し、分析された文字と項目DB情報との比較に基づいて、分析された文字に対する信頼点数を算出して、認識された文字を矯正するか否か判断し、前記認識された文字の矯正を行うことによってNLPベースの矯正を行うことを特徴とする。
また、前記実施例に係る文書分析装置は、四角形状のピクセルが空欄であれば、左側方向に位置した後、四角形状のピクセルと連結することを特徴とする。
また、前記実施例は、d)前記文書分析装置が補正モデルを用いて前記認識された文字及び数字の信頼点数を算出し、算出された信頼点数に基づいてディスプレイに反映して視覚的に表示する段階;をさらに含むことを特徴とする。
また、前記実施例に係るd)段階の補正モデルは、フォーム、形状、位置のうち少なくとも一つの補正を行うことによる再建率と、項目DB情報とのマッチング結果による矯正された文字の反映有無に基づいて信頼点数を算出することを特徴とする。
また、前記実施例に係る文書分析装置は、前記生成された文字の客体のピクセル位置値に基づいて、左側領域に文字の客体が配置される左側ヘッダー領域と上側領域に文字の客体が配置される上側ヘッダー領域とに区分し、前記左側ヘッダー領域と上側ヘッダー領域を基準に仮想セル客体を生成して配置し、前記配置された仮想セル客体と数字客体をマッチさせて行列情報に基づいて連結し、前記OCRモデルによって認識された文字及び数字情報がディスプレイされるようにする特徴とする。
また、前記実施例に係る文書分析装置は、認識対象イメージを受信する入力部;前記受信した認識対象イメージにおいて客体探知モデルを用いて任意の形式(form)、文字及び数字の客体のうち少なくとも一つの位置を探知し、探知された形式、文字及び数字の客体の周りに四角形状を表示し、表示された文字及び数字の客体のピクセル位置値を生成する客体探知モデリング部;OCRモデルを用いて前記四角形状のピクセル内で認識される文字及び数字情報を出力するOCRモデリング部;前記生成された文字の客体のピクセル位置値に基づいて左側領域に文字の客体が配置される左側ヘッダー領域と上側領域に文字の客体が配置される上側ヘッダー領域とに区分し、前記左側ヘッダー領域と上側ヘッダー領域を基準にM×Nサイズの仮想セル客体を生成して配置し、前記配置された仮想セル客体と数字客体をマッチさせて行列情報に基づいて連結し、前記OCRモデルによって認識された文字及び数字情報がディスプレイされるようにする仮想セルフォーム構成モデリング部;及び、前記生成された四角形状のピクセル位置値、認識された文字、数字情報及びマッチング結果と、特定機関で使用する文書データのフォームを保存するデータベース;を含むことを特徴とする。
また、前記実施例に係る仮想セルフォーム構成モデリング部は、文字の客体の左側ヘッダー領域と上側ヘッダー領域を区分するが、前記区分された左側ヘッダー領域と上側ヘッダー領域に含まれた文字の客体間の間隔及びサイズを算出し、前記区分された左側ヘッダー領域と上側ヘッダー領域を基準に仮想セル客体を配置することを特徴とする。
また、前記実施例に係る仮想セルフォーム構成モデリング部は、左側上端に配置された仮想セル客体と数字客体をマッチさせるが、前記マッチした数字客体と仮想セル客体間の勾配を算出し、前記算出された勾配は右側下端に配置された仮想セル客体と数字客体のマッチングまで反映されるようにすることを特徴とする。
また、本発明の一実施例はOCRベース文書分析方法であって、i)文書分析装置が認識対象イメージを受信する段階;ii)前記文書分析装置が、受信した認識対象イメージにおいて客体探知モデルを用いて任意の形式、文字及び数字の客体のうち少なくとも一つの位置を探知し、探知された形式、文字及び数字の客体の周りに四角形状を表示して文字及び数字の客体のピクセル位置値を生成する段階;iii)前記文書分析装置が、OCRモデルを用いて探知された四角形状ピクセル内で認識される文字及び数字情報を出力する段階;及び、iv)前記文書分析装置が、前記生成された文字の客体のピクセル位置値に基づいて、左側領域に文字の客体が配置される左側ヘッダー領域と上側領域に文字の客体が配置される上側ヘッダー領域とに区分し、前記左側ヘッダー領域と上側ヘッダー領域を基準に仮想セル客体を生成して配置し、前記配置された仮想セル客体と数字客体をマッチさせて行列情報に基づいて連結し、前記OCRモデルによって認識された文字及び数字情報がディスプレイされるように最終結果を出力する段階;
を含む。
また、前記実施例に係るiv)段階の文字の客体の左側及び上側ピクセル位置を基準に配置する段階は、iv-1)文書分析装置が、文字の客体の左側ヘッダー領域と上側ヘッダー領域を区分する段階;iv-2)前記区分された左側ヘッダー領域と上側ヘッダー領域に含まれた文字の客体間の間隔及びサイズを算出する段階;及び、iv-3)前記区分された左側ヘッダー領域と上側ヘッダー領域を基準に仮想セル客体を配置する段階を含むことを特徴とする。
また、前記実施例に係るiv)段階の配置された仮想セル客体と数字客体をマッチさせて行列情報に基づいて連結する段階は、iv-4)前記文書分析装置が、左側上端に配置された仮想セル客体と数字客体をマッチさせて数字客体と仮想セル客体間の勾配を算出する段階;及び、iv-5)前記文書分析装置が、行列情報によって順次に移動して前記算出された勾配を右側下端に配置された仮想セル客体と数字客体のマッチングまで反映して連結する段階を含むことを特徴とする。
本発明は、文書上の項目に記載された文字及び数字を含むテキストを認識し、認識されたテキストに対する相対的な位置情報に基づいて項目間の連結関係を分析することによって、認識された数字を該当の項目にマッチさせることができる長所がある。
また、本発明は、認識された項目間の連結及び相対的な位置関係に基づいて文字が配置されたパターンを分析し、特定の文書又は領収書などを使用する病院、保険会社などの機関で使用したフォームパターンと比較することによって、迅速で正確なマッチングが可能であるという長所がある。
また、本発明は、病院、保険会社などの機関で使用したフォームパターンと比較して使用することによって、OCRを数字のみの認識として単純化させることができるという長所がある。
また、本発明は、標準化されたイメージでなくても、様々な学習データを用いたディープラーニング学習によって認識の正確度を向上させることができる長所がある。
また、本発明は、認識対象イメージが傾いた状態で入力されても正確な認識を行うことができる長所がある。
また、本発明は、OCRによって認識された情報に対して、信頼点数に基づいて、正常認識された部分と、誤った部分又は不審な部分とを、互いに異なる色相の視覚化情報で提供することによって、検査者による確認作業時間を減少させることができる長所がある。
また、本発明は、病院、薬局などで使用する様々なフォーマットの領収書に対して正確な情報の認識が可能である長所がある。
また、本発明は、病院、保険会社などの機関で使用する様々なフォーマットの領収書に対して正確で且つ信頼できる使用情報を提供できる長所がある。
本発明の第1実施例に係るOCRベース文書分析システムの構成を示すブロック図である。
図1の実施例に係るOCRベース文書分析システムの文字位置探知を説明するための例示図である。
図2による文字位置探知結果を示す例示図である。
図1の実施例に係るOCRベース文書分析システムのOCR認識結果を示す例示図である。
図1の実施例に係るOCRベース文書分析システムの文字位置探知モデルの結果及びOCRモデルの結果を示す例示図である。
図1の実施例に係るOCRベース文書分析システムの連結過程を説明するための例示図である。
図1の実施例に係るOCRベース文書分析システムの四角形状連結を示す例示図である。
図1の実施例に係るOCRベース文書分析システムの自動増強モデリングのための学習データを示す例示図である。 図1の実施例に係るOCRベース文書分析システムの自動増強モデリングのための学習データを示す例示図である。 図1の実施例に係るOCRベース文書分析システムの自動増強モデリングのための学習データを示す例示図である。 図1の実施例に係るOCRベース文書分析システムの自動増強モデリングのための学習データを示す例示図である。 図1の実施例に係るOCRベース文書分析システムの自動増強モデリングのための学習データを示す例示図である。 図1の実施例に係るOCRベース文書分析システムの自動増強モデリングのための学習データを示す例示図である。
本発明の一実施例に係るOCRベース文書分析過程を示すフローチャートである。
図14の実施例に係る項目マッチング過程を示すフローチャートである。
図14の実施例に係る項目マッチング過程を示す他のフローチャートである。
図14の実施例に係る項目マッチング過程を示すさらに他のフローチャートである。
本発明の第2実施例に係るOCRベース文書分析システムの構成を示すブロック図である。
図18の実施例に係るOCRベース文書分析システムの項目DB生成を説明するための例示図である。
図18の実施例に係るOCRベース文書分析システムの項目DBを示す例示図である。
図18の実施例に係るOCRベース文書分析システムの文字位置探知を説明するための例示図である。
図21の実施例に係る文字位置探知結果を示す例示図である。
図18の実施例に係るOCRベース文書分析システムのNLP過程を示す例示図である。
図18の実施例に係るOCRベース文書分析システムのOCR認識結果を示す例示図である。
図18の実施例に係るOCRベース文書分析システムの連結による再構成イメージを示す例示図である。
図18の実施例に係るOCRベース文書分析システムの客体探知ボックスの連結過程を説明するための例示図である。
図18の実施例に係るOCRベース文書分析システムの客体探知ボックスの連結過程を説明するための他の例示図である。
本発明の第2実施例に係るOCRベース文書分析過程を示すフローチャートである。
本発明の第3実施例に係るOCRベース文書分析システムを示すブロック図である。
第3実施例に係る連結過程を説明するための例示図である。
図30の実施例に係るOCRベース文書分析システムの再構成イメージを示す例示図である。
本発明の第3実施例に係るOCRベース文書分析過程を示すフローチャートである。
本発明の第4実施例に係るOCRベース文書分析システムを示すブロック図である。
図33の実施例に係るOCRベース文書分析システムの仮想セル連結過程を説明するための例示図である。
図33の実施例に係るOCRベース文書分析システムの仮想セル連結過程を説明するための他の例示図である。
図33の実施例に係るOCRベース文書分析システムの位置座標に基づいて仮想セルの連結過程を説明するための例示図である。
図33の実施例に係るOCRベース文書分析システムの仮想セルを用いた最終連結状態を示す例示図である。
図33の実施例に係るOCRベース文書分析システムを用いてずれた文字連結状態を示す例示図である。
図33の実施例に係るOCRベース文書分析システムを用いて曲がった文字連結状態を示す例示図である。
本発明の第4実施例に係るOCRベース文書分析過程を示すフローチャートである。
図40の実施例に係る仮想セルベース項目マッチング過程を示すフローチャートである。
以下では本発明の好ましい実施例及び添付の図面を参照して本発明を詳細に説明するが、図中の同一の参照符号は同一の構成要素を指すことを前提にして説明する。
本発明の実施のための具体的な内容を説明するに先立ち、本発明の技術的要旨と直接の関連がない構成については、本発明の技術的要旨を乱さない範囲内で省略していることに留意されたい。
また、本明細書及び特許請求の範囲に使われる用語又は単語は、発明者が自分の発明を最善の方法で説明するために適切な用語の概念を定義することができるという原則に立ち、発明の技術的思想に符合する意味及び概念と解釈されるべきであろう。
本明細書において、あるな部分がある構成要素を「含む」という表現は、他の構成要素を排除する意味ではなく、他の構成要素をさらに含み得るということを意味する。
また、「‥部」、「‥器」、「‥モジュール」などの用語は、少なくとも一つの機能や動作を処理する単位を意味し、これは、ハードウェア、ソフトウェア、又はこれらの結合によって区別されてよい。
また、「少なくとも一つ」という用語は、単数及び複数を含む用語と定義され、「少なくとも一つ」という用語が存在しなくても、各構成要素が単数又は複数で存在してよく、単数又は複数を意味できることは明らかであろう。
また、各構成要素が単数又は複数で備えられることは、実施例によって変更可能であろう。
以下、添付の図面を参照して、本発明の一実施例に係るOCRベース文書分析システム及び方法の好ましい実施例を詳細に説明する。
(第1実施例)
図1は、本発明の第1実施例に係るOCRベース文書分析システムの構成を示すブロック図であり、図2は、図1の実施例に係るOCRベース文書分析システムの文字位置探知を説明するための例示図であり、図3は、図2よる文字位置探知結果を示す例示図であり、図4は、図1の実施例に係るOCRベース文書分析システムのOCR認識結果を示す例示図であり、図5は、図1の実施例に係るOCRベース文書分析システムの文字位置探知モデルの結果及びOCRモデルの結果を示す例示図であり、図6は、図1の実施例に係るOCRベース文書分析システムの連結過程を説明するための例示図であり、図7は、図1の実施例に係るOCRベース文書分析システムの四角形状連結を示す例示図である。
図1~図7を参照して説明すると、本発明の第1実施例に係るOCRベース文書分析システムは、客体探知モデルを用いて認識対象イメージから任意の形式(form)、文字及び数字のうち少なくとも一つの客体の位置を探知するが、探知された形式、文字及び数字の客体の周りに沿って四角形状を表示して四角形状のピクセル位置値を生成し、OCRモデルを用いて前記四角形状のピクセル内で認識される文字及び数字情報を出力し、前記生成された四角形状のピクセル位置値に基づいて隣接した全ての四角形状のピクセルを連結し、前記連結された四角形状のピクセル位置に前記OCRモデルによって認識された文字及び数字情報をマッチさせてディスプレイする文書分析装置100からなってよい。
また、文書分析装置100は、外部から送信される認識対象イメージを受信する入力部110を含んで構成されてよい。
入力部110は、ネットワークを介して接続された外部端末から送信されるイメージ又はスキャナーなどでスキャンされたイメージなどを受信するデータ通信手段で構成されてよい。
また、文書分析装置100は、入力部110で受信した認識対象イメージにおいて客体探知モデルを用いてイメージに含まれた任意の形式(form)、文字及び数字の客体の位置を探知し、探知された形式、文字及び数字の客体の周りに沿って四角形状を表示して四角形状のピクセル位置情報を生成する客体探知モデリング部120を含んで構成されてよい。
すなわち、客体探知モデリング部120は、形式、文字及び数字の客体に対する相対的な位置の認識を行い、形式、文字及び数字の客体の位置による配列を確認できるように探知された形式、文字及び数字の客体の周りに沿って四角形状を表示し、表示された四角形状のピクセル位置値(座標情報)を生成する。
ここで、客体探知モデルは、PSENet(Progressive Scale Expansion Network)ベースのディープラーニングモデルを用いて、文書イメージを含む学習データから形式、文字及び数字の客体と、その位置を探知し、探知率の向上のために学習を行うことができる。
また、客体探知モデルは、領収書の原本イメージに基づいて、図8のように文書の任意の部分が折れたイメージ、図9のように文書の位置が任意の角度で傾いたイメージ、図10のように任意の照度を有する明るさが調節されたイメージ、図11のように文書に表示された内容が鮮明でなく途切れた連結線を持つイメージ、図12のように文書の任意の部分が屈曲したイメージ、図13のように数字と連結線が重なったイメージ、などに基づく学習データを用いて学習することができる。
このように、様々な環境、例えば、照明、撮影角度、撮影時の揺れ、撮影構図、写真解像度などの様々な与件で撮影され得るイメージを勘案して、原本イメージと比較して様々な変化を与えたイメージを事前に学習することによって、実際の環境で受信されるイメージに対する探知率又は認識率を向上させることができる。
一方、本発明では、説明の便宜のために、認識対象イメージを、病院領収書と関連したイメージを実施例として説明するが、これに限定されず、薬局領収書、税金計算書、見積書、請求書、取引明細書、各種計算書及び領収書などを含むことができる。
また、客体探知モデルは、自動増強(Auto Augmentation)によって様々な変化を与えたイメージに基づいて探知を行うとき、最適の規則を探すこともできる。
また、客体探知モデルは、探知された形式、文字及び数字の客体に対して四角形状のピクセルを設定し、設定されたピクセルの位置値を生成することができる。
すなわち、入力された文書イメージ200において任意の探知領域210から探知された、例えば文字の客体211に対して、外部面に四角形状のボックス212で構成されたピクセル位置値を生成し、認識された客体213に対する情報を文字探知結果220で表示することによって、四角形状ベースのパターン認識を可能にする。
本実施例では、説明の便宜のために、文字を客体として説明するが、これに限定されず、数字、領収書のフォームを構成する形式(form)を客体として含んでもよいことは、当業者にとって明らかであろう。
また、四角形状のボックス212は、好ましくは長方形(rectangular)からなってよい。
また、形式の周りに沿って表示された四角形状の構成(又は、配列)パターンに基づいて、後述するフォーム構成モデリング部140が、あらかじめ保存された機関(病院)の領収書構成と比較して、どの機関の領収書であるかを区別することもできる。
ここで、形式は、文書テーブルを構成するフォームにおいて一つのセル(Cell)であり、長方形からなってよい。
また、文書分析装置100は、客体探知モデリング部120で探知された形式、文字及び数字の客体に対してOCRモデルを用いて文字及び数字を認識するOCRモデリング部130を含んで構成されてよい。
ここで、OCRモデリング部130はイメージベースのテキスト文書を自動で感知して認識する構成であり、公知のOCRモデルを用いて構成されてよい。
また、OCRモデリング部130は、OCR認識結果300に対して認識された予測情報310と、予測情報310に対する信頼点数320を算出して共に提供することができる。
ここで、予測情報310は、認識された客体に含まれる文字及び数字を示しているものであり、信頼点数320は、OCRによって認識する過程で内容が鮮明でなかったり、連結された部分が途切れたりした場合などを反映して全体部分から認識された部分の比率を算出した認識率であってよい。
また、文書分析装置100は、探知された形式、文字及び数字の客体の位置に基づいて、隣接した形式、全ての文字及び数字の客体の四角形状ピクセルを連結し、前記連結された四角形状のピクセル位置に、前記OCRモデルによって認識された文字及び数字情報をマッチさせてディスプレイさせるフォーム構成モデリング部140を含んで構成されてよい。
すなわち、フォーム構成モデリング部140は、客体探知モデリング部120の探知結果220と、OCRモデリング部130の予測情報310に基づいて認識した予測情報がどの項目であるかマッチさせる。
また、フォーム構成モデリング部140は、客体探知モデリング部120の探知結果220と、OCRモデリング部130の予測情報310をマッチするために、隣接した全ての文字及び数字の客体の四角形状ピクセルを連結する。
また、一般的な領収書などの会計関連文書は、文字でできた項目が主に上側及び左側に配置されるので、形式の周りに沿って表示した四角形状のピクセルに対する連結のために、開始位置を、任意の数字情報を有する四角形状のピクセルとし、四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動しつつ全ての四角形状のピクセル(位置)を検索する。
また、フォーム構成モデリング部140は、開始位置から最も近い左側の四角形状ピクセル及び上側の四角形状ピクセルをまず連結し、その後、隣接した全ての客体を連結することが好ましい。
また、フォーム構成モデリング部140は、上述の移動及び検索過程を反復して全ての四角形状ピクセルの検索を行い、左側及び上側にテキスト、例えば、文字情報(項目)が含まれた四角形状ピクセルが出るまで移動、検索を行う。
また、フォーム構成モデリング部140は、文字情報が含まれた四角形状ピクセルが出ると、検索された全ての四角形状ピクセルを連結する。
すなわち、図6を参照すると、文書イメージ400において基準客体ボックス410の左側及び上側に移動及び検索を行って次の客体の四角形状ボックスと連結を行い、左側に位置した左側客体ボックス420が文字又は数字であれば、左側連結線440で連結する。
また、上側に移動、検索及び連結を行って上側客体四角形状ボックスと連結を行い、上側に位置した上側客体ボックス430が文字情報(項目)又は数字であれば、上側連結線441で連結する。
続いて、フォーム構成モデリング部140は、隣接した四角形状ピクセルの連結後に、数字情報から始めて左側及び上側の文字情報(項目)を探すと、前記四角形状のピクセル位置には、認識された文字と数字情報をマッチさせてディスプレイさせる。
この時、フォーム構成モデリング部140は、データベース150に保存された特定機関文書のボックス配列情報と比較してマッチするか否かを確認することができる。
ここで、特定機関は、病院、薬局、会社など、領収書及び会計関連文書を任意のフォームで発行するあらゆる所を含むことができる。
また、図7は、四角形状ピクセルの連結状態を示す図であり、文書に含まれた四角形状を客体として認識して連結したものである。
すなわち、フォーム構成モデリング部140は、客体探知モデルによって探知された形式と前記探知された形式の相対的位置に基づいて生成した四角形状のピクセル位置値と、OCRモデルによって認識された数字情報に基づいて、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動し、移動によって検索される全ての四角形状のピクセルを連結する。
また、フォーム構成モデリング部140は、連結された四角形状の配列情報を分析し、データベース150に保存された特定機関文書の配列情報と比較する。
比較の結果、分析された配列情報が特定機関文書の配列情報とマッチすれば、フォーム構成モデリング部140は、特定機関文書の四角形状ピクセル位置に、OCRモデルで認識された数字情報をマッチさせてディスプレイさせる。
また、フォーム構成モデリング部140は、客体探知モデルによって探知された形式と前記探知された形式の相対的位置に基づいて生成した四角形状のピクセル中心点にマーカー520を表示し、OCRモデルによって認識された数字情報に基づいて、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動し、移動によって検索される全ての四角形状のピクセルを連結する。
また、フォーム構成モデリング部140は、連結された四角形状のピクセル中心点にマーカー520を表示し、各マーカー520の位置情報を分析して、データベース150に保存された特定機関文書の配列情報と比較する。
比較の結果、特定機関文書の配列情報がマッチすれば、フォーム構成モデリング部140は、特定機関文書の四角形状ピクセル位置に、OCRモデルで認識された数字情報をマッチさせ、ディスプレイさせる。
また、文書分析装置100は、フォーム構成モデリング部140から出力される再構成イメージ、特定機関で使用する文書データのフォーム(又は、形式)などを保存するデータベース150を含んで構成されてよい。
次に、本発明の第1実施例に係るOCRベース文書分析方法を説明する。
図14は、本発明の第1実施例に係るOCRベース文書分析過程を示すフローチャートであり、図15は、図14の実施例に係る項目マッチング過程を示すフローチャートである。
図1、図14及び図15を参照すると、文書分析装置100は、ネットワークを介して連結された外部端末又はファクシミリなどから認識対象領収書のイメージを受信(S100)する。
文書分析装置100は、受信した認識対象領収書のイメージにおいて客体探知モデルを用いて任意の形式、文字及び数字の客体とその位置を探知し、探知された形式、文字及び数字の客体の周りに沿って四角形状を表示して四角形状のピクセル位置情報を生成する文字探知段階を行う(S200)。
また、S200段階で、客体探知モデルは、PSENet(Progressive Scale Expansion Network)ベースのディープラーニングモデルを用いて、文書イメージを含む学習データから形式、文字及び数字の客体と、その位置を探知し、探知率の向上のために学習を行うことができる。
また、客体探知モデルは、原本イメージ、文書の任意の部分が折れたイメージ、文書の位置が任意の角度で傾いたイメージ、任意の照度を有する明るさが調節されたイメージ、文書に表示された内容が鮮明でなく途切れた連結線を持つイメージ、文書の任意の部分が屈曲したイメージ、数字と連結線が重なったイメージに基づいて学習データを学習できる。
続いて、文書分析装置100は、探知された形式、文字及び数字の客体に対する四角形状ピクセル内で、OCRモデルを用いて文字及び数字情報を認識するOCR認識段階(S300)を行う。
S300段階を行った後、文書分析装置100は、探知された形式、文字及び数字の客体の四角形状ピクセル位置に基づいて隣接した全ての四角形状ピクセルを連結し、連結された四角形状ピクセルの文字及び数字情報をマッチさせる段階(S400)を行う。
S400段階をより詳しく説明すると、文書分析装置100は、生成された四角形状のピクセル位置値と、前記認識された文字及び数字情報に基づいて、数字情報を有する任意の四角形状のピクセル位置を開始位置にして文字情報が検索されるまで左側方向及び上側方向に移動(S410)する。
この時、開始位置から最も近い左側の四角形状ピクセルと上側の四角形状ピクセルをまず連結し、その後、隣接した全ての四角形状ピクセルを左側方向又は右側方向に移動しつつ、文字情報(項目)が出るまで数字客体を検索する。
続いて、文字情報が検索されると、移動中に検索された全ての四角形状のピクセルを連結(S411)する。
また、文書分析装置100は、連結された四角形状のピクセル位置に、OCRモデルによって認識された文字と数字情報をマッチさせてディスプレイさせ(S412)、データベース150に保存する。
一方、S400段階で、文書分析装置100は、連結された四角形状に対する配列情報を分析することもできる。
すなわち、生成された四角形状のピクセル位置値と、認識された数字情報に基づいて、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動し、移動中に検索される全ての四角形状のピクセルを連結(S420)する。
S420段階で連結された四角形状の配列情報を分析し、あらかじめ保存された特定機関文書の配列情報と比較(S421)する。
S421段階での比較により、特定機関文書の配列情報とマッチするか否か判断(S422)し、分析された四角形状の配列情報がマッチすれば、特定機関文書の四角形状ピクセル位置に認識された数字情報をマッチさせてディスプレイする(S423)。
一方、S422の判断の結果、マッチする文書の配列情報がないと、S410段階を行うことができる。
また、S400段階で、文書分析装置100は、連結された四角形状ピクセルの配列情報をマーカーを用いて分析することもできる。
すなわち、文書分析装置100は、生成された四角形状のピクセルの中心点にマーカー520を表示(S430)する。
また、文書分析装置100は、認識された数字情報に基づいて、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動し、移動中に検索される全ての四角形状のピクセルを連結(S431)する。
また、文書分析装置100は、マーカー520を用いた位置情報に基づいて四角形状ピクセルの構造情報を分析(S432)する。
S430段階の分析により、四角形状ピクセルの配列(又は、構造)が、データベース150に保存された特定機関文書の配列情報とマッチする文書があるか否か判断(S433)する。
S433段階の判断の結果、マーカーの配列情報と特定機関文書のマーカー配列情報がマッチすれば、特定機関文書の項目を検索(S434)し、検索された項目の位置に、OCRモデルで認識された数字情報をマッチさせてディスプレイさせる(S435)。
一方、S433段階の判断の結果、マッチする文書の配列情報がないと、S410段階を行うことができる。
したがって、文書上の項目に記載された四角形状、文字及び数字を含むテキストを認識し、認識された四角形状、テキストに対する相対的な位置情報に基づいて項目間の連結関係を分析することによって、認識された数字を該当の項目にマッチさせることができる。
また、認識された項目間の連結及び相対的な位置関係に基づいて、文字が配置されたパターンを分析し、特定文書又は領収書などを使用する病院、保険会社などの機関で使用したフォームパターンと比較することによって、迅速で正確なマッチングが可能である。
また、病院、保険会社などの機関で使用したフォームパターンと比較して使用することによって、OCRは数字のみの認識として単純化させることができる。
(第2実施例)
図18は、本発明の第2実施例に係るOCRベース文書分析システムの構成を示すブロック図である。
図18を参照すると、本発明の第2実施例に係るOCRベース文書分析システムは、任意の文書からあらかじめ設定された文字に対する項目DB300’情報を生成及び保存し、客体探知モデルを用いて認識対象イメージから文字及び数字の客体と位置を探知し、探知された文字及び数字の客体に対して、OCRモデルを用いて文字及び数字を認識し、認識された文字に対して項目DB300’情報との比較によって、矯正するか否かを決定し、認識された文字が矯正されることにより、前記認識された文字、矯正された文字及び数字が反映された再構成フォームを構成する文書分析装置100’からなってよい。
また、文書分析装置100’は、認識対象イメージを受信する入力部110’を含んで構成されてよい。
入力部110’は、ネットワークを介して接続された外部端末から送信されるイメージ又はスキャナーなどでスキャンされたイメージなどを受信するデータ通信手段で構成されてよい。
また、文書分析装置100’は、認識対象イメージに含まれた文字に対して、任意の文書からあらかじめ設定された文字に対する項目DB(300’、図20参照)情報を生成する項目DB生成部120’を含んで構成されてよい。
項目DB生成部120’は、図19のように、例えば、病院領収書などの文書200’に固定的に含まれ、請求内訳、診療内訳などの文字で表示された項目210’に対する情報を分析する。
また、項目DB生成部120’は、図19で分析された項目に対して、図20のような項目DB300’を生成し、データベース160’に保存する。
本発明では、説明の便宜のために、認識対象イメージを、病院領収書と関連したイメージを実施例として説明するが、これに限定されず、薬局領収書、税金計算書、見積書、請求書、取引明細書、各種計算書及び領収書などを含むことができる。
また、文書分析装置100’は、入力部110’に受信された認識対象イメージにおいて客体探知モデルを用いてイメージに含まれた任意の形式(form)、文字及び数字の客体の位置を探知し、探知された形式、文字及び数字の客体の周りに沿って四角形状を表示して四角形状のピクセル位置情報を生成する客体探知モデリング部130’を含んで構成されてよい。
すなわち、客体探知モデリング部130’は、形式、文字及び数字の客体に対する相対的な位置の認識を行い、形式、文字及び数字の客体の位置による配列を確認できるように、探知された形式、文字及び数字の客体の周りに沿って四角形状を表示し、表示された四角形状のピクセル位置値(座標情報)を生成する。
ここで、客体探知モデルは、PSENet(Progressive Scale Expansion Network)ベースのディープラーニングモデルを用いて、文書イメージを含む学習データから形式、文字及び数字の客体と、その位置を探知し、探知率の向上のために学習を行うことができる。
すなわち、領収書の原本イメージに基づいて文書の任意の部分がn等分に折れたイメージ、文書の位置が任意の角度で傾いたイメージ、任意の照度を有する明るさが調節されたイメージ、文書に表示された内容が鮮明でなく途切れた連結線を持つイメージ、文書の任意の部分が屈曲したイメージ、数字と連結線が重なったイメージなどに基づいて学習データを学習できる。
このように、様々な環境、例えば、照明、撮影角度、撮影時の揺れ、撮影構図、写真解像度などの様々な与件で撮影され得るイメージを勘案して、原本イメージと比較して様々な変化を与えたイメージを事前に学習することにより、実際環境で受信されるイメージに対する探知率又は認識率を向上させることができる。
一方、本発明では、説明の便宜のために、認識対象イメージを、病院領収書と関連したイメージを実施例として説明するが、これに限定されず、薬局領収書、税金計算書、見積書、請求書、取引明細書、各種計算書及び領収書などを含むことができる。
また、客体探知モデルは、自動増強(Auto Augmentation)によって様々な変化を与えたイメージに基づいて探知を行うとき、最適の規則を探すこともできる。
また、客体探知モデルは、探知された形式、文字及び数字の客体に対して四角形状のピクセルを設定し、設定されたピクセルの位置値を生成することができる。
すなわち、図21のように、入力された文書イメージ400’において任意の探知領域410’から探知された文字の客体411’に対して外部の周りに沿って四角形状のボックスで表示する。
また、客体探知モデルは、認識された客体に対する情報を、図22のように、客体探知結果420’で表示することによって、四角形状ベースのパターン認識も可能である。
本実施例では、説明の便宜のために文字の客体を説明するが、これに限定されず、数字、領収書のフォームを構成する形式(form)を客体として含んでもよいことは、当業者にとって明らかであろう。
また、形式の周りに沿って表示された四角形状の構成(又は、配列)パターンに基づいて、後述するフォーム構成モデリング部150が、あらかじめ保存された機関(病院)の領収書構成と比較してどの機関の領収書であるかを区別することもできる。
ここで、形式は、文書テーブルを構成するフォームにおいて一つのセル(Cell)であり、長方形からなってよい。
また、文書分析装置100’は、客体探知モデリング部130で探知された形式、文字及び数字の客体に対してOCRモデルを用いて文字及び数字を認識するOCRモデリング部140’を含んで構成されてよい。
ここで、OCRモデリング部140’は、イメージベースのテキスト文書を自動で感知して認識する構成であり、公知のOCRモデルを用いて構成されてよい。
また、OCRモデリング部140’は、OCRモデルを用いたOCR認識結果に対して認識された予測情報と、予測情報に対して後述のフォーム構成モデリング部で算出された信頼点数に基づく信頼点数を共に提供できる。
ここで、予測情報は、認識された客体に含まれる文字及び数字を示すものであり、信頼点数は、OCRによって認識する過程で内容が鮮明でなかったり、連結された部分が途切れたりした場合などを反映して、全体部分において認識された部分の比率を算出した認識率であってよい。
また、文書分析装置100’は、認識された文字情報を項目DB300’と比較し、認識された文字を項目DB300’の文字情報に矯正することにより、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動するが、文字情報が検索されると、移動中に検索された全ての四角形状のピクセルを連結し、前記連結された四角形状のピクセル位置に、前記OCRモデルによって矯正された文字及び数字情報をマッチさせてディスプレイさせるフォーム構成モデリング部150’を含んで構成されてよい。
フォーム構成モデリング部150’は、認識対象イメージから認識される文字情報と比較するために、任意の文書、例えば、病院領収書、薬局領収書、取引明細書、税金計算書などで用いられる文字(項目)情報を定義した項目DB300’を生成することができる。
また、フォーム構成モデリング部150’は、図23のように、認識された文字の客体411’に対する自然語処理(Natural Language Processing,NLP)により、認識された文字に対して形態素又は分節音別にNLP客体411a’を分析し、分析された結果と項目DB300’情報との比較に基づいて、認識された文字に対する信頼点数を算出して出力する。
例えば、認識された文字が「MRI診断-」である場合に、項目DB300’に保存された項目に対する情報を検索した後、検索された項目に対応する項目DB300’情報との比較によって信頼点数を算出する。
すなわち、フォーム構成モデリング部150’は、病院領収書に新しい項目が認識されたりOCRの失敗によって誤脱字、未認識字などが発生しても、NLPを用いて状況に合わせて処理可能にする。
また、フォーム構成モデリング部150’で算出された文字に対する信頼点数は、図24のように、OCR認識結果420’に認識された予測情報421’と、フォーム構成モデリング部150’で予測情報421’に対して算出された信頼点数422’を提供することもできる。
信頼点数422’が一定値以上であれば、使用者にとって、認識がよくなされたと判断でき、信頼点数422’が一定値以下であれば、使用者にとって、認識された結果に対して誤って認識されたと判断できる。
また、フォーム構成モデリング部150’は、認識された四角形状ピクセルの位置に基づいて、任意の開始位置で左側方向及び上側方向に隣接した全ての文字及び数字の四角形状ピクセルを連結し、図25のように、再構成されたフォーム500’を生成する。
一方、フォーム構成モデリング部150’は、数字客体のボックスサイズに対して、横長及び縦長が、隣接した他のボックスの横長及び縦長と同一であるか又は他のボックスの横長及び縦長に含まれると連結されるようにする。
図26を参照してより詳しく説明すると、数字として認識された開始客体ボックス600を基準に、開始客体ボックス600の横方向サイズ700及び縦方向サイズ710を、左側客体ボックス610と上側客体ボックス620の横方向サイズ700a及び縦方向サイズ710aと比較して同一であるか、又は左側客体ボックス610と上側客体ボックス620の横方向サイズ及び縦方向サイズに含まれると、左側連結線800及び上側連結線810で連結して表示させることができる。
本実施例では、説明の便宜のために、開始位置を、中央部分に位置した数字客体を開始客体ボックス600として説明したが、開始客体ボックス600の右側に位置した右側客体ボックス600a、開始客体ボックス600の下側に位置した下側客体ボックス630を開始位置として設定してもよく、例えば、右側客体ボックス600aを開始位置として設定すれば、「公団負担金」が認識された文字の客体が、上側客体ボックス620aになり得る。
また、フォーム構成モデリング部150’は、上記の過程を反復して、最も近い左側及び上側のみを連結し、連結後に、数字から始めて左側及び上側にテキスト、例えば、文字の客体(項目)が出るまで移動及び検索して連結する。
また、フォーム構成モデリング部150’は、再構成フォームの項目が矯正された文字、すなわち項目DB300’から選択された文字のみで構成されると、OCRモデリング部140’のOCRモデルによって認識された数字のみを認識し、認識された数字と項目をマッチさせることもできる。
また、文書分析装置100’は、フォーム構成モデリング部150’で再構成フォームと、再構成されたフォームからなる再構成イメージと、特定機関で使用する文書データのフォームと項目DBを保存するデータベース160’を含んで構成されてよい。
ここで、特定機関は、病院、薬局、会社など、領収書及び会計関連文書を任意のフォームで発行する全ての所を含むことができる。
また、フォーム構成モデリング部150’は、図27のように、傾いた状態のイメージが入力された場合に、傾いた状態で左側に移動し続くと他のラインの項目と連結されることがあるので、空欄感知モデルを用いて四角形状ピクセルに情報があるか否かを確認することができる。
すなわち、フォーム構成モデリング部150’は、任意の数字情報を含む第1四角形状ピクセル910から左側方向に移動し、この時、第2四角形状ピクセル920が空欄であれば、四角形状ピクセル間に連結がなされるようにし、四角形状ピクセル間に誤って連結されることを防止可能にする。
次に、本発明の第2実施例に係るOCRベース文書分析方法を説明する。
図28は、本発明の第2実施例に係るOCRベース文書分析過程を示すフローチャートである。
図18~図28を参照すると、文書分析装置100’は、ネットワークを介して連結された外部端末又はファクシミリなどから認識対象領収書のイメージを受信(S100’)する。
また、文書分析装置100’は、受信した認識対象領収書のイメージにおいて客体探知モデルを用いて任意の形式、文字及び数字の客体とその位置を探知し、探知された形式、文字及び数字の客体の周りに沿って四角形状を表示して四角形状のピクセル位置情報を生成する客体探知段階を行う(S200’)。
また、S200’段階で、客体探知モデルは、PSENet(Progressive Scale Expansion Network)ベースのディープラーニングモデルを用いて、文書イメージを含む学習データから形式、文字及び数字の客体と、その位置を探知し、探知率の向上のために学習を行うことができる。
また、客体探知モデルは、原本イメージ、文書の任意の部分が折れたイメージ、文書の位置が任意の角度で傾いたイメージ、任意の照度を有する明るさが調節されたイメージ、文書に表示された内容が鮮明でなく途切れた連結線を持つイメージ、文書の任意の部分が屈曲したイメージ、数字と連結線が重なったイメージに基づいて学習データを学習できる。
続いて、文書分析装置100’は、探知された形式、文字及び数字の客体に対する四角形状ピクセル内で、OCRモデルを用いて文字及び数字情報を認識するOCR認識段階(S300’)を行う。
S300’段階を行った後、文書分析装置100’は、任意の文書から固定化されているテキスト情報、すなわち、項目に対する文字情報を項目DB300情報として生成し、生成された項目DB300’情報はデータベース160’に保存(S400’)する。
前記認識された文字情報を項目DB300’と比較(S500’)し、認識された文字を項目DB300’の文字情報に矯正するに当たって矯正するか否かを決定するための誤脱字又は未認識字の有無を判断(S600’)する。
S600’段階の判断の結果、誤脱字又は未認識字があれば、文書分析装置100’は、NLPベースの矯正を行う(S700’)。
すなわち、S700’段階で、文書分析装置100’は自然語処理(Natural Language Processing,NLP)により、探知された文字に対して分析する。
また、S700’段階で、文書分析装置100’は、分析された文字と項目DB300’情報との比較に基づいて分析された文字に対する信頼点数を算出して出力することもできる。
続いて、文書分析装置100’は、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動するが、文字情報が検索されると、移動中に検索された全ての四角形状のピクセルを連結し、連結された四角形状のピクセル位置に、前記OCRモデルによって矯正された文字及び数字情報がマッチ(S800’)させる。
すなわち、文書分析装置100’は、開始位置を数字客体にして開始位置の左側方向及び上側方向に移動及び連結する。
この時、開始位置から最も近い左側及び上側のみをまず連結し、その後、隣接した全ての客体を連結し、文字の客体(項目)が出るまで数字客体を検索しつつ移動する。
また、文字の客体を含む項目検索が完了すると、文書分析装置100’は、認識された文字及び矯正された文字と数字を項目別に対応してマッチさせる。
また、文書分析装置100’は、認識された文字及び矯正された文字を反映して再構成されたフォームに基づいて再構成イメージの最終結果を出力(S900’)し、再構成されたフォームと再構成イメージはデータベース150’に保存する。
したがって、文書上の項目に記載された文字及び数字を含むテキストを認識し、認識されたテキストに対する相対的な位置情報に基づいて、文書に固定化されている文字を含む項目間のマッチングによって迅速度を増加させることができる。
また、病院、保険会社などの機関で使用した固定化された用語と比較して使用することによって、OCRは数字のみの認識として単純化させることができる。
また、標準化されたイメージでなくても、様々な学習データを用いたディープラーニング学習によって認識の正確度を向上させることができ、病院、薬局などで使用する様々なフォーマットの領収書に対して正確な情報の認識が可能であり、新しい項目に対する認識と予測値の正確度を提供することによって、信頼度を向上させることができる。
(第3実施例)
図29は、本発明の第3実施例に係るOCRベース文書分析システムを示すブロック図である。
図29を参照すると、本発明の第3実施例に係るOCRベース文書分析システムは、客体探知モデルを用いて認識対象イメージにおいて任意の形式(form)、文字及び数字のうち少なくとも一つの客体の位置を探知し、探知された形式、文字及び数字の客体の周りに沿って四角形状を表示して四角形状のピクセル位置値を生成し、OCRモデルを用いて前記四角形状のピクセル内で認識される文字及び数字情報を認識し、前記生成された四角形状のピクセル位置値に基づいて隣接した全ての四角形状のピクセルを連結し、前記連結された四角形状のピクセル位置に、前記OCRモデルによって認識された文字及び数字情報をマッチさせてディスプレイする文書分析装置100”を含んで構成されてよい。
また、文書分析装置100”は、認識率によって、認識された文字及び数字の信頼点数を算出し、算出された信頼点数をディスプレイに反映して視覚的に表示されるようにすることができる。
また、文書分析装置100”は、再構成フォームが信頼点数によって、正常認識領域と、誤った領域及び補正領域を含む誤り発生領域とが、互いに異なる色相の視覚化情報で表示されるようにすることができる。
また、文書分析装置100”は、信頼点数が、補正モデルを用いてフォーム、形状、位置のうち少なくとも一つの補正を行うことによって算出される再建率がさらに反映されるようにすることができる。
このために、文書分析装置100”は、認識対象イメージを受信する入力部110”を含んで構成されてよい。
入力部110”は、ネットワークを介して接続された外部端末から送信されるイメージ又はスキャナーなどでスキャンされたイメージなどを受信するデータ通信手段で構成されてよい。
また、文書分析装置100”は、認識対象イメージに含まれた文字に対して、任意の文書からあらかじめ設定された文字に対する項目DB(300’、図20参照)情報を生成する項目DB生成部120”を含んで構成されてよい。
項目DB生成部120”は、図19のように、例えば病院領収書などの文書200’に固定的に含まれ、請求内訳、診療内訳などの文字で表示された項目210’に対する情報を分析する。
また、項目DB生成部120”は、図19で分析された項目に対して図20のような項目DB300’を生成し、データベース170”に保存する。
本発明では、説明の便宜のために、認識対象イメージを、病院領収書と関連したイメージを実施例として説明するが、これに限定されず、薬局領収書、税金計算書、見積書、請求書、取引明細書、各種計算書及び領収書などを含むことができる。
また、文書分析装置100”は、入力部110”に受信された認識対象イメージにおいて客体探知モデルを用いてイメージに含まれた任意の形式(form)、文字及び数字の客体の位置を探知し、探知された形式、文字及び数字の客体の周りに沿って四角形状を表示して四角形状のピクセル位置情報を生成する客体探知モデリング部130”を含んで構成されてよい。
すなわち、客体探知モデリング部130”は、形式、文字及び数字の客体に対する相対的な位置の認識を行い、形式、文字及び数字の客体の位置による配列を確認できるように、探知された形式、文字及び数字の客体の周りに沿って四角形状を表示し、表示された四角形状のピクセル位置値(座標情報)を生成する。
ここで、客体探知モデルは、PSENet(Progressive Scale Expansion Network)ベースのディープラーニングモデルを用いて、文書イメージを含む学習データから形式、文字及び数字の客体と、その位置を探知し、探知率の向上のために学習を行うことができる。
すなわち、領収書の原本イメージに基づいて文書の任意の部分がn等分に折れたイメージ、文書の位置が任意の角度で傾いたイメージ、任意の照度を有する明るさが調節されたイメージ、文書に表示された内容が鮮明でなく途切れた連結線を持つイメージ、文書の任意の部分が屈曲したイメージ、数字と連結線が重なったイメージなどに基づいて学習データを学習できる。
このように、様々な環境、例えば、照明、撮影角度、撮影時の揺れ、撮影構図、写真解像度などの様々な与件で撮影され得るイメージを勘案し、原本イメージと比較して様々な変化を与えたイメージを事前に学習することによって、実際環境で受信されるイメージに対する探知率又は認識率を向上させることができる。
一方、本発明では、説明の便宜のために、認識対象イメージを、病院領収書と関連したイメージを実施例として説明するが、これに限定されず、薬局領収書、税金計算書、見積書、請求書、取引明細書、各種計算書及び領収書などを含むことができる。
また、客体探知モデルは、自動増強(Auto Augmentation)によって様々な変化を与えたイメージに基づいて探知を行うとき、最適の規則を探すこともできる。
また、客体探知モデルは、探知された形式、文字及び数字の客体に対して四角形状のピクセルを設定し、設定されたピクセルの位置値を生成することができる。
すなわち、図21のように、入力された文書イメージ400’において任意の探知領域410’から探知された文字の客体411’に対して外部の周りに沿って四角形状のボックスで表示する。
また、客体探知モデルは、認識された客体に対する情報を、図22のように客体探知結果420’で表示することによって、四角形状ベースのパターン認識も可能である。
本実施例では説明の便宜のために文字を客体として説明するが、これに限定されず、数字、領収書のフォームを構成する形式(form)を客体として含んでもよいことは、当業者にとって明らかであろう。
また、形式の周りに沿って表示された四角形状の構成(又は、配列)パターンに基づいて、後述するフォーム構成モデリング部150”があらかじめ保存された機関(病院)の領収書構成と比較してどの機関の領収書であるかを区別することもできる。
ここで、形式は、文書テーブルを構成するフォームにおいて一つのセル(Cell)であり、長方形からなってよい。
また、文書分析装置100”は、客体探知モデリング部130”で探知された形式、文字及び数字の客体に対してOCRモデルを用いて文字及び数字を認識するOCRモデリング部140”を含んで構成されてよい。
ここで、OCRモデリング部140”は、イメージベースのテキスト文書を自動で感知して認識する構成であり、公知のOCRモデルを用いて構成されてよい。
また、OCRモデリング部140”は、OCRモデルによって図24のように認識されたOCR認識結果430’に対して認識された予測情報431’と、予測情報431’に対して後述のフォーム構成モデリング部で算出された信頼点数432’に基づく信頼点数を共に提供できる。
ここで、予測情報431’は、認識された客体に含まれる文字及び数字を示すものであり、信頼点数432’は、OCRによって認識する過程で内容が鮮明でなかったり、連結された部分が途切れたりした場合などを反映して、全体部分において認識された部分の比率を算出した認識率であってよい。
また、文書分析装置100”は、認識された文字情報を項目DB300’と比較し、認識された文字を項目DB300”の文字情報に矯正することにより、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動するが、文字情報が検索されると、移動中に検索された全ての四角形状のピクセルを連結し、前記連結された四角形状のピクセル位置に、前記OCRモデルによって矯正された文字及び数字情報をマッチさせてディスプレイさせるフォーム構成モデリング部150”を含んで構成されてよい。
フォーム構成モデリング部150”は、認識対象イメージから認識される文字情報と比較するために、任意の文書、例えば、病院領収書、薬局領収書、取引明細書、税金計算書などで用いられる文字(項目)情報を定義した項目DB300’を生成することができる。
また、フォーム構成モデリング部150”は、図23のように、認識された文字の客体411’に対する自然語処理(Natural Language Processing,NLP)により、探知された文字に対して形態素又は分節音別にNLP客体411a’を分析し、分析された結果と項目DB300’情報との比較に基づいて認識された文字に対する信頼点数を算出することができる。
例えば、認識された文字が「MRI診断-」である場合に、項目DB300’に保存された項目に対する情報を検索した後、検索された項目に対応する項目DB300’情報との比較によって信頼点数を算出する。
すなわち、フォーム構成モデリング部150”は、病院領収書に新しい項目が認識されたりOCRの失敗によって誤脱字、未認識字などが発生しても、NLPを用いて状況に合わせて処理可能にする。
また、フォーム構成モデリング部150”で算出された文字に対する信頼点数は、図24のように、OCR認識結果430’に認識された予測情報431’と、フォーム構成モデリング部150”で予測情報431’に対して算出された信頼点数432’を提供できる。
また、フォーム構成モデリング部150”は、探知された文字及び客体の位置に基づいて任意の開始位置で左側方向及び上側方向に隣接した全ての文字及び数字の客体位置を連結して再構成されたフォームを生成する。
一方、フォーム構成モデリング部150”は、新しい項目が認識された場合に、数字客体のボックスサイズに対して、横長及び縦長が、隣接した他のボックスの横長及び縦長と同一であるか又は他のボックスの横長及び縦長に含まれると連結されるようにする。
図25を参照してより詳しく説明すると、数字として認識された開始客体ボックス600を基準に、開始客体ボックス600の横方向サイズ600及び縦方向サイズ710を、左側客体ボックス610と上側客体ボックス620の横方向サイズ700a及び縦方向サイズ710aと比較し、同一であるか又は左側客体ボックス610と上側客体ボックス620の横方向サイズ及び縦方向サイズに含まれると、左側連結線800及び上側連結線810で連結して表示する。
本実施例では説明の便宜のために、開始位置を、中央部分に位置した数字客体を開始客体ボックス600として説明したが、開始客体ボックス600の右側に位置した右側客体ボックス600a、開始客体ボックス600の下側に位置した下側客体ボックスを開始位置として設定することもできる。
例えば、右側客体ボックス600aを開始位置として設定すれば、「公団負担金」が認識(又は、探知)された文字の客体は上側客体ボックス620aになり得る。
また、フォーム構成モデリング部150”は、上記の過程を反復して最も近い左側及び上側のみを連結し、連結後に、数字から始めて左側及び上側にテキスト、例えば、文字の客体(項目)が出るまで移動及び検索を行って連結する。
すなわち、図30に示すように、文書イメージ900’において基準客体ボックス910’の左側及び上側に移動及び検索を行って次の客体と連結するとき、左側に位置した左側客体ボックス920’が文字であれば、左側連結線940’で連結する。
また、上側に移動及び検索により、上側客体ボックス930’が文字の客体(項目)であれば、上側連結線941’で続けて連結する。
また、フォーム構成モデリング部150”は、再構成フォームの項目が矯正された文字、すなわち、項目DB300’から選択された文字のみで構成されると、誤脱字又は未認識された文字がないと判断し、OCRモデリング部140”のOCRモデルによって認識された数字のみを認識し、認識された数字と項目をマッチさせることもできる。
前記フォーム構成モデリング部150”は、探知された文字の客体に対して項目DB300’情報とマッチさせ、マッチング結果によって認識された文字が矯正されると、矯正された文字を反映させる。
また、フォーム構成モデリング部150”は、長方形認識によって文字の客体及び数字の客体を探すだけでなく、文書イメージが傾いた状態のイメージである場合に、頂点による再建によって水平状態の文書イメージに補正することもできる。
また、フォーム構成モデリング部150”は、撮影角度によって文書イメージが台形のイメージである場合に、台形補正による再建によって四角形状の文書イメージに変換することもできる。
また、フォーム構成モデリング部150”は、文書イメージがしわが寄ったり折れたりした部分を含んで撮影された場合に、形状又はフォームを補正するためのプログラムを用いて四角形状の文書イメージに変換することもできる。
一方、フォーム構成モデリング部150”が認識正確度の向上のための補正を行って長方形状の充実な再建とそれに基づく正確な認識がなされるように動作するが、それによる補正及び再建に伴って誤りの発生可能性も増加し得る。
そのために、文書分析装置100”は、補正モデルを用いて補正及び再建による判断誤りの危険性情報、例えば、補正及び再建類型と個数などを数値化させた情報と、認識された文字及び数字の信頼度に基づいて信頼点数を算出し、算出された信頼点数に基づいて使用者が確認できるように、フォーム構成モデリング部150”でディスプレイに反映して視覚的に表示されるようにする信頼度評価部160”を含んで構成されてよい。
すなわち、信頼度評価部160”は、補正及び再建による判断誤りの危険性情報、例えば、補正及び再建の類型と個数などを数値化させた信頼点数をフォーム構成モデリング部150”に提供する。
フォーム構成モデリング部150”は、文字及び数字の四角形状ボックスの色相を、正常客体領域と、誤った客体領域及び補正領域を含む誤り発生客体領域が互いに異なるように表示する。
すなわち、フォーム構成モデリング部150”は、信頼度評価部160”で提供される信頼点数に基づいて、図31のように、信頼点数があらかじめ設定された基準値以上である客体領域は、再構成イメージ900”において青色で表示し、正常客体領域910”,911”を確認可能に表示する。
また、フォーム構成モデリング部150”は、信頼度評価部160”で提供された信頼点数が基準値以下である客体領域は、再構成イメージ900”において任意の色相(例えば、赤色)で表示し、誤り発生客体領域920”,921”,922”,923”,924”を確認可能に表示する。
このようなフォーム構成モデリング部150”の互いに異なる色相表示により、使用者にとって迅速で正確な確認が可能である。
また、文書分析装置100”は、前記生成された四角形状のピクセル位置値、認識された文字、数字情報、信頼情報と、特定機関で使用する文書データのフォームを保存するデータベース170”を含んで構成されてよい。
ここで、特定機関は、病院、薬局、会社など、領収書及び会計関連文書を任意のフォームで発行する全ての所を含むことができる。
次に、本発明の第3実施例に係るOCRベース文書分析方法を説明する。
図32は、本発明の第3実施例に係るOCRベース文書分析過程を示すフローチャートである。
図29及び図32を参照すると、文書分析装置100”は、ネットワークを介して連結された外部端末又はファクシミリなどから認識対象領収書のイメージを受信(S100”)する。
また、文書分析装置100”は、受信した認識対象領収書のイメージにおいて客体探知モデルを用いて文字及び数字の客体と位置を探知し、探知された文字及び数字の客体に四角形状のボックスを形成する客体探知段階を行う(S200”)。
また、S200段階で、客体探知モデルは、PSENet(Progressive Scale Expansion Network)ベースのディープラーニングモデルを用いて、文書イメージを含む学習データから形式、文字及び数字の客体と、その位置を探知し、探知率の向上のために学習を行うことができる。
また、客体探知モデルは、原本イメージ、文書の任意の部分が折れたイメージ、文書の位置が任意の角度で傾いたイメージ、任意の照度を有する明るさが調節されたイメージ、文書に表示された内容が鮮明でなく途切れた連結線を持つイメージ、文書の任意の部分が屈曲したイメージ、数字と連結線が重なったイメージに基づいて学習データを学習できる。
続いて、文書分析装置100”は、探知された形式、文字及び数字の客体に対する四角形状ピクセル内で、OCRモデルを用いて文字及び数字情報を認識するOCR認識段階(S300”)を行う。
S300”段階を行った後、文書分析装置100”は、任意の文書から固定化されているテキスト情報、すなわち、項目に対する文字情報を項目DB300’情報として生成し、生成された項目DB(300’、図20参照)情報はデータベース170”に保存(S400”)する。
前記認識された文字情報を項目DB300’と比較し、認識された文字を項目DB300’の文字情報に矯正するに当たって矯正するか否かを決定するための誤脱字又は未認識字の有無を判断し、文書分析装置100はNLPベースの矯正を行う(S500”)。
すなわち、S500”段階で、文書分析装置100”は、自然語処理(Natural Language Processing,NLP)により、探知された文字に対して分析する。
また、S500”段階で、文書分析装置100”は、分析された文字と項目DB300’情報との比較に基づいて、分析された文字に対する信頼点数を算出し、出力することができる。
続いて、文書分析装置100”は、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動するが、文字情報が検索されると、移動中に検索された全ての四角形状のピクセルを連結し、連結された四角形状のピクセル位置に、前記OCRモデルによって矯正された文字及び数字情報をマッチ(S600”)させる。
すなわち、文書分析装置100”は、開始位置を数字客体にして開始位置の左側方向及び上側方向に移動及び連結する。
この時、開始位置から最も近い左側及び上側のみをまず連結し、その後、隣接した全ての客体を連結し、文字の客体(項目)が出るまで数字客体を検索しつつ移動する。
また、文字の客体を含む項目検索が完了すると、文書分析装置100”は、認識された文字及び矯正された文字と数字を項目別に対応してマッチさせる。
また、文書分析装置100”は、認識正確度の向上のための補正を行って長方形状の充実な再建とこれに基づく正確な認識がなされるように処理された補正及び再建類型と個数などを数値化させた情報と、認識された文字及び数字の信頼度に基づいて信頼点数を算出し、算出された信頼点数に基づいて使用者が確認できるようにディスプレイに反映して視覚的に表示(S700”)されるようにする。
また、S700”段階で、文書分析装置100”は、文書イメージが傾いた状態であれば、頂点による再建によって水平状態の文書イメージに補正し、文書イメージが台形のイメージであれば、台形補正による再建によって四角形状の文書イメージに変換することもできる。
また、文書イメージがしわが寄ったり又は折れた部分を含むと、形状又はフォームを補正するためのプログラムを用いて四角形状の文書イメージに変換することにより、フォーム、形状、位置のうち少なくとも一つの補正による再建率と、信頼点数を算出できる。
また、S700”段階で、文書分析装置100”は、信頼点数によって、文字及び数字の四角形状ボックスの色相を、正常客体領域と、誤った客体領域及び補正領域を含む誤り発生客体領域が互いに異なるように表示させる。
すなわち、図31のように、信頼点数があらかじめ設定された基準値以上である客体領域は、例えば再構成イメージ900”において、青色で表示し、正常客体領域910”,911”を確認可能に表示し、信頼点数が基準値以下である客体領域は、例えば再構成イメージ900”において、赤色で表示し、誤り発生客体領域920”,921”,922”,923”,924”を確認可能に表示する。
このようなフォーム構成モデリング部150”の互いに異なる色相表示により、使用者にとって迅速で正確な確認が可能になる。
また、認識された文字、矯正された文字、補正及び再建によって再構成されたフォームを再構成イメージに変換して最終結果を出力(S800”)し、データベース170”に保存する。
(第4実施例)
図33は、本発明の第4実施例に係るOCRベース文書分析システムを示すブロック図である。
図33を参照して説明すると、本発明の第4実施例に係るOCRベース文書分析システムは、客体探知モデルを用いて認識対象イメージにおいて任意の形式(form)、文字及び数字のうち少なくとも一つの客体位置を探知するが、前記探知された形式、文字及び数字の客体の周りに沿って四角形状を表示して文字及び数字の客体のピクセル位置値を生成し、OCRモデルを用いて前記四角形状のピクセル内で認識される文字及び数字情報を出力し、前記生成された四角形状のピクセル位置値に基づいて隣接した全ての四角形状のピクセルを連結し、前記連結された四角形状のピクセル位置に、前記OCRモデルによって認識された文字及び数字情報をマッチさせてディスプレイする文書分析装置100”’を含んで構成される。
また、文書分析装置100”’は、生成された文字の客体のピクセル位置値に基づいて、イメージの左側領域に文字の客体が配置される左側ヘッダー領域と、イメージの上側領域に文字の客体が配置される上側ヘッダー領域とに区分し、区分された左側ヘッダー領域と上側ヘッダー領域を基準に仮想セル客体を生成して配置できる。
また、文書分析装置100”’は、配置された仮想セル客体と数字客体をマッチさせて行/列(row/column)情報に基づいて連結し、OCRモデルによって認識された文字及び数字情報がディスプレイされるように構成されてよい。
また、文書分析装置100”’は、外部から送信される認識対象イメージを受信する入力部110”’を含んで構成されてよい。
入力部110”’は、ネットワークを介して接続された外部端末から送信されるイメージ又はスキャナーなどでスキャンされたイメージなどを受信するデータ通信手段で構成されてよい。
また、文書分析装置100”’は、入力部110”’に受信された認識対象イメージにおいて客体探知モデルを用いてイメージに含まれた任意の形式(form)、文字及び数字の客体の位置を探知し、探知された形式、文字及び数字の客体の周りに沿って四角形状を表示して四角形状のピクセル位置情報を生成する客体探知モデリング部120”’を含んで構成されてよい。
すなわち、客体探知モデリング部120”’は、形式、文字及び数字の客体に対する相対的な位置の認識を行い、形式、文字及び数字の客体の位置による配列を確認できるように、探知された形式、文字及び数字の客体の周りに沿って四角形状を表示し、表示された四角形状のピクセル位置値(座標情報)を生成する。
ここで、客体探知モデルは、PSENet(Progressive Scale Expansion Network)ベースのディープラーニングモデルを用いて、文書イメージを含む学習データから形式、文字及び数字の客体と、その位置を探知し、探知率の向上のために学習を行うことができる。
また、客体探知モデルは、原本イメージ、文書の任意の部分が折れたイメージ、文書の位置が任意の角度で傾いたイメージ、任意の照度を有する明るさが調節されたイメージ、文書に表示された内容が鮮明でなく途切れた連結線を持つイメージ、文書の任意の部分が屈曲したイメージ、数字と連結線が重なったイメージに基づく学習データを用いて学習できる。
このように、様々な環境、例えば、照明、撮影角度、撮影時の揺れ、撮影構図、写真解像度などの様々な与件で撮影され得るイメージを勘案し、原本イメージと比較して様々な変化を与えたイメージを事前に学習することによって、実際環境で受信されるイメージに対する探知率又は認識率を向上させることができる。
一方、本発明では、説明の便宜のために、認識対象イメージを病院領収書と関連したイメージを実施例として説明するが、これに限定されず、薬局領収書、税金計算書、見積書、請求書、取引明細書、各種計算書及び領収書などを含むことができる。
また、客体探知モデルは自動増強(Auto Augmentation)によって様々な変化を与えたイメージに基づいて探知を行うとき、最適の規則を探すこともできる。
また、客体探知モデルは、探知された形式、文字及び数字の客体に対して四角形状のピクセルを設定し、設定されたピクセルの位置値を生成することができる。
すなわち、入力された文書イメージ(200、図2参照)において任意の探知領域(210、図2参照)から探知された、例えば文字の客体211に対して、外部面に四角形状のボックス(212、図2参照)で構成されたピクセル位置値を生成し、認識された客体(213、図2参照)に対する情報を文字探知結果(220、図3参照)で表示することによって、四角形状ベースのパターン認識を可能にする。
本実施例では説明の便宜のために文字を客体として説明するが、これに限定されず、数字、領収書のフォームを構成する形式(form)を客体として含んでもよいことは、当業者にとって明らかであろう。
また、四角形状のボックス(212、図2参照)は、好ましくは長方形(rectangular)からなってよい。
また、形式の周りに沿って表示された四角形状の構成(又は、配列)パターンに基づいて、あらかじめ保存された機関(病院)の領収書構成と比較してどの機関の領収書であるかを区別することもできる。
ここで、形式は、文書テーブルを構成するフォームにおいて一つのセル(Cell)であり、長方形からなってよい。
また、文書分析装置100”’は、客体探知モデリング部120”’で探知された形式、文字及び数字の客体に対してOCRモデルを用いて文字及び数字を認識するOCRモデリング部130”’を含んで構成されてよい。
ここで、OCRモデリング部130”’は、イメージベースのテキスト文書を自動で感知して認識する構成であり、公知のOCRモデルを用いて構成されてよい。
また、OCRモデリング部130”’は、OCR認識結果(300、図4参照)に対して認識された予測情報(310、図4参照)と、予測情報310に対する信頼点数(320、図2参照)を算出して共に提供できる。
ここで、予測情報310は、認識された客体に含まれる文字及び数字を示すものであり、信頼点数320は、OCRによって認識する過程で内容が鮮明でなかったり、連結された部分が途切れたりした場合などを反映して、全体部分において認識された部分の比率を算出した認識率であってよい。
また、文書分析装置100”’は、生成された文字の客体のピクセル位置値に基づいて、イメージの左側領域に文字の客体が配置される左側ヘッダー領域と、イメージの上側領域に文字の客体が配置される上側ヘッダー領域とに区分するが、前記左側ヘッダー領域と上側ヘッダー領域を基準にM×Nサイズの仮想セル客体を生成して配置し、前記配置された仮想セル客体と数字客体をマッチさせて行/列情報に基づいて連結し、前記OCRモデルによって認識された文字及び数字情報がディスプレイされるようにする仮想セルフォーム構成モデリング部140”’を含んで構成されてよい。
すなわち、仮想セルフォーム構成モデリング部140”’は、客体探知モデリング部120”’の探知結果とOCRモデリング部130”’の予測情報に基づいて、認識した予測情報がどの項目であるかマッチさせる。
また、仮想セルフォーム構成モデリング部140”’は、客体探知モデリング部120”’の探知結果220と、OCRモデリング部130”’の予測情報310をマッチさせるために、隣接した全ての文字及び数字の客体の四角形状ピクセルを連結する。
また、一般的な領収書などの会計関連文書は、文字でできた項目が主に文書の左側と上側に配置される。
すなわち、図34に示すように、文書イメージ400”’上の左側領域には複数の左側客体410”’が探知され、文書イメージ400”’上の上側領域には複数の上側客体420”’が探知され、個別左側客体410”’及び上側客体420”’と連動して数字客体430”’が探知される。
数字客体430”’は、当該数字客体430”’に対応する左側客体410”’と上側客体420”’によって当該数字客体430”’が有する属性(attribute)が定義される。
しかし、数字客体430”’を隣接した客体と連結するとき、入力された文書イメージに含まれた数字客体が水平方向ではなく傾いた状態で配置されていると、左側方向に配置された文字の客体と連結する過程で水平方向ではなく傾いた方向の延長線に配置された他の文字の客体と連結されることがある。
本発明の一実施例に係る仮想セルフォーム構成モデリング部140”’は、仮想セル客体を生成して文字の客体及び数字の客体を連結させる。
そのために、仮想セルフォーム構成モデリング部140”’は、客体探知モデリング部120”’で抽出された文字の客体の位置座標に基づいて、文書イメージ400”’上で、図35のように、左側ヘッダー領域500”’と上側ヘッダー領域510”’とに分離して区分する。
また、仮想セルフォーム構成モデリング部140”’は、区分された左側ヘッダー領域500”’に含まれた文字の客体、すなわち、図面上で左側ヘッダー領域500”’の垂直下側方向に配置された複数の左側ヘッダー客体501”’と、上側ヘッダー領域510”’に含まれた文字の客体、すなわち、図面上で上側ヘッダー領域510”’の水平右側方向に配置された上側ヘッダー客体511”’,512”’別に四角形状ピクセルの位置座標値を抽出する。
また、仮想セルフォーム構成モデリング部140”’は、文字の客体の左側ヘッダー領域500”’と上側ヘッダー領域510”’に含まれた文字の客体間の間隔及びサイズ、すなわち、左側ヘッダー客体501”’、上側ヘッダー客体511”’、上側ヘッダー客体512”’間の間隔及びサイズを算出し、区分された左側ヘッダー領域500”’と上側ヘッダー領域510”’を基準に複数の仮想セルグループ530”’,530a”’が行/列情報によって配置される。
すなわち、仮想セルグループ530”’,530a”’に含まれた複数の仮想セル客体531”’,532”’が、左側ヘッダー領域500”’と上側ヘッダー領域510”’の行/列情報によって配置される。
ここで、配置される仮想セル客体531”’,532”’の個数は、左側ヘッダー領域500”’と上側ヘッダー領域510”’から探知された左側ヘッダー客体501”’と上側ヘッダー客体511”’の個数であるM×N個だけ形成される。
また、仮想セルフォーム構成モデリング部140”’は、数字客体領域520”’と仮想セルグループ530”’,530a”’をマッチさせるが、左側上端に配置された仮想セル客体531”’と数字客体521”’をまずマッチさせる。
このとき、左側ヘッダー及び上側ヘッダーの情報と最も密接に関連した情報は左側上端であるから、最も正確度の高い左側上端の仮想セル客体531”’と数字客体521”’をまずマッチさせる。
また、仮想セルフォーム構成モデリング部140”’は、図36のように、左側上端に配置された仮想セル客体531”’と数字客体521”’をマッチさせると、マッチした数字客体521”’と仮想セル客体531”’間の勾配を算出する。
すなわち、仮想セルフォーム構成モデリング部140”’は、文書イメージに含まれた数字客体521”’が水平方向ではなく傾いた状態で配置された場合にマッチし誤ることを防止するために、文書イメージ上に設定された基準座標系において、座標系内の当該ベクトルの勾配を算出し、算出された勾配に基づいてイメージの全体的な勾配を算出する。
また、仮想セルフォーム構成モデリング部140”’は、イメージの全体的な勾配が反映されるように、左側上端でマッチした数字客体521”’と仮想セル客体531”’間の勾配情報を、右側下端に配置された仮想セル客体と数字客体n523”’のマッチングまで反映されるようにする。
また、仮想セルフォーム構成モデリング部140”’は、仮想セル客体を左側、上端、下端の客体と勾配ライン540”’及び上側ヘッダーライン541”’で連結するが、左側ヘッダー客体501”’、上側ヘッダー客体511”’、上側ヘッダー客体1512”’などから算出した客体間の間隔及びサイズに基づいて、IoU(Intersection over Union)があらかじめ設定された基準値以上であれば、連結されるようにする。
また、仮想セルフォーム構成モデリング部140”’は、仮想セル客体を用いた連結が完了すると、図37のように、仮想セル客体を除去し、最終連結イメージ600”’を生成して出力する。
このとき、仮想セルフォーム構成モデリング部140”’は、最終連結イメージ600”’をデータベース(150”’)に保存された特定機関文書のボックス配列情報と比較してマッチするか否か確認することができる。
ここで、特定機関は、病院、薬局、会社など、領収書及び会計関連文書を任意のフォームで発行する全ての所を含むことができる。
また、仮想セルフォーム構成モデリング部140”’は、図38のように、数字客体730”’がずれた文字イメージ700”’が入力されても、左側ヘッダー客体710”’と、上側ヘッダー客体720”’に基づいて仮想セル客体を生成した後、例えば、下端にずれた数字客体730”’を仮想セル客体とマッチさせ、勾配に基づく連結によって文字の客体と数字客体の正確な連結がなされるようにする。
また、仮想セルフォーム構成モデリング部140”’は、図39のように、図面上、片方に曲がった(又は、傾いた)文字イメージ800が入力されても、左側ヘッダー客体810”’と、上側ヘッダー客体820”’に基づいて仮想セル客体を生成した後、数字客体830”’を仮想セル客体とマッチさせ、勾配に基づく連結によって文字の客体と数字客体の正確な連結がなされるようにする。
また、文書分析装置100”’は、仮想セルフォーム構成モデリング部140から出力される再構成イメージ、特定機関で使用する文書データのフォーム(又は、形式)、生成された四角形状のピクセル位置値、認識された文字、数字情報及びマッチング結果などを保存するデータベース150を含んで構成されてよい。
次に、本発明の第4実施例に係るOCRベース文書分析方法を説明する。
図40は、本発明の第4実施例に係るOCRベース文書分析過程を示すフローチャートであり、図41は、図40の実施例に係る仮想セルベース項目マッチング過程を示すフローチャートである。
図33、図40及び図41を参照すると、文書分析装置100”’は、ネットワークを介して連結された外部端末又はファクシミリなどから認識対象領収書のイメージを受信(S100”’)する。
文書分析装置100”’は、受信した認識対象領収書のイメージにおいて客体探知モデルを用いて任意の形式、文字及び数字の客体とその位置を探知し、探知された形式、文字及び数字の客体の周りに沿って四角形状を表示して四角形状のピクセル位置情報を生成する文字探知段階を行う(S200”’)。
また、S200段階で、客体探知モデルは、PSENet(Progressive Scale Expansion Network)ベースのディープラーニングモデルを用いて、文書イメージを含む学習データから形式、文字及び数字の客体と、その位置を探知し、探知率の向上のために学習を行うことができる。
また、客体探知モデルは、原本イメージ、文書の任意の部分が折れたイメージ、文書の位置が任意の角度で傾いたイメージ、任意の照度を有する明るさが調節されたイメージ、文書に表示された内容が鮮明でなく途切れた連結線を持つイメージ、文書の任意の部分が屈曲したイメージ、数字と連結線が重なったイメージに基づいて学習データを学習できる。
続いて、文書分析装置100”’は、探知された形式、文字及び数字の客体に対する四角形状ピクセル内で、OCRモデルを用いて文字及び数字情報を認識するOCR認識段階(S300”’)を行う。
S300”’段階を行った後、文書分析装置100”’は、生成された文字の客体のピクセル位置値に基づいて、イメージの左側領域に文字の客体が配置される左側ヘッダー領域500と、イメージの上側領域に文字の客体が配置される上側ヘッダー領域510とに区分し、前記左側ヘッダー領域500と上側ヘッダー領域510を基準に仮想セル客体を生成して配置し、配置された仮想セル客体と数字客体をマッチさせて行/列情報に基づいて連結(S400”’)する。
S400”’段階をより詳しく説明すると、文書分析装置100”’は、文字の客体の左側及び上側ピクセル位置を基準に仮想セル客体を配置するが、文字の客体の左側ヘッダー領域(500”’、図35参照)と上側ヘッダー領域(510”’、図35参照)を区分(S410”’)する。
また、文書分析装置100”’は、区分された左側ヘッダー領域500”’と上側ヘッダー領域510”’に含まれた文字の客体間の間隔及びサイズを算出(S420”’)する。
続いて、文書分析装置100”’は、区分された左側ヘッダー領域500”’と上側ヘッダー領域510”’を基準に、探知された左側ヘッダー客体501”’と上側ヘッダー客体511”’の個数であるM×N個だけ仮想セル客体を配置(S430”’)する。
S430”’段階の仮想セル客体配置が完了すると、文書分析装置100”’は、左側上端に配置された仮想セル客体と数字客体をマッチさせて数字客体と仮想セル客体間の勾配を算出(S440”’)する。
すなわち、S440”’段階で、文書分析装置100”’は、文書イメージに含まれた数字客体が水平方向ではなく傾いた状態で配置された場合にマッチし誤ることを防止するために、文書イメージ上に設定された基準座標系において、座標系内の当該ベクトルの勾配を算出し、算出された勾配に基づいてイメージの全体的な勾配を算出する。
続いて、文書分析装置100”’が、行/列情報によって順次に移動しつつ、前記算出された勾配を、右側下端に配置された仮想セル客体と数字客体のマッチングまで反映して連結(S450”’)する。
すなわち、文書分析装置100”’は、イメージの全体的な勾配が反映されるように、左側上端でマッチした数字客体と仮想セル客体間の勾配情報を、右側下端に配置された仮想セル客体と数字客体nのマッチングまで反映されるようにし、反映結果によって配置された仮想セル客体と数字客体をマッチさせ、左側ヘッダー客体501”’と上側ヘッダー客体511”’の行/列情報に基づいて連結する。
S450”’段階の連結が完了すれば、文書分析装置100”’はOCRモデルによって認識された文字及び数字情報がディスプレイされるように最終連結イメージ600”’を生成して出力(S500”’)する。
したがって、OCRによって認識された情報に対して、信頼点数に基づいて、正常認識された部分と、誤った部分又は不審な部分を互いに異なる色相の視覚化情報で提供することにより、使用者にとって迅速で正確な確認が可能であり、使用者の確認作業時間を減少させることができる。
また、文書上の項目に記載された文字及び数字を含むテキストを認識し、認識されたテキストの相対的な位置に基づいて仮想セルを生成して数字に対する相対的な位置情報をマッチさせることができる。
また、認識された項目間の連結及び相対的な位置関係に基づいて、テキストが配置されたパターンを分析し、特定文書又は領収書などを使用する病院、保険会社などの機関で使用したフォームパターンと比較することにより、迅速で正確なマッチングが可能である。
また、病院、保険会社などの機関で使用する様々なフォーマットの領収書に対して、正確で信頼できる使用情報を提供可能であり、標準化されたイメージでなくても様々な学習データを用いたディープラーニング学習によって認識の正確度を向上させることができる。
また、病院、薬局などで使用する様々なフォーマットの領収書に対して正確な情報の認識が可能であり、特定様式(フォーム)がない書類のデジタル化が可能である。
上記のように、本発明の好ましい実施例を参照して説明したが、当該技術の分野における熟練した当業者であれば、下記の特許請求の範囲に記載された本発明の思想及び領域から逸脱しない範囲内で本発明を様々に修正及び変更させることができることが理解できよう。
また、本発明の特許請求の範囲に記載された図面番号は、説明の明瞭性と便宜のために記載しただけで、これに限定されず、実施例を説明する過程で図面上の線の太さや構成要素の大きさなどは、説明の明瞭性及び便宜のために誇張して示されてもよい。
また、上述の用語は、本発明における機能を考慮して定義された用語であり、これは使用者、運用者の意図又は慣例によって変更されてもよく、それらの用語に対する解釈は、本明細書全般にわたる内容に基づいて下されるべきであろう。
また、明示的に図示又は説明されていなくても、本発明の属する技術の分野における通常の知識を有する者にとって、本発明の記載事項から、本発明に係る技術的思想を含む様々な形態の変形が可能であることは明らかであり、それらも本発明の権利範囲に属する。
また、添付の図面を参照して説明された以上の実施例は、本発明を説明するための目的で記述されたものであり、本発明の権利範囲はそれらの実施例に限定されない。
100,100’,100”,100”’:文書分析装置
110,110’,110”,110”’:入力部
120,120”’,130’,130”,120”’:客体探知モデリング部
120’,120”:項目DB生成部
130,130”’,140’,140”:OCRモデリング部
140:フォーム構成モデリング部
140”’:仮想セルフォーム構成モデリング部
150,150”’,160’,170”:データベース
150’,150”:フォーム構成モデリング部
160”:信頼度評価部
200,200’:文書イメージ

Claims (32)

  1. 認識対象イメージを受信する入力部(110);
    前記受信した認識対象イメージにおいて客体探知モデルを用いて任意の形式(form)、文字及び数字の客体のうち少なくとも一つの位置を探知し、探知された形式、文字及び数字の客体の周りに四角形状を表示し、表示された四角形状のピクセル位置値を生成する客体探知モデリング部(120);
    OCRモデルを用いて前記四角形状のピクセル内で認識される文字及び数字情報を出力するOCRモデリング部(130);
    前記生成された四角形状のピクセル位置値と、前記認識された文字及び数字情報に基づいて、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動するが、文字情報が検索されると、移動中に検索された全ての四角形状のピクセルを連結し、前記連結された四角形状のピクセル位置に、前記OCRモデルによって認識された文字及び数字情報をマッチさせてディスプレイさせるフォーム構成モデリング部(140);及び
    前記生成された四角形状のピクセル位置値、認識された文字、数字情報及びマッチング結果と、特定機関で使用する文書データのフォームを保存するデータベース(150);
    を含む文書分析装置(100)を含む、OCRベース文書分析システム。
  2. 前記客体探知モデルは、PSENet(Progressive Scale Expansion Network)ベースのディープラーニングモデルを用いて、文書イメージを含む学習データから形式、文字及び数字の客体の位置探知と、探知された形式、文字及び数字の客体の周りに沿って四角形状を表示し、前記表示された四角形状のピクセル位置値生成を学習することを特徴とする、請求項に記載のOCRベース文書分析システム。
  3. 前記客体探知モデルは、原本イメージ、文書の任意の部分が折れたイメージ、文書の位置が任意の角度で傾いたイメージ、任意の照度を有する明るさが調節されたイメージ、文書に表示された内容が鮮明でなく途切れた連結線を持つイメージ、文書の任意の部分が屈曲したイメージ、数字と連結線が重なったイメージに基づいて学習データを学習することを特徴とする、請求項に記載のOCRベース文書分析システム。
  4. 前記フォーム構成モデリング部(140)は、前記生成された四角形状のピクセル位置値と、前記認識された数字情報に基づいて、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動し、
    移動中に検索される全ての四角形状のピクセルを連結し、前記連結された四角形状の配列情報を分析し、あらかじめ保存された特定機関文書の配列情報と比較し、前記比較の結果、特定機関文書の配列情報がマッチすれば、前記特定機関文書の四角形状ピクセル位置に、認識された数字情報をマッチさせてディスプレイさせることを特徴とする、請求項に記載のOCRベース文書分析システム。
  5. 前記フォーム構成モデリング部(140)は、生成された四角形状のピクセル中心点にマーカー(520)を表示し、前記認識された数字情報に基づいて、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動し、
    移動中に検索される全ての四角形状のピクセルを連結し、連結された四角形状のマーカー(520)位置情報を分析し、あらかじめ保存された特定機関文書の配列情報と比較し、前記比較の結果、特定機関文書の配列情報がマッチすれば、前記特定機関文書の四角形状ピクセル位置に、認識された数字情報をマッチさせてディスプレイさせることを特徴とする、請求項に記載のOCRベース文書分析システム。
  6. 認識対象イメージを受信する入力部(110’);
    前記認識対象イメージから認識される文字情報と比較するために、任意の文書で用いられる文字(項目)情報を定義した項目DB(300’)を生成する項目DB生成部(120’);
    前記受信した認識対象イメージにおいて客体探知モデルを用いて任意の形式(form)、文字及び数字の客体のうち少なくとも一つの位置を探知し、探知された形式、文字及び数字の客体の周りに四角形状を表示し、表示された四角形状のピクセル位置値を生成する客体探知モデリング部(130’);
    OCRモデルを用いて前記四角形状のピクセル内で認識される文字及び数字情報を出力するOCRモデリング部(140’);
    前記認識された文字情報を項目DB(300’)と比較し、認識された文字を項目DB(300’)の文字情報に矯正することにより、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動するが、文字情報が検索されると、移動中に検索された全ての四角形状のピクセルを連結し、前記連結された四角形状のピクセル位置に、前記OCRモデルによって矯正された文字及び数字情報をマッチさせてディスプレイさせるフォーム構成モデリング部(150’);及び
    前記生成された四角形状のピクセル位置値、矯正された文字及び数字情報及びマッチング結果と、特定機関で使用する文書データのフォームを保存するデータベース(160’);
    を含む文書分析装置(100’)を含む、OCRベース文書分析システム。
  7. 前記フォーム構成モデリング部(150’)は、自然語処理(Natural Language Processing,NLP)により、探知された文字に対して分析することを特徴とする、請求項に記載のOCRベース文書分析システム。
  8. 前記フォーム構成モデリング部(150’)は、認識された文字と項目DB(300’)情報とを比較し、認識された文字に対する信頼点数を算出することを特徴とする、請求項に記載のOCRベース文書分析システム。
  9. 前記フォーム構成モデリング部(150’)は、数字の客体の四角形状ピクセルサイズに対して、横長及び縦長が、隣接した他の四角形状ピクセルの横長及び縦長と同一であるか又は他のボックスの横長及び縦長に含まれると連結されるようにすることを特徴とする、請求項に記載のOCRベース文書分析システム。
  10. 前記フォーム構成モデリング部(150’)は、最も近い左側及び上側の四角形状ピクセルのうち少なくとも一つを連結し、連結された四角形状ピクセル内の文字の客体を探すまで連結することを特徴とする、請求項に記載のOCRベース文書分析システム。
  11. 前記フォーム構成モデリング部(150’)は、検索された四角形状のピクセル(920’)が空欄であれば、左側方向に位置した後、四角形状のピクセルと連結することを特徴とする、請求項に記載のOCRベース文書分析システム。
  12. 認識対象イメージを受信する入力部(110”);
    前記受信した認識対象イメージにおいて客体探知モデルを用いて形式、文字及び数字の客体のうち少なくとも一つの位置を探知し、探知された形式、文字及び数字の客体の周りに四角形状を表示し、表示された四角形状のピクセル位置値を生成する客体探知モデリング部(130”);
    OCRモデルを用いて前記四角形状のピクセル内で認識される文字及び数字情報を出力するOCRモデリング部(140”);
    前記認識された文字を項目DB(300’)の文字情報に矯正することにより、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動するが、文字情報が検索されると、移動中に検索された全ての四角形状のピクセルを連結し、前記連結された四角形状のピクセル位置に、前記OCRモデルによって矯正された文字及び数字情報をマッチさせてディスプレイさせるフォーム構成モデリング部(150”);
    補正モデルを用いて前記認識された文字及び数字の信頼点数を算出し、算出された信頼点数に基づいて前記ディスプレイに反映して視覚的に表示されるようにする信頼度評価部(160”);及び
    前記生成された四角形状のピクセル位置値、認識された文字、数字情報、信頼情報と、特定機関で使用する文書データのフォームを保存するデータベース(170”);
    を含む文書分析装置(100”)を含む、OCRベース文書分析システム。
  13. 前記認識対象イメージに含まれた文字に対して任意の文書からあらかじめ設定された文字に対する項目DB(300’)情報を生成する項目DB生成部(120”);をさらに含み、
    前記フォーム構成モデリング部(150”)は、前記探知された文字の客体に対して項目DB(300’)情報とマッチさせ、マッチング結果によって認識された文字が矯正されると、前記矯正された文字を反映させることを特徴とする、請求項12に記載のOCRベース文書分析システム。
  14. 前記フォーム構成モデリング部(150”)は、文字及び数字の四角形状ボックスの色相が、正常認識領域と、誤った領域及び補正領域を含む誤り発生領域とが互いに異なる色相で表示されることを特徴とする、請求項12に記載のOCRベース文書分析システム。
  15. 客体探知モデルを用いて認識対象イメージにおいて任意の形式(form)、文字及び数字のうち少なくとも一つの客体の位置を探知するが、探知された形式、文字及び数字の客体の周りに沿って四角形状を表示して四角形状のピクセル位置値を生成し、
    OCRモデルを用いて前記四角形状のピクセル内で認識される文字及び数字情報を出力し、前記生成された四角形状のピクセル位置値に基づいて隣接した全ての四角形状のピクセルを連結し、前記連結された四角形状のピクセル位置に、前記OCRモデルによって認識された文字及び数字情報をマッチさせてディスプレイし、
    前記生成された文字の客体のピクセル位置値に基づいて、イメージの左側領域に文字の客体が配置される左側ヘッダー領域(500”’)と、イメージの上側領域に文字の客体が配置される上側ヘッダー領域510”’とに区分し、前記左側ヘッダー領域(500”’)と上側ヘッダー領域510”’を基準に仮想セル客体を生成して配置し、前記配置された仮想セル客体と数字客体をマッチさせて行/列(row/column)情報に基づいて連結し、前記OCRモデルによって認識された文字及び数字情報がディスプレイされるようにすることを特徴とする、
    文書分析装置(100”’)を含む、OCRベース文書分析システム。
  16. 前記文書分析装置(100”’)は、
    認識対象イメージを受信する入力部(110”’);
    前記受信した認識対象イメージにおいて客体探知モデルを用いて任意の形式(form)、文字及び数字の客体のうち少なくとも一つの位置を探知し、探知された形式、文字及び数字の客体の周りに四角形状を表示し、表示された文字及び数字の客体のピクセル位置値を生成する客体探知モデリング部(120”’);
    OCRモデルを用いて前記四角形状のピクセル内で認識される文字及び数字情報を出力するOCRモデリング部(130”’);
    前記生成された文字の客体のピクセル位置値に基づいて、イメージの左側領域に文字の客体が配置される左側ヘッダー領域(500”’)と、イメージの上側領域に文字の客体が配置される上側ヘッダー領域510”’とに区分し、前記左側ヘッダー領域(500”’)と上側ヘッダー領域510”’を基準にM×Nサイズの仮想セル客体を生成して配置し、前記配置された仮想セル客体と数字客体をマッチさせて行/列情報に基づいて連結し、前記OCRモデルによって認識された文字及び数字情報がディスプレイされるようにする仮想セルフォーム構成モデリング部(140”’);及び
    前記生成された四角形状のピクセル位置値、認識された文字、数字情報及びマッチング結果と、特定機関で使用する文書データのフォームを保存するデータベース(150”’);を含むことを特徴とする、請求項15に記載のOCRベース文書分析システム。
  17. 前記仮想セルフォーム構成モデリング部(140”’)は、文字の客体の左側ヘッダー領域(500”’)と上側ヘッダー領域(510”’)とに区分し、前記区分された左側ヘッダー領域(500”’)と上側ヘッダー領域(510”’)に含まれた文字の客体間の間隔及びサイズを算出し、前記区分された左側ヘッダー領域(500”’)と上側ヘッダー領域(510”’)を基準に仮想セル客体を配置することを特徴とする、請求項15に記載のOCRベース文書分析システム。
  18. 前記仮想セルフォーム構成モデリング部(140”’)は、左側上端に配置された仮想セル客体と数字客体をマッチさせ、
    前記マッチした数字客体と仮想セル客体間の勾配を算出し、前記算出された勾配は、右側下端に配置された仮想セル客体と数字客体のマッチングまで反映されるようにすることを特徴とする、請求項15に記載のOCRベース文書分析システム。
  19. a)文書分析装置(100,100’,100”)が、受信した認識対象イメージにおいて客体探知モデルを用いて任意の形式、文字及び数字の客体のうち少なくとも一つの位置を探知し、探知された形式、文字及び数字の客体の周りに四角形状を表示して四角形状のピクセル位置値を生成する段階;
    b)前記文書分析装置(100,100’,100”)が、OCRモデルを用いて探知された四角形状ピクセル内で認識される文字及び数字情報を出力する段階;及び
    c)前記文書分析装置(100,100’,100”)が、前記生成された四角形状のピクセル位置値と、前記認識された文字及び数字情報に基づいて、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動するが、文字情報が検索されると、移動中に検索された全ての四角形状のピクセルを連結し、前記連結された四角形状のピクセル位置に、前記OCRモデルによって認識された文字及び数字情報をマッチさせてディスプレイさせる段階;を含むOCRベース文書分析方法。
  20. 前記a)段階の客体探知モデルは、PSENet(Progressive Scale Expansion Network)ベースのディープラーニングモデルを用いて、文書イメージを含む学習データから形状、文字及び数字の客体の位置探知と、探知された形状、文字及び数字の客体の周りに沿って四角形状のボックスと前記四角形状のピクセル位置値生成を学習することを特徴とする、請求項19に記載のOCRベース文書分析方法。
  21. 前記a)段階の客体探知モデルは、原本イメージ、文書の任意の部分が折れたイメージ、文書の位置が任意の角度で傾いたイメージ、任意の照度を有する明るさが調節されたイメージ、文書に表示された内容が鮮明でなく途切れた連結線を持つイメージ、文書の任意の部分が屈曲したイメージ、数字と連結線が重なったイメージに基づいて学習データを学習することを特徴とする、請求項19に記載のOCRベース文書分析方法。
  22. 前記c)段階は、c-1)生成された四角形状のピクセル位置値と、前記認識された文字及び数字情報に基づいて、数字情報を有する任意の四角形状のピクセル位置を開始位置にして文字情報が検索されるまで左側方向及び上側方向に移動する段階;
    c-2)前記文字情報が検索されると、移動中に検索された全ての四角形状のピクセルを連結する段階;及び
    c-3)前記四角形状のピクセル位置には認識された文字と数字情報をマッチさせてディスプレイする段階;を含むことを特徴とする、請求項19に記載のOCRベース文書分析方法。
  23. 前記c)段階は、c’-1)前記生成された四角形状のピクセル位置値と、前記認識された数字情報に基づいて、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動する段階;
    c’-2)前記移動中に検索される全ての四角形状のピクセルを連結する段階;及び
    c’-3)前記連結された四角形状の配列情報を分析し、あらかじめ保存された特定機関文書の配列情報と比較し、前記比較の結果、特定機関文書の配列情報がマッチすれば、前記特定機関文書の四角形状ピクセル位置に、認識された数字情報をマッチさせてディスプレイする段階;を含むことを特徴とする、請求項19に記載のOCRベース文書分析方法。
  24. 前記c)段階は、c”-1)生成された四角形状のピクセルの中心点にマーカー(520)を表示する段階;
    c”-2)前記認識された数字情報に基づいて、数字情報を有する任意の四角形状のピクセル位置を開始位置にして左側方向及び上側方向に移動し、移動中に検索される全ての四角形状のピクセルを連結する段階;
    c”-3)連結された四角形状のマーカー(520)位置情報を分析し、あらかじめ保存された特定機関文書の配列情報と比較する段階;及び
    c”-4)前記比較の結果、特定機関文書の配列情報がマッチすれば、前記特定機関文書の四角形状ピクセル位置に、認識された数字情報をマッチさせてディスプレイする段階;を含むことを特徴とする、請求項19に記載のOCRベース文書分析方法。
  25. 前記b)段階は、文書分析装置(100’,100”)が、前記認識対象イメージから認識される文字情報と比較するために、任意の文書で用いられる文字(項目)情報を定義した項目DB(300’)を生成する段階;及び
    文書分析装置(100’,100”)が探知された文字の客体に対して項目DB(300’)情報とマッチさせ、マッチング結果によって、認識された文字を矯正する段階;をさらに含むことを特徴とする、請求項19に記載のOCRベース文書分析方法。
  26. 前記文書分析装置(100’)は、探知された文字の客体に対して自然語処理(Natural Language Processing,NLP)によって文字を分析し、
    分析された文字と項目DB(300’)情報との比較に基づいて、分析された文字に対する信頼点数を算出し、認識された文字を矯正するか否か判断し、
    前記認識された文字の矯正を行うことによってNLPベースの矯正を行うことを特徴とする、請求項25に記載のOCRベース文書分析方法。
  27. 文書分析装置(100’)は、四角形状のピクセルが空欄であれば、左側方向に位置した後、四角形状のピクセルと連結することを特徴とする、請求項25に記載のOCRベース文書分析方法。
  28. d)前記文書分析装置(100”)が、補正モデルを用いて前記認識された文字及び数字の信頼点数を算出し、算出された信頼点数に基づいてディスプレイに反映して視覚的に表示する段階;をさらに含むことを特徴とする、請求項19又は25に記載のOCRベース文書分析方法。
  29. 前記d)段階の補正モデルはフォーム、形状、位置のうち少なくとも一つの補正を行うことによる再建率と、項目DB(300’)情報とのマッチング結果による矯正された文字の反映有無に基づいて信頼点数を算出することを特徴とする、請求項28に記載のOCRベース文書分析方法。
  30. i)文書分析装置(100”’)が、認識対象イメージを受信する段階;
    ii)前記文書分析装置(100”’)が、受信した認識対象イメージにおいて客体探知モデルを用いて任意の形式、文字及び数字の客体のうち少なくとも一つの位置を探知し、探知された形式、文字及び数字の客体の周りに四角形状を表示して文字及び数字の客体のピクセル位置値を生成する段階;
    iii)前記文書分析装置(100”’)が、OCRモデルを用いて探知された四角形状ピクセル内で認識される文字及び数字情報を出力する段階;及び
    iv)前記文書分析装置(100”’)が、前記生成された文字の客体のピクセル位置値に基づいて、イメージの左側領域に文字の客体が配置される左側ヘッダー領域(500”’)と、イメージの上側領域に文字の客体が配置される上側ヘッダー領域(510”’)とに区分し、前記左側ヘッダー領域(500”’)と上側ヘッダー領域(510”’)を基準に仮想セル客体を生成して配置し、前記配置された仮想セル客体と数字客体をマッチさせて行/列情報に基づいて連結し、前記OCRモデルによって認識された文字及び数字情報がディスプレイされるように最終結果を出力する段階;
    を含むOCRベース文書分析方法。
  31. 前記iv)段階の文字の客体の左側及び上側ピクセル位置を基準に配置する段階は、
    iv-1)文書分析装置(100”’)が文字の客体の左側ヘッダー領域(500”’)と上側ヘッダー領域(510”’)を区分する段階;
    iv-2)前記区分された左側ヘッダー領域(500”’)と上側ヘッダー領域(510”’)に含まれた文字の客体間の間隔及びサイズを算出する段階;及び
    iv-3)前記区分された左側ヘッダー領域(500”’)と上側ヘッダー領域(510”’)を基準に仮想セル客体を配置する段階を含むことを特徴とする、請求項30に記載のOCRベース文書分析方法。
  32. 前記iv)段階の配置された仮想セル客体と数字客体をマッチさせて行/列情報に基づいて連結する段階は、
    iv-4)前記文書分析装置(100”’)が左側上端に配置された仮想セル客体と数字客体をマッチさせて数字客体と仮想セル客体間の勾配を算出する段階;及び
    iv-5)前記文書分析装置(100”’)が行/列情報によって順次に移動して前記算出された勾配を右側下端に配置された仮想セル客体と数字客体のマッチングまで反映して連結する段階を含むことを特徴とする、請求項30に記載のOCRベース文書分析方法。
JP2022563495A 2020-04-24 2020-08-21 Ocrベース文書分析システム及び方法 Active JP7444495B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
KR1020200050179A KR102149050B1 (ko) 2020-04-24 2020-04-24 인공지능을 이용한 ocr 기반 문서 분석 시스템 및 방법
KR1020200050180A KR102149052B1 (ko) 2020-04-24 2020-04-24 Nlp를 이용한 ocr 기반 문서 분석 시스템 및 방법
KR10-2020-0050179 2020-04-24
KR10-2020-0050180 2020-04-24
KR1020200050181A KR102149051B1 (ko) 2020-04-24 2020-04-24 자기 신뢰도 정보를 이용한 ocr 기반 문서 분석 시스템 및 방법
KR10-2020-0050181 2020-04-24
PCT/KR2020/011210 WO2021215589A1 (ko) 2020-04-24 2020-08-21 Ocr 기반 문서 분석 시스템 및 방법

Publications (2)

Publication Number Publication Date
JP2023522360A JP2023522360A (ja) 2023-05-30
JP7444495B2 true JP7444495B2 (ja) 2024-03-06

Family

ID=78269491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022563495A Active JP7444495B2 (ja) 2020-04-24 2020-08-21 Ocrベース文書分析システム及び方法

Country Status (2)

Country Link
JP (1) JP7444495B2 (ja)
WO (1) WO2021215589A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114120322B (zh) * 2022-01-26 2022-05-10 深圳爱莫科技有限公司 订单商品数量识别结果校正方法及处理设备
CN114689512B (zh) * 2022-04-15 2024-09-24 中科芯集成电路有限公司 一种融合机器视觉和深度学习的口罩检测方法
CN116168409B (zh) * 2023-04-20 2023-07-21 广东聚智诚科技有限公司 一种应用于标准、专利分析报告自动生成系统
CN116311311B (zh) * 2023-05-23 2023-10-10 荣耀终端有限公司 电子表格生成方法、装置、电子设备及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130063620A1 (en) 2011-09-08 2013-03-14 Samsung Electronics Co., Ltd. Apparatus for recognizing character and barcode simultaneously and method for controlling the same
JP2016126796A (ja) 2014-12-27 2016-07-11 株式会社 ハンモック 活字ocrシステム
JP2019191665A (ja) 2018-04-18 2019-10-31 Tis株式会社 財務諸表読取装置、財務諸表読取方法及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100707943B1 (ko) * 2005-04-27 2007-04-18 최철규 광학문자인식 기능을 활용한 재무제표인식 방법 및 그시스템
JP2011150466A (ja) * 2010-01-20 2011-08-04 Fujitsu Ltd 文字列認識装置、文字列認識プログラムおよび文字列認識方法
KR102000221B1 (ko) * 2017-11-02 2019-07-15 (주)중외정보기술 자연어 처리 기반 요양급여 심사지원 서비스 시스템 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130063620A1 (en) 2011-09-08 2013-03-14 Samsung Electronics Co., Ltd. Apparatus for recognizing character and barcode simultaneously and method for controlling the same
JP2016126796A (ja) 2014-12-27 2016-07-11 株式会社 ハンモック 活字ocrシステム
JP2019191665A (ja) 2018-04-18 2019-10-31 Tis株式会社 財務諸表読取装置、財務諸表読取方法及びプログラム

Also Published As

Publication number Publication date
JP2023522360A (ja) 2023-05-30
WO2021215589A1 (ko) 2021-10-28

Similar Documents

Publication Publication Date Title
JP7444495B2 (ja) Ocrベース文書分析システム及び方法
KR102149050B1 (ko) 인공지능을 이용한 ocr 기반 문서 분석 시스템 및 방법
US20230005285A1 (en) Multi-page document recognition in document capture
US10120537B2 (en) Page-independent multi-field validation in document capture
KR102149051B1 (ko) 자기 신뢰도 정보를 이용한 ocr 기반 문서 분석 시스템 및 방법
JP7437837B2 (ja) 仮想セルを用いたocrベースの文書分析システム及び方法
US8660294B2 (en) Form data extraction without customization
US7106904B2 (en) Form identification method
US20030107586A1 (en) Image synthesization method
US20010043740A1 (en) Character recognizing device, image reading device, character recognizing method, and program product
JP6900164B2 (ja) 情報処理装置、情報処理方法及びプログラム
JPH0573598A (ja) 書類処理方法と書類処理システム
KR102149052B1 (ko) Nlp를 이용한 ocr 기반 문서 분석 시스템 및 방법
JP6458239B1 (ja) 画像認識システム
JP2021043775A (ja) 情報処理装置及びプログラム
JP4859054B2 (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2003242441A (ja) 帳票処理方法および装置並びにプログラム
JP3463008B2 (ja) 媒体処理方法及び媒体処理装置
JPH08329187A (ja) 文書読取装置
US6351560B1 (en) Apparatus, method, and program for locating an objective on a form and a recording medium for recording the program for locating the objective on the form
JP4853313B2 (ja) 文字認識装置
JP2003223610A (ja) 文字認識装置及び文字認識方法
JPH06103411A (ja) 文書読取装置
JP2006053622A (ja) 文書リンク情報取得システム
JP2000113100A (ja) 媒体処理方法及び媒体処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240215

R150 Certificate of patent or registration of utility model

Ref document number: 7444495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150