JP2023536174A - 仮想セルを用いたocrベースの文書分析システム及び方法 - Google Patents

仮想セルを用いたocrベースの文書分析システム及び方法 Download PDF

Info

Publication number
JP2023536174A
JP2023536174A JP2023506558A JP2023506558A JP2023536174A JP 2023536174 A JP2023536174 A JP 2023536174A JP 2023506558 A JP2023506558 A JP 2023506558A JP 2023506558 A JP2023506558 A JP 2023506558A JP 2023536174 A JP2023536174 A JP 2023536174A
Authority
JP
Japan
Prior art keywords
objects
image
header area
virtual cell
ocr
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2023506558A
Other languages
English (en)
Other versions
JP7437837B2 (ja
Inventor
リ、ビョン-チョル
ソ、グァン-イル
キム、サン-ホン
オ、チン-ソル
ファン、チャン-ヒョン
Original Assignee
アジャイルソーダ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アジャイルソーダ インコーポレイテッド filed Critical アジャイルソーダ インコーポレイテッド
Publication of JP2023536174A publication Critical patent/JP2023536174A/ja
Application granted granted Critical
Publication of JP7437837B2 publication Critical patent/JP7437837B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

仮想セルを用いたOCRベースの文書分析システム及び方法を開示する。本発明は、文書上の項目に記載された数字や文字を認識し、認識された文字の相対的な位置を基に仮想セルを生成して数字に関する相対的な位置情報をマッチングさせることができる。

Description

本発明は、仮想セルを用いたOCRベースの文書分析システム及び方法に関する発明であって、さらに詳しくは、文書上の項目に記載された数字や文字を認識し、認識された文字の相対的な位置を基に仮想セルを生成して数字に関する相対的な位置情報をマッチングさせる仮想セルを用いたOCRベースの文書分析システム及び方法に関する。
個人や企業は、経済活動を営む中で収集する領収書を経費報告、支出決議などの会計処理もしくは総合所得税の申告などの税務処理のための事後の証憑書類として保管して管理する。
このようにして保管及び管理される領収書は、紙ベースのものであるが故に、根本的に、原本の毀損のリスクがあり、汚損、紛失、腐敗に対する露出を予防しなければならないという技術的・経済的な負担がある他、領収書の保管量の増大に比例して領収書の保管スペースを増やさなければならないという不都合がある。
また、個人や企業の担当者は、手書きの入力方式で、従来の領収書から上記の会計処理もしくは税務処理に必要とされる情報を抽出して分類して帳簿に記入したり、会計ソフトのインストールされたパソコン(PC)に入力・保存したりするが故に、情報の抽出タスクに不便さを感じるという不都合がある。
一方、文書に含まれている文字情報(テキスト)画像は、機械エンコーディングを通じて変換することができるが、機械エンコーディングを通じて変換された文字は、電子的に編集、検索などが可能であり、変換された文字は、ファイルなどの形態でデータベースに保存することも可能になる。
かような機械エンコーディングは、主として光学式文字認識(OCR:Optical Character Recognition)を通じて行われることができ、コンピューターなどを用いて画像ベースのテキスト文書を自動的に感知、識別及びエンコーディングすることができる。
大韓民国登録特許第10-1139801号公報(発明の名称:領収書の読み取りを通じた自動情報収集システム及び方法)には、従来の領収書に印刷された購買物品、購買数量、使用金額などをOCRを通じて読み取って保存することにより、当該領収書の使用者の購買情報を自動的に収集、管理する構成が開示されている。
しかしながら、従来の技術によるOCRは、低品質のプリンターまたはファックスなどにおいて印刷されたり、解像度の低い撮影手段において画像化されたり、しわくちゃになったり、あるいは、傾いた状態で撮影されたりした画像の場合にOCRの認識の正確度が低下するという不都合がある。
また、従来の技術による情報収集システムは、単に物品、数量、使用金額などに対する認識しか行うことができないため、認識された項目同士のつながりは分からないという不都合がある。
さらに、従来の技術による情報収集システムは、バーコード付き領収書、特に、別途のスキャナー装置を介してデジタルデータ化した領収書を認識するように構成されているため、通常の領収書の認識は行い難いという不都合がある。
さらにまた、従来の技術による情報収集システムは、文書から文字しか認識しないため、認識された文字と文字との間の関係が分からないという不都合がある。
これらに加えて、従来の技術による情報収集システムは、認識された文字と数字とを正確にマッチングさせることができないという不都合がある。
これらの不都合を解消すべく、本発明は、文書上の項目に記載された数字や文字を認識し、認識された文字の相対的な位置を基に仮想セルを生成して数字に関する相対的な位置情報をマッチングさせる仮想セルを用いたOCRベースの文書分析システム及び方法を提供することを目的とする。
上記の目的を達成するために、本発明の一実施形態は、仮想セルを用いたOCRベースの文書分析システムであって、オブジェクト検知モデルを用いて、認識対象となる画像から、任意の形式(form)、文字及び数字のうちの少なくとも一つのオブジェクトの位置を検知するが、前記検知された形式、文字及び数字オブジェクトの周りに沿って四角い形状を表示して文字及び数字オブジェクトのピクセル位置値を生成し、OCRモデルを用いて、前記四角い形状のピクセル内において認識される文字及び数字の情報を出力し、前記生成された文字オブジェクトのピクセル位置値を基に、画像の左側領域に文字オブジェクトが配置される左側ヘッダー領域と、画像の上側領域に文字オブジェクトが配置される上側ヘッダー領域と、に区分し、前記左側ヘッダー領域と上側ヘッダー領域を基準として仮想セルオブジェクトを生成して配置し、前記配置された仮想セルオブジェクトと数字オブジェクトとをマッチングさせて行/列(row/column)情報に基づいて結んで、前記OCRモデルを通じて認識された文字及び数字の情報がディスプレイされるようにする文書分析装置100を備える。
また、上記の実施形態に係るオブジェクト検知モデルは、プログレッシブスケール拡張ネットワーク(PSENet:Progressive Scale Expansion Network)に基づいたディープラーニング(深層学習)モデルを用いて、文書画像を含む学習データからの形式、文字及び数字オブジェクトの位置の検知と、検知された形式、文字及び数字オブジェクトの周りに沿って四角い形状を表示し、前記表示された四角い形状のピクセル位置値の生成と、を学習することを特徴とする。
さらに、上記の実施形態に係るオブジェクト検知モデルは、原画像(オリジナル画像)、文書の任意の部分が折り畳まれた画像、文書の位置が任意の角度で傾いた画像、任意の照度を有する明るさの調節された画像、文書に表示された内容が鮮明ではなく、途切れた連結線を有する画像、文書の任意の部分にうねりが生じた画像、数字と連結線とが重なり合った画像を基に学習データを学習することを特徴とする。
さらにまた、上記の実施形態に係る文書分析装置は、認識対象となる画像を受信する入力部と、前記受信された認識対象となる画像から、オブジェクト検知モデルを用いて、任意の形式(form)、文字及び数字オブジェクトのうちの少なくとも一つの位置を検知し、検知された形式、文字及び数字オブジェクトの周りに四角い形状を表示し、表示された文字及び数字オブジェクトのピクセル位置値を生成するオブジェクト検知モデリング部と、OCRモデルを用いて、前記四角い形状のピクセル内において認識される文字及び数字の情報を出力するOCRモデリング部と、前記生成された文字オブジェクトのピクセル位置値を基に、画像の左側領域に文字オブジェクトが配置される左側ヘッダー領域と、画像の上側領域に文字オブジェクトが配置される上側ヘッダー領域と、に区分し、前記左側ヘッダー領域と上側ヘッダー領域を基準としてM×Nの大きさの仮想セルオブジェクトを生成して配置し、前記配置された仮想セルオブジェクトと数字オブジェクトとをマッチングさせて行/列情報に基づいて結んで、前記OCRモデルを通じて認識された文字及び数字の情報がディスプレイされるようにする仮想セルフォーム構成モデリング部と、前記生成された四角い形状のピクセル位置値、認識された文字、数字の情報及びマッチング結果と、特定の機関において使用する文書データのフォームと、を保存するデータベースと、を備えることを特徴とする。
さらにまた、上記の実施形態に係る仮想セルフォーム構成モデリング部は、文字オブジェクトの左側ヘッダー領域と上側ヘッダー領域とを区分するが、前記区分された左側ヘッダー領域と上側ヘッダー領域に含まれている文字オブジェクト同士の間隔及び大きさを算出し、前記区分された左側ヘッダー領域と上側ヘッダー領域を基準として仮想セルオブジェクトを配置することを特徴とする。
さらにまた、上記の実施形態に係る仮想セルフォーム構成モデリング部は、左側上端に配置された仮想セルオブジェクトと数字オブジェクトとをマッチングさせるが、前記マッチングされた数字オブジェクトと仮想セルオブジェクトとの間の傾きを算出し、前記算出された傾きは、右側下端に配置された仮想セルオブジェクトと数字オブジェクトとのマッチングまで反映されるようにすることを特徴とする。
さらにまた、本発明の一実施形態は、OCRベースの文書分析方法であって、a)文書分析装置が、認識対象となる画像を受信するステップと、b)前記文書分析装置が、受信された認識対象となる画像から、オブジェクト検知モデルを用いて、任意の形式、文字及び数字オブジェクトのうちの少なくとも一つの位置を検知し、検知された形式、文字及び数字オブジェクトの周りに四角い形状を表示して文字及び数字オブジェクトのピクセル位置値を生成するステップと、c)前記文書分析装置が、OCRモデルを用いて検知された四角い形状のピクセル内において認識される文字及び数字の情報を出力するステップと、d)前記文書分析装置が、前記生成された文字オブジェクトのピクセル位置値を基に、画像の左側領域に文字オブジェクトが配置される左側ヘッダー領域と、画像の上側領域に文字オブジェクトが配置される上側ヘッダー領域と、に区分し、前記左側ヘッダー領域と上側ヘッダー領域を基準として仮想セルオブジェクトを生成して配置し、前記配置された仮想セルオブジェクトと数字オブジェクトとをマッチングさせて行/列情報に基づいて結んで、前記OCRモデルを通じて認識された文字及び数字の情報がディスプレイされるように最終結果を出力するステップと、を含む。
さらにまた、上記の実施形態に係る前記ステップd)の文字オブジェクトの左側及び上側のピクセルの位置を基準として配置するステップは、d-1)文書分析装置が、文字オブジェクトの左側ヘッダー領域と上側ヘッダー領域とを区分するステップと、d-2)前記区分された左側ヘッダー領域と上側ヘッダー領域に含まれている文字オブジェクト同士の間隔及び大きさを算出するステップと、d-3)前記区分された左側ヘッダー領域と上側ヘッダー領域を基準として仮想セルオブジェクトを配置するステップと、を含むことを特徴とする。
さらにまた、上記の実施形態に係る前記ステップd)の配置された仮想セルオブジェクトと数字オブジェクトとをマッチングさせて行/列情報に基づいて結ぶステップは、d-4)前記文書分析装置が、左側上端に配置された仮想セルオブジェクトと数字オブジェクトとをマッチングさせて数字オブジェクトと仮想セルオブジェクトとの間の傾きを算出するステップと、d-5)前記文書分析装置が、行/列情報に基づいて順次に移動しながら、前記算出された傾きを右側下端に配置された仮想セルオブジェクトと数字オブジェクトとのマッチングまで反映して結ぶステップと、を含むことを特徴とする。
本発明は、文書上の項目に記載された数字や文字を認識し、認識された文字の相対的な位置を基に仮想セルを生成して数字に関する相対的な位置情報をマッチングさせることができるというメリットがある。
また、本発明は、認識された項目同士の連結及び相対的な位置関係を基に、文字の配置されたパターンを分析して特定の文書または領収書などを使用する病院、保険社などの機関において使用したフォームパターンと比較することにより、迅速かつ正確なマッチングを行うことが可能であるというメリットがある。
さらに、本発明は、病院、保険社などの機関において使用したフォームパターンと比較して使用することにより、OCRは数字のみの認識に単純化させることができるというメリットがある。
さらにまた、本発明は、標準化した画像ではなくても、様々な学習データを用いたディープラーニングを通じて認識の正確度を高めることができるというメリットがある。
さらにまた、本発明は、病院、薬局・ドラッグストアなどにおいて使用する様々なフォーマットの領収書に対して正確な情報の認識を行うことができるというメリットがある。
これらに加えて、本発明は、特定の様式(フォーム)がない書類のデジタル化を行うことができるというメリットがある。
本発明の一実施形態に係る仮想セルを用いたOCRベースの文書分析システムの構成を示すブロック図。 図1の実施形態に係る仮想セルを用いたOCRベースの文書分析システムの文字位置の検知を説明するための例示図。 図2に示す文字位置の検知結果を示す例示図。 図1の実施形態に係る仮想セルを用いたOCRベースの文書分析システムのOCR認識結果を示す例示図。 図1の実施形態に係る仮想セルを用いたOCRベースの文書分析システムの文字位置検知モデルの結果とOCRモデルの結果を示す例示図。 図1の実施形態に係る仮想セルを用いたOCRベースの文書分析システムにおける仮想セルの連結過程を説明するための例示図。 図1の実施形態に係る仮想セルを用いたOCRベースの文書分析システムにおける仮想セルの連結過程を説明するための別の例示図。 図1の実施形態に係る仮想セルを用いたOCRベースの文書分析システムの位置座標に基づいた仮想セルの連結過程を説明するための例示図。 図1の実施形態に係る仮想セルを用いたOCRベースの文書分析システムにおける仮想セルを用いた最終的な連結状態を示す例示図。 図1の実施形態に係る仮想セルを用いたOCRベースの文書分析システムを用いた、ずれて揃っていない文字の連結状態を示す例示図。 図1の実施形態に係る仮想セルを用いたOCRベースの文書分析システムを用いた、歪んだ文字の連結状態を示す例示図。 本発明の一実施形態に係る仮想セルを用いたOCRベースの文書分析の過程を示すフローチャート。 図12の実施形態に係る仮想セルベースの項目のマッチング過程を示すフローチャート。
以下では、本発明の好適な実施形態及び添付図面に基づいて、本発明の好適な実施形態について詳しく説明するが、同一の参照符号は、同一の構成要素を指し示しているということを前提として説明を行う。
本発明の実施のための具体的な内容について説明するに先立って、本発明の技術的要旨と直接的な連関性がない構成に対しては、本発明の技術的な要旨を曖昧にしない範囲内において省略しているということに留意しなければならない。
また、この明細書及び特許請求の範囲に用いられた用語や単語は、発明者が自分の発明を最善の方法で説明するために用語の概念を適切に定義することができるという原則に踏まえて、発明の技術的な思想に相応しい意味及び概念として解釈されなければならない。
この明細書において、ある部分がある構成要素を「備える」、「含む」、もしくは「有する」という言い回しは、他の構成要素を排除するものではなく、他の構成要素をさらに備えていてもよいということを意味する。
この明細書において、「…部」、「…器」、「…モジュール」などの用語は、少なくとも一つの機能や動作を処理する単位を意味し、これは、ハードウェアやソフトウェア、またはこれらの両方の組み合わせに区別され得る。
また、「少なくとも一つの」という用語は、単数及び複数を含む用語であると定義され、たとえ少なくとも一つという用語が存在しなくても、各構成要素が単数または複数で存在することができ、単数または複数を意味する場合があるということは自明であるといえる。
さらに、各構成要素が単数または複数で備えられるということは、実施形態に応じて変更可能であるといえる。
以下、添付図面に基づいて、本発明の一実施形態に係る仮想セルを用いたOCRベースの文書分析システム及び方法の好適な実施形態について詳しく説明する。
図1は、本発明の一実施形態に係る仮想セルを用いたOCRベースの文書分析システムの構成を示すブロック図であり、図2から図9は、本発明の一実施形態に係る仮想セルを用いたOCRベースの文書分析システムの動作過程を説明するための例示図である。
図1から図9に基づいて説明すると、本発明の一実施形態に係る仮想セルを用いたOCRベースの文書分析システムは、オブジェクト検知モデルを用いて、認識対象となる画像から、任意の形式(form)、文字及び数字のうちの少なくとも一つのオブジェクトの位置を検知するが、前記検知された形式、文字及び数字オブジェクトの周りに沿って四角い形状を表示して文字及び数字オブジェクトのピクセル位置値を生成し、OCRモデルを用いて、前記四角い形状のピクセル内において認識される文字及び数字の情報を出力し、前記成された文字オブジェクトのピクセル位置値を基に、画像の左側領域に文字オブジェクトが配置される左側ヘッダー領域500と、画像の上側領域に文字オブジェクトが配置される上側ヘッダー領域510と、に区分するが、前記左側ヘッダー領域500と上側ヘッダー領域510を基準として仮想セルオブジェクトを生成して配置し、前記配置された仮想セルオブジェクトと数字オブジェクトとをマッチングさせて行/列情報に基づいて結んで、前記OCRモデルを通じて認識された文字及び数字の情報がディスプレイされるようにする文書分析装置100を備えていてもよい。
また、文書分析装置100は、外部から送られてくる認識対象となる画像を受信する入力部110を備えていてもよい。
入力部110は、ネットワークを介して接続された外部の端末から送られてくる画像またはスキャナーなどを介して取り込まれた画像などを受信するデータ通信手段から構成されてもよい。
さらに、文書分析装置100は、入力部110を介して受信された認識対象となる画像から、オブジェクト検知モデルを用いて、画像に含まれている任意の形式(form)、文字及び数字オブジェクトの位置を検知し、検知された形式、文字及び数字オブジェクトの周りに沿って四角い形状を表示して四角い形状のピクセル位置情報を生成するオブジェクト検知モデリング部120を備えていてもよい。
すなわち、オブジェクト検知モデリング部120は、形式、文字及び数字オブジェクトに対する相対的な位置の認識を行い、形式、文字及び数字オブジェクトの位置に応じた配列が確認できるように、検知された形式、文字及び数字オブジェクトの周りに沿って四角い形状を表示し、表示された四角い形状のピクセル位置値(座標情報)を生成する。
ここで、オブジェクト検知モデルは、プログレッシブスケール拡張ネットワーク(PSENet:Progressive Scale Expansion Network)に基づいたディープラーニングモデルを用いて、文書画像を含む学習データから、形式、文字及び数字オブジェクトとその位置を検知し、検知率の向上のために学習を行うことができる。
また、オブジェクト検知モデルは、原画像、文書の任意の部分が折り畳まれた画像、文書の位置が任意の角度で傾いた画像、任意の照度を有する明るさの調節された画像、文書に表示された内容が鮮明ではなく、途切れた連結線を有する画像、文書の任意の部分にうねりが生じた画像、数字と連結線とが重なり合った画像ベースの学習データを用いて学習することができる。
このように、様々な環境、例えば、照明、撮影角度、撮影時の揺れ、撮影構図、写真の解像度など様々な条件下で撮影され得る画像に鑑みて原画像と比較して様々なバリエーションを与えた画像を事前に学習することにより、実際の環境下で受信される画像に対する検知率または認識率を向上させることができる。
一方、本発明においては、説明のしやすさのために、認識対象となる画像の実施態様として病院の領収書と関わる画像を挙げて説明するが、本発明はこれに何ら限定されるものではなく、薬局・ドラッグストアの領収書、税金計算書、見積もり書、請求書、取引明細書、各種の計算書及び領収書などを網羅する。
また、オブジェクト検知モデルは、自動増強(Auto Augmentation)を通じて様々なバリエーションを与えた画像を基に検知を行うに際して、最適な規則を見付けることもできる。
さらに、オブジェクト検知モデルは、検知された形式、文字及び数字のオブジェクトに対して四角い形状のピクセルを設定し、設定されたピクセルの位置値を生成することができる。
すなわち、入力された文書画像200における任意の検知領域210から検知された、例えば、文字オブジェクト211に対して、外部面に四角い形状のボックス212から構成されたピクセル位置値を生成し、認識されたオブジェクト213に関する情報を文字の検知結果220に表示することにより、四角い形状に基づいたパターンの認識が行えるようにする。
この実施形態においては、説明のしやすさのために、文字オブジェクトを例にとって説明するが、本発明はこれに何ら限定されるものではなく、数字、領収書のフォームを構成する形式(form)をオブジェクトとして含んでいてもよいということは当業者にとって自明である。
さらにまた、四角い形状のボックス212は、好ましくは、長方形(rectangular)を呈していてもよい。
さらにまた、形式の周りに沿って表示された四角い形状の構成(または、配列)パターンに基づいて事前に保存された機関(病院)の領収書の構成と比較することで、どのような機関の領収書であるかを区別することもできる。
ここで、形式は、文書テーブルを構成するフォームにおける一つのセル(Cell)であって、長方形を呈していてもよい。
さらにまた、文書分析装置100は、オブジェクト検知モデリング部120において検知された形式、文字及び数字オブジェクトに対して、OCRモデルを用いて文字及び数字の認識を行うOCRモデリング部130を備えていてもよい。
ここで、OCRモデリング部130は、画像ベースのテキスト文書を自動的に感知して認識する構成要素であって、公知のOCRモデルを用いて構成することができる。
さらにまた、OCRモデリング部130は、OCR認識結果300に対して認識された予測情報310と、予測情報310に関する信頼点数320と、を算出して一緒に提供することができる。
ここで、予測情報310は、認識されたオブジェクトに含まれるべき文字及び数字を示すものであり、信頼点数320は、OCRを通じて認識する過程において、内容が鮮明ではない場合、あるいは、結ばれた部分が途切れた場合などを反映して、全体の部分における認識済みの部分の比率を算出した認識率であってもよい。
また、文書分析装置100は、生成された文字オブジェクトのピクセル位置値を基に、画像の左側領域に文字オブジェクトが配置される左側ヘッダー領域500と、画像の上側領域に文字オブジェクトが配置される上側ヘッダー領域510と、に区分するが、前記左側ヘッダー領域500と上側ヘッダー領域510を基準としてM×Nの大きさの仮想セルオブジェクトを生成して配置し、前記配置された仮想セルオブジェクトと数字オブジェクトとをマッチングさせて行/列情報に基づいて結んで、前記OCRモデルを通じて認識された文字及び数字の情報がディスプレイされるようにする仮想セルフォーム構成モデリング部140を備えていてもよい。
すなわち、仮想セルフォーム構成モデリング部140は、オブジェクト検知モデリング部120における検知結果とOCRモデリング部130における予測情報に基づいて認識した予測情報がどのような項目であるかがマッチングされるようにする。
また、仮想セルフォーム構成モデリング部140は、オブジェクト検知モデリング部120における検知結果220とOCRモデリング部130における予測情報310とをマッチングさせるために、隣り合うすべての文字及び数字オブジェクトの四角い形状のピクセルを結ぶ。
さらに、通常の領収書などの会計関係の文書は、文字からなる項目が主として文書の左側と上側に配置される。
すなわち、文書画像400上の左側には複数の左側オブジェクト410が検知され、文書画像400上の上側には複数の上側オブジェクト420が検知され、個別の左側オブジェクト410及び上側オブジェクト420と連動して数字オブジェクト430が検知される。
数字オブジェクト430は、当該数字オブジェクト430に対応する左側オブジェクト410と上側オブジェクト420により当該数字オブジェクト430が有する属性(attribute)が定義される。
しかしながら、数字オブジェクト430を隣のオブジェクトと結ぶとき、入力された文書画像に含まれている数字オブジェクトが水平方向ではなく、傾いた状態に配置された場合、左側方向に配置された文字オブジェクトと結ぶ過程において、水平方向ではなく、傾いた方向の延長線に配置された別の文字オブジェクトと結ばれてしまうことがある。
本発明の一実施形態に係る仮想セルフォーム構成モデリング部140は、仮想セルオブジェクトを生成して文字オブジェクト及び数字オブジェクトが結ばれるようにする。
このために、仮想セルフォーム構成モデリング部140は、オブジェクト検知モデリング部120を介して抽出された文字オブジェクトの位置座標を基に、文書画像400上において、左側ヘッダー領域500と上側ヘッダー領域510とを分離して区分する。
また、仮想セルフォーム構成モデリング部140は、区分された左側ヘッダー領域500に含まれている文字オブジェクト、すなわち、図中の左側ヘッダー領域500の垂直方向の下方向に配置された複数の左側ヘッダーオブジェクト501と、上側ヘッダー領域510に含まれている文字オブジェクト、すなわち、図中の上側ヘッダー領域510の水平方向の右方向に配置された上側ヘッダーオブジェクト511、512ごとに四角い形状のピクセルの位置座標値を抽出する。
さらに、仮想セルフォーム構成モデリング部140は、文字オブジェクトの左側ヘッダー領域500と上側ヘッダー領域510に含まれている文字オブジェクトとの間の間隔及び大きさ、すなわち、左側ヘッダーオブジェクト501、上側ヘッダーオブジェクト511、上側ヘッダーオブジェクト1512の間の間隔及び大きさを算出し、区分された左側ヘッダー領域500と上側ヘッダー領域510を基準として複数の仮想セルグループ530、530aが行/列情報に基づいて配置される。
すなわち、仮想セルグループ530、530aに含まれている複数の仮想セルオブジェクト531、532が左側ヘッダー領域500と上側ヘッダー領域510の行/列情報に基づいて配置される。
ここで、配置される仮想セルオブジェクト531、532の数は、左側ヘッダー領域500と上側ヘッダー領域510において検知された左側ヘッダーオブジェクト501と上側ヘッダーオブジェクト511の数であるM×N個に見合う分だけ形成される。
また、仮想セルフォーム構成モデリング部140は、数字オブジェクト領域520と仮想セルグループ530、530aとをマッチングさせるが、左側上端に配置された仮想セルオブジェクト531と数字オブジェクト521とが優先的にマッチングされるようにする。
このとき、左側ヘッダー及び上側ヘッダーの情報と最も密接に紐付けられた情報は左側上端であるため、最も正確度の高い左側上端の仮想セルオブジェクト531と数字オブジェクト521とを優先的にマッチングさせる。
さらに、仮想セルフォーム構成モデリング部140は、左側上端に配置された仮想セルオブジェクト531と数字オブジェクト521とをマッチングさせると、マッチングされた数字オブジェクト521と仮想セルオブジェクト531との間の傾きを算出する。
すなわち、仮想セルフォーム構成モデリング部140は、文書画像に含まれている数字オブジェクト521が水平方向ではなく、傾いた状態に配置された場合に間違えてマッチングされてしまうことを防ぐために、文書画像の上に設定された基準座標系から、座標系内の当該ベクトルの傾きを算出し、算出された傾きに基づいて画像の全体的な傾きを算出する。
さらにまた、仮想セルフォーム構成モデリング部140は、画像の全体的な傾きが反映されるように左側上端においてマッチングされた数字オブジェクト521と仮想セルオブジェクト531との間の傾き情報が右側下端に配置された仮想セルオブジェクトと数字オブジェクトn523とのマッチングまで反映されるようにする。
さらにまた、仮想セルフォーム構成モデリング部140は、仮想セルオブジェクトを左側、上端、下端のオブジェクトと傾きライン540及び上側ヘッダーライン541を介して結ぶが、左側ヘッダーオブジェクト501、上側ヘッダーオブジェクト511、上側ヘッダーオブジェクト1512などから算出したオブジェクト同士の間隔及び大きさに基づいて、IoU(Intersection over Union)が予め設定された基準値以上であれば結ばれるようにする。
さらにまた、仮想セルフォーム構成モデリング部140は、仮想セルオブジェクトを用いた連結が完了すると、仮想セルオブジェクトを除去して最終的な連結画像600を生成して出力する。
このとき、仮想セルフォーム構成モデリング部140は、最終的な連結画像600をデータベース150に保存された特定の機関の文書のボックスの配列情報と比較して、マッチングされるか否かを確認することができる。
ここで、特定の機関は、病院、薬局・ドラッグストア、会社など、領収書及び会計関係の文書を任意のフォームにて発行するあらゆる場所を網羅する。
また、仮想セルフォーム構成モデリング部140は、図10に示すように、たとえ数字オブジェクト730がずれて揃っていない文字画像700が入力されるとしても、左側ヘッダーオブジェクト710と上側ヘッダーオブジェクト720を基に仮想セルオブジェクトを生成した後、例えば、下にずれて揃っていない数字オブジェクト730を仮想セルオブジェクトとマッチングさせて傾きに基づいて結ぶことで、文字オブジェクトと数字オブジェクトとが正確に結ばれるようにする。
さらに、仮想セルフォーム構成モデリング部140は、図11に示すように、たとえ図中の片側に歪んだ(または、傾いた)文字画像800が入力されるとしても、左側ヘッダーオブジェクト810と上側ヘッダーオブジェクト820を基に仮想セルオブジェクトを生成した後、数字オブジェクト830を仮想セルオブジェクトとマッチングさせて傾きに基づいて結ぶことで、文字オブジェクトと数字オブジェクトとが正確に結ばれるようにする。
さらにまた、文書分析装置100は、仮想セルフォーム構成モデリング部140から出力される再構成画像、特定の機関において使用する文書データのフォーム(または、形式)、生成された四角い形状のピクセル位置値、認識された文字、数字の情報及びマッチング結果などを保存するデータベース150を備えていてもよい。
次いで、本発明の一実施形態に係る仮想セルを用いたOCRベースの文書分析方法について説明する。
図12は、本発明の一実施形態に係る仮想セルを用いたOCRベースの文書分析の過程を示すフローチャートであり、図13は、図12の実施形態に係る仮想セルに基づいた項目のマッチング過程を示すフローチャートである。
図1、図12及び図13を参照すると、文書分析装置100は、ネットワークを介して接続された外部端末またはファックスなどを介して認識対象となる領収書の画像を受信(S100)する。
文書分析装置100は、受信された認識対象となる領収書の画像から、オブジェクト検知モデルを用いて、任意の形式、文字及び数字オブジェクトとその位置を検知し、検知された形式、文字及び数字オブジェクトの周りに沿って四角い形状を表示して四角い形状のピクセル位置情報を生成する文字検知ステップを行う(S200)。
また、ステップS200において、オブジェクト検知モデルは、プログレッシブスケール拡張ネットワーク(PSENet:Progressive Scale Expansion Network)に基づいたディープラーニングモデルを用いて、文書画像を含む学習データから形式、文字及び数字オブジェクトとその位置を検知し、検知率の向上のために学習を行うことができる。
さらに、オブジェクト検知モデルは、原画像、文書の任意の部分が折り畳まれた画像、文書の位置が任意の角度で傾いた画像、任意の照度を有する明るさの調節された画像、文書に表示された内容が鮮明ではなく、途切れた連結線を有する画像、文書の任意の部分にうねりが生じた画像、数字と連結線とが重なり合った画像ベースの学習データを用いて学習することができる。
続いて、文書分析装置100は、検知された形式、文字及び数字オブジェクトに対する四角い形状のピクセル内において、OCRモデルを用いて文字及び数字情報を認識するOCR認識ステップ(S300)を行う。
ステップS300を行った後、文書分析装置100は、生成された文字オブジェクトのピクセル位置値を基に、画像の左側領域に文字オブジェクトが配置される左側ヘッダー領域500と、画像の上側領域に文字オブジェクトが配置される上側ヘッダー領域510と、に区分し、前記左側ヘッダー領域500と上側ヘッダー領域510を基準として仮想セルオブジェクトを生成して配置し、配置された仮想セルオブジェクトと数字オブジェクトをマッチングさせて行/列情報に基づいて結ぶ(S400)。
ステップS400についてさらに詳しく説明すれば、文書分析装置100は、文字オブジェクトの左側及び上側のピクセルの位置を基準として仮想セルオブジェクトを配置するが、文字オブジェクトの左側ヘッダー領域500(図7参照)と上側ヘッダー領域510(図7参照)とを区分(S410)する。
また、文書分析装置100は、区分された左側ヘッダー領域500と上側ヘッダー領域510に含まれている文字オブジェクト同士の間隔及び大きさを算出(S420)する。
続いて、文書分析装置100は、区分された左側ヘッダー領域500と上側ヘッダー領域510を基準として検知された左側ヘッダーオブジェクト501と上側ヘッダーオブジェクト511の数であるM×Nに見合う分だけ仮想セルオブジェクトを配置(S430)する。
ステップS430における仮想セルオブジェクトの配置が完了すると、文書分析装置100は、左側上端に配置された仮想セルオブジェクトと数字オブジェクトとをマッチングさせて数字オブジェクトと仮想セルオブジェクトとの間の傾きを算出(S440)する。
すなわち、ステップS440において、文書分析装置100は、文書画像に含まれている数字オブジェクトが水平方向ではなく、傾いた状態に配置された場合に間違えてマッチングされてしまうことを防ぐために、文書画像の上に設定された基準座標系から、座標系内の当該ベクトルの傾きを算出し、算出された傾きに基づいて画像の全体的な傾きを算出する。
続いて、文書分析装置100が行/列情報に基づいて順次に移動しながら、前記算出された傾きを右側下端に配置された仮想セルオブジェクトと数字オブジェクトとのマッチングまで反映して結ぶ(S450)。
すなわち、文書分析装置100は、画像の全体的な傾きが反映されるように左側上端においてマッチングされた数字オブジェクトと仮想セルオブジェクトとの間の傾き情報が右側下端に配置された仮想セルオブジェクトと数字オブジェクトnとのマッチングまで反映されるようにし、反映結果に従って配置された仮想セルオブジェクトと数字オブジェクトとをマッチングさせて左側ヘッダーオブジェクト501と上側ヘッダーオブジェクト511の行/列情報に基づいて結ぶ。
ステップS450における連結が完了すると、文書分析装置100は、OCRモデルを通じて認識された文字及び数字の情報がディスプレイされるように最終的な連結画像600を生成して出力(S500)する。
したがって、文書上の項目に記載された数字や文字を認識し、認識された文字の相対的な位置を基に仮想セルを生成して数字に関する相対的な位置情報をマッチングさせることができる。
また、認識された項目同士の連結及び相対的な位置関係を基に、文字が配置されたパターンを分析して特定の文書または領収書などを使用する病院、保険社などの機関において使用したフォームパターンと比較することにより、迅速かつ正確なマッチングを行うことができる。
さらに、病院、保険社などの機関において使用したフォームパターンと比較して使用することにより、OCRは数字のみの認識に単純化させることができ、標準化した画像ではなくても、様々な学習データを用いたディープラーニング学習を通じて認識の正確度を高めることができる。
さらにまた、病院、薬局・ドラッグストアなどにおいて使用する様々なフォーマットの領収書に対して正確な情報の認識を行うことができ、特定の様式(フォーム)がない書類をデジタル化させることができる。
以上、本発明の好適な実施形態に基づいて説明したが、当該技術分野における熟練した当業者であれば、特許請求の範囲に記載された本発明の思想及び領域から逸脱しない範囲内において本発明に種々の修正及び変更を加えることができるということが理解できる筈である。
また、本発明の特許請求の範囲に記載された図面符号は、説明の明瞭性と便宜性のために記載したものに過ぎず、本発明はこれに何ら限定されるものではなく、実施形態を説明する過程において、図示の線の太さや構成要素の大きさなどは、説明の明瞭性と便宜性のために誇張して示されていてもよい。
さらに、上述した用語は、本発明における機能を考慮して定義された用語であって、これは、使用者、運用者の意図又は慣例によって異なってくる可能性があるため、これらの用語に関する解釈は、この明細書の全般に亘っての内容を踏まえて行われるべきである。
さらにまた、たとえ明示的に図示されていなかったり説明されていなかったりするとしても、本発明が属する技術分野において通常の知識を有する者が本発明の記載事項から本発明による技術的思想を含む様々な形態の変形を行うことができるということは明らかであり、これは、依然として本発明の権利範囲に属する。
また、添付図面に基づいて説明された上記の実施形態は、本発明を説明するための目的で述べられたものであり、本発明の権利範囲は、このような実施形態に何ら制限されるものではない。
100:文書分析装置
110:入力部
120:オブジェクト検知モデリング部
130:OCRモデリング部
140:仮想セルフォーム構成モデリング部
150:データベース
200:文書画像
210:検知領域
211:文字オブジェクト
212:四角い形状のボックス
220:文字検知結果
213:認識されたオブジェクト
300:OCR認識結果
310:予測情報
320:信頼点数
400:文書画像
410:左側オブジェクト
420:上側オブジェクト
430:数字オブジェクト
500:左側ヘッダー領域
501:左側ヘッダーオブジェクト
510:上側ヘッダー領域
511:上側ヘッダーオブジェクト
512:上側ヘッダーオブジェクト1
520:数字オブジェクト領域
521:数字オブジェクト
522:数字オブジェクト1
523:数字オブジェクトn
530:仮想セルグループ
530a:仮想セルグループ1
531:仮想セルオブジェクト
532:仮想セルオブジェクト1
540:傾きライン
541:上側ヘッダーライン
600:最終的に結んだ画像
700:ずれて揃っていない文字画像
710:左側ヘッダーオブジェクト
720:上側ヘッダーオブジェクト
730:数字オブジェクト
800:歪んだ文字画像
810:左側ヘッダーオブジェクト
820:上側ヘッダーオブジェクト

Claims (9)

  1. オブジェクト検知モデルを用いて、認識対象となる画像から、任意の形式(form)、文字及び数字のうちの少なくとも一つのオブジェクトの位置を検知するが、前記検知された形式、文字及び数字オブジェクトの周りに沿って四角い形状を表示して文字及び数字オブジェクトのピクセル位置値を生成し、OCRモデルを用いて、前記四角い形状のピクセル内において認識される文字及び数字の情報を出力し、前記生成された文字オブジェクトのピクセル位置値を基に、画像の左側領域に文字オブジェクトが配置される左側ヘッダー領域(500)と、画像の上側領域に文字オブジェクトが配置される上側ヘッダー領域(510)と、に区分するが、前記左側ヘッダー領域(500)と上側ヘッダー領域(510)を基準として仮想セルオブジェクトを生成して配置し、前記配置された仮想セルオブジェクトと数字オブジェクトとをマッチングさせて行/列(row/column)情報に基づいて結んで、前記OCRモデルを通じて認識された文字及び数字の情報がディスプレイされるようにする文書分析装置(100)を備える、仮想セルを用いたOCRベースの文書分析システム。
  2. 前記オブジェクト検知モデルは、プログレッシブスケール拡張ネットワーク(PSENet:Progressive Scale Expansion Network)に基づいたディープラーニングモデルを用いて、文書画像を含む学習データからの形式、文字及び数字オブジェクトの位置の検知と、検知された形式、文字及び数字オブジェクトの周りに沿って四角い形状を表示し、前記表示された四角い形状のピクセル位置値の生成と、を学習することを特徴とする、請求項1に記載の仮想セルを用いたOCRベースの文書分析システム。
  3. 前記オブジェクト検知モデルは、原画像、文書の任意の部分が折り畳まれた画像、文書の位置が任意の角度で傾いた画像、任意の照度を有する明るさの調節された画像、文書に表示された内容が鮮明ではなく、途切れた連結線を有する画像、文書の任意の部分にうねりが生じた画像、数字と連結線とが重なり合った画像を基に学習データを学習することを特徴とする、請求項2に記載の仮想セルを用いたOCRベースの文書分析システム。
  4. 前記文書分析装置(100)は、認識対象となる画像を受信する入力部(110)と、
    前記受信された認識対象となる画像から、オブジェクト検知モデルを用いて、任意の形式(form)、文字及び数字オブジェクトのうちの少なくとも一つの位置を検知し、検知された形式、文字及び数字オブジェクトの周りに四角い形状を表示し、表示された文字及び数字オブジェクトのピクセル位置値を生成するオブジェクト検知モデリング部(120)と、
    OCRモデルを用いて、前記四角い形状のピクセル内において認識される文字及び数字の情報を出力するOCRモデリング部(130)と、
    前記生成された文字オブジェクトのピクセル位置値を基に、画像の左側領域に文字オブジェクトが配置される左側ヘッダー領域(500)と、画像の上側領域に文字オブジェクトが配置される上側ヘッダー領域(510)と、に区分し、前記左側ヘッダー領域(500)と上側ヘッダー領域(510)を基準としてM×Nの大きさの仮想セルオブジェクトを生成して配置し、前記配置された仮想セルオブジェクトと数字オブジェクトとをマッチングさせて行/列情報に基づいて結んで、前記OCRモデルを通じて認識された文字及び数字の情報がディスプレイされるようにする仮想セルフォーム構成モデリング部(140)と、
    前記生成された四角い形状のピクセル位置値、認識された文字、数字の情報及びマッチング結果と、特定の機関において使用する文書データのフォームと、を保存するデータベース(150)と、
    を備えることを特徴とする、請求項1に記載の仮想セルを用いたOCRベースの文書分析システム。
  5. 前記仮想セルフォーム構成モデリング部(140)は、文字オブジェクトの左側ヘッダー領域(500)と上側ヘッダー領域(510)とを区分するが、
    前記区分された左側ヘッダー領域(500)と上側ヘッダー領域(510)に含まれている文字オブジェクト同士の間隔及び大きさを算出し、前記区分された左側ヘッダー領域(500)と上側ヘッダー領域(510)を基準として仮想セルオブジェクトを配置することを特徴とする、請求項4に記載の仮想セルを用いたOCRベースの文書分析システム。
  6. 前記仮想セルフォーム構成モデリング部(140)は、左側上端に配置された仮想セルオブジェクトと数字オブジェクトとをマッチングさせるが、
    前記マッチングされた数字オブジェクトと仮想セルオブジェクトとの間の傾きを算出し、前記算出された傾きは、右側下端に配置された仮想セルオブジェクトと数字オブジェクトとのマッチングまで反映されるようにすることを特徴とする、請求項4に記載の仮想セルを用いたOCRベースの文書分析システム。
  7. a)文書分析装置(100)が、認識対象となる画像を受信するステップと、
    b)前記文書分析装置(100)が、受信された認識対象となる画像から、オブジェクト検知モデルを用いて、任意の形式、文字及び数字オブジェクトのうちの少なくとも一つの位置を検知し、検知された形式、文字及び数字オブジェクトの周りに四角い形状を表示して文字及び数字オブジェクトのピクセル位置値を生成するステップと、
    c)前記文書分析装置(100)が、OCRモデルを用いて検知された四角い形状のピクセル内において認識される文字及び数字の情報を出力するステップと、
    d)前記文書分析装置(100)が、前記生成された文字オブジェクトのピクセル位置値を基に、画像の左側領域に文字オブジェクトが配置される左側ヘッダー領域(500)と、画像の上側領域に文字オブジェクトが配置される上側ヘッダー領域(510)と、に区分し、前記左側ヘッダー領域(500)と上側ヘッダー領域(510)を基準として仮想セルオブジェクトを生成して配置し、前記配置された仮想セルオブジェクトと数字オブジェクトとをマッチングさせて行/列情報に基づいて結んで、前記OCRモデルを通じて認識された文字及び数字の情報がディスプレイされるように最終結果を出力するステップと、
    を含む、仮想セルを用いたOCRベースの文書分析方法。
  8. 前記ステップd)の文字オブジェクトの左側及び上側のピクセルの位置を基準として配置するステップは、
    d-1)文書分析装置(100)が、文字オブジェクトの左側ヘッダー領域(500)と上側ヘッダー領域(510)とを区分するステップと、
    d-2)前記区分された左側ヘッダー領域(500)と上側ヘッダー領域(510)に含まれている文字オブジェクト同士の間隔及び大きさを算出するステップと、
    d-3)前記区分された左側ヘッダー領域(500)と上側ヘッダー領域(510)を基準として仮想セルオブジェクトを配置するステップと、
    を含むことを特徴とする、請求項7に記載の仮想セルを用いたOCRベースの文書分析方法。
  9. 前記ステップd)の配置された仮想セルオブジェクトと数字オブジェクトとをマッチングさせて行/列情報に基づいて結ぶステップは、
    d-4)前記文書分析装置(100)が、左側上端に配置された仮想セルオブジェクトと数字オブジェクトとをマッチングさせて数字オブジェクトと仮想セルオブジェクトとの間の傾きを算出するステップと、
    d-5)前記文書分析装置(100)が、行/列情報に基づいて順次に移動しながら、前記算出された傾きを右側下端に配置された仮想セルオブジェクトと数字オブジェクトとのマッチングまで反映して結ぶステップと、
    を含むことを特徴とする、請求項7に記載の仮想セルを用いたOCRベースの文書分析方法。
JP2023506558A 2020-08-21 2020-12-03 仮想セルを用いたocrベースの文書分析システム及び方法 Active JP7437837B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2020-0105653 2020-08-21
KR1020200105653A KR102211516B1 (ko) 2020-08-21 2020-08-21 가상 셀을 이용한 ocr 기반 문서 분석 시스템 및 방법
PCT/KR2020/017507 WO2022039330A1 (ko) 2020-08-21 2020-12-03 가상 셀을 이용한 ocr 기반 문서 분석 시스템 및 방법

Publications (2)

Publication Number Publication Date
JP2023536174A true JP2023536174A (ja) 2023-08-23
JP7437837B2 JP7437837B2 (ja) 2024-02-26

Family

ID=74558578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023506558A Active JP7437837B2 (ja) 2020-08-21 2020-12-03 仮想セルを用いたocrベースの文書分析システム及び方法

Country Status (3)

Country Link
JP (1) JP7437837B2 (ja)
KR (1) KR102211516B1 (ja)
WO (1) WO2022039330A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102522576B1 (ko) * 2022-02-17 2023-04-14 엔에이치엔페이코 주식회사 전자고지서 및 종이고지서의 통합 관리 방법 및 단말
KR20230137814A (ko) * 2022-03-22 2023-10-05 이충열 컴퓨팅 장치와 연동하는 촬영 장치로부터 획득되는 영상을 처리하는 방법 및 이를 이용한 시스템
KR102480238B1 (ko) * 2022-03-22 2022-12-21 이충열 컴퓨팅 장치와 연동하는 촬영 장치로부터 획득되는 영상을 처리하는 방법 및 이를 이용한 시스템
CN116311311B (zh) * 2023-05-23 2023-10-10 荣耀终端有限公司 电子表格生成方法、装置、电子设备及可读存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4046941B2 (ja) 2000-12-01 2008-02-13 キヤノン株式会社 文書書式識別装置および識別方法
JP5465015B2 (ja) * 2010-01-06 2014-04-09 キヤノン株式会社 文書を電子化する装置及び方法
KR101139801B1 (ko) 2010-03-12 2012-04-30 에스케이마케팅앤컴퍼니 주식회사 영수증 판독을 통한 자동 정보 수집 시스템 및 방법
KR101860569B1 (ko) * 2011-09-08 2018-07-03 삼성전자주식회사 문자 및 바코드를 동시에 인식하는 문자 및 바코드 인식 장치 및 그 제어 방법
KR101811581B1 (ko) * 2016-11-15 2017-12-26 주식회사 셀바스에이아이 문서 이미지에서 표 인식을 위한 장치 및 방법
KR20190095651A (ko) * 2018-02-07 2019-08-16 삼성에스디에스 주식회사 문자 학습 트레이닝 데이터 생성 장치 및 그 방법

Also Published As

Publication number Publication date
KR102211516B1 (ko) 2021-02-04
WO2022039330A1 (ko) 2022-02-24
JP7437837B2 (ja) 2024-02-26

Similar Documents

Publication Publication Date Title
JP7437837B2 (ja) 仮想セルを用いたocrベースの文書分析システム及び方法
KR102149050B1 (ko) 인공지능을 이용한 ocr 기반 문서 분석 시스템 및 방법
CN105528604B (zh) 一种基于ocr的票据自动识别与处理系统
JP3088019B2 (ja) 媒体処理装置及び媒体処理方法
US8879846B2 (en) Systems, methods and computer program products for processing financial documents
US8156427B2 (en) User interface for mixed media reality
AU2006307452B2 (en) Form data extraction without customization
RU2679209C2 (ru) Обработка электронных документов для распознавания инвойсов
US20210397800A1 (en) Self-checkout device to which hybrid product recognition technology is applied
JP7444495B2 (ja) Ocrベース文書分析システム及び方法
KR102149051B1 (ko) 자기 신뢰도 정보를 이용한 ocr 기반 문서 분석 시스템 및 방법
JP6458239B1 (ja) 画像認識システム
US20140233837A1 (en) Systems and methods for storing image properties for recreating an image
CN1175699A (zh) 光学扫描表单识别及更正方法
JP2008204226A (ja) 帳票認識装置およびそのプログラム
US9031308B2 (en) Systems and methods for recreating an image using white space and check element capture
EP1917636A1 (en) Method and system for image matching in a mixed media environment
CN109741551A (zh) 一种商品识别结算方法、装置及系统
JP2019046484A (ja) 画像認識システム
US20230334889A1 (en) Systems and methods for spatial-aware information extraction from electronic source documents
CN111860450A (zh) 票证识别装置以及票证信息管理系统
JP3463008B2 (ja) 媒体処理方法及び媒体処理装置
JP3463009B2 (ja) 媒体処理方法及び媒体処理装置
JP4853313B2 (ja) 文字認識装置
JP5878004B2 (ja) 複数文書認識システム及び複数文書認識方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240205

R150 Certificate of patent or registration of utility model

Ref document number: 7437837

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150