JP7234719B2 - 画像処理装置及びプログラム - Google Patents
画像処理装置及びプログラム Download PDFInfo
- Publication number
- JP7234719B2 JP7234719B2 JP2019050219A JP2019050219A JP7234719B2 JP 7234719 B2 JP7234719 B2 JP 7234719B2 JP 2019050219 A JP2019050219 A JP 2019050219A JP 2019050219 A JP2019050219 A JP 2019050219A JP 7234719 B2 JP7234719 B2 JP 7234719B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- image processing
- character
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/1916—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/413—Classification of content, e.g. text, photographs or tables
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/40—Picture signal circuits
- H04N1/40093—Modification of content of picture, e.g. retouching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/28—Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet
- G06V30/287—Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet of Kanji, Hiragana or Katakana characters
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- Character Input (AREA)
- Character Discrimination (AREA)
- Image Analysis (AREA)
Description
本開示の技術は、画像処理装置及びプログラムに関する。
特許文献1には、複数の画素によって画像が表された画像データから、第1階調の画素と第2階調の画素とを特定する第1特定手段と、前記第1特定手段により第1階調と特定され、かつ、互いに連続する画素により形成される領域であって、大きさに関して予め決められた第1条件を満たす領域を第1要素として複数抽出する第1抽出手段と、前記第1特定手段により第2階調と特定され、かつ、前記第1抽出手段により抽出された2つの第1要素に挟まれた画素により形成される領域であって、大きさに関して予め決められた第2条件を満たす領域を第2要素として抽出する第2抽出手段と、前記第1抽出手段により抽出された第1要素と前記第2抽出手段により抽出された第2要素とを特定の線種の線を構成する要素の候補として登録する登録手段と、前記登録手段により登録されている候補であって、直線状に連続し、かつ、統合される線に含まれる候補又は当該線の線種に応じて定まる統合条件を満たす前記第1要素と前記第2要素とを統合して線とする統合手段と、前記統合手段により統合された線の全部又は一部の特徴量を算出する算出手段と、前記統合条件を補正する補正手段と、を備え、前記補正手段は、前記算出手段により算出された特徴量又は前記線種毎に予め決められている特徴量に応じて前記統合条件を補正し、前記統合手段は、当該統合手段が統合した線に連続し、かつ、前記補正手段により補正された統合条件を満たす前記候補がある場合に、当該線と当該候補とを統合することを特徴とする画像処理装置が開示されている。
特許文献2には、帳票のイメージデータから点線候補を抽出する抽出手段と、抽出された複数の点線候補の点線の太さ、長さ、間隔を特徴情報として収集する特徴収集手段と、認識対象の同一文字枠内又は他の文字枠内の点線候補の前記特徴情報に基づいて、認識対象の文字枠の点線候補箇所を推定する推定手段と、前記抽出手段により抽出された前記点線候補と前記推定手段により推定された前記点線候補を前記イメージデータから除去する除去手段と、前記除去手段により前記点線候補が除去されたイメージデータの文字の認識を行う文字認手段とを備え、前記推定手段は、認識対象の前記同一文字枠内又は他の文字枠内の点線候補の前記特徴情報と前記点線候補間の間隔を示す情報に基づいて、認識対象の前記文字枠内の点線候補箇所と点線の種類を推定する文字認識装置が開示されている。
本開示の技術は、画像を文字と標章とに分類する場合に断続線が文字に分類されることによって断続線が除去されない不具合を解消することができる画像処理装置及びプログラムを提供する。
第1の態様は、画像を取得する取得部と、前記取得部により取得された前記画像が分類部によって文字と標章とに分類される前段階で、機械学習を用いて前記文字を形成する線とは異なる断続線を標章化することで前記画像を修正する修正部と、を含む画像処理装置である。
第2の態様は、前記修正部は、前記断続線を実線化することで標章化する第1の態様に係る画像処理装置である。
第3の態様は、前記機械学習は、画像生成ネットワークを利用した機械学習であり、前記修正部は、前記画像生成ネットワークに含まれる生成器を用いて前記断続線を実線化する第2の態様に係る画像処理装置である。
第4の態様は、前記修正部は、前記画像生成ネットワークに含まれる識別器と競合することで学習済みの前記生成器に対して前記断続線を実線化させる第3の態様に係る画像処理装置である。
第5の態様は、前記修正部は、前記生成器に対して、前記取得部により取得された前記画像から前記断続線を実線化した実線化画像を生成させることで前記画像を修正する第4の態様に係る画像処理装置である。
第6の態様は、前記修正部は、前記画像生成ネットワークに含まれる識別器と競合することで学習済みの前記生成器での学習結果を取得し、取得した前記学習結果を用いて前記断続線を実線化する第3の態様に係る画像処理装置である。
第7の態様は、前記修正部は、前記取得部により取得された前記画像から前記学習結果を用いて前記断続線を実線化した実線化画像を生成することで前記画像を修正する第6の態様に係る画像処理装置である。
第8の態様は、画像を取得する取得部と、前記取得部により取得された前記画像が分類部によって文字と標章とに分類される前段階で、機械学習を用いて前記文字を形成する線とは異なる断続線を除去することで前記画像を修正する修正部と、を含む画像処理装置である。
第9の態様は、前記機械学習は、画像生成ネットワークを利用した機械学習であり、前記修正部は、前記画像生成ネットワークに含まれる生成器を用いて前記断続線を除去する第8の態様に係る画像処理装置である。
第10の態様は、前記修正部は、前記画像生成ネットワークに含まれる識別器と競合することで学習済みの前記生成器に対して前記断続線を除去させる第9の態様に係る画像処理装置である。
第11の態様は、前記修正部は、前記生成器に対して、前記取得部により取得された前記画像から前記断続線を除去した断続線除去画像を生成させることで前記画像を修正する第10の態様に係る画像処理装置である。
第12の態様は、前記修正部は、前記画像生成ネットワークに含まれる識別器と競合することで学習済みの前記生成器での学習結果を取得し、取得した前記学習結果を用いて前記断続線を除去する第9の態様に係る画像処理装置である。
第13の態様は、前記修正部は、前記取得部により取得された前記画像から前記学習結果を用いて前記断続線を除去した断続線除去画像を生成することで前記画像を修正する第12の態様に係る画像処理装置である。
第14の態様は、前記修正部により前記画像が修正されることで得られた修正済み画像から前記文字を含む文字領域を抽出する抽出部を更に含む第1の態様から第13の態様の何れか1つの態様に係る画像処理装置である。
第15の態様は、前記抽出部により抽出された前記文字領域を対象として文字認識を行う文字認識部を更に含む第14の態様に係る画像処理装置である。
第16の態様は、表示部に対して前記文字認識部による文字認識結果を表示させる制御を行う制御部を更に含む第15の態様に係る画像処理装置である。
第17の態様は、前記前段階で、文字認識機能により文字認識を行う対象として定められた文字認識対象画像が分割されることで得られた複数の分割画像のうちの前記文字認識機能により前記文字が誤認識された分割画像が前記取得部によって前記画像として取得される第1の態様から第16の態様の何れか1つの態様に係る画像処理装置である。
第18の態様は、コンピュータを、第1の態様から第17の態様の何れか1つの態様に係る画像処理装置に含まれる前記取得部及び前記修正部として機能させるためのプログラムである。
第1の態様、第8の態様、及び第18の態様によれば、画像を文字と標章とに分類する場合に断続線が文字に分類されることによって断続線が除去されない不具合を解消することができる、という効果が得られる。
第2の態様によれば、画像に含まれる断続線を残したまま画像を文字と標章とに分類する場合に比べ、画像を文字と標章とに分類する精度を高めることができる、という効果が得られる。
第3の態様によれば、画像生成ネットワークに含まれる生成器を用いずに断続線を実線化する場合に比べ、様々な断続線のパターンを定義する手間を軽減することができる、という効果が得られる。
第4の態様によれば、断続線の実線化の精度を向上させることができる、という効果が得られる。
第5の態様によれば、断続線の実線化の精度を向上させることができる、という効果が得られる。
第6の態様によれば、断続線の実線化の精度を向上させることができる、という効果が得られる。
第7の態様によれば、断続線の実線化の精度を向上させることができる、という効果が得られる。
第9の態様によれば、画像生成ネットワークに含まれる生成器を用いずに断続線を除去する場合に比べ、断続線を除去する手間を軽減することができる、という効果が得られる。
第10の態様によれば、修正部のみで断続線を除去する処理が行われる場合に比べ、修正部での断続線の除去に要する処理負荷を軽減することができる、という効果が得られる。
第11の態様によれば、修正部のみで断続線除去画像を生成する場合に比べ、修正部での断続線除去画像の生成に要する処理負荷を軽減することができる、という効果が得られる。
第12の態様によれば、生成器に対して断続線を除去させる場合に比べ、生成器での断続線の除去に要する処理負荷を軽減することができる、という効果が得られる。
第13の態様によれば、生成器に対して断続線除去画像を生成させる場合に比べ、生成器での断続線除去画像の生成に要する処理負荷を軽減することができる、という効果が得られる。
第14の態様によれば、断続線が残存している画像から文字領域を抽出する処理が行われる場合に比べ、断続線を含まない文字領域を修正済み画像から高精度に抽出することができる、という効果が得られる。
第15の態様によれば、断続線が残存している画像から抽出された文字領域を対象として文字認識を行う場合に比べ、有効な文字認識結果を得ることができる、という効果が得られる。
第16の態様によれば、文字認識部による文字認識結果をユーザに対して認識させることができる、という効果が得られる。
第17の態様によれば、修正部が文字認識対象画像の全てを処理対象として断続線を標章化する処理を行う場合に比べ、修正部が断続線を標章化する処理の回数を減らすことができる、という効果が得られる。
先ず、以下の説明で使用される用語の意味について説明する。
CPUとは、“Central Processing Unit”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。ROMとは、“Read Only Memory”の略称を指す。GPUとは、“Graphic Processing Unit”の略称を指す。I/Fとは、“Interface”の略称を指す。I/Oとは、“Input Output Interface”の略称を指す。OCRとは、“Optical Character Recognition”の略称を指す。
GANとは、“Generative Adversarial Networks”の略称を指す。“CNNとは、“Convolutional Neural Network”の略称を指す。FCNとは、“Fully Convolutional Network”の略称を指す。
SSDとは、“Solid State Drive”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。EEPROMとは、“Electrically Erasable and Programmable Read Only Memory”の略称を指す。CDとは、“Compact Disk”の略称を指す。DVDとは、“Vigital Versataile Disc”の略称を指す。CCDとは、“Charge Coupled Device”の略称を指す。CCDとは、“Charge Coupled Device”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。また、以下の説明において、ELとは、“Electro-Luminescence”の略称を指す。
ASICとは、“Application Specific Integrated Circuit”の略称を指す。また、以下の説明において、PLDとは、“Programmable Logic Device”の略称を指す。また、以下の説明において、FPGAとは、“Field-Programmable Gate Array”の略称を指す。SoCとは、“System-on-a-chip”の略称を指す。WANとは、“Wide Area Network”の略称を指す。
[比較例]
本開示の技術に係る実施形態の説明に先立ち、比較例について図17から図19を参照しながら説明する。
本開示の技術に係る実施形態の説明に先立ち、比較例について図17から図19を参照しながら説明する。
図17には、従来の画像処理装置300の構成の一例が示されている。画像処理装置300は、画像に含まれる文字を認識する文字認識機能を有する装置であり、光学式センサ302及び文字認識装置304を備えている。
光学式センサ302は、画像が形成された記録媒体Pから画像を読み取る。記録媒体Pとしては、例えば、設計図又は帳票などが挙げられる。光学式センサ302によって記録媒体Pから画像を読み取る場合、記録媒体Pに対して矩形枠状の注目領域P1が設定される。
注目領域P1は、記録媒体Pの行方向に記録媒体Pの一端から他端にかけて既定の画素数単位(例えば、数画素から数十画素単位)で移動し、かつ、行方向において注目領域P1が他端に到達すると、列方向に一段ずれて記録媒体Pの一端から他端にかけて移動する。ここで言う「一段」とは、例えば、注目領域P1の列方向の一枠分を指す。図17に示す例において、注目領域P1の移動の開始位置は、図中の正面視左上隅であり、注目領域P1の移動の終了位置は、図中の正面視右下隅である。光学式センサ302は、列方向の各段について、行方向に既定の画素数単位で注目領域P1の位置が変わる毎に注目領域P1内の画像を読み取る。
文字認識装置304は、光学式センサ302で読み取られた画像を取得する。文字認識装置304によって取得された画像は、例えば、ラスタ画像である。文字認識装置304は、光学式センサ302から取得した画像に対して文字認識処理を実行する。文字認識処理には、例えば、OCR処理が含まれる。なお、以下では、文字認識装置304によって光学式センサ302から取得された画像を「処理対象画像」とも称する。
一例として図18に示すように、文字認識装置304は、分類部304A、文字領域分割部304B、及び文字認識部304Cを備えている。分類部304Aは、処理対象画像を文字と標章とに分類する。本明細書において、「標章」とは、視覚的に知覚可能な標章を指す。視覚的に知覚可能な標章とは、図形、記号、若しくは色彩、又はこれらの結合を指す。図形、記号 、若しくは色彩、又はこれらの結合の一例としては、罫線、表、及び絵柄が挙げられる。また、本明細書において、「文字」とは、数字、アルファベット、平仮名、片仮名、漢字、その他の言語に係る文字を指す。
文字領域分割部304Bは、分類部304Aによって分類された標章が除去された処理対象画像を文字領域に分割する。文字領域とは、分類部304Aによって分類された文字が含まれる四角形状の画像領域を指す。
文字認識部304Cは、文字領域分割部304Bによって処理対象画像が分割されることで得られた文字領域に対して文字認識処理を行う。文字認識部304Cは、文字領域に対して文字認識処理を行うことで得た結果である文字認識結果をディスプレイ等(図示省略)に出力する。
ところで、処理対象画像に含まれる断続線は、分類部304Aによって標章ではなく文字として分類されることがある。断続線は、文字を形成する線とは異なる線である。断続線とは、例えば、点線、破線、一点鎖線、及び二点鎖線等の実線以外の線を指す。これらの断続線は、文字を形成する線と画像特徴(大きさや形状など)が近いことが多いため、文字として分類されることがある。断続線が分類部304Aによって文字として分類されると、一例として図19に示すように、文字及び断続線が含まれる画像領域が文字領域分割部304Bによって文字領域として分割される。
文字及び断続線が含まれる画像領域が文字領域として分割されると、文字及び断続線が含まれる画像領域に対して文字認識部304Cによって文字認識処理が行われ、有効でない文字認識結果がディスプレイ等に出力される。ここで言う「有効でない文字認識結果」とは、例えば、文字認識処理の処理対象とされた画像領域に含まれる文字とは全く関係ない文字列を指す。
[第1実施形態]
以下、添付図面に従って本開示の技術に係る画像処理装置及びプログラムの実施形態の一例について説明する。
以下、添付図面に従って本開示の技術に係る画像処理装置及びプログラムの実施形態の一例について説明する。
一例として図1に示すように、画像処理システム10は、クライアント装置12、サーバ装置14、及び通信網60を備えている。なお、画像処理システム10は、本開示の技術に係る画像処理装置の一例である。
クライアント装置12は、コンピュータ20、記憶装置21、光学式センサ22、ディスプレイ23、受付デバイス24、通信I/F26、及びI/O36を備えている。
コンピュータ20は、CPU28、ROM30、及びRAM32を備えている。CPU28、ROM30、及びRAM32は、バスライン34を介して相互に接続されている。
ROM30には、各種プログラムが記憶されている。CPU28は、ROM30から各種プログラムを読み出し、読み出した各種プログラムをRAM32に展開する。CPU28は、RAM32に展開した各種プログラムに従ってクライアント装置12の全体を制御する。
I/O36は、入出力ポート(図示省略)を備えており、入出力ポートを介して記憶装置21、光学式センサ22、ディスプレイ23、受付デバイス24、及び通信I/F26がI/O36に接続されている。I/O36は、バスライン34に接続されており、CPU28は、I/O36を介して記憶装置21、光学式センサ22、ディスプレイ23、受付デバイス24、及び通信I/F26と各種情報の授受を行う。
記憶装置21は、SSD、HDD、又はEEPROMなどの不揮発性のメモリである。CPU28は、記憶装置21に対して各種情報の読み書きを行う。
光学式センサ22は、CCDイメージセンサを有する一次元ラインセンサであり、CPU28の制御下で、設計図及び帳票等の記録媒体から光学的に画像を読み取る。なお、ここでは、CCDイメージセンサを例示しているが、本開示の技術はこれに限定されず、CMOSイメージセンサ等の他のイメージセンサを適用してもよい。また、ここでは、一次元ラインセンサを例示しているが、本開示の技術はこれに限定されず、二次元センサを適用してもよい。
ディスプレイ23は、CPU28の制御下で、画像及び文字情報等を表示する。ディスプレイ32の一例としては、液晶ディスプレイが挙げられる。ディスプレイ23は、液晶ディスプレイではなく、有機ELディスプレイなどの他のディスプレイであってもよい。
受付デバイス24は、タッチパネル、ハードキー、及びマウス等を備えており、ユーザから各種指示を受け付ける。CPU28は、受付デバイス24によって受け付けられた各種指示に従って動作する。
通信I/F26は、FPGAを有する通信デバイスであり、通信網60に接続されている。通信I/F26は、通信網60に接続されている各種の通信装置とCPU28との通信を司る。通信網60の一例としては、インターネット又は公衆通信網等のWANが挙げられる。
サーバ装置14は、外部I/F39、コンピュータ40、記憶装置41、通信I/F46、及びI/O56を備えている。
コンピュータ40は、CPU48、ROM50、及びRAM52を備えている。CPU48、ROM50、及びRAM52は、バスライン54を介して相互に接続されている。
ROM50には、各種プログラムが記憶されている。CPU48は、ROM50から各種プログラムを読み出し、読み出した各種プログラムをRAM52に展開する。CPU48は、RAM52に展開した各種プログラムに従ってサーバ装置14の全体を制御する。
I/O56は、入出力ポート(図示省略)を備えており、入出力ポートを介して外部I/F39、記憶装置41、及び通信I/F46がI/O56に接続されている。I/O56は、バスライン54に接続されており、CPU48は、I/O56を介して外部I/F39、記憶装置41、及び通信I/F46と各種情報の授受を行う。
外部I/F39は、FPGAを有する通信デバイスである。外部I/F39には、パーソナル・コンピュータ、USBメモリ、外付けSSD、外付けHDD、及びメモリカード等の外部装置(図示省略)が接続される。外部I/F39は、CPU46と外部装置との間の各種情報の授受を司る。
記憶装置41は、SSD、HDD、又はEEPROMなどの不揮発性のメモリである。CPU48は、記憶装置41に対して各種情報の読み書きを行う。
通信I/F46は、FPGAを有する通信デバイスであり、通信網60に接続されている。通信I/F46は、通信網60に接続されている各種の通信装置とCPU48との通信を司る。例えば、クライアント装置12のCPU28とサーバ装置14のCPU48との通信を司る。サーバ装置14は、通信I/F46を介してクライアント装置12からの要求を受け付け、クライアント装置12からの要求に応じたサービスを通信I/F46を介してクライアント装置12に提供する。
一例として図2に示すように、サーバ装置14において、ROM50には、敵対的生成ネットワーク構築プログラム50Aが記憶されている。CPU48は、ROM50から敵対的生成ネットワーク構築プログラム50Aを読み出し、読み出した敵対的生成ネットワーク構築プログラム50AをRAM52に展開する。CPU48は、RAM52に展開した敵対的生成ネットワーク構築プログラム50Aを実行することで、一般的に「GAN」と呼ばれる人工知能アルゴリズムの一種である敵対的生成ネットワーク70を構築する。
敵対的生成ネットワーク70は、画像生成ネットワーク(生成モデル)の一種である。敵対的生成ネットワーク70は、与えられた画像に対して、学習済みデータ43に従って加工を施すことで、新たな画像を生成する。なお、ここでは、敵対的生成ネットワーク70を例示しているが、画像生成ネットワークの他の例としては、Variational Auto Encoder等が挙げられる。
敵対的生成ネットワーク70は、生成器70A、識別器70B、及び調整部70Cを備えている。敵対的生成ネットワーク70は、いわゆる正解画像を有しており、生成器70Aは、与えられた原画像を基にして新たな画像を正解画像に似せるように生成する。識別器70Bには、正解画像と識別対象画像とが与えられる。識別対象画像は、生成器70Aによって生成された画像である。識別器70Bは、識別対象画像の真偽を識別する。すなわち、識別器70Bは、識別対象画像が正解画像であるか否かを識別する。識別器70Bは、識別対象画像の真偽をより正確に識別するように学習し、一方で、生成器70Aは、識別器70Bに対して正解画像であると誤識別させる識別対象画像を贋作するように学習する。
生成器70A及び識別器70Bの各々は、機械学習の一種であるニューラルネットワークによって実現される。生成器70A及び識別器70Bに適用されるニューラルネットワークの一例としては、多層パーセプロンが挙げられる。敵対的生成ネットワーク70では、生成器70Aと識別器70Bとを交互に競合させることで学習が進められる。生成器70Aと識別器70Bとの競合関係は、ロス関数を共有させることで表現される。すなわち、生成器70A及び識別器70Bのうちの一方のロス関数が小さくなれば、他方のロス関数が大きくなるように生成器70Aと識別器70Bとを競合させる。具体的には、生成器70Aはロス関数の値を小さくすることを目的に学習し、識別器70Bはロス関数の値を大きくすることを目的に学習する。
生成器70A及び識別器70Bの学習を進めるために、調整部70Cは、識別器70Bの識別結果に従って誤差逆伝播により、生成器70A及び識別器70Bの各々の重み係数を調整する。重み係数が調整されることによって生成器70A及び識別器70Bの学習が進み、学習が進むことによって得られた学習済みデータ43が記憶装置41に記憶される。学習済みデータ43は、生成器70A及び識別器70Bの学習が進むに従って更新される。
一例として図3に示すように、生成器70Aには、外部I/F39を介して外部装置から原画像が与えられる。図3に示す例では、原画像として、設計図に対して設定された注目領域P1(図17参照)内が光学式センサ22によって読み取られることで得られた画像が示されている。また、図3に示す例では、原画像に断続線として破線が含まれている。
記憶装置41には、複数種類の正解画像が記憶されている。複数種類とは、例えば、数千種類以上を指す。複数種類の正解画像は識別器70Bに与えられる。図3に示す例では、1枚の正解画像として、図3に示す原画像に含まれる断続線が実線に置き換えられた画像が示されている。
生成器70Aは、与えられた原画像を正解画像に似せるように識別対象画像を生成する。識別器70Bは、識別対象画像の真偽を識別する。生成器70Aは識別器70Bに識別対象画像を正解画像と誤識別させるように学習し、識別器70Bは、識別対象画像と正解画像とを正しく識別するように、生成器70Aと識別器70Bとが競合して学習を進める。これにより、生成器70Aによって生成される識別対象画像の内容は徐々に正解画像の内容に近付き、識別器70Bによる識別精度が徐々に高まる。
そして、やがて、生成器70Aと識別器70Bとがナッシュ均衡となる。つまり、調整部70Cによって生成器70Aの重み係数が更新されても識別器70Bを誤識別させることができなくなり、調整部70Cによって識別器70Bの重み係数が更新されても識別精度を向上させることができなくなる。ナッシュ均衡に達すると、識別対象画像は、正解画像に限りなく類似した画像となる。すなわち、識別対象画像は、原画像内の断続線が実線化された画像となる。
このように、敵対的生成ネットワーク70は、ナッシュ均衡に達するまで生成器70A及び識別器70Bの学習を進めて、学習して得た学習済みデータ43を記憶装置41に記憶する。学習済みデータ43は、生成器学習済みデータ43A及び識別器学習済みデータ43Bを含む。生成器学習済みデータ43Aは、生成器70Aでの学習済みデータであり、識別器学習済みデータ43Bは、識別器70Bでの学習済みデータである。
一例として図4に示すように、クライアント装置12において、ROM30には、画像処理プログラム30Aが記憶されている。画像処理プログラム30Aは、本開示の技術に係る「プログラム」の一例である。CPU28は、ROM30から画像処理プログラム30Aを読み出し、読み出した画像処理プログラム30AをRAM32に展開する。CPU28は、RAM32に展開した画像処理プログラム30Aを実行することで、取得部28A、修正部28B、分類部28C、文字認識部28D、及び制御部28Eとして動作する。
取得部28Aは、記録媒体P(図17参照)に対して設定された注目領域P1から光学式センサ22によって読み取られた処理対象画像を取得する。修正部28Bは、分類部28Cの前段階で、敵対的生成ネットワーク70を用いて、取得部28Aによって取得された処理対象画像内の断続線を標章化することで処理対象画像を修正する。具体的には、修正部28Bは、処理対象画像内の断続線を実線化することで断続線を標章化する。
分類部28Cは、画像を文字と標章とに分類する。分類部28Cの前段階で、画像に含まれる断続線が実線化されていれば、実線は分類部28Cによって標章として判断されるので、画像に含まれる情報は分類部28Cによって文字と標章とに二分される。
文字認識部28Dは、後述する文字領域に対して文字認識処理を行う。制御部28Eは、文字認識部28Dでの文字認識処理による文字認識結果をディスプレイ23に対して表示させる制御を行う。
一例として図5に示すように、修正部28Bは、敵対的生成ネットワーク70に含まれる生成器70Aを用いて、処理対象画像内の断続線を実線化する。つまり、修正部28Bは、敵対的生成ネットワーク70に含まれる識別器70Bと競合することで学習済みの生成器70Aに対して処理対象画像内の断続線を実線化させる。具体的には、修正部28Bは、生成器70Aに対して、取得部28Aによって取得された処理対象画像から断続線を実線化した実線化画像を生成させることで処理対象画像を修正する。
なお、図5に示す例では、処理対象画像に含まれる断続線として破線が示されているが、破線に限らず、点線、一点鎖線、及び二点鎖線等の断続線であってもよいし、断続線の形状、線形的な形状である必要はなく、非線形的な形状であってもよい。また、断続線の太さも一定である必要はない。
修正部28Bは、生成器70Aに対して画像生成要求情報を送信する。画像生成要求情報は、取得部28Aによって取得された処理対象画像から実線化画像の生成を生成器70Aに対して要求する情報である。画像生成要求情報には、取得部28Aによって取得された処理対象画像が含まれている。
生成器70Aは、修正部28Bから送信された画像生成要求情報を受信し、受信した画像生成要求情報から処理対象画像を取得する。そして、生成器70Aは、生成器学習済みデータ43A(図3参照)を用いて、処理対象画像から実線化画像を生成し、生成した実線化画像を修正部28Bに送信する。修正部28Bは、生成器70Aから送信された実線化画像を受信する。
一例として図6に示すように、修正部28Bは、受信した実線化画像を分類部28Cに出力する。分類部28Cは、修正部28Bから入力された実線化画像を文字と標章とに分類する。ここで、実線化画像に含まれる実線は分類部28Cによって標章として分類される。つまり、断続線は、図19に示すように文字として分類されることはなく、ここでは、標章として分類される。分類部28Cは、分類した標章を実線化画像から除去した画像である標章除去画像を生成する。
一例として図7に示すように、分類部28Cは、抽出部28C1を備えている。抽出部28C1は、実線化画像から文字を含む文字領域を抽出する。文字領域とは、分類部28Cによって実線化画像から分類された文字が含まれる四角形状の画像領域を指す。実線化画像は、本開示の技術に係る「修正済み画像」の一例である。抽出部28C1は、抽出した文字領域を文字認識部28Dに出力する。
記憶装置21には、辞書情報21Aが記憶されている。辞書情報21Aは、OCR処理に用いられる文字のパターンを辞書化した情報である。文字認識部28Dは、抽出部28C1によって抽出された文字領域を対象として文字認識を行う。すなわち、文字認識部28Dは、抽出部28C1によって抽出された文字領域に対して文字認識処理を行う。文字認識処理とは、文字領域に含まれる文字を認識する処理を指す。文字認識処理には、OCR処理が含まれる。OCR処理とは、文字領域から文字のパターンを1文字単位で切り出し、切り出した文字パターンと辞書情報21Aに記憶されている文字のパターンとをパターンマッチング法等によって比較し、類似度の最も高い文字を出力する処理を指す。
文字認識部28Dは、文字認識処理の結果を示す文字認識結果情報を制御部28Eに出力する。文字認識結果の一例としては、上述したOCT処理によって出力される文字が挙げられる。制御部28Eは、文字認識部28Dから入力された文字認識結果情報により示される文字認識結果をディスプレイ23に対して表示させる。
次に、画像処理システム10の作用について図8を参照しながら説明する。
図8には、生成器学習済みデータ43Aが記憶装置41に記憶されている状態において、画像処理プログラム30Aに従ってCPU28によって実行される画像処理の流れの一例が示されている。
図8に示す画像処理では、先ず、ステップST10で、取得部28Aは、光学式センサ22によって記録媒体Pの注目領域P1から処理対象画像が読み取られたか否かを判定する。ステップST10において、光学式センサ22によって記録媒体Pの注目領域P1から処理対象画像が読み取られていない場合は、判定が否定されて、画像処理はステップST28へ移行する。ステップST10において、光学式センサ22によって記録媒体Pの注目領域P1から処理対象画像が読み取られた場合は、判定が肯定されて、画像処理はステップST12へ移行する。
ステップST12で、取得部28Aは、光学式センサ22から処理対象画像を取得し、その後、画像処理はステップST14へ移行する。
ステップST14で、修正部28Bは、画像生成要求情報を生成器70Aに送信し、その後、画像処理はステップST16へ移行する。
ステップST14の処理が実行されることにより、生成器70Aは、画像生成要求情報から処理対象画像を取得し、取得した処理対象画像から、生成器学習済みデータ43Aを用いて実線化画像を生成する。生成器70Aは、生成した実線化画像を修正部28Bに送信する。
ステップST16で、修正部28Bは、生成器70Aから送信された実線化画像を受信したか否かを判定する。ステップST16において、生成器70Aから送信された実線化画像を受信していない場合は、判定が否定されて、ステップST16の判定が再び行われる。ステップST16において、生成器70Aから送信された実線化画像を受信した場合は、判定が肯定されて、画像処理はステップST18へ移行する。
ステップST18で、分類部28Cは、実線化画像から文字と標章を分類し、その後、画像処理はステップST20へ移行する。ステップST18の処理が実行されることで、実線化画像から標章が除去された標章除去画像が生成される。
ステップST20で、抽出部28C1は、標章除去画像から文字領域を抽出し、その後、画像処理はステップST22へ移行する。
ステップST22で、文字認識部28Dは、抽出部28C1によって抽出された文字領域に対して文字認識処理を行い、その後、画像処理はステップST24へ移行する。
ステップST24で、文字認識部28Dは、標章除去画像の全ての文字領域についてステップST22の処理が実行されたか否かを判定する。ステップST24において、標章除去画像の全ての文字領域についてステップST22の処理が実行されていない場合は、判定が否定されて、画像処理はステップST22へ移行する。ステップST24において、標章除去画像の全ての文字領域についてステップST22の処理が実行された場合は、判定が肯定されて、画像処理はステップST26へ移行する。
ステップST26で、制御部28Eは、文字認識部28Dでの文字認識処理による文字認識結果をディスプレイ23に対して表示させ、その後、画像処理はステップST28へ移行する。
ステップST28で、制御部28Eは、画像処理を終了する条件(以下、「画像処理終了条件」と称する)を満足したか否かを判定する。画像処理終了条件としては、例えば、受付デバイス24によって画像処理を終了する指示が受け付けられた、との条件が挙げられる。ステップST28において、画像処理終了条件を満足していない場合は、判定が否定されて、画像処理はステップST10へ移行する。ステップST28において、画像処理終了条件を満足した場合は、判定が肯定されて、画像処理が終了する。
以上説明したように、画像処理システム10では、取得部28Aによって取得された処理対象画像が分類部28Cによって文字と標章とに分類される前段階で、修正部28Bによって、敵対的生成ネットワーク70を用いて処理対象画像内の断続線が標章化される。分類部28Cは画素連結成分の大きさや形状等により標章と文字とに分類するため、断続線は分類部28Cによって標章ではなく文字として分類されるが、修正部28Bによって断続線が実線化されることで標章化されることで、分類部28Cによって実線化画像に含まれる情報が文字と標章とに分類される。これにより、抽出部28C1によって抽出される文字領域に断続線が含まれなくなるので、文字認識部28Dにより文字領域に対して文字認識処理が行われることで、有効な文字認識結果が得られる。
なお、上記第1実施形態では、修正部28Bがサーバ装置14の学習済みの生成器70Aに対して実線化画像を生成させる形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、修正部28Bは、敵対的生成ネットワーク70の識別器70Bと競合することで学習済みの生成器70Aから生成器学習済みデータ43Aを取得し、取得した生成器学習済みデータ43Aを用いて断続線を実線化するようにしてもよい。つまり、修正部28Bは、取得部28Aによって取得された処理対象画像から生成器学習済みデータ43Aを用いて断続線を実線化した実線化画像を生成することで処理対象画像を修正するようにしてもよい。ここで、生成器学習済みデータ43Aは、本開示の技術に係る「学習結果」の一例である。
この場合、図9に示す画像処理がCPU28によって実行される。図9に示す画像処理は、図8に示す画像処理に比べ、ステップST14に代えてステップST14Aを有する点、ステップST16に代えてステップST16Aを有する点、及びステップST17を有する点が異なる。
図9に示す画像処理に含まれるステップST14Aで、修正部28Bは、生成器学習済みデータ43Bの送信をサーバ装置14に要求し、その後、画像処理はステップST16Aへ移行する。サーバ装置14のCPU48は、修正部28Bからの要求に応じて生成器学習済みデータ43Aを記憶装置41から取得し、取得した生成器学習済みデータ43Aを修正部28Bに送信する。
ステップST16Aで、修正部28Bは、サーバ装置14のCPU48から送信された生成器学習済みデータ43Aを受信したか否かを判定する。ステップST16Aにおいて、サーバ装置14のCPU48から送信された生成器学習済みデータ43Aを受信していない場合は、判定が否定されて、ステップST16Aの判定が再び行われる。ステップST16Aにおいて、サーバ装置14のCPU48から送信された生成器学習済みデータ43Aを受信した場合は、判定が肯定されて、画像処理はステップST17へ移行する。
ステップST17で、修正部28Bは、生成器学習済みデータ43Aを用いて処理対象画像内の断続線を実線化することで実線化画像を生成し、その後、画像処理はステップST18へ移行する。
また、図9に示す例では、クライアント装置12がサーバ装置14と通信を行うことで通信網60を介して生成器学習済みデータ43を取得し、修正部28Bを生成器70Aとして機能させる形態例を挙げて説明しているが、本開示の技術はこれに限定されない。例えば、USBメモリ又はSSD等の記憶媒体を用いて生成器70A及び生成器学習済みデータ43Aをクライアント装置12に移植するようにしてもよい。
また、上記第1実施形態では、断続線を実線化する形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、修正部28Bは、敵対的生成ネットワークを用いて断続線を除去することで処理対象画像を修正するようにしてもよい。この場合、一例として図10に示すように、修正部28Bは、生成器70A1を用いて断続線を除去する。生成器70A1は、敵対的生成ネットワークに含まれる識別器と競合することで、断続線を除去するように学習した生成器である。
修正部28Bは、敵対的生成ネットワークに含まれる識別器と競合することで断続線を除去するように学習済みの生成器70A1に対して断続線を除去させる。すなわち、一例として図10に示すように、修正部28Bは、生成器70A1に対して、処理対象画像から断続線を除去した断続線除去画像を生成させることで処理対象画像を修正する。修正部28Bは、生成器70A1に対して生成させた断続線除去画像を取得する。分類部28Cは、断続線除去画像に含まれる情報を文字と標章とに分類する。
図10に示す例では、修正部28Bが生成器70A1に対して断続線除去画像を生成させているが、本開示の技術はこれに限定されない。例えば、修正部28Bは、敵対的生成ネットワークに含まれる識別器と競合することで断続線を除去するように学習済みの生成器70A1での学習結果である生成器学習済みデータを取得し、取得した生成器学習済みデータを用いて断続線を除去するようにしてもよい。すなわち、修正部28Bが、処理対象画像から生成器学習済みデータを用いて断続線除去画像を生成することで処理対象画像を修正するようにしてもよい。
[第2実施形態]
上記第1実施形態では、記録媒体Pの全領域に対して実線化画像を生成する処理を適用する形態例を挙げて説明したが、本第2実施形態では、記録媒体Pのうちの一部の領域に対して実線化画像を生成する処理を適用する形態例について説明する。なお、以下の説明では、上記第1実施形態と同様の構成要素については同一の符号を付し、その説明を省略する。
上記第1実施形態では、記録媒体Pの全領域に対して実線化画像を生成する処理を適用する形態例を挙げて説明したが、本第2実施形態では、記録媒体Pのうちの一部の領域に対して実線化画像を生成する処理を適用する形態例について説明する。なお、以下の説明では、上記第1実施形態と同様の構成要素については同一の符号を付し、その説明を省略する。
一例として図1に示すように、本第2実施形態に係る画像処理システム10Aは、上記第1実施形態で説明した画像処理システム10に比べ、クライアント装置12に代えてクライアント装置12Aを有する点が異なる。
一例として図11に示すように、クライアント装置12Aにおいて、ROM30には、画像処理プログラム30Bが記憶されている。画像処理プログラム30Bは、本開示の技術に係る「プログラム」の一例である。CPU28は、ROM30から画像処理プログラム30Bを読み出し、読み出した画像処理プログラム30BをRAM32に展開する。CPU28は、RAM32に展開した画像処理プログラム30Bを実行することで、取得部28A、修正部28B、文字認識部28D、制御部28E、受付部200、レイアウト解析部201、外れ値文字検出部202、及び切り出し部203として動作する。
受付部200は、光学式センサ22によって読み取られた処理対象画像5を受け付ける。一例として図12Aに示すように、処理対象画像5は、例えば、文字列501A等の文字情報の他に、配線図502、設計図503、及び修正記号504等の図形情報を含む。図12Aに示す例では、文字列501A、501Bが示されている。文字列501Aは、アルファベット、平仮名、片仮名、漢字、その他の言語に係る文字を含む文字列である。文字列501Bは、数字の文字列である。
一例として図12Bに示すように、レイアウト解析部201は、受付部200によって受け付けられた処理対象画像5に対してレイアウト解析を実行することで、処理対象画像5を部分領域510,512,513,540に分割する。レイアウト解析には、公知のアルゴリズムを用いてよい。
一例として、レイアウト解析には、例えば、画像の横方向及び縦方向にそれぞれ投影した黒画素の頻度分布(「ヒストグラム」ともいう。)を取得し、各方向それぞれのヒストグラムの極小値(「周辺分布における谷」ともいう。)や極大値(「周辺分布における山」ともいう。)を特定し、この特定した極小値又は極大値が特定の条件を満たすときに、この極小値又は極大値を与える画素を境界として画像を分割することを再帰的に繰り返す手法(XY-カット法)等を用いることができる。
一例として図11に示すように、レイアウト解析部201は、レイアウト解析により処理対象画像5を分割して得た部分領域510,512,513,540に関する情報211(以下、「レイアウト情報211」ともいう。)を記憶装置21に記憶する。レイアウト情報211には、例えば、各部分領域510,512,513,540のサイズや属性(文字列、表、図など)を示す情報や、各部分領域510,512,513,540の処理対象画像5における位置を示す領域位置情報が含まれる。
文字認識部28Dは、レイアウト解析部201により処理対象画像5を分割して得られた部分領域510,512,513,540ごとに、この部分領域510,512,513,540に対して文字認識処理を行う。なお、文字認識処理は、本開示の技術に係る「文字認識機能」の一例である。
文字認識部28Dは、文字認識結果を部分領域510,512,513,540と関連付けて、例えばテキスト形式で文字認識結果情報213として記憶装置41に記憶する。文字認識結果情報213には、文字情報、文字位置情報、及び文字サイズ情報等が含まれる。文字情報とは、文字認識処理により認識される文字や文字列を示す情報を指す。文字位置情報とは、認識された文字や文字列の画像上の位置を示す情報を指す。文字サイズ情報とは、認識された文字の幅や高さ等のサイズを示す情報を指す。
文字認識部28Dは、文字認識結果情報213が既に記憶装置21に記憶されている場合に、特定の部分領域内の文字認識結果情報213を新たに取得したとき、既に記憶されている文字認識結果情報213を新たに取得した文字認識結果情報213に置換することで文字認識結果情報213を更新する。
外れ値文字検出部202は、文字認識部28Dにより得られた文字認識結果情報213の中から、文字認識結果情報213に対応する処理対象画像5に含まれる全ての文字に対する平均的な属性から外れた属性を有する文字(以下、「外れ値文字」ともいう)を検出する。外れ値文字は、予め定められた条件を満たす文字の一例である。
一例として、外れ値文字検出部202は、外れ値文字として予め定めた範囲外(「異常値」ともいう。)のサイズを有する文字を検出する。文字のサイズは、文字の横幅のみを指標としてもよく、文字の高さのみを指標としてもよく、あるいは横幅と高さとを組み合わせて評価した値を指標としてもよい。
具体的には、外れ値文字検出部202は、文字認識部28Dにより処理対象画像5全体に対して実行された文字認識処理により認識された文字のサイズの分布を算出し、算出した分布に基づいてサイズが異常値となっている外れ値文字を検出する。より具体的には、外れ値文字検出部202は、スミルノフ・グラブス検定等の統計的な手法を用いて文字のサイズの分布を算出してもよい。
図13A及び図13Bを参照して具体例を列挙してより詳しく説明する。図13A及び図13Bは、認識された文字のサイズの一覧の一例を示す図であり、図13Aは、図12Aに示す一つの部分領域512内のアルファベット(「KLMNQPQR」)のサイズの一覧の一例を示し、図13Aは、図12Bに示す別の部分領域540内のアルファベット(「CDEFGHIJ」)のサイズの一覧の一例を示す。単位は、画素数である。
なお、図13Aは、文字認識部28Dにより文字が正しく認識された一例に対応し、図13Bは、文字認識部28Dにより文字が誤って認識された一例(「∴;◎1ミlUV」)に対応する。ここで、「文字が正しく認識された」とは、実際に記載されている文字が認識されたことをいい、「文字が誤って認識された」とは、実施に記載されている文字と異なる文字が認識されたことをいう。「文字が誤って認識される」場合には、例えば、文字認識処理を行う部分領域が適切でないこと等の原因により、文字認識部202が複数の文字又は1つの文字の一部分を1文字単位と誤認識する場合が該当する。
図13Aに示すように、文字認識部28Dにより文字が正しく認識されると、認識された文字の幅や高さは、概ね同程度の値となる。これに対して、図13Bに示すように、文字認識部28Dにより文字が誤って認識されると、図13Aに示す例に比べ、文字の幅及び高さのバラツキ(分散)が大きくなっている。
外れ値文字検出部202は、例えば、文字認識部28Dにより処理対象画像5全体に対して実行された文字認識処理により認識された文字のサイズの平均値及び標準偏差を算出する。次に、外れ値文字検出部202は、対象となる文字のサイズと平均値との差(例えば、絶対値)を標準偏差で除した値(以下、「評価値」ともいう。)を算出する。次に、外れ値文字検出部202は、算出した評価値が予め定めた閾値を超えたときに、当該文字サイズが異常値となっている外れ値文字として検出してもよい。
平均値は、処理対象画像5全体に含まれる文字の平均的なサイズを示すものであり、検出の対象となる文字のサイズを推定する推定値と呼んでもよい。標準偏差は、第2の指標値の一例である。また、標準偏差に閾値を乗じた値が示す範囲は、予め定められた範囲に相当する。すなわち、閾値は、標準偏差によって予め定められた範囲を特定するために用いられる値の一例である。
例えば、処理対象画像5全体に含まれる文字の平均値が35.5(画素)であり、標準偏差が4.5の場合に、閾値を例えば2.0とすると、図12Bに示す部分領域540に対する文字認識処理の例では、算出された評価値は、表1に示すとおりである。
このような場合、外れ値文字検出部202は、評価値が閾値の2.0を超える文字「∴」、「;」、「◎」、「1」、「ミ」及び「l」を外れ値文字として検出する。
なお、上述の例では、サイズが異常値となっている文字を外れ値文字としたが、外れ値文字はこれに限定されるものではなく、例えば、他の文字と異なるフォントや、他の文字と異なる書体を有する文字を外れ値文字としてもよい。また、処理対象画像5全体において認識された文字についてサイズの平均値及び標準偏差を算出したが、算出方法はこの方法に限定されるものではなく、例えば、各部分領域に含まれる文字についてサイズの平均値及び標準偏差を算出してもよい。他には、文字列の並びを言語解析もしくは学習し、非現実的な文字列の並びが出現しているかを指標にしてもよい。非現実的な文字列の並びとは、一例として、辞書にない文字の並びや記号文字が連続する並びなどである。
図14は、切り出された部分領域540の一例を示す図である。切り出し部203は、外れ値文字検出部202の検出の結果に基づいて、上述した部分領域510,512,513,540の中から、外れ値文字(「∴;◎1ミlUV」)が含まれる部分領域540を特定し、特定した部分領域540を切り出す。切り出し部203により切り出される部分領域の数は、1つでもよく、複数でもよい。
なお、切り出し部203は、1つの外れ値文字を含む部分領域を切り出す領域として特定してもよく、予め定められた個数の外れ値文字を含む部分領域を切り出す領域として特定してもよい。なお、複数の外れ値文字を含む部分領域を切り出す場合、切り出し部203は、部分領域に含まれる文字の数(「部分領域の文字列長」ともいう。)に対する外れ値文字の数の割合が一定の値以上のとき、当該部分領域を切り出す領域として特定してもよい。
取得部28Aは、切り出し部203により切り出された部分領域540を取得する。すなわち、文字認識処理により文字認識を行う対象として定められた文字認識対象画像が分割されることで得られた部分領域510,512,513,540のうちの文字認識処理により文字が誤認識された部分領域540が取得部28Aによって取得される。
修正部28Bは、取得部28Aによって取得された部分領域540に対して上記第1実施形態で説明した処理を実行し、処理済みの部分領域540をレイアウト解析部201に出力する。なお、レイアウト解析部201は、本開示の技術に係る「分類部」の一例である。
切り出し部203により切り出され、修正部28Bによって処理が施されたた部分領域540に対して、レイアウト解析部201は、レイアウト解析をさらに行い、一例として図14に示すように、部分領域540を部分領域541,542(以下、上述した「処理対象画像5の部分領域」と区別するために「分割領域541,542」ともいう。)にさらに分割する。分割領域541,542は、分割後の領域の一例である。なお、ここで行われるレイアウト解析手法は先のレイアウト解析手法と同一でもよいし、異なる手法を用いても良い。
文字認識部28Dは、分割領域541,542に対して文字認識処理(すなわち、再度の文字認識処理)を行う。なお、文字認識部28Dは、部分領域54が複数の分割領域541,542に分割されたときのみに再度の文字認識処理を行い、部分領域540が分割されなかったときに再度の文字認識処理を行わないようにしてもよい。もしくは、異常値を含む分割領域を操作者が確認し、操作者が再度の文字認識処理は不要と支持した場合は、再度の文字認識処理を行わないようにしてもよい。
次に、本第2実施形態に係る画像処理システム10Aの作用について図15A及び図15Bを参照しながら説明する。図15A及び図15Bには、本第2実施形態に係る画像処理の流れの一例が示されている。
図15Aに示す画像処理では、先ず、ステップST50で、受付部200は、光学式センサ22によって記録媒体Pの注目領域P1から処理対象画像5が読み取られたか否かを判定する。ステップST50において、光学式センサ22によって記録媒体Pの注目領域P1から処理対象画像5が読み取られていない場合は、判定が否定されて、画像処理はステップST90へ移行する。ステップST50において、光学式センサ22によって記録媒体Pの注目領域P1から処理対象画像5が読み取られた場合は、判定が肯定されて、画像処理はステップST52へ移行する。
ステップST52で、受付部200は、光学式センサ22から処理対象画像5を受け付け、その後、画像処理はステップST54へ移行する。
ステップST54、レイアウト解析部201は、受付部200によって受け付けられた処理対象画像5に対してレイアウト解析を行うことで、処理対象画像5を部分領域510,512,513,540に分割し(図12B参照)、その後、画像処理はステップST56へ移行する。
ステップST56で、レイアウト解析部201は、レイアウト情報211を記憶装置21に記憶し、その後、画像処理はステップST58へ移行する。
ステップST58で、文字認識部28Dは、部分領域510、512,513,540の各々に対して文字認識処理を行い、その後、画像処理はステップST60へ移行する。
ステップST60で、文字認識部28Dは、文字認識処理を行うことで得た文字認識結果情報213を記憶装置21に記憶し、その後、画像処理はステップST62へ移行する。
ステップST62で、文字認識部28Dは、部分領域510、512,513,540の全てに対して文字認識処理を行ったか否かを判定する。ステップST62において、部分領域510、512,513,540の全てに対して文字認識処理を行っていない場合は、判定が否定されて、画像処理はステップST58へ移行する。ステップST62において、部分領域510、512,513,540の全てに対して文字認識処理を行った場合は、判定が肯定されて、画像処理はステップST64へ移行する。
ステップST64で、外れ値文字検出部202は、記憶装置21に記憶されている文字認識結果情報213に含まれる文字のサイズの分布を算出し、その後、画像処理はステップST66へ移行する。
ステップST66で、外れ値文字検出部202は、算出した文字のサイズの分布に基づいて外れ値文字を検出し、その後、画像処理はステップST68へ移行する。
ステップST68で、切り出し部203は、記憶装置21に記憶されているレイアウト情報211及び文字認識結果情報213を参照して、外れ値文字検出部202によって検出された外れ値文字を含む部分領域540(図12B参照)を特定し、その後、画像処理は図15Bに示すステップST70へ移行する。
図15Bに示すステップST70で、切り出し部203は、特定した部分領域540を切り出し、その後、画像処理はステップST71へ移行する。
ステップST71で、取得部28Aは、切り出し部203により切り出された部分領域540を取得し、その後、画像処理はステップST72へ移行する。
ステップST72で、修正部28Bは、画像生成要求情報を生成器70Aに送信し、その後、画像処理はステップST74へ移行する。なお、画像生成要求情報には、取得部28Aによって取得された部分領域540が含まれている。生成器70Aは、画像生成要求情報から部分領域540を取得し、取得した部分領域540に含まれる断続線を実線化することで実線化画像を生成し、生成した実線化画像を修正済み画像として修正部28Bに送信する。
ステップST74は、生成器70Aから送信された修正済み画像を受信したか否かを判定する。ステップST74において、生成器70Aから送信された修正済み画像を受信していない場合は、判定が否定されて、ステップST74の判定が再び行われる。ステップST74において、生成器70Aから送信された修正済み画像を受信した場合は、判定が肯定されて、画像処理はステップST76へ移行する。
ステップST76で、レイアウト解析部201は、修正部28Bが受信した修正済み画像に対して更にレイアウト解析を行い、その後、画像処理はステップST78へ移行する。
ステップST78で、文字認識部28Dは、レイアウト解析部201によって修正済み画像が分割された否かを判定する。ステップST78において、レイアウト解析部201によって修正済み画像が分割されていない場合は、判定が否定されて、画像処理はステップST84へ移行する。ステップST78において、レイアウト解析部201によって修正済み画像が分割された場合は、判定が肯定されて、画像処理はステップST80へ移行する。ここで、修正済み画像が分割された場合とは、例えば、図14に示すように、分割領域541,542が得られた場合を指す。
ステップST80で、文字認識部28Dは、分割領域に対して文字認識処理を行い、その後、画像処理はステップST82へ移行する。
ステップST82で、文字認識部28Dは、文字認識結果情報213を分割領域と関連付けて記憶装置21に記憶する。すなわち、文字認識部28Dは、記憶装置21に記憶されている文字認識結果情報213を新たに得た文字認識結果情報213に置き換えることで記憶装置21内の文字認識結果情報213を更新し、その後、画像処理はステップST84へ移行する。
ステップST84で、文字認識部28Dは、全ての分割領域に対して文字認識処理を実行したか否かを判定する。ステップST84において、全ての分割領域に対して文字認識処理を実行していない場合は、判定が否定されて、画像処理はステップST80へ移行する。ステップST84において、全ての分割領域に対して文字認識処理を実行した場合は、判定が肯定されて、画像処理はステップST86へ移行する。
ステップST86で、切り出し部203は、外れ値文字を含む全ての部分領域を切り出したか否かを判定する。ステップST86において、外れ値文字を含む全ての部分領域を切り出していない場合は、判定が否定されて、画像処理はステップST70へ移行する。ステップST86において、外れ値文字を含む全ての部分領域を切り出した場合は、判定が肯定されて、画像処理はステップST88へ移行する。
ステップST88で、制御部28Eは、記憶装置21から文字認識結果情報213を取得し、取得した文字認識結果情報213により示される文字認識結果をディスプレイ23に対して表示させ、その後、画像処理はステップST90へ移行する。
ステップST90で、制御部28Eは、画像処理終了条件を満足したか否かを判定する。ステップST90において、画像処理終了条件を満足していない場合は、判定が否定されて、画像処理はステップST50へ移行する。ステップST90において、画像処理終了条件を満足した場合は、判定が肯定されて、画像処理が終了する。
なお、上記各実施形態では、機械学習の一例として敵対的生成ネットワークによる深層学習を挙げて説明したが、本開示の技術はこれに限定されない。例えば、敵対的生成ネットワークに代えて、又は、敵対的生成ネットワークと共に、CNN又はFCN等の他のニューラルネットワークを用いてもよい。
また、上記各実施形態では、サーバ装置14において、CPU48によって敵対的生成ネットワークを構築する形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、複数のCPUによって敵対的生成ネットワークが構築されるようにしてもよい。また、例えば、GPUによって敵対的生成ネットワークが構築されるようにしてもよい。また、例えば、少なくとも1つのCPUと少なくとも1つのGPUとの併用によって敵対的生成ネットワークが構築されるようにしてもよい。
また、上記各実施形態では、ROM30に画像処理プログラム30A,30B(以下、符号を付さずに「画像処理プログラム」と称する)が記憶されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、図16に示すように、画像処理プログラムを記憶媒体600に記憶させておいてもよい。この場合、記憶媒体600に記憶されている画像処理プログラムは、コンピュータ20にインストールされ、CPU28は、画像処理プログラムに従って、上述した画像処理を実行する。
上記各実施形態で示す例では、CPU28は、単数のCPUであるが、本開示の技術はこれに限定されず、複数のCPUを採用してもよいし、GPUを採用してもよいし、少なくとも1つのCPUと少なくとも1つのGPUとを併用してもよい。なお、記憶媒体600の一例としては、CD-ROM、DVD-ROM、SSD又はUSBメモリなどの任意の可搬型の記憶媒体が挙げられる。
また、通信網(図示省略)を介してコンピュータ20に接続される他のコンピュータ又はサーバ装置等の記憶部に画像処理プログラムを記憶させておき、上述のクライアント装置12の要求に応じて画像処理プログラムがコンピュータ20にダウンロードされるようにしてもよい。この場合、ダウンロードされた画像処理プログラムがコンピュータ20にインストールされ、コンピュータ20のCPU28によって実行される。
また、上記第1実施形態では、取得部28A、修正部28B、分類部28C、文字認識部28D、及び制御部26E(以下、「上記第1実施形態で説明した各部」と称する)として、コンピュータ20によるソフトウェア構成により実現される形態例を挙げて説明したが、本開示の技術はこれに限定されない。また、上記第2実施形態では、取得部28A、修正部28B、文字認識部28D、制御部26E、受付部200、レイアウト解析部201、外れ値文字検出部202、及び切り出し部203(以下、「上記第2実施形態で説明した各部」と称する)として、コンピュータ20によるソフトウェア構成により実現される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、上記第1実施形態で説明した各部及び上記第2実施形態で説明した各部は、例えば、ASIC、FPGA、及びPLDのうちの少なくとも1つを含むデバイスによって実現されるようにしてもよい。
また、上記第1実施形態で説明した各部及び上記第2実施形態で説明した各部は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
上記の画像処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、上述したように、ソフトウェア、すなわち、プログラムを実行することで、画像処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。
画像処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、画像処理を実行するハードウェア資源は1つのプロセッサであってもよい。
1つのプロセッサで構成する例としては、第1に、クライアント及びサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、上記第1実施形態で説明した各部及び上記第2実施形態で説明した各部の処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、画像処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、上記第1実施形態で説明した各部及び上記第2実施形態で説明した各部の処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。
また、上記の画像処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
10,10A 画像処理システム
20 コンピュータ
28A 取得部
28B 修正部
28C 分類部
28C1 抽出部
28D 文字認識部
28E 制御部
30A 画像処理プログラム
43A 生成器学習済みデータ
70 敵対的生成ネットワーク
70A,70A1 生成器
70B 識別器
200 受付部
201 レイアウト解析部
202 外れ値文字検出部
203 切り出し部
20 コンピュータ
28A 取得部
28B 修正部
28C 分類部
28C1 抽出部
28D 文字認識部
28E 制御部
30A 画像処理プログラム
43A 生成器学習済みデータ
70 敵対的生成ネットワーク
70A,70A1 生成器
70B 識別器
200 受付部
201 レイアウト解析部
202 外れ値文字検出部
203 切り出し部
Claims (18)
- 画像を取得する取得部と、
前記取得部により取得された前記画像が分類部によって文字と標章とに分類される前段階で、機械学習を用いて前記文字を形成する線とは異なる断続線を標章化することで前記画像を修正する修正部と、
を含む画像処理装置。 - 前記修正部は、前記断続線を実線化することで標章化する請求項1に記載の画像処理装置。
- 前記機械学習は、画像生成ネットワークを利用した機械学習であり、
前記修正部は、前記画像生成ネットワークに含まれる生成器を用いて前記断続線を実線化する請求項2に記載の画像処理装置。 - 前記修正部は、前記画像生成ネットワークに含まれる識別器と競合することで学習済みの前記生成器に対して前記断続線を実線化させる請求項3に記載の画像処理装置。
- 前記修正部は、前記生成器に対して、前記取得部により取得された前記画像から前記断続線を実線化した実線化画像を生成させることで前記画像を修正する請求項4に記載の画像処理装置。
- 前記修正部は、前記画像生成ネットワークに含まれる識別器と競合することで学習済みの前記生成器での学習結果を取得し、取得した前記学習結果を用いて前記断続線を実線化する請求項3に記載の画像処理装置。
- 前記修正部は、前記取得部により取得された前記画像から前記学習結果を用いて前記断続線を実線化した実線化画像を生成することで前記画像を修正する請求項6に記載の画像処理装置。
- 画像を取得する取得部と、
前記取得部により取得された前記画像が分類部によって文字と標章とに分類される前段階で、機械学習を用いて前記文字を形成する線とは異なる断続線を除去することで前記画像を修正する修正部と、
を含む画像処理装置。 - 前記機械学習は、画像生成ネットワークを利用した機械学習であり、
前記修正部は、前記画像生成ネットワークに含まれる生成器を用いて前記断続線を除去する請求項8に記載の画像処理装置。 - 前記修正部は、前記画像生成ネットワークに含まれる識別器と競合することで学習済みの前記生成器に対して前記断続線を除去させる請求項9に記載の画像処理装置。
- 前記修正部は、前記生成器に対して、前記取得部により取得された前記画像から前記断続線を除去した断続線除去画像を生成させることで前記画像を修正する請求項10に記載の画像処理装置。
- 前記修正部は、前記画像生成ネットワークに含まれる識別器と競合することで学習済みの前記生成器での学習結果を取得し、取得した前記学習結果を用いて前記断続線を除去する請求項9に記載の画像処理装置。
- 前記修正部は、前記取得部により取得された前記画像から前記学習結果を用いて前記断続線を除去した断続線除去画像を生成することで前記画像を修正する請求項12に記載の画像処理装置。
- 前記修正部により前記画像が修正されることで得られた修正済み画像から前記文字を含む文字領域を抽出する抽出部を更に含む請求項1から請求項13の何れか1項に記載の画像処理装置。
- 前記抽出部により抽出された前記文字領域を対象として文字認識を行う文字認識部を更に含む請求項14に記載の画像処理装置。
- 表示部に対して前記文字認識部による文字認識結果を表示させる制御を行う制御部を更に含む請求項15に記載の画像処理装置。
- 前記前段階で、文字認識機能により文字認識を行う対象として定められた文字認識対象画像が分割されることで得られた複数の分割画像のうちの前記文字認識機能により前記文字が誤認識された分割画像が前記取得部によって前記画像として取得される請求項1から請求項16の何れか1項に記載の画像処理装置。
- コンピュータを、
請求項1から請求項17の何れか1項に記載の画像処理装置に含まれる前記取得部及び前記修正部として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019050219A JP7234719B2 (ja) | 2019-03-18 | 2019-03-18 | 画像処理装置及びプログラム |
US16/559,639 US11611678B2 (en) | 2019-03-18 | 2019-09-04 | Image processing apparatus and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019050219A JP7234719B2 (ja) | 2019-03-18 | 2019-03-18 | 画像処理装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020154449A JP2020154449A (ja) | 2020-09-24 |
JP7234719B2 true JP7234719B2 (ja) | 2023-03-08 |
Family
ID=72515054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019050219A Active JP7234719B2 (ja) | 2019-03-18 | 2019-03-18 | 画像処理装置及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11611678B2 (ja) |
JP (1) | JP7234719B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116366790B (zh) * | 2023-05-26 | 2023-10-27 | 深圳市神飞致远技术有限公司 | 一种网络视频存储方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007100044A1 (ja) | 2006-03-01 | 2007-09-07 | L.A.B Inc. | 映像連動型制御対象外部機器制御装置及びそれに使用する映像記録媒体 |
JP2010176414A (ja) | 2009-01-29 | 2010-08-12 | Fuji Xerox Co Ltd | 画像処理装置及び画像処理プログラム |
WO2010113217A1 (ja) | 2009-03-31 | 2010-10-07 | 富士通フロンテック株式会社 | 文字認識装置及び文字認識方法 |
JP2015172979A (ja) | 2015-07-08 | 2015-10-01 | 株式会社東芝 | 手書き文書処理装置、方法およびプログラム |
US20190080164A1 (en) | 2017-09-14 | 2019-03-14 | Chevron U.S.A. Inc. | Classification of character strings using machine-learning |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5556511B2 (ja) | 2010-08-31 | 2014-07-23 | 富士ゼロックス株式会社 | 画像処理装置及びプログラム |
JP2017010187A (ja) * | 2015-06-19 | 2017-01-12 | 富士ゼロックス株式会社 | 画像処理装置及び画像処理プログラム |
US11269876B1 (en) * | 2020-04-30 | 2022-03-08 | Splunk Inc. | Supporting graph data structure transformations in graphs generated from a query to event data |
-
2019
- 2019-03-18 JP JP2019050219A patent/JP7234719B2/ja active Active
- 2019-09-04 US US16/559,639 patent/US11611678B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007100044A1 (ja) | 2006-03-01 | 2007-09-07 | L.A.B Inc. | 映像連動型制御対象外部機器制御装置及びそれに使用する映像記録媒体 |
JP2010176414A (ja) | 2009-01-29 | 2010-08-12 | Fuji Xerox Co Ltd | 画像処理装置及び画像処理プログラム |
WO2010113217A1 (ja) | 2009-03-31 | 2010-10-07 | 富士通フロンテック株式会社 | 文字認識装置及び文字認識方法 |
JP2015172979A (ja) | 2015-07-08 | 2015-10-01 | 株式会社東芝 | 手書き文書処理装置、方法およびプログラム |
US20190080164A1 (en) | 2017-09-14 | 2019-03-14 | Chevron U.S.A. Inc. | Classification of character strings using machine-learning |
Also Published As
Publication number | Publication date |
---|---|
JP2020154449A (ja) | 2020-09-24 |
US20200304683A1 (en) | 2020-09-24 |
US11611678B2 (en) | 2023-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7623712B2 (en) | Image processing method and apparatus | |
JP6139396B2 (ja) | 文書を表す二値画像を圧縮する方法及びプログラム | |
US8947736B2 (en) | Method for binarizing scanned document images containing gray or light colored text printed with halftone pattern | |
JP4877374B2 (ja) | 画像処理装置及びプログラム | |
JP5934762B2 (ja) | 文字の形状特徴を使用した文字比較による文書改変検知方法、コンピュータプログラム、記録媒体および情報処理装置 | |
JP5298831B2 (ja) | 画像処理装置及びプログラム | |
CN110555433A (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
JPH11338976A (ja) | 文書画像認識装置、その方法、及び記録媒体 | |
JP2003132358A (ja) | 画像処理方法、装置およびシステム | |
US6532302B2 (en) | Multiple size reductions for image segmentation | |
US9275279B2 (en) | Image processing apparatus and image processing method | |
RU2581786C1 (ru) | Определение преобразований изображения для повышения качества оптического распознавания символов | |
CN110598566A (zh) | 图像处理方法、装置、终端和计算机可读存储介质 | |
US11915465B2 (en) | Apparatus and methods for converting lineless tables into lined tables using generative adversarial networks | |
JP6743092B2 (ja) | 画像処理装置、画像処理の制御方法、及びプログラム | |
JP7234719B2 (ja) | 画像処理装置及びプログラム | |
JP2002015280A (ja) | 画像認識装置、画像認識方法および画像認識プログラムを記録したコンピュータ読取可能な記録媒体 | |
JPH11272800A (ja) | 文字認識装置 | |
JP2009259190A (ja) | 文字認識プログラムおよび文字認識装置 | |
JP2005339075A (ja) | 画像探索装置、画像探索方法、この方法のプログラム及びこのプログラムを記録した記録媒体 | |
KR102513456B1 (ko) | 그림파일 형태의 그래프 데이터 인식 및 추출하는 시스템 및 그 방법 | |
JP7277879B2 (ja) | ナンバプレート認識プログラム及びナンバプレート認識装置 | |
KR101312306B1 (ko) | 표지판 인식장치, 표지판 인식방법, 및 이미지 인식방법 | |
US20210216748A1 (en) | Probability acquisition apparatus and probability acquisition method | |
JP2017156986A (ja) | 情報処理装置、制御方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7234719 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |