JP4120795B2 - Retouching extraction device and retouching extraction method - Google Patents

Retouching extraction device and retouching extraction method Download PDF

Info

Publication number
JP4120795B2
JP4120795B2 JP2002380609A JP2002380609A JP4120795B2 JP 4120795 B2 JP4120795 B2 JP 4120795B2 JP 2002380609 A JP2002380609 A JP 2002380609A JP 2002380609 A JP2002380609 A JP 2002380609A JP 4120795 B2 JP4120795 B2 JP 4120795B2
Authority
JP
Japan
Prior art keywords
image
character
difference
processing
superimposed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002380609A
Other languages
Japanese (ja)
Other versions
JP2004213230A5 (en
JP2004213230A (en
Inventor
裕文 堀川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2002380609A priority Critical patent/JP4120795B2/en
Publication of JP2004213230A publication Critical patent/JP2004213230A/en
Publication of JP2004213230A5 publication Critical patent/JP2004213230A5/ja
Application granted granted Critical
Publication of JP4120795B2 publication Critical patent/JP4120795B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は加筆抽出装置及び加筆抽出方法に関するものであり、特に、手書き入力システムに対する加筆抽出精度を向上させるための画像差分による加筆抽出装置及び加筆抽出方法に関する。
【0002】
【従来の技術】
従来、ユーザがプリンタ出力文書の内容に関連して思いついたアイデア等を紙面上に加筆修正したとしても、それを元の電子ファイル文書には反映するためには、後日加筆修正内容をユーザが改めてワープロソフトウエア等を用いて入力する必要があった。
【0003】
このような不便を解決するために、スキャナ等の画像入力手段によって入力された加筆重畳画像から、プリンタドライバが作成した加筆修正前のイメージを差分することで紙文書に対する加筆修正内容を画像情報として抽出するする技術が開発された(例えば、特許文献1参照)。
【0004】
しかし、このような技術によっても、例えば、定型フォーマットですでに確定している情報が誤って訂正されたり、更には、文書自体の内容を故意に改ざんされる等の問題があった。
【0005】
そこで、画像の中の、外枠の隅などの特徴的な四点を検出し、それぞれの点が電子画像中の対応する点に移動する様に補間処理を行う方法や、一点を対応点へ平行移動しその点を中心に回転させ伸縮補正などを行うアフィン変換式により補正処理を行う方法などで、位置合わせを行った後に差分処理を行っているものもある(例えば、特許文献2参照)。
【0006】
さらには、ハイパーテキストを作成する手段と、関連情報ファイルを記憶する手段と、ハイパーテキストから媒体用紙情報を作成する手段と、媒体用紙を出力する手段と、選択情報を付与する手段と、媒体用紙から選択情報および連結情報を読み取る手段と、該当する関連情報ファイルを検索する手段と、検索された関連情報ファイルを出力する手段とを備えた文書情報管理システムもある(例えば、特許文献3参照)。この技術は、コンピューター等のデジタルの世界と紙の文書との間に情報の連続性・関連性を構築することにより、紙の文書をデジタルの世界の文書情報管理システム内に組み込むと共に、紙の文書を媒体としてデジタルの世界に直接アクセス可能とし、さらに紙の文書を用いたハイパーテキスト(紙ハイパーテキスト)を実現することを目的としている。
【0007】
【特許文献1】
特開平11−272654号公報
【特許文献2】
特開2001−283231号公報
【特許文献3】
特開平10−228468号公報
【0008】
【発明が解決しようとする課題】
しかし、特許文献1記載の発明等では、加筆修正内容をイメージ抽出する際に、プリンタドライバが作成した電子原稿画像と、デバイスから入力された加筆重畳画像との間で、単純な差分処理を行うことで抽出しているが、この方法では電子原稿と加筆重畳画像の間で全体的、または局所的なズレが発生した場合に、そのズレの影響として差分処理後に引き残しが発生する。また、印刷された枠、文字等の上に加筆があった場合、差分処理によって、加筆した情報が失われてしまう可能性もある。
【0009】
また、特許文献2記載の発明等では、プリンタ時の紙送りムラ、ドラムの回転ムラ、スキャン時における光学系の速度ムラなどによる加筆した画像の局所的な倍率変動に対応できない。また、この従来技術においても、差分処理時の過除去による加筆情報の消失に対して何ら対策がなされていない。
【0010】
そこで、本発明では、原稿上の文字に対する加筆を対象とし、さらに文字認識処理を利用することによって処理対象範囲を絞ることで加筆情報が存在しない領域での引き残しの発生を抑制し、また、差分処理によって一部を損失した加筆画像に対して補間操作を実行することにより、より精度の高い加筆抽出を行うことを目的としている。すなわち、本発明は、電子文書と加筆重畳画像からの加筆抽出装置において、抽出精度の向上を目的とする。
【0011】
【課題を解決するための手段】
上記の目的を達成するために、請求項1記載の発明によれば、加筆抽出装置は、電子文書の原稿画像と前記電子文書を紙へ出力した後に手書きの加筆が重畳した状態で画像読取装置で再び電子化された画像との与えられた領域に文字認識処理を行い、該領域内における一文字毎の文字画像の認識結果と該認識結果における前記文字の確信度と前記文字の領域情報とを出力する文字認識手段と、前記文字認識手段から得られた文字画像の領域情報から該文字画像に対応する加筆重畳画像内での領域を検出する位置検出手段と、前記位置検出手段によって検出された該文字画像の加筆重畳画像内での領域に対する文字認識結果および認識結果文字の確信度と、前記文字認識手段によって得られる認識結果および認識結果文字の確信度とを比較することで加筆抽出操作の必要性の有無を判定する認識結果比較手段と、前記認識結果比較手段によって差分計算が必要と判定された前記文字画像の領域に対して差分計算を行う画像差分手段と、前記画像差分手段によって差分処理された画像に対して補間処理を行う画像補間手段と、を有することを特徴とするものである。
【0012】
請求項2記載の発明によれば、加筆抽出装置は、電子文書の原稿画像と前記電子文書を紙へ出力した後に手書きの加筆が重畳した状態で画像読取装置で再び電子化された画像との与えられた領域に文字認識処理を行い領域内における一文字毎の文字画像の領域情報を出力する文字認識手段と、前記文字認識手段から得られた文字画像の領域情報から該文字画像に対応する加筆重畳画像内での領域を検出する位置検出手段と、前記位置検出手段によって検出された該文字画像の加筆重畳画像内での領域内における黒画素の総和と電子原稿画像内での文字画像の黒画素の総和を計数し比較することで加筆抽出操作の必要性の有無を判定する画素計数手段と、前記画素計数手段によって差分計算が必要と判定された前記文字画像の領域に対して差分計算を行う画像差分手段と、前記画像差分手段によって差分処理された画像に対して補間処理を行う画像補間手段と、を有することを特徴とするものである。
【0013】
請求項3記載の発明によれば、加筆抽出装置は、前記位置検出手段は、電子原稿画像の領域と加筆重畳画像の画像相関関数を計算し相関関数が最大値に達する2枚の画像の位置関係を検出結果とする相関位置検出手段、を有することを特徴とする請求項1又は2記載の加筆抽出装置である。
【0014】
請求項4記載の発明によれば、加筆抽出装置は、前記位置検出手段は、電子原稿画像の領域と加筆重畳画像の差分後の黒画素の総和を計算し該総和値が最小値に達する2枚の画像の位置関係を検出結果とする差分位置検出手段、を有することを特徴とする請求項1又は2記載の加筆抽出装置である。
【0015】
請求項5記載の発明によれば、加筆抽出装置は、前記画像差分手段は、電子原稿画像と加筆重畳画像の両者の対応する位置からわずかにずらす画素ずらし処理手段と、前記画素ずらし処理手段によりわずかにずらされた2枚の画像間での差分処理を行う差分処理手段と、を有することを特徴とする請求項1又は2記載の加筆抽出装置である。
【0016】
請求項6記載の発明によれば、加筆抽出装置は、前記画像差分手段は、電子原稿画像を太化する画像太化処理手段と、前記画像太化処理手段により太化された電子原稿画像と加筆重畳画像間での差分処理を行う差分処理手段と、を有することを特徴とする請求項1又は2記載の加筆抽出装置である。
【0017】
請求項7記載の発明によれば、加筆抽出装置は、前記画像補間手段は、前記差分処理後の画像の輪郭画像を作成する輪郭抽出手段と、前記輪郭抽出手段によって作成された輪郭画像から前記画素ずらし処理又は前記画像太化処理された電子原稿画像を差分することで補間すべき端点の座標と補間方向を検出する端点検出手段と、前記端点検出手段によって検出された端点の情報から端点同士を接続し閉曲線を構成する端点接続手段と、前記端点接続手段によって作成された閉曲線の内部を着色する画像着色手段と、を有することを特徴とする請求項5又は6記載の加筆抽出装置である。
【0018】
請求項8記載の発明によれば、電子文書の原稿画像と前記電子文書を紙へ出力した後に手書きの加筆が重畳した状態で画像読取装置で再び電子化された画像との与えられた領域に文字認識処理を行い該領域内における一文字毎の文字画像の認識結果と該認識結果における前記文字の確信度と前記文字の領域情報とを出力する文字認識ステップと、前記文字認識ステップから得られた文字画像の領域情報から該文字画像に対応する加筆重畳画像内での領域を検出する位置検出ステップと、前期位置検出ステップによって検出された該文字画像の加筆重畳画像内での領域に対する文字認識結果および認識結果文字の確信度と、前記文字認識ステップによって得られる認識結果および認識結果文字の確信度とを比較することで加筆抽出操作の必要性の有無を判定する認識結果比較ステップと、前記認識結果比較ステップによって差分計算が必要と判定された前記小領域に対して差分計算を行う画像差分ステップと、前記画像差分ステップによって差分処理された画像に対して補間処理を行う画像補間ステップと、を有することを特徴とする加筆抽出方法である。
【0019】
請求項9記載の発明によれば、電子文書の原稿画像と前記電子文書を紙へ出力した後に手書きの加筆が重畳した状態で画像読取装置で再び電子化された画像との与えられた領域に文字認識処理を行い領域内における一文字毎の文字画像の領域情報を出力する文字認識ステップと、前記文字認識ステップから得られた文字画像の領域情報から該文字画像に対応する加筆重畳画像内での領域を検出する位置検出ステップと、前期位置検出ステップによって検出された該文字画像の加筆重畳画像内での領域内における黒画素の総和と電子原稿画像内での文字画像の黒画素の総和を計数し比較することで加筆抽出操作の必要性の有無を判定する画素計数ステップと、前記画素計数ステップによって差分計算が必要と判定された前記小領域に対して差分計算を行う画像差分ステップと、前記画像差分ステップによって差分処理された画像に対して補間処理を行う画像補間ステップと、を有することを特徴とする加筆抽出方法である。
【0020】
請求項10記載の発明によれば、前記位置検出ステップは、電子原稿画像の領域と加筆重畳画像の画像相関関数を計算し相関関数が最大値に達する2枚の画像の位置関係を検出結果とする相関位置検出ステップ、を有することを特徴とする請求項8又は9記載の加筆抽出方法である。
【0021】
請求項11記載の発明によれば、前記位置検出ステップは、電子原稿画像の領域と加筆重畳画像の差分後の黒画素の総和を計算し該総和値が最小値に達する2枚の画像の位置関係を検出結果とする差分位置検出ステップ、を有することを特徴とする請求項8又は9記載の加筆抽出方法である。
【0022】
請求項12記載の発明によれば、前記画像差分ステップは、電子原稿画像と加筆重畳画像の両者の対応する位置からわずかにずらす画素ずらし処理ステップと、前記画素ずらし処理ステップによりわずかにずらされた2枚の画像間での差分処理を行う差分処理ステップと、を有することを特徴とする請求項8又は9記載の加筆抽出方法である。
【0023】
請求項13記載の発明によれば、前記画像差分ステップは、電子原稿画像を太化する画像太化処理ステップと、前記画像太化処理ステップにより太化された電子原稿画像と加筆重畳画像間での差分処理を行う差分処理ステップと、を有することを特徴とする請求項8又は9記載の加筆抽出方法である。
【0024】
請求項14記載の発明によれば、前記画像補間ステップは、前記差分処理後の画像の輪郭画像を作成する輪郭抽出ステップと、前記輪郭抽出ステップによって作成された輪郭画像から前記画素ずらし処理又は前記画像太化処理された電子原稿画像を差分することで補間すべき端点の座標と補間方向を検出する端点検出ステップと、前記端点検出ステップによって検出された端点の情報から端点同士を接続し閉曲線を構成する端点接続ステップと、前記端点接続ステップによって作成された閉曲線の内部を着色する画像着色ステップと、を有することを特徴とする請求項12又は13記載の加筆抽出方法である。
【0027】
【発明の実施の形態】
次に、添付図面を参照して、本発明による加筆抽出装置及び加筆抽出方法の実施の形態を詳細に説明する。
【0028】
図1には、本発明に係る画像差分による加筆抽出装置及び加筆抽出方法の一実施における加筆抽出の処理手順が示されている。
【0029】
ステップS101で、加筆抽出を行う領域の個数Nと、それぞれの抽出対象領域の位置、大きさを設定し、電子原稿画像とその画像を紙に出力した後に加筆されスキャナなどの画像読取装置で取り込まれた加筆重畳画像を入力する。
【0030】
ステップS102では、領域数変数nを1に設定する。
ステップS103では、加筆抽出の対象となる領域を加筆重畳画像から切り出し、同時に電子原稿画像からは、先に加筆重畳画像から抽出した領域に対応した領域を切り出す。
ステップS104では、ステップS103で切り出された電子原稿画像をM個の小領域に分割する。
【0031】
その分割処理ステップS104を示したのが図2である。
【0032】
図2において、ステップS201では、分割数を計数するために分割数変数mを0に設定する。
ステップS202では、ステップS103で切り出された電子原稿画像の領域に対して文字認識処理を行う。これは、例えば、特開平10−171927「文字認識装置、文字認識方法および…」に記載されている方法を利用することができる。
【0033】
電子原稿画像の領域に文字領域が含まれていれば、ステップS202の処理により電子原稿画像の領域中の文字数Lとそれぞれの文字の認識結果{Rrl}、認識確信度{Rcl}、そして文字領域{Crl}が得られる。
【0034】
ステップS203では文字数変数lを1に設定する。
ステップS204では電子原稿画像中の文字領域Crlに対応する加筆重畳画像中の領域Crl’を検出する。
【0035】
この対応する領域を検出する手段としては、電子原稿画像中の文字領域Crlの文字画像と加筆重畳画像との相関関数をCrlの近傍で計算し相関関数が最大値を示すところを「最も確からしい位置」としてCrl’に代入する。
【0036】
また、ステップS204の別の手段として、加筆重畳画像中のCrlの近傍でCrlと同じ大きさの領域を切り出し、その領域から電子原稿画像中の文字領域Crlを差分処理して残黒画素の総和を計算する。
【0037】
この残黒画素総和計算を加筆重畳画像からCrl領域を切り出す際にわずかにずらしながら複数回実行し、残黒画素の総和が最小値を示したところを「最も確からしい位置」としてCrl’に代入する。
【0038】
ステップS205では、ステップS204で得られた加筆重畳画像側のCrl’に対して文字認識処理を行う。これはステップS202で行った文字認識方法と同じものを用いる必要がある。よって、ステップS202と同じく、領域{Crl’}の認識結果{Rrl’}、認識確信度{Rcl’}が得られる。
【0039】
ステップS206では、それぞれの文字認識の結果RrlとRrl’を比較する。文字認識の結果RrlとRrl’が異なっていれば(No)、領域Crl’には何らかの加筆が加わっている可能性があるので、ステップS208に進み、分割数変数mを1増加させ、RamにCrlを、Ramに対応する領域Ram’にCrl’を代入した後、ステップS209へ進む。
【0040】
文字認識の結果RrlとRrl’が同じであれば(ステップS206でYes)、ステップS207へ進む。ここではRclに1以下の定数αを乗算しRcl’と比較し、Rcl’の方が小さい(No)、つまり認識確信度に著しい低下が見られた場合、領域Crl’には何らかの加筆が加わっている可能性があるので、ステップS208に進み、分割数変数mを1増加させ、RamにCrlを、Ramに対応する領域Ram’にCrl’を代入した後、ステップS209へ進む。Rcl’の方が大きければ(ステップS207でYes)、加筆の可能性は低いので、ステップS208へ行くことなくステップS209に進む。
【0041】
ステップS209では、文字数変数lを1だけ増加させ、ステップS210で文字数Lと比較し、文字数変数lが文字数Lを超えていれば(Yes)、ステップS211で分割領域数mを分割数Mに代入し、{Ram}と{Ram’}をステップS105へ出力する。
超えていなければ(ステップS210でNo)、ステップS204からの処理を繰り返す。
【0042】
図3は、分割処理ステップS104の別の手段である。
【0043】
ステップS301では、分割数を計数するためにmを0に設定する。
ステップS302では、ステップS103で切り出された電子原稿画像の領域に対して文字認識処理を行う。これには、図2のステップS202と同じものが利用できる。
【0044】
電子原稿画像の領域に文字領域が含まれていれば、ステップS302の処理により電子原稿画像の領域中の文字数Lとそれぞれの文字の認識結果{Rrl}、認識確信度{Rcl}、そして文字領域{Crl}が得られる。
【0045】
ステップS303では、文字数変数lを1に設定する。
ステップS304では、電子原稿画像中の文字領域Crlに対応する加筆重畳画像中の領域Crl’を検出する。この対応する領域を検出する手段としては、図2のステップS204と同じものが利用できる。
【0046】
ステップS305では、電子原稿画像側のCrlとステップS304で得られた加筆重畳画像側のCrl’に対して黒画素計数処理を行う。それぞれの黒画素数をNbl、Nbl’とする。
【0047】
ステップS306では、ステップS305で得られた黒画素数Nbl、Nbl’を比較する。
【0048】
Nbl’に1以下の定数βを乗算してNblと比較し、Nblの方が小さい (ステップS306でNo)、つまり加筆重畳画像側に著しい黒画素の増加が見られた場合、領域Crl’には何らかの加筆が加わっている可能性があるので、ステップS307に進み、割数変数mを1増加させ、RamにCrlを、Ramに対応する領域Ram’にCrl’を代入した後、ステップS308へ進む。
【0049】
Nblの方が大きければ(ステップS306でYes)、加筆の可能性は低いので、ステップS307へ行くことなくステップS308に進む。
【0050】
ステップS308では、文字数変数lを1だけ増加させ、ステップS309で文字数Lと比較し、文字数変数lが文字数Lを超えていれば(Yes)、ステップS310で分割領域数mを分割数Mに代入し、{Ram}と{Ram’}をステップS105へ出力する。超えていなければ(ステップS309でNo)、ステップS304からの処理を繰り返す。
【0051】
また、ステップS202、ステップS302で文字として認識されなかった部分は、後に記す加筆画像の貼り付け先として保存しておく。
【0052】
図1のステップS105では、分割数変数mを1に設定する。
ステップS106では、ステップS104で加筆の可能性があると判定された領域RamとRam’に対して画像差分処理を行い、結果の差分処理画像をステップS107へ出力する。
【0053】
画像差分処理ステップS106を示したのが図4である。
【0054】
ステップS401では、縦座標変数yを−aに設定する。
ステップS402では、横座標変数xを−aに設定する。
【0055】
ステップS403では、電子原稿側の領域Ramから(x、 y)だけ画素をずらした画像を抽出し、ステップS404では、ステップS403において画素ずらしで抽出したRamとRam’との差分を行う。
【0056】
ステップS405では、xを1だけ増加させ、ステップS406で横座標変数xがaを超えていれば(Yes)、ステップS407へ進む。超えていなければ(ステップS406でNo)、ステップS403からの処理を繰り返す。
【0057】
ステップS407では、yを1だけ増加させ、ステップS408で横座標変数yがaを超えていれば(Yes)、ステップS404での差分処理結果をステップS107へ出力する。超えていなければ(ステップS408でNo)、ステップS402からの処理を繰り返す。aの値は1〜2を用いる。
【0058】
図5は、分割処理ステップS106の別の手段である。
【0059】
ステップS501では、Ramに対して画像太化処理を行う。
ステップS502では、Ram’と画像太化処理されたRamとを用いて差分処理を行い、その差分処理結果をステップS107へ出力する。
【0060】
図4または図5の処理をせずに直接差分処理を行うと、加筆重畳画像側の原稿成分の引き残しが発生する可能性がある。これは電子原稿画像は電子原稿を計算機内部で直接画像化したものに対し加筆重畳画像は電子原稿が一度紙に出力されスキャナなどのデバイスで画像化したものであるから、画像の質が大きく変化する可能性があるからである。
【0061】
図1のステップS107では、ステップS106から入力される差分処理画像に対して画像補間処理を行う。
【0062】
画像補間処理ステップS107を示したのが図6である。
【0063】
ステップS601では、ステップS106から入力される差分処理画像に対して輪郭抽出処理を行い差分輪郭画像を生成する。
【0064】
ステップS602では、ステップS601で生成された差分輪郭画像に対し、電子原稿画像を用いて図4または図5で示された差分処理を再び行い、端点画像を作成する。
【0065】
ステップS603では、ステップS602で作成された端点画像中の線分の端点を検出し、 その座標と端点付近における線分のベクトルを計算する。
【0066】
ステップS604では、ステップS603で検出された端点同士を接続する。端点接続のルールとしては、未接続の2つの端点を選び、 一方の端点の座標がもう一方の端点がある線分の延長上にあるか否かを判定し、延長上にあるとみなせる場合は2点間を直線で結ぶ。延長上にあるとはみなせない場合は一方の端点を未接続の別の端点に置き換え同様の判定を行う。
【0067】
ステップS605では、全ての端点が接続されたかどうかを判定し、未接続の端点がある場合はステップS604の操作を繰り返すことで推定輪郭画像を作成する。全ての端点が接続された場合はステップS606に進む。
【0068】
ステップS606では、ステップS604、ステップS605での処理で作成された推定輪郭画像に対して輪郭内部の着色を行う。輪郭の「内部」また「外部」の判定には差分処理画像を用いる。差分処理画像のおいて黒画素の部分は推定輪郭画像においては輪郭内部なので、輪郭の内外の判定が可能である。こうして作成された加筆小領域画像をステップS108に出力する。
【0069】
図1のステップS108では、ステップS107で作成された加筆画像をステップS104から得られた領域情報と下地画像を元に合成する。
【0070】
ステップS109では、分割数変数mを1だけ増加させ、ステップS110で分割領域数Mを超えているか否かを判定し、超えていなければ(No)、ステップS106から繰り返す。超えた場合は(ステップS110でYes)、ステップS111で、白紙の画像に対してステップS103で抽出した位置に領域情報を元にステップS108で合成された加筆画像を合成する。
【0071】
ステップS112で,領域数変数nを1だけ増加させ、ステップS113で、領域数Nを超えているか否かを判定し、超えていなければ(No)、ステップS103から繰り返し、超えていれば(ステップS113でYes)、ステップS114加筆画像を出力する。
【0072】
図7、図8は前述した一連の処理を画像を用いて模式的に説明したものである。
【0073】
図7では、前述のステップS101によって電子原稿と加筆重畳画像の二つの画像が与えられる。
【0074】
まず、図7▲1▼でこの2つの画像から加筆抽出を行う領域を抽出する(ステップS103参照)。
次に、抽出した領域の電子原稿画像側に対して、図7▲2▼で文字認識処理を行い、領域中の文字画像情報を得る。
加筆重畳画像側に対して先ほど電子原稿画像から得た文字画像の領域情報を適用し(図7▲3▼)、文字画像毎に文字認識、または黒画素計数を行い電子原稿画像側と比較する(図7▲4▼)。その際に文字認識処理によって『文字画像』として認識されなかった領域を、加筆画像を合成する際の下地として保存しておく(図7▲5▼)。
【0075】
以上の操作で加筆重畳画像に対して、図7下のように加筆抽出操作が必要な領域を絞ることができる。これらの処理は前述のステップS104に対応する。
【0076】
図8では、前述のステップS106以降の処理が表わされている。ステップS104で得られた分割画像領域情報から図8左上の文字単位の電子原稿画像と加筆重畳画像が得られる。
【0077】
この2枚の画像間で図8▲1▼の差分処理を行い(ステップS106参照)、差分画像を得る。ここで得られた差分画像に対して図8▲2▼のように輪郭抽出を行うことで(ステップS601参照)、差分輪郭画像が得られる。
【0078】
この画像に対して図8▲4▼の差分処理(ステップS602参照)を行うことで、端点画像を得るのだが、この図8では、あらかじめ電子原稿画像側の文字画像を太化したものを準備し(図8▲3▼)、それとの差分処理を行っている。つまり、画像差分処理に前述のステップS501、ステップS502の方法を採用している。
【0079】
こうして得られた端点画像に対して端点検出処理を行い、それぞれの端点の座標、端点を含む線分の端点上でのベクトルを算出する(ステップS603参照)。
【0080】
この端点同士を図8▲5▼で接続し(ステップS604参照)、全ての端点を接続し終わり輪郭推定画像が生成されると図8▲6▼において着色処理を行う。
【0081】
着色操作は、輪郭推定画像の輪郭を境界に着色する部分、しない部分に分けられるが、この判断には図8▲6▼’のように図8▲1▼で作成された差分画像を参照画像とし、この参照画像と相関が高い着色パターンを採用する。
以上の操作で図8右下の加筆画像が得られる。
【0082】
図9には、本発明による加筆抽出装置及び加筆抽出方法の一実施形態における加筆抽出器の構成例が示されている。
【0083】
図9において、加筆抽出器900は、領域抽出部901と、領域分割部902と、画像差分部903と、画像補間部904と、画像合成部905と、から構成される。
【0084】
領域抽出部901は、図1のステップS101で設定される電子原稿画像と加筆重畳画像、加筆抽出を行いたい領域の個数、それぞれの領域の位置と大きさを使用することで、図1のステップS103での所望の領域切り出しを両画像から行う。
【0085】
領域分割部902は、領域抽出部901で抽出された領域に対してステップS104のさらなる領域分割を行う。
【0086】
図10には、本発明による加筆抽出装置及び加筆抽出方法の一実施形態における領域分割器の構成例が示されている。
【0087】
図10において、領域分割器1000は、図9の領域分割部902の一実施例であり、文字認識部1001と、位置検出部1002と、認識結果比較部1003とから構成される。
【0088】
文字認識部1001において、図9の領域抽出部901で抽出された電子原稿側の領域に対して図2のステップS202の文字認識処理を行う。
【0089】
電子原稿画像に文字画像が含まれていれば、その認識結果と確信度、そしてそれぞれの文字の領域情報(位置と大きさ)が一文字毎に得られる。
【0090】
次に、位置検出部1002において、先の文字認識部1001より出力された電子原稿画像の文字毎の画像領域に対応する加筆重畳画像上における領域を検出し、両領域のずれ量を得る。ここでは図2のステップS204の動作を行う。
【0091】
認識結果比較部1003において、加筆重畳画像に対して、先の位置検出部1002で得られたそれぞれの電子原稿画像の文字の領域情報を用いて、図2のステップS205の文字認識処理を行い、ここで得られる文字認識処理結果とその結果に対する確信度と、文字認識部1001で得られた文字認識結果とその結果に対する確信度とを比較する。これは図2のステップS206とステップS207の動作に対応する。
【0092】
もし、ここで考えている文字領域に加筆が行われていなければ、加筆重畳画像に対して行った文字認識処理結果と、電子原稿画像に対して行った文字認識処理結果は一致し、確信度も同程度のものが得られる。文字領域に何らかの加筆成分があった場合、一文字あるいは複数の文字の両画像の文字認識処理結果の間に結果の相違、または結果が同じであっても確信度の変化が起こる。
【0093】
こうして得られた加筆成分が重畳している可能性がある領域情報と位置検出部1002から得られる加筆重畳画像上における領域情報を図2のステップS208の代入操作で保存しておき、最終的に図9の画像差分部903へ出力する。
【0094】
図11には、本発明による加筆抽出装置及び加筆抽出方法の他の実施形態における領域分割器の構成例が示されている。
【0095】
図11において、領域分割器1100は、図9の領域分割部902の他の実施例であり、文字認識部1101と、位置検出部1102と、画素形成部1103とから構成される。
【0096】
文字認識部1101は、図10の文字認識部1001と同等の機能を有するので、図9の領域抽出部901で抽出された領域に含まれる文字画像の位置情報が得られる。これは図3のステップS302の動作に対応する。
【0097】
次に、位置検出部1102において、先の文字認識部1101より出力された電子原稿画像の文字毎の文字画像領域に対応する加筆重畳画像上における領域を検出し、両領域のずれ量を得る。これは図3のステップS304の動作に対応する。
【0098】
次に、画素計数部1103において、先の位置検出部1102で得られた文字画像の位置に対応する部分を電子原稿画像と加筆重畳画像から抽出し、図3のステップS305に対応する領域内の黒画素数計数を2つの画像に対して行いステップS306の比較を行う。
【0099】
もし、ここで考えている文字領域に加筆が行われていなければ、加筆重畳画像側の文字領域抽出画像の黒画素数と電子原稿画像の文字領域抽出画像の黒画素数は、ほぼ一致する。
【0100】
文字領域に何らかの加筆成分があった場合、加筆重畳画像側の文字領域抽出画像の黒画素数は電子原稿画像の文字領域抽出画像の黒画素数を大きく上回る。
【0101】
こうして得られた加筆成分が重畳している可能性がある領域情報と位置検出部1102から得られる加筆重畳画像上における領域情報を図3のステップS307の代入操作で保存しておき、最終的に903へ出力する。
【0102】
図10、図11の領域分割器において、文字画像として判定されなかった領域は、後述する補間処理後の貼り付け先として保存する。
【0103】
図12には、本発明による加筆抽出装置及び加筆抽出方法の一実施形態における位置検出器の構成例が示されている。
【0104】
図12において、位置検出器1200は、図10、図11における位置検出部1002と、1102との一実施例であり、相関計算部1201と、最大相関検出部1202とから構成される。
【0105】
相関計算部1201は、図10、図11における文字認識部1001と、1101とから入力される一文字毎の画像領域情報をもとに、電子原稿画像から画像切り出すことで参照画像を作成し、参照画像と加筆重畳画像との相関関数を計算する。
【0106】
次に、最大相関検出部1202において、相関計算部1201で計算した相関関数で最大値に達する座標を検出し、その座標を参照画像と加筆重畳画像との相対位置として図10の認識結果比較部1003、図11の画素計数部1103へ出力する。
【0107】
図13には、本発明による加筆抽出装置及び加筆抽出方法の他の実施形態における位置検出器の構成例が示されている。
【0108】
図13において、位置検出器1300は、図10、図11における位置検出部1002と、1102の他の実施例であり、差分処理部1301と、最小残黒画素検出部1302とから構成される。
【0109】
差分処理部1301は、図10、図11における文字認識部1001と、1101とから入力される一文字毎の画像領域情報をもとに電子原稿画像から画像切り出すことで参照画像を作成し、加筆重畳画像から参照画像を差分することで得られる残黒画素の総和値を計算する。
【0110】
この差分計算と残黒画素の総和計算を、参照画像と加筆重畳画像との位置関係をずらしながら複数回実行し、残黒画素の総和を参照画像のずらし量の関数とする。
【0111】
次に、最小残黒画素検出部1302において、差分処理部1301で計算した残黒画素関数で最小値に達する座標を検出し、その座標を参照画像と加筆重畳画像との相対位置として図10、図11における認識結果比較部1003と、画素計数部1103とへ出力する。
【0112】
図9の画像差分部903は、領域分割部902より入力される加筆成分が重畳している可能性がある領域に対して、図1のステップS106の差分処理を行い、処理結果の画像を画像補間部904に出力する。
【0113】
図14には、本発明による加筆抽出装置及び加筆抽出方法の一実施形態における画像差分器の構成例が示されている。
【0114】
図14において、画像差分器1400は、図9の画像差分部903の一実施例であり、画素ずらし処理部1401と、差分処理部1402とから構成される。
【0115】
画素ずらし処理部1401は、図9の領域分割部902から入力される加筆成分が重畳している可能性がある電子原稿画像の領域情報とその領域に対応する加筆重畳画像上における領域情報から、電子原稿画像と加筆重畳画像の両画像から画像切り出しを行う。
【0116】
この電子原稿画像から画像切り出しを行う際に、切り出す領域を数画素ずらしながらを切り出す。これは図4のステップS401〜ステップS403、およびステップS405〜ステップS408の処理に対応する。
【0117】
次に、差分処理部1402において、画素ずらし処理部1401で切り出された加筆重畳画像の小領域と同じく画素ずらし処理部1401で切り出された電子原稿画像の小領域との間でステップS404の差分処理を実行し、処理結果を図9の画像補間部904へ出力する。
【0118】
図15には、本発明による加筆抽出装置及び加筆抽出方法の他の実施形態における画像差分器の構成例が示されている。
【0119】
図15において、画像差分器1500は、図9の画像差分部903の他の実施例であり、画像太化処理部1501と、差分処理部1502とから構成される。
【0120】
画像太化処理部1501は、図9の領域分割部902から入力される加筆成分が重畳している可能性がある電子原稿画像の領域情報とその領域に対応する加筆重畳画像上における領域情報から、電子原稿画像と加筆重畳画像の両画像から画像切り出しを行い、電子原稿画像から切り出した画像に対して画像の太化処理を行う。この画像切り出しと太化処理は図5のステップS501に対応する。
【0121】
次に、差分処理部1502において、画像太化処理部1501で切り出された加筆重畳画像の小領域と同じく画像太化処理部1501で切り出された電子原稿画像の小領域との間で図5のステップS502の差分処理を実行し、処理結果を図9の画像補間部904へ出力する。
【0122】
図9の画像補間部904は、画像差分部903より入力される差分画像に対し図1のステップS107の画像補間処理を実行し、処理結果を画像合成部905へ出力する。
【0123】
図16には、本発明による加筆抽出装置及び加筆抽出方法の一実施形態における画像補間器の構成例が示されている。
【0124】
図16において、画像補間器1600は、図9の画像補間部904の一実施例であり、輪郭抽出部1601と、端点検出部1602と、端点接続部1603と、画像着色部1604と、領域合成部1605とから構成される。
【0125】
輪郭抽出部1601は、図9の画像差分部903から入力される差分処理後の画像に対して図6のステップS601の輪郭強調処理を行い、差分輪郭画像を作成する。
【0126】
次に、端点検出部1602において、輪郭抽出部1601で作成された差分輪郭画像と電子原稿画像の間で図6のステップS602の差分処理を行い、端点画像を作成し、画像中の端点の座標を抽出する。これは図6のステップS603に対応する。
【0127】
次に、端点接続部1603において、端点検出部1602において作成した端点画像と端点の情報から、線分の延長上にある端点同士に対して図6のステップS604の端点接続を行い、推定輪郭画像を作成する。
【0128】
次に、画像着色部1604において、推定輪郭画像の内部に対し図6のステップS606の着色処理を行う。
【0129】
最後に、領域合成部1605において、図9の領域分割部902で貼り付け先画像として保存された画像に対して貼り付け処理を行い、画像合成部905へ出力する。
【0130】
図9の画像合成部905は、領域抽出部901から入力される抽出領域情報に基づいて、画像補間部904から入力される画像補間処理後の画像、つまり図1のステップS111の加筆画像の張り合わせ処理を白紙の画像に対して実行し、その結果一枚の加筆画像が完成する。
【0131】
【発明の効果】
請求項1の記載の発明によれば、加筆抽出装置は加筆抽出の精度が向上し、また、計算効率が向上する。
【0132】
請求項2の記載の発明によれば、加筆抽出装置は、加筆抽出の精度が向上し、また、計算効率が向上する。
【0133】
請求項3記載の発明によれば、加筆抽出装置は、請求項1又は2記載の加筆抽出装置において、加筆抽出の精度が向上する。
【0134】
請求項4記載の発明によれば、加筆抽出装置は、請求項1又は2記載の加筆抽出装置において、加筆抽出の精度が向上する。
【0135】
請求項5記載の発明によれば、加筆抽出装置は、請求項1又は2記載の加筆抽出装置において、加筆重畳画像の画質低下によるひき残しを防ぐことが可能となり、加筆抽出の精度が向上する。
【0136】
請求項6記載の発明によれば、加筆抽出装置は、請求項1又は2記載の加筆抽出装置において、加筆重畳画像の画質低下によるひき残しを防ぐことが可能となり、加筆抽出の精度が向上する。
【0137】
請求項7記載の発明によれば、加筆抽出装置は、請求項5又は6記載の加筆抽出装置において、加筆成分の過除去後の補間が可能となり、加筆抽出の精度が向上する。
【0138】
請求項8記載の発明によれば、加筆抽出方法は加筆抽出の精度が向上し、また、計算効率が向上する。
【0139】
請求項9記載の発明によれば、加筆抽出方法は加筆抽出の精度が向上し、また、計算効率が向上する。
【0140】
請求項10記載の発明によれば、加筆抽出方法は、請求項8又は9記載の加筆抽出方法において、加筆抽出の精度が向上する。
【0141】
請求項11記載の発明によれば、加筆抽出方法は、請求項8又は9記載の加筆抽出方法において、加筆抽出の精度が向上する。
【0142】
請求項12記載の発明によれば、加筆抽出方法は、請求項8又は9記載の加筆抽出方法において、加筆重畳画像の画質低下によるひき残しを防ぐことが可能となり、加筆抽出の精度が向上する。
【0143】
請求項13記載の発明によれば、加筆抽出方法は、請求項8又は9記載の加筆抽出方法において、加筆重畳画像の画質低下によるひき残しを防ぐことが可能となり、加筆抽出の精度が向上する。
【0144】
請求項14記載の発明によれば、加筆抽出方法は、請求項12又は13記載の加筆抽出方法において、加筆成分の過除去後の補間が可能となり、加筆抽出の精度が向上する。
【図面の簡単な説明】
【図1】本発明による加筆抽出装置及び加筆抽出方法の一実施形態における加筆抽出のフローチャートである。
【図2】本発明による加筆抽出装置及び加筆抽出方法の一実施形態における領域分割ステップのフローチャートである。
【図3】本発明による加筆抽出装置及び加筆抽出方法の他の実施形態における領域分割ステップのフローチャートである。
【図4】本発明による加筆抽出装置及び加筆抽出方法の一実施形態における画像太化差分のフローチャートである。
【図5】本発明による加筆抽出装置及び加筆抽出方法の他の実施形態における画像太化差分のフローチャートである。
【図6】本発明による加筆抽出装置及び加筆抽出方法の一実施形態における画像補間ステップのフローチャートである。
【図7】本発明による加筆抽出装置及び加筆抽出方法の一実施形態における領域抽出・領域分割の説明図である。
【図8】本発明による加筆抽出装置及び加筆抽出方法の一実施形態における画像差分等の説明図である。
【図9】本発明による加筆抽出装置及び加筆抽出方法の一実施形態における加筆抽出器の構成例である。
【図10】本発明による加筆抽出装置及び加筆抽出方法の一実施形態における領域分割器の構成例である。
【図11】本発明による加筆抽出装置及び加筆抽出方法の他の実施形態における領域分割器の構成例である。
【図12】本発明による加筆抽出装置及び加筆抽出方法の一実施形態における位置検出器の構成例である。
【図13】本発明による加筆抽出装置及び加筆抽出方法の他の実施形態における位置検出器の構成例である。
【図14】本発明による加筆抽出装置及び加筆抽出方法の一実施形態における画像差分器の構成例である。
【図15】本発明による加筆抽出装置及び加筆抽出方法の他の実施形態における画像差分器の構成例である。
【図16】本発明による加筆抽出装置及び加筆抽出方法の一実施形態における画像補間器の構成例である。
【符号の説明】
900 加筆抽出器
901 領域抽出部
902 領域分割部
903 画像差分部
904 画像補間部
905 画像合成部
1000、1100 領域分割器
1001、1101 文字認識部
1002、1102 位置検出部
1003 認識結果比較部
1103 画素計数部
1200、1300 位置検出器
1201 相関計算部
1202 最大相関検出部
1301、1402、1502 差分処理部
1302 最小残黒画素検出部
1400、1500 画像差分器
1401 画素ずらし処理部
1501 画像太化処理部
1600 画像補間器
1601 輪郭抽出部
1602 端点検出部
1603 端点接続部
1604 画像着色部
1605 領域合成部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a retouching extraction apparatus and a retouching extraction method, and more particularly to a retouching extraction apparatus and a retouching extraction method based on image differences for improving retouching extraction accuracy for a handwriting input system.
[0002]
[Prior art]
Conventionally, even if the user has revised an idea or the like that has come up with the contents of the printer output document on the paper, in order to reflect it on the original electronic file document, the user must revisit the amendment at a later date. It was necessary to input using word processor software.
[0003]
In order to solve such inconvenience, the correction correction content for the paper document is used as image information by subtracting the image before correction correction created by the printer driver from the correction superimposed image input by the image input means such as a scanner. A technique for extracting has been developed (see, for example, Patent Document 1).
[0004]
However, even with such a technique, there has been a problem that, for example, information already determined in a fixed format is erroneously corrected, and further, the contents of the document itself are intentionally altered.
[0005]
Therefore, it is possible to detect four characteristic points in the image, such as the corners of the outer frame, and perform interpolation processing so that each point moves to the corresponding point in the electronic image. There is a method in which a difference process is performed after alignment by a method of performing a correction process by an affine transformation formula that performs translation correction by performing parallel movement and rotation around that point (for example, see Patent Document 2). .
[0006]
Furthermore, a means for creating hypertext, a means for storing a related information file, a means for creating media paper information from hypertext, a means for outputting media paper, a means for giving selection information, and a media paper There is also a document information management system provided with means for reading selection information and connection information from, a means for searching for the relevant information file, and a means for outputting the searched relevant information file (see, for example, Patent Document 3). . This technology incorporates paper documents into the digital world document information management system by building continuity and relationship of information between the digital world such as computers and paper documents. It is intended to enable direct access to the digital world using a document as a medium, and to realize hypertext (paper hypertext) using a paper document.
[0007]
[Patent Document 1]
JP 11-272654 A
[Patent Document 2]
JP 2001-283231 A
[Patent Document 3]
Japanese Patent Laid-Open No. 10-228468
[0008]
[Problems to be solved by the invention]
  However, in the invention described in Patent Document 1, the electronic document image created by the printer driver when extracting the correction correction content and the image,deviceThis is extracted by performing a simple difference process between the retouched superimposed image input from, but this method causes a total or local shift between the electronic manuscript and the retouched superimposed image. In addition, after-difference processing occurs as a result of the deviation. In addition, when there is an addition on a printed frame, character, or the like, the added information may be lost due to the difference processing.
[0009]
In addition, the invention described in Patent Document 2 cannot cope with local magnification fluctuations of an added image due to paper feed unevenness during printer, drum rotation unevenness, optical system speed unevenness during scanning, and the like. In this prior art, no countermeasure is taken against the disappearance of the writing information due to the excessive removal during the difference processing.
[0010]
Therefore, in the present invention, the addition of characters on a document is targeted, and further, by using the character recognition process, the processing target range is narrowed down to suppress the occurrence of leftover in an area where there is no additional information, An object of the present invention is to perform more accurate retouching extraction by performing an interpolation operation on a retouched image that has been partially lost due to difference processing. That is, an object of the present invention is to improve extraction accuracy in a retouching extraction apparatus from an electronic document and a retouched superimposed image.
[0011]
[Means for Solving the Problems]
  To achieve the above object, according to the first aspect of the present invention, the retouching extraction apparatus includes an image reading device in a state in which a manuscript image of an electronic document and a handwritten retouching are superimposed after the electronic document is output to paper. With images digitized againCharacter recognition means for performing character recognition processing on a given area and outputting a recognition result of each character image in the area, the certainty of the character in the recognition result, and the character area information; and the character A position detecting unit for detecting a region in the superimposed image corresponding to the character image from the region information of the character image obtained from the recognizing unit; and a rewritten superimposed image of the character image detected by the position detecting unit. Recognition result for determining the necessity of additional extraction operation by comparing the character recognition result and the certainty factor of the recognition result character with the recognition result and the certainty factor of the recognition result character obtained by the character recognition means By the comparison means and the recognition result comparison meansImage difference means for performing difference calculation on the character image area determined to require difference calculation, and image interpolation means for performing interpolation processing on the image subjected to difference processing by the image difference means. It is characterized by.
[0012]
  According to the invention of claim 2, the retouching extraction device isCharacter recognition processing is performed on the given area of the original image of the electronic document and the image digitized again by the image reading device in a state where the handwritten writing is superimposed after the electronic document is output to paper, and for each character in the area A character recognition unit that outputs region information of the character image, a position detection unit that detects a region in the superimposed image corresponding to the character image from the region information of the character image obtained from the character recognition unit, Necessity of the retouching extraction operation by counting and comparing the sum of black pixels in the region in the retouched superimposed image of the character image detected by the position detection means and the sum of black pixels of the character image in the electronic original image A pixel counting means for determining the presence / absence of sex, an image difference means for performing a difference calculation on a region of the character image determined to require a difference calculation by the pixel counting means, and an image difference means An image interpolation means for performing interpolation processing on the difference processed image I, to have aIt is a feature.
[0013]
  According to invention of Claim 3, a retouching extraction apparatus isThe position detection means includes correlation position detection means for calculating an image correlation function between the area of the electronic original image and the retouched superimposed image and detecting a positional relationship between the two images where the correlation function reaches a maximum value. The retouching extraction apparatus according to claim 1 or 2, characterized in that it is characterized in that
[0014]
  According to invention of Claim 4, a retouching extraction apparatus isThe position detection means calculates the sum of the black pixels after the difference between the area of the electronic original image and the retouched superimposed image, and detects the positional relationship between the two images where the sum reaches the minimum value. The retouching extraction apparatus according to claim 1, wherein:
[0015]
  According to the invention of claim 5, the retouching extraction device is:The image difference unit performs a difference process between a pixel shift processing unit that slightly shifts from the corresponding position of both the electronic original image and the retouched superimposed image, and two images that are slightly shifted by the pixel shift processing unit. 3. The retouching extraction apparatus according to claim 1, further comprising difference processing means for performing the processing.
[0016]
  According to the invention described in claim 6, the retouching extraction device comprises:The image difference means includes an image thickening processing means for thickening an electronic original image, a difference processing means for performing a difference process between the electronic original image thickened by the image thickening processing means and the retouched superimposed image, The retouching extraction apparatus according to claim 1, wherein
[0017]
  According to the seventh aspect of the present invention, the retouching extraction device comprises:The image interpolating means includes a contour extracting means for creating a contour image of the image after the difference processing, and the electronic original image subjected to the pixel shifting process or the image thickening process from the contour image created by the contour extracting means. The end point detecting means for detecting the coordinates of the end points to be interpolated by the difference and the interpolation direction, the end point connecting means for connecting the end points from the end point information detected by the end point detecting means to form a closed curve, and the end point connection The retouching extraction apparatus according to claim 5, further comprising: an image coloring unit that colors the inside of the closed curve created by the unit.
[0018]
  According to invention of Claim 8,Character recognition processing is performed on a given area between an original image of an electronic document and an image digitized again by the image reading apparatus in a state where handwritten writing is superimposed after the electronic document is output to paper, and one character in the area A character recognition step for outputting the recognition result of each character image, the certainty factor of the character in the recognition result, and the region information of the character, and the character image from the region information of the character image obtained from the character recognition step. A position detecting step for detecting a region in the corresponding retouched superimposed image, a character recognition result for the region in the retouched superimposed image of the character image detected by the previous position detecting step, and a certainty factor of the recognition result character, Recognition result comparison that determines the necessity of additional extraction operation by comparing the recognition result obtained by the character recognition step and the certainty of the recognition result character And an image difference step for performing difference calculation on the small area determined to require difference calculation by the recognition result comparison step, and an image for performing interpolation processing on the image subjected to difference processing by the image difference step And an interpolation step.
[0019]
  According to the invention of claim 9,Character recognition processing is performed on the given area of the original image of the electronic document and the image digitized again by the image reading device in a state where the handwritten writing is superimposed after the electronic document is output to paper, and for each character in the area A character recognition step for outputting region information of the character image, a position detection step for detecting a region in the superimposed image corresponding to the character image from the region information of the character image obtained from the character recognition step, Necessity of the retouching extraction operation by counting and comparing the sum of the black pixels in the region in the retouched superimposed image of the character image detected by the position detection step and the sum of the black pixels of the character image in the electronic original image A pixel counting step for determining the presence or absence of sex, and an image difference step for performing a difference calculation on the small area determined to require a difference calculation by the pixel counting step; Is a retouched extraction method characterized by having an image interpolation step of performing interpolation processing on the difference processed image by said image difference step.
[0020]
  According to the invention of claim 10,The position detection step includes a correlation position detection step of calculating an image correlation function between the area of the electronic original image and the retouched superimposed image and detecting a positional relationship between the two images where the correlation function reaches a maximum value. The retouched extraction method according to claim 8 or 9, characterized in that it is a feature.
[0021]
  According to the invention of claim 11,The position detecting step calculates a sum of black pixels after the difference between the area of the electronic original image and the retouched superimposed image, and detects a positional relationship between the two images where the sum reaches a minimum value. 10. The retouching extraction method according to claim 8 or 9, characterized by comprising:
[0022]
  According to invention of Claim 12,The image difference step includes a pixel shift processing step for slightly shifting from the corresponding positions of both the electronic original image and the retouched superimposed image, and a difference process between the two images slightly shifted by the pixel shift processing step. The difference extraction step to perform, The rewriting extraction method of Claim 8 or 9 characterized by the above-mentioned.
[0023]
  According to the invention of claim 13,The image difference step includes an image thickening process step for thickening an electronic original image, a difference processing step for performing a difference process between the electronic original image thickened by the image thickening process step and the retouched superimposed image, 10. The retouching extraction method according to claim 8 or 9, characterized by comprising:
[0024]
  According to the invention of claim 14,The image interpolation step includes a contour extraction step of creating a contour image of the image after the difference processing, and the electronic original image that has been subjected to the pixel shifting process or the image thickening process from the contour image created by the contour extraction step. An end point detection step for detecting the coordinates and interpolation direction of the end points to be interpolated by subtracting, an end point connection step for connecting the end points from the end point information detected by the end point detection step to form a closed curve, and the end point connection The retouching extraction method according to claim 12 or 13, further comprising an image coloring step of coloring the inside of the closed curve created by the step.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
Next, an embodiment of a retouching extraction apparatus and a retouching extraction method according to the present invention will be described in detail with reference to the accompanying drawings.
[0028]
FIG. 1 shows a processing procedure for rewriting extraction in one embodiment of a retouching extraction apparatus and retouching extraction method based on image differences according to the present invention.
[0029]
In step S101, the number N of areas to be extracted and the position and size of each extraction target area are set, and the electronic original image and the image are output to paper and added to the image reading apparatus such as a scanner. The retouched superimposed image is input.
[0030]
In step S102, the number-of-regions variable n is set to 1.
In step S103, an area to be extracted is extracted from the superimposed image, and an area corresponding to the area extracted from the superimposed image is extracted from the electronic original image.
In step S104, the electronic original image cut out in step S103 is divided into M small areas.
[0031]
FIG. 2 shows the division processing step S104.
[0032]
In FIG. 2, in step S201, the division number variable m is set to 0 in order to count the division number.
In step S202, character recognition processing is performed on the area of the electronic document image cut out in step S103. For example, a method described in Japanese Patent Laid-Open No. 10-171927 “Character recognition device, character recognition method, and so on” can be used.
[0033]
If the area of the electronic original image includes a character area, the number L of characters in the area of the electronic original image, the recognition result of each character {Rrl}, the recognition certainty {Rcl}, and the character area are processed in step S202. {Crl} is obtained.
[0034]
In step S203, the character number variable l is set to 1.
In step S204, a region Crl 'in the retouched superimposed image corresponding to the character region Crl in the electronic document image is detected.
[0035]
As a means for detecting the corresponding area, a correlation function between the character image of the character area Crl in the electronic original image and the retouched superimposed image is calculated in the vicinity of Crl, and the correlation function shows the maximum value. Substitute “Crl ′” as “position”.
[0036]
Further, as another means of step S204, an area having the same size as Crl is cut out in the vicinity of Crl in the retouched superimposed image, and the character area Crl in the electronic original image is subjected to differential processing from the area to sum the remaining black pixels. Calculate
[0037]
This remaining black pixel total calculation is executed a plurality of times while slightly shifting when extracting the Crl region from the retouched superimposed image, and the place where the total of the remaining black pixels shows the minimum value is assigned to Crl ′ as the “most probable position”. To do.
[0038]
In step S205, character recognition processing is performed on Crl 'on the side of the retouched superimposed image obtained in step S204. This is the same as the character recognition method performed in step S202. Therefore, as in step S202, the recognition result {Rrl '} and the recognition certainty {Rcl'} of the region {Crl '} are obtained.
[0039]
In step S206, the results Rrl and Rrl 'of each character recognition are compared. If Rrl and Rrl ′ are different from each other as a result of character recognition (No), there is a possibility that some rewriting is added to the region Crl ′. Therefore, the process proceeds to step S208, the division number variable m is increased by 1, and Ram is set. After substituting Crl for Cram 'in the area Ram' corresponding to Ram, the process proceeds to step S209.
[0040]
If Rrl and Rrl 'are the same as a result of character recognition (Yes in step S206), the process proceeds to step S207. Here, Rcl is multiplied by a constant α of 1 or less and compared with Rcl ′. When Rcl ′ is smaller (No), that is, when the recognition reliability is significantly reduced, some rewriting is added to the region Crl ′. Therefore, the process proceeds to step S208, the division number variable m is incremented by 1, Crl is substituted into Ram, and Crl 'is substituted into area Ram' corresponding to Ram, and the process proceeds to step S209. If Rcl 'is larger (Yes in step S207), the possibility of writing is low, and the process proceeds to step S209 without going to step S208.
[0041]
In step S209, the number-of-characters variable l is incremented by 1, and compared with the number of characters L in step S210. If the number-of-characters variable l exceeds the number of characters L (Yes), the number of divided areas m is substituted for the number of divisions M in step S211. {Ram} and {Ram ′} are output to step S105.
If not exceeded (No in step S210), the processing from step S204 is repeated.
[0042]
FIG. 3 shows another means of the division processing step S104.
[0043]
In step S301, m is set to 0 in order to count the number of divisions.
In step S302, character recognition processing is performed on the area of the electronic document image cut out in step S103. For this, the same one as in step S202 of FIG. 2 can be used.
[0044]
If the area of the electronic original image includes a character area, the number of characters L in the area of the electronic original image, the recognition result {Rrl}, the recognition certainty {Rcl}, and the character area are processed in step S302. {Crl} is obtained.
[0045]
In step S303, the character number variable l is set to 1.
In step S304, a region Crl 'in the retouched superimposed image corresponding to the character region Crl in the electronic document image is detected. As means for detecting the corresponding area, the same means as in step S204 in FIG. 2 can be used.
[0046]
In step S305, black pixel counting processing is performed on Crl on the electronic document image side and Crl 'on the retouched superimposed image side obtained in step S304. The number of black pixels is Nbl and Nbl ′.
[0047]
In step S306, the black pixel numbers Nbl and Nbl 'obtained in step S305 are compared.
[0048]
When Nbl ′ is multiplied by a constant β of 1 or less and compared with Nbl, Nbl is smaller (No in step S306), that is, when a significant increase in black pixels is observed on the side of the superimposed image, the region Crl ′ Since there is a possibility that some writing has been added, the process proceeds to step S307, the divisor variable m is incremented by 1, Crl is substituted into Ram, and Crl 'is substituted into the area Ram' corresponding to Ram, and then to step S308. move on.
[0049]
If Nbl is larger (Yes in step S306), the possibility of writing is low, and the process proceeds to step S308 without going to step S307.
[0050]
In step S308, the number-of-characters variable l is incremented by 1, and compared with the number of characters L in step S309. If the number-of-characters variable l exceeds the number of characters L (Yes), the number of divided areas m is substituted for the number of divisions M in step S310. {Ram} and {Ram ′} are output to step S105. If not exceeded (No in step S309), the processing from step S304 is repeated.
[0051]
Further, the portion that is not recognized as a character in step S202 and step S302 is stored as a pasting destination of a retouched image to be described later.
[0052]
In step S105 in FIG. 1, the division number variable m is set to 1.
In step S106, image difference processing is performed on the regions Ram and Ram 'determined to be possible to be added in step S104, and the resulting difference processed image is output to step S107.
[0053]
FIG. 4 shows the image difference processing step S106.
[0054]
In step S401, the ordinate variable y is set to -a.
In step S402, the abscissa variable x is set to -a.
[0055]
In step S403, an image with pixels shifted by (x, y) is extracted from the area Ram on the electronic document side. In step S404, the difference between Ram and Ram ′ extracted by pixel shifting in step S403 is performed.
[0056]
In step S405, x is incremented by 1. If the abscissa variable x exceeds a in step S406 (Yes), the process proceeds to step S407. If not exceeded (No in step S406), the processing from step S403 is repeated.
[0057]
In step S407, y is incremented by 1. If the abscissa variable y exceeds a in step S408 (Yes), the difference processing result in step S404 is output to step S107. If not exceeded (No in step S408), the processing from step S402 is repeated. A value of 1 to 2 is used.
[0058]
FIG. 5 shows another means of the division processing step S106.
[0059]
In step S501, image thickening processing is performed on Ram.
In step S502, difference processing is performed using Ram ′ and Ram subjected to image thickening processing, and the difference processing result is output to step S107.
[0060]
If direct difference processing is performed without performing the processing of FIG. 4 or FIG. 5, there is a possibility that the original component on the side of the superimposed image is left behind. This is because the electronic manuscript image is an electronic manuscript imaged directly inside the computer, while the retouched superimposed image is an electronic manuscript once output on paper and imaged by a device such as a scanner, so the image quality changes greatly. Because there is a possibility of doing.
[0061]
In step S107 in FIG. 1, an image interpolation process is performed on the difference processed image input from step S106.
[0062]
FIG. 6 shows the image interpolation processing step S107.
[0063]
In step S601, a contour extraction process is performed on the difference processing image input from step S106 to generate a difference contour image.
[0064]
In step S602, the difference processing shown in FIG. 4 or 5 is performed again on the difference contour image generated in step S601 using the electronic original image to create an end point image.
[0065]
In step S603, the end point of the line segment in the end point image created in step S602 is detected, and the coordinates and the line segment vector near the end point are calculated.
[0066]
In step S604, the end points detected in step S603 are connected. The rule for connecting end points is to select two unconnected end points, determine whether the coordinates of one end point are on the extension of the line with the other end point, and if it can be considered to be on the extension Connect two points with a straight line. If it cannot be regarded as being on the extension, one end point is replaced with another unconnected end point and the same determination is performed.
[0067]
In step S605, it is determined whether or not all end points are connected. If there are unconnected end points, the operation of step S604 is repeated to create an estimated contour image. If all the end points are connected, the process proceeds to step S606.
[0068]
In step S606, the inside of the contour is colored with respect to the estimated contour image created by the processing in steps S604 and S605. A difference-processed image is used to determine whether the contour is “inside” or “outside”. Since the black pixel portion in the difference processed image is inside the contour in the estimated contour image, the inside / outside of the contour can be determined. The retouched small area image created in this way is output to step S108.
[0069]
In step S108 in FIG. 1, the retouched image created in step S107 is synthesized based on the area information obtained from step S104 and the background image.
[0070]
In step S109, the division number variable m is increased by 1. In step S110, it is determined whether or not the number M of divided areas is exceeded. If not (No), the process is repeated from step S106. If exceeded (Yes in step S110), in step S111, the retouched image synthesized in step S108 is synthesized based on the area information at the position extracted in step S103 with respect to the blank image.
[0071]
In step S112, the number-of-regions variable n is incremented by 1. In step S113, it is determined whether or not the number of regions N is exceeded. If not (No), the processing is repeated from step S103. In step S113, Yes), step S114 outputs the retouched image.
[0072]
7 and 8 schematically describe the above-described series of processing using images.
[0073]
In FIG. 7, two images of an electronic original and a retouched superimposed image are provided in the above-described step S101.
[0074]
First, in FIG. 7 (1), a region for retouching extraction is extracted from these two images (see step S103).
Next, character recognition processing is performed on the electronic document image side of the extracted area in FIG. 7 (2) to obtain character image information in the area.
The area information of the character image previously obtained from the electronic document image is applied to the retouched superimposed image side ((3) in FIG. 7), and character recognition or black pixel counting is performed for each character image and compared with the electronic document image side. (Fig. 7 (4)). At this time, the area that has not been recognized as the “character image” by the character recognition processing is stored as a background for compositing the retouched image ((5) in FIG. 7).
[0075]
With the above operation, it is possible to narrow down the area that needs the retouching extraction operation as shown in the lower part of FIG. These processes correspond to step S104 described above.
[0076]
FIG. 8 shows the processing after step S106 described above. From the divided image area information obtained in step S104, the electronic original image and the retouched superimposed image in the upper left part of FIG. 8 are obtained.
[0077]
The difference process shown in FIG. 8 (1) is performed between the two images (see step S106) to obtain a difference image. By performing contour extraction on the difference image obtained here as shown in FIG. 8 (2) (see step S601), a difference contour image is obtained.
[0078]
The end point image is obtained by performing the difference processing (see step S602) in FIG. 8 (4) on this image. In FIG. 8, a thickened character image on the electronic document image side is prepared in advance. (FIG. 8 (3)), and difference processing is performed. That is, the method of steps S501 and S502 described above is employed for the image difference process.
[0079]
An end point detection process is performed on the end point image thus obtained, and the coordinates of each end point and a vector on the end point of the line segment including the end point are calculated (see step S603).
[0080]
These end points are connected to each other in FIG. 8 (5) (see step S604), and when all end points are connected and an end contour estimation image is generated, coloring processing is performed in FIG. 8 (6).
[0081]
The coloring operation is divided into a portion where the contour of the contour estimation image is colored at the boundary and a portion where the contour is not colored. For this determination, the difference image created in FIG. 8 (1) as shown in FIG. And a coloring pattern having a high correlation with the reference image is adopted.
The retouched image in the lower right of FIG. 8 is obtained by the above operation.
[0082]
FIG. 9 shows a configuration example of a retouching extractor in an embodiment of a retouching extraction apparatus and a retouching extraction method according to the present invention.
[0083]
In FIG. 9, the retouching extractor 900 includes a region extraction unit 901, a region division unit 902, an image difference unit 903, an image interpolation unit 904, and an image composition unit 905.
[0084]
The area extraction unit 901 uses the electronic original image and the retouched superimposed image, the number of areas to be retouched and the position and size of each area set in step S101 of FIG. The desired area is cut out from both images in S103.
[0085]
The area dividing unit 902 performs further area division in step S <b> 104 on the area extracted by the area extracting unit 901.
[0086]
FIG. 10 shows a configuration example of a region divider in one embodiment of the retouching extraction apparatus and retouching extraction method according to the present invention.
[0087]
10, the area divider 1000 is an example of the area dividing unit 902 in FIG. 9, and includes a character recognition unit 1001, a position detection unit 1002, and a recognition result comparison unit 1003.
[0088]
The character recognition unit 1001 performs the character recognition process in step S202 of FIG. 2 on the area on the electronic document side extracted by the area extraction unit 901 of FIG.
[0089]
If a character image is included in the electronic original image, the recognition result, the certainty factor, and the area information (position and size) of each character are obtained for each character.
[0090]
Next, the position detecting unit 1002 detects a region on the retouched superimposed image corresponding to the image region for each character of the electronic document image output from the previous character recognizing unit 1001, and obtains a deviation amount between the two regions. Here, the operation of step S204 in FIG. 2 is performed.
[0091]
The recognition result comparison unit 1003 performs character recognition processing in step S205 of FIG. 2 using the character region information of each electronic document image obtained by the previous position detection unit 1002 for the rewritten superimposed image. The character recognition processing result obtained here and the certainty factor for the result are compared with the character recognition result obtained by the character recognition unit 1001 and the certainty factor for the result. This corresponds to the operations in step S206 and step S207 in FIG.
[0092]
If the character area considered here is not retouched, the character recognition processing result performed on the retouched superimposed image and the character recognition processing result performed on the electronic document image match, and the certainty level The same level can be obtained. If there is any additional component in the character area, the difference in the result between the character recognition processing results of both images of one character or a plurality of characters, or a change in certainty factor occurs even if the result is the same.
[0093]
The area information in which the additional component obtained in this way may be superimposed and the area information on the additional superimposed image obtained from the position detection unit 1002 are saved by the substitution operation in step S208 in FIG. It outputs to the image difference part 903 of FIG.
[0094]
FIG. 11 shows a configuration example of a region divider in another embodiment of the retouching extraction apparatus and retouching extraction method according to the present invention.
[0095]
In FIG. 11, an area divider 1100 is another embodiment of the area dividing unit 902 in FIG. 9, and includes a character recognition unit 1101, a position detection unit 1102, and a pixel formation unit 1103.
[0096]
Since the character recognizing unit 1101 has a function equivalent to that of the character recognizing unit 1001 in FIG. 10, the position information of the character image included in the region extracted by the region extracting unit 901 in FIG. 9 is obtained. This corresponds to the operation in step S302 in FIG.
[0097]
Next, the position detection unit 1102 detects a region on the retouched superimposed image corresponding to the character image region for each character of the electronic document image output from the previous character recognition unit 1101, and obtains a deviation amount between the two regions. This corresponds to the operation of step S304 in FIG.
[0098]
Next, the pixel counting unit 1103 extracts a portion corresponding to the position of the character image obtained by the previous position detection unit 1102 from the electronic original image and the retouched superimposed image, and within the region corresponding to step S305 in FIG. The black pixel count is performed on the two images, and the comparison in step S306 is performed.
[0099]
If the character area considered here has not been rewritten, the number of black pixels in the character area extracted image on the side of the superimposed image and the number of black pixels in the character area extracted image of the electronic document image are substantially the same.
[0100]
When there is any additional component in the character area, the number of black pixels in the character area extracted image on the side of the superimposed image is significantly larger than the number of black pixels in the character area extracted image of the electronic document image.
[0101]
The area information on which the additional component obtained in this way may be superimposed and the area information on the additional superimposed image obtained from the position detection unit 1102 are saved by the substitution operation in step S307 in FIG. Output to 903.
[0102]
In the area dividers of FIGS. 10 and 11, an area that is not determined as a character image is stored as a pasting destination after interpolation processing described later.
[0103]
FIG. 12 shows a configuration example of a position detector in one embodiment of the retouching extraction apparatus and retouching extraction method according to the present invention.
[0104]
In FIG. 12, a position detector 1200 is an example of the position detection unit 1002 and 1102 in FIGS. 10 and 11, and includes a correlation calculation unit 1201 and a maximum correlation detection unit 1202.
[0105]
The correlation calculation unit 1201 creates a reference image by cutting out an image from the electronic original image based on the image area information for each character input from the character recognition unit 1001 and 1101 in FIGS. The correlation function between the image and the superimposed image is calculated.
[0106]
Next, the maximum correlation detection unit 1202 detects the coordinate reaching the maximum value using the correlation function calculated by the correlation calculation unit 1201, and uses the coordinate as the relative position between the reference image and the retouched superimposed image, thereby recognizing the result comparison unit shown in FIG. 1003 and output to the pixel counting unit 1103 in FIG.
[0107]
FIG. 13 shows a configuration example of a position detector in another embodiment of the retouching extraction apparatus and retouching extraction method according to the present invention.
[0108]
In FIG. 13, a position detector 1300 is another example of the position detection unit 1002 and 1102 in FIGS. 10 and 11, and includes a difference processing unit 1301 and a minimum remaining black pixel detection unit 1302.
[0109]
The difference processing unit 1301 creates a reference image by cutting out an image from the electronic original image based on the image area information for each character input from the character recognition unit 1001 and 1101 in FIGS. The total value of the remaining black pixels obtained by subtracting the reference image from the image is calculated.
[0110]
This difference calculation and remaining black pixel sum calculation are executed a plurality of times while shifting the positional relationship between the reference image and the retouched superimposed image, and the sum of the remaining black pixels is used as a function of the reference image shift amount.
[0111]
Next, the minimum remaining black pixel detection unit 1302 detects a coordinate reaching the minimum value by the residual black pixel function calculated by the difference processing unit 1301, and the coordinate is set as a relative position between the reference image and the superimposed image in FIG. The result is output to the recognition result comparison unit 1003 and the pixel counting unit 1103 in FIG.
[0112]
The image difference unit 903 in FIG. 9 performs the difference process in step S106 of FIG. 1 on the region where the writing component input from the region dividing unit 902 may be superimposed, and the image of the processing result is converted into an image. The data is output to the interpolation unit 904.
[0113]
FIG. 14 shows a configuration example of an image differentiator in one embodiment of the retouching extraction apparatus and retouching extraction method according to the present invention.
[0114]
14, an image differentiator 1400 is an example of the image difference unit 903 in FIG. 9, and includes a pixel shift processing unit 1401 and a difference processing unit 1402.
[0115]
The pixel shift processing unit 1401 is based on the region information of the electronic document image that may have the additional component input from the region dividing unit 902 in FIG. 9 and the region information on the additional superimposed image corresponding to the region. Image clipping is performed from both the electronic original image and the retouched superimposed image.
[0116]
When the image is cut out from the electronic document image, the cut out region is cut out while shifting by several pixels. This corresponds to the processing in steps S401 to S403 and steps S405 to S408 in FIG.
[0117]
Next, the difference processing unit 1402 performs difference processing in step S404 between the small region of the superimposed image extracted by the pixel shift processing unit 1401 and the small region of the electronic original image extracted by the pixel shift processing unit 1401. And the processing result is output to the image interpolation unit 904 in FIG.
[0118]
FIG. 15 shows a configuration example of an image differentiator in another embodiment of the retouching extraction apparatus and retouching extraction method according to the present invention.
[0119]
In FIG. 15, an image differentiator 1500 is another example of the image difference unit 903 in FIG. 9, and includes an image thickening processing unit 1501 and a difference processing unit 1502.
[0120]
The image thickening processing unit 1501 is based on the region information of the electronic document image that may have the additional component input from the region dividing unit 902 in FIG. 9 and the region information on the additional superimposed image corresponding to the region. Then, image clipping is performed from both the electronic document image and the superimposed image, and image thickening processing is performed on the image clipped from the electronic document image. This image cut-out and thickening process corresponds to step S501 in FIG.
[0121]
Next, in the difference processing unit 1502, the small region of the superimposed image extracted by the image thickening processing unit 1501 and the small region of the electronic document image extracted by the image thickening processing unit 1501 are illustrated in FIG. The difference processing in step S502 is executed, and the processing result is output to the image interpolation unit 904 in FIG.
[0122]
The image interpolation unit 904 in FIG. 9 performs the image interpolation process in step S107 in FIG. 1 on the difference image input from the image difference unit 903, and outputs the processing result to the image composition unit 905.
[0123]
FIG. 16 shows a configuration example of an image interpolator in an embodiment of a retouching extraction apparatus and a retouching extraction method according to the present invention.
[0124]
In FIG. 16, an image interpolator 1600 is an example of the image interpolation unit 904 in FIG. 9, and includes an outline extraction unit 1601, an end point detection unit 1602, an end point connection unit 1603, an image coloring unit 1604, and a region synthesis. Part 1605.
[0125]
The contour extraction unit 1601 performs the contour emphasis processing in step S601 in FIG. 6 on the image after the difference processing input from the image difference unit 903 in FIG. 9 to create a difference contour image.
[0126]
Next, the end point detection unit 1602 performs the difference process in step S602 in FIG. 6 between the difference contour image created by the contour extraction unit 1601 and the electronic document image, creates an end point image, and coordinates of the end points in the image To extract. This corresponds to step S603 in FIG.
[0127]
Next, in the end point connection unit 1603, the end point connection in step S604 in FIG. 6 is performed on the end points on the extension of the line segment based on the end point image and end point information created in the end point detection unit 1602, and the estimated contour image Create
[0128]
Next, the image coloring unit 1604 performs the coloring process in step S606 of FIG. 6 on the inside of the estimated contour image.
[0129]
Finally, the region composition unit 1605 performs a pasting process on the image stored as the paste destination image by the region division unit 902 in FIG. 9 and outputs the image to the image composition unit 905.
[0130]
9, based on the extracted area information input from the area extracting unit 901, the image after the image interpolation process input from the image interpolating unit 904, that is, the retouched image in step S111 in FIG. Processing is performed on a blank image, and as a result, a single retouched image is completed.
[0131]
【The invention's effect】
  According to the invention described in claim 1, the retouching extraction device is,Improved accuracy of retouching extractionIn addition, the calculation efficiency is improved.
[0132]
  According to the invention of claim 2, the retouching extraction device isThe accuracy of retouching extraction is improved, and the calculation efficiency is improved.
[0133]
  According to invention of Claim 3, a retouching extraction apparatus isThe retouching extraction apparatus according to claim 1 or 2, wherein the retouching extraction accuracy is improved.
[0134]
  According to invention of Claim 4, a retouching extraction apparatus isThe retouching extraction apparatus according to claim 1 or 2, wherein the retouching extraction accuracy is improved.
[0135]
  According to the invention of claim 5, the retouching extraction device is:In the retouching extraction apparatus according to claim 1 or 2, it is possible to prevent a leftover due to a deterioration in image quality of a retouched superimposed image, and the accuracy of rewriting extraction is improved.
[0136]
  According to the invention described in claim 6, the retouching extraction device comprises:In the retouching extraction apparatus according to claim 1 or 2, it is possible to prevent a leftover due to a deterioration in image quality of a retouched superimposed image, and the accuracy of rewriting extraction is improved.
[0137]
  According to the seventh aspect of the present invention, the retouching extraction device comprises:In the retouching extraction device according to claim 5 or 6, interpolation after overremoving of retouching components is possible, and accuracy of retouching extraction is improved.
[0138]
  According to the invention described in claim 8, the retouching extraction method is,Improved accuracy of retouching extractionIn addition, the calculation efficiency is improved.
[0139]
  According to the invention of claim 9, the retouching extraction method is:,Improved accuracy of retouching extractionIn addition, the calculation efficiency is improved.
[0140]
  According to the invention described in claim 10, the retouching extraction method comprises:In the retouching extraction method according to 8 or 9, the retouching extraction accuracy is improved.
[0141]
  According to the invention described in claim 11, the retouching extraction method comprises:In the retouching extraction method according to 8 or 9, the retouching extraction accuracy is improved.
[0142]
  According to the invention described in claim 12, the retouching extraction method comprises:In the retouching extraction method according to 8 or 9, it is possible to prevent a leftover due to a deterioration in image quality of the retouched superimposed image, and the accuracy of rewriting extraction is improved.
[0143]
  According to the invention as set forth in claim 13, the retouching extraction method comprises:In the retouching extraction method according to 8 or 9, it is possible to prevent a leftover due to a deterioration in image quality of the retouched superimposed image, and the accuracy of rewriting extraction is improved.
[0144]
  According to the invention of claim 14, the rewriting extraction method is:In the retouching extraction method according to claim 12 or 13, interpolation after overremoving of retouching components is possible, and accuracy of retouching extraction is improved.
[Brief description of the drawings]
FIG. 1 is a flowchart of retouching extraction in an embodiment of a retouching extraction apparatus and a retouching extraction method according to the present invention.
FIG. 2 is a flowchart of an area dividing step in an embodiment of a retouching extraction apparatus and a retouching extraction method according to the present invention.
FIG. 3 is a flowchart of an area dividing step in another embodiment of the retouching extraction apparatus and retouching extraction method according to the present invention.
FIG. 4 is a flowchart of an image thickening difference in an embodiment of a retouching extraction apparatus and a retouching extraction method according to the present invention.
FIG. 5 is a flowchart of an image thickening difference in another embodiment of the retouching extraction apparatus and retouching extraction method according to the present invention.
FIG. 6 is a flowchart of an image interpolation step in an embodiment of a retouching extraction apparatus and a retouching extraction method according to the present invention.
FIG. 7 is an explanatory diagram of region extraction / region division in an embodiment of a retouching extraction apparatus and a retouching extraction method according to the present invention.
FIG. 8 is an explanatory diagram of image differences and the like in an embodiment of a retouching extraction apparatus and a retouching extraction method according to the present invention.
FIG. 9 is a configuration example of a retouching extractor in an embodiment of a retouching extraction apparatus and a retouching extraction method according to the present invention.
FIG. 10 is a configuration example of a region divider in one embodiment of a retouching extraction apparatus and a retouching extraction method according to the present invention.
FIG. 11 is a configuration example of a region divider in another embodiment of the retouching extraction apparatus and retouching extraction method according to the present invention.
FIG. 12 is a configuration example of a position detector in an embodiment of a retouching extraction apparatus and a retouching extraction method according to the present invention.
FIG. 13 is a configuration example of a position detector in another embodiment of the retouching extraction apparatus and retouching extraction method according to the present invention.
FIG. 14 is a configuration example of an image differentiator in an embodiment of a retouching extraction apparatus and a retouching extraction method according to the present invention.
FIG. 15 is a configuration example of an image differentiator in another embodiment of a retouching extraction apparatus and a retouching extraction method according to the present invention.
FIG. 16 is a configuration example of an image interpolator in an embodiment of a retouching extraction apparatus and a retouching extraction method according to the present invention.
[Explanation of symbols]
900 Retouching extractor
901 Region extraction unit
902 Region division unit
903 Image difference unit
904 Image interpolation unit
905 Image composition unit
1000, 1100 region divider
1001, 1101 Character recognition unit
1002, 1102 Position detection unit
1003 Recognition result comparison part
1103 Pixel counting unit
1200, 1300 Position detector
1201 Correlation calculator
1202 Maximum correlation detector
1301, 1402, 1502 Difference processing unit
1302 Minimum remaining black pixel detection unit
1400, 1500 Image differentiator
1401 Pixel shift processing unit
1501 Image thickening processing unit
1600 Image interpolator
1601 Outline extraction unit
1602 Endpoint detection unit
1603 End point connection
1604 Image coloring section
1605 area synthesis unit

Claims (14)

電子文書の原稿画像と前記電子文書を紙へ出力した後に手書きの加筆が重畳した状態で画像読取装置で再び電子化された画像との与えられた領域に文字認識処理を行い、該領域内における一文字毎の文字画像の認識結果と該認識結果における前記文字の確信度と前記文字の領域情報とを出力する文字認識手段と、
前記文字認識手段から得られた文字画像の領域情報から該文字画像に対応する加筆重畳画像内での領域を検出する位置検出手段と、
前記位置検出手段によって検出された該文字画像の加筆重畳画像内での領域に対する文字認識結果および認識結果文字の確信度と、前記文字認識手段によって得られる認識結果および認識結果文字の確信度とを比較することで加筆抽出操作の必要性の有無を判定する認識結果比較手段と、
前記認識結果比較手段によって差分計算が必要と判定された前記文字画像の領域に対して差分計算を行う画像差分手段と、
前記画像差分手段によって差分処理された画像に対して補間処理を行う画像補間手段と、
を有することを特徴とする加筆抽出装置。
Character recognition processing is performed on the given area of the original image of the electronic document and the image digitized again by the image reading device in a state in which the electronic document is output to paper and then the handwritten writing is superimposed . A character recognition means for outputting a recognition result of each character image, a certainty factor of the character in the recognition result, and region information of the character;
Position detecting means for detecting a region in the superimposed image corresponding to the character image from the region information of the character image obtained from the character recognition unit;
The character recognition result and the recognition result character confidence level for the region in the retouched superimposed image of the character image detected by the position detection unit, and the recognition result obtained by the character recognition unit and the confidence level of the recognition result character. A recognition result comparison means for determining whether or not there is a need for an additional extraction operation by comparing;
Image difference means for performing difference calculation on the region of the character image determined to require difference calculation by the recognition result comparison means ;
Image interpolation means for performing interpolation processing on an image subjected to difference processing by the image difference means;
A retouching extraction device characterized by comprising:
電子文書の原稿画像と前記電子文書を紙へ出力した後に手書きの加筆が重畳した状態で画像読取装置で再び電子化された画像との与えられた領域に文字認識処理を行い領域内における一文字毎の文字画像の領域情報を出力する文字認識手段と、Character recognition processing is performed on the given area of the original image of the electronic document and the image digitized again by the image reading device in a state where the electronic document is output to paper and then the handwritten writing is superimposed. Character recognition means for outputting region information of the character image of
前記文字認識手段から得られた文字画像の領域情報から該文字画像に対応する加筆重畳画像内での領域を検出する位置検出手段と、  Position detecting means for detecting a region in the superimposed image corresponding to the character image from the region information of the character image obtained from the character recognition unit;
前記位置検出手段によって検出された該文字画像の加筆重畳画像内での領域内における黒画素の総和と電子原稿画像内での文字画像の黒画素の総和を計数し比較することで加筆抽出操作の必要性の有無を判定する画素計数手段と、  The sum of the black pixels in the region in the retouched superimposed image of the character image detected by the position detecting means and the sum of the black pixels of the character image in the electronic original image are counted and compared to perform the retouching extraction operation. Pixel counting means for determining the necessity or not,
前記画素計数手段によって差分計算が必要と判定された前記文字画像の領域に対して差分計算を行う画像差分手段と、  Image difference means for performing difference calculation on the area of the character image determined to require difference calculation by the pixel counting means;
前記画像差分手段によって差分処理された画像に対して補間処理を行う画像補間手段と、  Image interpolation means for performing interpolation processing on an image subjected to difference processing by the image difference means;
を有することを特徴とする加筆抽出装置。  A retouching extraction device characterized by comprising:
前記位置検出手段は、The position detecting means includes
電子原稿画像の領域と加筆重畳画像の画像相関関数を計算し相関関数が最大値に達する2枚の画像の位置関係を検出結果とする相関位置検出手段、を有することを特徴とする請求項1又は2記載の加筆抽出装置。  2. Correlated position detecting means for calculating an image correlation function between an area of an electronic original image and a retouched superimposed image and detecting a positional relationship between two images where the correlation function reaches a maximum value. Or the rewriting extraction apparatus of 2 description.
前記位置検出手段は、The position detecting means includes
電子原稿画像の領域と加筆重畳画像の差分後の黒画素の総和を計算し該総和値が最小値に達する2枚の画像の位置関係を検出結果とする差分位置検出手段、  Differential position detection means for calculating the sum of black pixels after the difference between the area of the electronic original image and the retouched superimposed image and detecting the positional relationship between the two images where the sum reaches the minimum value;
を有することを特徴とする請求項1又は2記載の加筆抽出装置。  The retouching extraction apparatus according to claim 1 or 2, characterized by comprising:
前記画像差分手段は、The image difference means includes
電子原稿画像と加筆重畳画像の両者の対応する位置からわずかにずらす画素ずらし処理手段と、  Pixel shift processing means for slightly shifting from the corresponding positions of both the electronic original image and the retouched superimposed image;
前記画素ずらし処理手段によりわずかにずらされた2枚の画像間での差分処理を行う差分処理手段と、  Difference processing means for performing difference processing between two images slightly shifted by the pixel shift processing means;
を有することを特徴とする請求項1又は2記載の加筆抽出装置。  The retouching extraction apparatus according to claim 1 or 2, characterized by comprising:
前記画像差分手段は、The image difference means includes
電子原稿画像を太化する画像太化処理手段と、  Image thickening processing means for thickening an electronic original image;
前記画像太化処理手段により太化された電子原稿画像と加筆重畳画像間での差分処理を行う差分処理手段と、  Difference processing means for performing difference processing between the electronic original image thickened by the image thickening processing means and the retouched superimposed image;
を有することを特徴とする請求項1又は2記載の加筆抽出装置。  The retouching extraction apparatus according to claim 1, wherein
前記画像補間手段は、The image interpolation means includes
前記差分処理後の画像の輪郭画像を作成する輪郭抽出手段と、  Contour extracting means for creating a contour image of the image after the difference processing;
前記輪郭抽出手段によって作成された輪郭画像から前記画素ずらし処理又は前記画像太化処理された電子原稿画像を差分することで補間すべき端点の座標と補間方向を検出する端点検出手段と、  Endpoint detection means for detecting the coordinates and interpolation direction of the endpoint to be interpolated by subtracting the pixel shifting process or the image thickening electronic document image from the outline image created by the outline extraction means;
前記端点検出手段によって検出された端点の情報から端点同士を接続し閉曲線を構成する端点接続手段と、  An end point connecting means for connecting the end points from the end point information detected by the end point detecting means to form a closed curve;
前記端点接続手段によって作成された閉曲線の内部を着色する画像着色手段と、  Image coloring means for coloring the inside of the closed curve created by the end point connecting means;
を有することを特徴とする請求項5又は6記載の加筆抽出装置。  The retouching extraction apparatus according to claim 5 or 6, characterized by comprising:
電子文書の原稿画像と前記電子文書を紙へ出力した後に手書きの加筆が重畳した状態で画像読取装置で再び電子化された画像との与えられた領域に文字認識処理を行い該領域内における一文字毎の文字画像の認識結果と該認識結果における前記文字の確信度と前記文字の領域情報とを出力する文字認識ステップと、Character recognition processing is performed on a given area between an original image of an electronic document and an image digitized again by the image reading apparatus in a state where handwritten writing is superimposed after the electronic document is output to paper, and one character in the area A character recognition step of outputting a recognition result of each character image, a certainty factor of the character in the recognition result, and region information of the character;
前記文字認識ステップから得られた文字画像の領域情報から該文字画像に対応する加筆重畳画像内での領域を検出する位置検出ステップと、  A position detection step of detecting a region in the superimposed image corresponding to the character image from the region information of the character image obtained from the character recognition step;
前期位置検出ステップによって検出された該文字画像の加筆重畳画像内での領域に対する文字認識結果および認識結果文字の確信度と、前記文字認識ステップによって得られる認識結果および認識結果文字の確信度とを比較することで加筆抽出操作の必要性の有無を判定する認識結果比較ステップと、  Character recognition result and recognition result character confidence level for the region in the superimposed image of the character image detected by the previous position detection step, recognition result obtained by the character recognition step and recognition result character confidence level A recognition result comparison step for determining whether or not there is a need for an additional extraction operation by comparing; and
前記認識結果比較ステップによって差分計算が必要と判定された前記小領域に対して差分計算を行う画像差分ステップと、  An image difference step for performing a difference calculation on the small area determined to require a difference calculation by the recognition result comparison step;
前記画像差分ステップによって差分処理された画像に対して補間処理を行う画像補間ステップと、  An image interpolation step for performing an interpolation process on the image subjected to the difference process by the image difference step;
を有することを特徴とする加筆抽出方法。  A retouching extraction method characterized by comprising:
電子文書の原稿画像と前記電子文書を紙へ出力した後に手書きの加筆が重畳した状態で画像読取装置で再び電子化された画像との与えられた領域に文字認識処理を行い領域内における一文字毎の文字画像の領域情報を出力する文字認識ステップと、Character recognition processing is performed on the given area of the original image of the electronic document and the image digitized again by the image reading device in a state where the handwritten writing is superimposed after the electronic document is output to paper, and for each character in the area A character recognition step for outputting region information of the character image of
前記文字認識ステップから得られた文字画像の領域情報から該文字画像に対応する加筆重畳画像内での領域を検出する位置検出ステップと、  A position detection step of detecting a region in the superimposed image corresponding to the character image from the region information of the character image obtained from the character recognition step;
前期位置検出ステップによって検出された該文字画像の加筆重畳画像内での領域内における黒画素の総和と電子原稿画像内での文字画像の黒画素の総和を計数し比較することで加筆抽出操作の必要性の有無を判定する画素計数ステップと、  By counting and comparing the sum of black pixels in the region in the retouched superimposed image of the character image detected by the previous position detection step and the sum of black pixels in the character image in the electronic original image, A pixel counting step for determining the necessity or not,
前記画素計数ステップによって差分計算が必要と判定された前記小領域に対して差分計算を行う画像差分ステップと、  An image difference step for performing a difference calculation on the small area determined to require a difference calculation by the pixel counting step;
前記画像差分ステップによって差分処理された画像に対して補間処理を行う画像補間ステップと、  An image interpolation step for performing an interpolation process on the image subjected to the difference process by the image difference step;
を有することを特徴とする加筆抽出方法。  A retouching extraction method characterized by comprising:
前記位置検出ステップは、The position detecting step includes
電子原稿画像の領域と加筆重畳画像の画像相関関数を計算し相関関数が最大値に達する2枚の画像の位置関係を検出結果とする相関位置検出ステップ、  A correlation position detection step of calculating an image correlation function between the area of the electronic original image and the retouched superimposed image and detecting a positional relationship between the two images where the correlation function reaches a maximum value;
を有することを特徴とする請求項8又は9記載の加筆抽出方法。  The retouched extraction method according to claim 8 or 9, characterized by comprising:
前記位置検出ステップは、The position detecting step includes
電子原稿画像の領域と加筆重畳画像の差分後の黒画素の総和を計算し該総和値が最小値に達する2枚の画像の位置関係を検出結果とする差分位置検出ステップ、  A difference position detection step of calculating a sum of black pixels after the difference between the area of the electronic original image and the retouched superimposed image and detecting a positional relationship between the two images where the sum value reaches a minimum value;
を有することを特徴とする請求項8又は9記載の加筆抽出方法。  The retouched extraction method according to claim 8 or 9, characterized by comprising:
前記画像差分ステップは、The image difference step includes
電子原稿画像と加筆重畳画像の両者の対応する位置からわずかにずらす画素ずらし処理ステップと、  A pixel shifting process step for slightly shifting from the corresponding positions of both the electronic original image and the retouched superimposed image;
前記画素ずらし処理ステップによりわずかにずらされた2枚の画像間での差分処理を行う差分処理ステップと、  A difference processing step for performing a difference process between the two images slightly shifted by the pixel shift processing step;
を有することを特徴とする請求項8又は9記載の加筆抽出方法。  The retouched extraction method according to claim 8 or 9, characterized by comprising:
前記画像差分ステップは、The image difference step includes
電子原稿画像を太化する画像太化処理ステップと、  An image thickening process step for thickening the electronic original image;
前記画像太化処理ステップにより太化された電子原稿画像と加筆重畳画像間での差分処理を行う差分処理ステップと、  A difference processing step for performing a difference process between the electronic original image thickened by the image thickening processing step and the retouched superimposed image;
を有することを特徴とする請求項8又は9記載の加筆抽出方法。  The retouched extraction method according to claim 8 or 9, characterized by comprising:
前記画像補間ステップは、The image interpolation step includes:
前記差分処理後の画像の輪郭画像を作成する輪郭抽出ステップと、  A contour extraction step of creating a contour image of the image after the difference processing;
前記輪郭抽出ステップによって作成された輪郭画像から前記画素ずらし処理又は前記画像太化処理された電子原稿画像を差分することで補間すべき端点の座標と補間方向を検出する端点検出ステップと、  An end point detection step for detecting the coordinates of the end points to be interpolated and the interpolation direction by subtracting the electronic document image subjected to the pixel shifting process or the image thickening process from the contour image created by the contour extraction step;
前記端点検出ステップによって検出された端点の情報から端点同士を接続し閉曲線を構成する端点接続ステップと、  An end point connecting step of connecting end points from the end point information detected by the end point detecting step to form a closed curve;
前記端点接続ステップによって作成された閉曲線の内部を着色する画像着色ステップと、  An image coloring step for coloring the inside of the closed curve created by the end point connecting step;
を有することを特徴とする請求項12又は13記載の加筆抽出方法。  14. The method for extracting and rewriting additional writing according to claim 12 or 13, wherein:
JP2002380609A 2002-12-27 2002-12-27 Retouching extraction device and retouching extraction method Expired - Fee Related JP4120795B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002380609A JP4120795B2 (en) 2002-12-27 2002-12-27 Retouching extraction device and retouching extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002380609A JP4120795B2 (en) 2002-12-27 2002-12-27 Retouching extraction device and retouching extraction method

Publications (3)

Publication Number Publication Date
JP2004213230A JP2004213230A (en) 2004-07-29
JP2004213230A5 JP2004213230A5 (en) 2006-02-23
JP4120795B2 true JP4120795B2 (en) 2008-07-16

Family

ID=32816776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002380609A Expired - Fee Related JP4120795B2 (en) 2002-12-27 2002-12-27 Retouching extraction device and retouching extraction method

Country Status (1)

Country Link
JP (1) JP4120795B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350680A (en) 2005-06-16 2006-12-28 Fuji Xerox Co Ltd Image processing apparatus, image processing method, and computer program
JP4631696B2 (en) * 2005-12-20 2011-02-16 富士ゼロックス株式会社 Image processing apparatus, image processing method, and computer program
JP4784299B2 (en) * 2005-12-22 2011-10-05 富士ゼロックス株式会社 Image processing apparatus, image processing method, and computer program
JP2007233671A (en) 2006-03-01 2007-09-13 Fuji Xerox Co Ltd Image processing apparatus, image processing method and image processing program
JP4539756B2 (en) 2008-04-14 2010-09-08 富士ゼロックス株式会社 Image processing apparatus and image processing program
JP5200786B2 (en) * 2008-09-09 2013-06-05 富士ゼロックス株式会社 Difference extraction apparatus and difference extraction program
JP4760883B2 (en) * 2008-09-25 2011-08-31 富士ゼロックス株式会社 Image processing apparatus and image processing program
JP5387193B2 (en) 2009-07-16 2014-01-15 富士ゼロックス株式会社 Image processing system, image processing apparatus, and program
JP5035443B2 (en) * 2011-04-06 2012-09-26 富士ゼロックス株式会社 Image processing apparatus, image processing method, and computer program
KR102574900B1 (en) * 2016-01-20 2023-09-06 엘지전자 주식회사 Mobile terminal and the control method thereof

Also Published As

Publication number Publication date
JP2004213230A (en) 2004-07-29

Similar Documents

Publication Publication Date Title
US6813381B2 (en) Method and apparatus for identification of documents, and computer product
US8457403B2 (en) Method of detecting and correcting digital images of books in the book spine area
CN109543501B (en) Image processing apparatus, image processing method, and storage medium
JP3727971B2 (en) Document processing apparatus and document processing method
JP5387193B2 (en) Image processing system, image processing apparatus, and program
JP4630777B2 (en) Method, apparatus, computer program and storage medium for changing digital document
JP4120795B2 (en) Retouching extraction device and retouching extraction method
JP2761467B2 (en) Image segmentation device and character recognition device
JP4275973B2 (en) Retouched image extraction apparatus, program, storage medium, and retouched image extraction method
JP6413542B2 (en) Image processing apparatus and image processing program
JP4760883B2 (en) Image processing apparatus and image processing program
JP5200786B2 (en) Difference extraction apparatus and difference extraction program
US6862370B2 (en) Image detecting method, image detecting system, program, and recording medium for image detection
JPH1091783A (en) Method for positioning picture and device for recognizing facsimile character and computer storage medium
JP5821994B2 (en) Image processing apparatus, image forming apparatus, and program
US20020164087A1 (en) System and method for fast rotation of binary images using block matching method
JP2005182098A (en) Device and method for generating and displaying composite image
JP5923981B2 (en) Image processing apparatus and image processing program
JP2017134598A (en) Image retrieval device, image retrieval method, and program
JP3625245B2 (en) Image processing method and image processing apparatus
JP3986059B2 (en) Image correction apparatus, program, storage medium, and detection method of boundary point between straight line portion and curved portion of page outline
JP2014021510A (en) Information processor and information processing method, and, program
JP2001236464A (en) Method and device for character extraction and storage medium
JP3663659B2 (en) Image processing method and image processing apparatus
JP4136913B2 (en) Form recognition device and form recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080415

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110509

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120509

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120509

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130509

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130509

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees