JP4803001B2 - 画像処理装置及び画像処理プログラム - Google Patents

画像処理装置及び画像処理プログラム Download PDF

Info

Publication number
JP4803001B2
JP4803001B2 JP2006318985A JP2006318985A JP4803001B2 JP 4803001 B2 JP4803001 B2 JP 4803001B2 JP 2006318985 A JP2006318985 A JP 2006318985A JP 2006318985 A JP2006318985 A JP 2006318985A JP 4803001 B2 JP4803001 B2 JP 4803001B2
Authority
JP
Japan
Prior art keywords
image
document
feature
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006318985A
Other languages
English (en)
Other versions
JP2008135857A (ja
Inventor
英昭 足利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2006318985A priority Critical patent/JP4803001B2/ja
Publication of JP2008135857A publication Critical patent/JP2008135857A/ja
Application granted granted Critical
Publication of JP4803001B2 publication Critical patent/JP4803001B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)

Description

本発明は、画像処理装置及び画像処理プログラムに関する。
従来、帳票等の予め定められた原稿に対する追記箇所を特定するための技術として、特許文献1及び特許文献2には、追記前画像と追記後画像の位置合わせを行った後、追記前画像データと追記後画像データの単色化・二値化を行い、これによって得られた追記前画像データと追記後画像データとの間で所定演算を行うことにより追記箇所を抽出する技術が開示されている。
また、特許文献3には、追記前後の画像を所定個数に分割し、各分割領域毎に画像の位置合わせを行った後、追記前画像を膨張させて、追記前画像データと追記後画像データの各画素単位で排他的論理和を算出することにより追記箇所を抽出する技術が開示されている。
更に、特許文献4には、追記前文書の画像と追記後文書の画像とを取得し、両画像の位置合わせを行い、両画像を格子状の小領域に分割して各分割領域毎に黒字率、画像濃度の総和、及び色毎の濃度の総和を比較し、これによって追記がある分割領域を特定して、当該追記がある分割領域毎に両画像の再位置合わせ(微調整)を行い、当該微調整後の分割領域において、追記後画像から追記前画像を差し引くことにより追記画像を抽出する技術が開示されている。
特開2004−80601号公報 特開2004−240598号公報 特開2004−341914号公報 特開2004−213230号公報
本発明は、以上のような技術背景においてなされたものであり、原稿の修正が行われた領域の画像を高速に検出することのできる画像処理装置及び画像処理プログラムを提供することを目的とする。
上記目的を達成するために、請求項1に記載の画像処理装置は、修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得手段と、2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における黒又は白の連結画像の領域である特徴領域を抽出する抽出手段と、2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から当該特徴領域の位置を示す位置情報を導出すると共に、当該特徴領域の大きさ、画素数、および筆跡長の少なくとも1つの特徴量を導出する導出手段と、前記位置情報によって示される、前記第1原稿の画像から抽出された特徴領域の位置と前記第2原稿の画像から抽出された特徴領域の位置との間の距離が所定距離以内である特徴領域を対象として、前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定手段と、前記抽出手段によって前記第1原稿の画像から抽出された特徴領域で、かつ前記特定手段によって特定された特徴領域に含まれない特徴領域である第1特徴領域、及び前記抽出手段によって前記第2原稿の画像から抽出された特徴領域で、かつ前記特定手段によって特定された特徴領域に含まれない特徴領域である第2特徴領域を前記修正が行われた領域である修正領域として選択する選択手段と、前記第1特徴領域及び前記第2特徴領域に基づいて、前記第1特徴領域と前記第2特徴領域とで互いに重なる領域を重なり領域として、前記第1特徴領域における重なり領域内の画像の黒画素数が前記第2特徴領域における重なり領域内の画像の黒画素数に比較して少ない場合に、当該重なり領域が前記第1原稿に予め存在した画像に対して重ねて追記された重なりあり追記領域であると判断する判断手段と、前記判断手段によって前記重なりあり追記領域であると判断された領域を対象として前記第2画像情報から前記第1画像情報の減算を画素毎に行うことにより前記追記された画像を検出する検出手段と、を備えている。
また、上記目的を達成するために、請求項2に記載の画像処理装置は、修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得手段と、2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における黒又は白の連結画像の領域である特徴領域を抽出する抽出手段と、2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から当該特徴領域の位置を示す位置情報を導出すると共に、当該特徴領域の大きさ、画素数、および筆跡長の少なくとも1つの特徴量を導出する導出手段と、前記位置情報によって示される、前記第1原稿の画像から抽出された特徴領域の位置と前記第2原稿の画像から抽出された特徴領域の位置との間の距離が所定距離以内である特徴領域を対象として、前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定手段と、前記抽出手段によって前記第1原稿の画像から抽出された特徴領域で、かつ前記特定手段によって特定された特徴領域に含まれない特徴領域である第1特徴領域、及び前記抽出手段によって前記第2原稿の画像から抽出された特徴領域で、かつ前記特定手段によって特定された特徴領域に含まれない特徴領域である第2特徴領域を前記修正が行われた領域である修正領域として選択する選択手段と、前記第1特徴領域及び前記第2特徴領域に基づいて、前記第1特徴領域と前記第2特徴領域とで互いに重なる領域を重なり領域として、前記第1特徴領域における重なり領域内の画像の黒画素数が前記第2特徴領域における重なり領域内の画像の黒画素数に比較して多い場合に、当該重なり領域が前記第1原稿に予め存在した画像の一部が消去された一部消去領域であると判断する判断手段と、前記判断手段によって前記一部消去領域であると判断された領域を対象として前記第1画像情報から前記第2画像情報の減算を画素毎に行うことにより前記一部が消去された画像を検出する検出手段と、を備えている
また、上記目的を達成するために、請求項3に記載の画像処理装置は、修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得手段と、2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における黒又は白の連結画像の領域である特徴領域を抽出する抽出手段と、2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から当該特徴領域の位置を示す位置情報を導出すると共に、当該特徴領域の大きさ、画素数、および筆跡長の少なくとも1つの特徴量を導出する導出手段と、前記位置情報によって示される、前記第1原稿の画像から抽出された特徴領域の位置と前記第2原稿の画像から抽出された特徴領域の位置との間の距離が所定距離以内である特徴領域を対象として、前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定手段と、前記抽出手段によって前記第1原稿の画像から抽出された特徴領域で、かつ前記特定手段によって特定された特徴領域に含まれない特徴領域である第1特徴領域、及び前記抽出手段によって前記第2原稿の画像から抽出された特徴領域で、かつ前記特定手段によって特定された特徴領域に含まれない特徴領域である第2特徴領域を前記修正が行われた領域である修正領域として選択する選択手段と、前記第1特徴領域及び前記第2特徴領域に基づいて、前記第1特徴領域に含まれ、かつ互いに重なる領域が前記第2特徴領域に存在しない領域を、前記第1原稿に予め存在した画像が消去された消去領域であると判断する判断手段と、前記判断手段によって前記消去領域であると判断された領域内の情報を前記第1画像情報から抽出することにより前記消去された画像を検出する検出手段と、を備えている
また、上記目的を達成するために、請求項4に記載の画像処理装置は、修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得手段と、2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における黒又は白の連結画像の領域である特徴領域を抽出する抽出手段と、2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から当該特徴領域の位置を示す位置情報を導出すると共に、当該特徴領域の大きさ、画素数、および筆跡長の少なくとも1つの特徴量を導出する導出手段と、前記位置情報によって示される、前記第1原稿の画像から抽出された特徴領域の位置と前記第2原稿の画像から抽出された特徴領域の位置との間の距離が所定距離以内である特徴領域を対象として、前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定手段と、前記抽出手段によって前記第1原稿の画像から抽出された特徴領域で、かつ前記特定手段によって特定された特徴領域に含まれない特徴領域である第1特徴領域、及び前記抽出手段によって前記第2原稿の画像から抽出された特徴領域で、かつ前記特定手段によって特定された特徴領域に含まれない特徴領域である第2特徴領域を前記修正が行われた領域である修正領域として選択する選択手段と、前記第1特徴領域及び前記第2特徴領域に基づいて、前記第2特徴領域に含まれ、かつ互いに重なる領域が前記第1特徴領域に存在しない領域を、前記第1原稿において画像が存在せず、かつ追記された重なりなし追記領域であると判断する判断手段と、前記判断手段によって前記重なりなし追記領域であると判断された領域内の情報を前記第2画像情報から抽出することにより前記追記された画像を検出する検出手段と、を備えている
また、請求項5に記載の発明は、請求項1乃至請求項4の何れか1項記載の発明において、前記第1特徴領域と前記第2特徴領域とで互いに重なる領域のみを対象として前記第1画像情報及び前記第2画像情報の少なくとも一方に対して画像の位置合わせ処理を実行する位置合わせ手段を更に備えたものである。
また、請求項6に記載の発明は、請求項5に記載の発明において、前記位置合わせ手段による位置合わせ処理に先立ち、前記第1画像情報及び前記第2画像情報の少なくとも一方に対して前記第1原稿の画像と前記第2原稿の画像の画像全体における位置合わせ処理を実行する事前位置合わせ手段を更に備えたものである。
更に、請求項7に記載の発明は、請求項6に記載の発明において、前記第1原稿の画像と前記第2原稿の画像における対応する前記特徴領域のずれ量に基づいて補正係数を算出する算出手段を更に備え、前記事前位置合わせ手段が、前記位置合わせ処理として前記補正係数を用いた前記第1画像情報及び前記第2画像情報の少なくとも一方に対する補正処理を実行するものである。
一方、上記目的を達成するために、請求項8に記載の画像処理プログラムは、修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得ステップと、2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における黒又は白の連結画像の領域である特徴領域を抽出する抽出ステップと、2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から当該特徴領域の位置を示す位置情報を導出すると共に、当該特徴領域の大きさ、画素数、および筆跡長の少なくとも1つの特徴量を導出する導出ステップと、前記位置情報によって示される、前記第1原稿の画像から抽出された特徴領域の位置と前記第2原稿の画像から抽出された特徴領域の位置との間の距離が所定距離以内である特徴領域を対象として、前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定ステップと、前記抽出ステップによって前記第1原稿の画像から抽出された特徴領域で、かつ前記特定ステップによって特定された特徴領域に含まれない特徴領域である第1特徴領域、及び前記抽出ステップによって前記第2原稿の画像から抽出された特徴領域で、かつ前記特定ステップによって特定された特徴領域に含まれない特徴領域である第2特徴領域を前記修正が行われた領域である修正領域として選択する選択ステップと、前記第1特徴領域及び前記第2特徴領域に基づいて、前記第1特徴領域と前記第2特徴領域とで互いに重なる領域を重なり領域として、前記第1特徴領域における重なり領域内の画像の黒画素数が前記第2特徴領域における重なり領域内の画像の黒画素数に比較して少ない場合に、当該重なり領域が前記第1原稿に予め存在した画像に対して重ねて追記された重なりあり追記領域であると判断する判断ステップと、前記判断ステップによって前記重なりあり追記領域であると判断された領域を対象として前記第2画像情報から前記第1画像情報の減算を画素毎に行うことにより前記追記された画像を検出する検出ステップと、をコンピュータに実行させるものである。
また、上記目的を達成するために、請求項9に記載の画像処理プログラムは、修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得ステップと、2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における黒又は白の連結画像の領域である特徴領域を抽出する抽出ステップと、2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から当該特徴領域の位置を示す位置情報を導出すると共に、当該特徴領域の大きさ、画素数、および筆跡長の少なくとも1つの特徴量を導出する導出ステップと、前記位置情報によって示される、前記第1原稿の画像から抽出された特徴領域の位置と前記第2原稿の画像から抽出された特徴領域の位置との間の距離が所定距離以内である特徴領域を対象として、前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定ステップと、前記抽出ステップによって前記第1原稿の画像から抽出された特徴領域で、かつ前記特定ステップによって特定された特徴領域に含まれない特徴領域である第1特徴領域、及び前記抽出ステップによって前記第2原稿の画像から抽出された特徴領域で、かつ前記特定ステップによって特定された特徴領域に含まれない特徴領域である第2特徴領域を前記修正が行われた領域である修正領域として選択する選択ステップと、前記第1特徴領域及び前記第2特徴領域に基づいて、前記第1特徴領域と前記第2特徴領域とで互いに重なる領域を重なり領域として、前記第1特徴領域における重なり領域内の画像の黒画素数が前記第2特徴領域における重なり領域内の画像の黒画素数に比較して多い場合に、当該重なり領域が前記第1原稿に予め存在した画像の一部が消去された一部消去領域であると判断する判断ステップと、前記判断ステップによって前記一部消去領域であると判断された領域を対象として前記第1画像情報から前記第2画像情報の減算を画素毎に行うことにより前記一部が消去された画像を検出する検出ステップと、をコンピュータに実行させるものである。
また、上記目的を達成するために、請求項10に記載の画像処理プログラムは、修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得ステップと、2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における黒又は白の連結画像の領域である特徴領域を抽出する抽出ステップと、2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から当該特徴領域の位置を示す位置情報を導出すると共に、当該特徴領域の大きさ、画素数、および筆跡長の少なくとも1つの特徴量を導出する導出ステップと、前記位置情報によって示される、前記第1原稿の画像から抽出された特徴領域の位置と前記第2原稿の画像から抽出された特徴領域の位置との間の距離が所定距離以内である特徴領域を対象として、前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定ステップと、前記抽出ステップによって前記第1原稿の画像から抽出された特徴領域で、かつ前記特定ステップによって特定された特徴領域に含まれない特徴領域である第1特徴領域、及び前記抽出ステップによって前記第2原稿の画像から抽出された特徴領域で、かつ前記特定ステップによって特定された特徴領域に含まれない特徴領域である第2特徴領域を前記修正が行われた領域である修正領域として選択する選択ステップと、前記第1特徴領域及び前記第2特徴領域に基づいて、前記第1特徴領域に含まれ、かつ互いに重なる領域が前記第2特徴領域に存在しない領域を、前記第1原稿に予め存在した画像が消去された消去領域であると判断する判断ステップと、前記判断ステップによって前記消去領域であると判断された領域内の情報を前記第1画像情報から抽出することにより前記消去された画像を検出する検出ステップと、をコンピュータに実行させるものである。
さらに、上記目的を達成するために、請求項11に記載の画像処理プログラムは、修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得ステップと、2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における黒又は白の連結画像の領域である特徴領域を抽出する抽出ステップと、2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から当該特徴領域の位置を示す位置情報を導出すると共に、当該特徴領域の大きさ、画素数、および筆跡長の少なくとも1つの特徴量を導出する導出ステップと、前記位置情報によって示される、前記第1原稿の画像から抽出された特徴領域の位置と前記第2原稿の画像から抽出された特徴領域の位置との間の距離が所定距離以内である特徴領域を対象として、前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定ステップと、前記抽出ステップによって前記第1原稿の画像から抽出された特徴領域で、かつ前記特定ステップによって特定された特徴領域に含まれない特徴領域である第1特徴領域、及び前記抽出ステップによって前記第2原稿の画像から抽出された特徴領域で、かつ前記特定ステップによって特定された特徴領域に含まれない特徴領域である第2特徴領域を前記修正が行われた領域である修正領域として選択する選択ステップと、前記第1特徴領域及び前記第2特徴領域に基づいて、前記第2特徴領域に含まれ、かつ互いに重なる領域が前記第1特徴領域に存在しない領域を、前記第1原稿において画像が存在せず、かつ追記された重なりなし追記領域であると判断する判断ステップと、前記判断ステップによって前記重なりなし追記領域であると判断された領域内の情報を前記第2画像情報から抽出することにより前記追記された画像を検出する検出ステップと、をコンピュータに実行させるものである。
請求項1から請求項4、及び請求項8から請求項11記載の発明によれば、原稿の修正が行われた領域の画像を高速に検出することができる、という効果が得られる。
また、請求項5記載の発明によれば、本発明を適用しない場合に比較して、より高精度で修正が行われた領域の画像を検出することができる、という効果が得られる。
また、請求項6記載の発明によれば、本発明を適用しない場合に比較して、より高精度で修正が行われた領域の画像を検出することができる、という効果が得られる。
更に、請求項7記載の発明によれば、本発明を適用しない場合に比較して、より高速かつ高精度で修正が行われた領域の画像を検出することができる、という効果が得られる。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
図1には、本発明が適用された画像処理システム10の構成例が示されている。同図に示されるように、本実施の形態に係る画像処理システム10は、パーソナル・コンピュータ等の画像処理装置20と、スキャナ等の画像読取装置30とを備えている。画像処理装置20と画像読取装置30は電気的に接続されており、画像処理装置20は画像読取装置30による読み取りによって得られた画像データを画像読取装置30から取得することができる。
本実施の形態に係る画像処理システム10は、手書き、押印等による追記による修正や、消しゴム、修正液等による消去による修正が行われる前の原稿(以下、「修正前原稿」という。)と、当該修正が行われた後の原稿(以下、「修正後原稿」という。)を画像読取装置30によって読み取り、これによって得られた2つの画像データに基づき、画像処理装置20により、修正が行われた箇所を特定し、特定した箇所から修正された画像部分を検出(抽出)する処理を行うものである。なお、以下では、修正前原稿の読み取りによって得られた画像データを「修正前画像データ」といい、修正後原稿の読み取りによって得られた画像データを「修正後画像データ」という。
本実施の形態に係る画像読取装置30は、読み取りによって得る画像データを、各画素値(画素情報)が複数ビット(本実施の形態では、8ビット)で構成されるものとして取得するものとされている。また、本実施の形態に係る画像処理システム10では、画像読取装置30として、読み取り対象とする原稿の画像をR(赤)、G(緑)、B(青)の3原色に分解して読み取るカラー・スキャナを適用している。なお、画像読取装置30としては、このような複数ビット構成のカラー・スキャナに限らず、複数ビット構成のモノクロ・スキャナ(所謂グレイスケール・モノクロ・スキャナ)、1ビット(2値)構成のカラー・スキャナ、1ビット構成のモノクロ・スキャナ等を適用することもできる。
次に、図2を参照して、画像処理システム10において特に重要な役割を有する画像処理装置20の電気系の要部構成を説明する。
同図に示すように、本実施の形態に係る画像処理装置20は、画像処理装置20全体の動作を司るCPU(中央処理装置)20Aと、CPU20Aによる各種処理プログラムの実行時のワークエリア等として用いられるRAM(Random Access Memory)20Bと、各種制御プログラムや各種パラメータ等が予め記憶されたROM(Read Only Memory)20Cと、各種情報を記憶するために用いられる記憶手段であるハードディスク20Dと、各種情報を入力するために用いられるキーボード20Eと、各種情報を表示するために用いられるディスプレイ20Fと、外部装置との各種情報の授受を司る入出力インタフェース(I/F)20Gと、が備えられており、これら各部はシステムバスBUSにより電気的に相互に接続されている。ここで、入出力インタフェース20Gには、前述した画像読取装置30が接続されている。
従って、CPU20Aは、RAM20B、ROM20C、及びハードディスク20Dに対するアクセス、キーボード20Eを介した各種入力情報の取得、ディスプレイ20Fに対する各種情報の表示、及び入出力インタフェース20Gを介した画像読取装置30との各種情報の授受を、各々行うことができる。
図3は、本実施の形態に係る画像処理装置20の機能的な構成を示す機能ブロック図である。
同図に示されるように、本実施の形態に係る画像処理装置20は、第1位置合わせ部22と、修正領域判断部24A及び第2位置合わせ部24Bを有する修正検出部24と、記憶部28と、修正領域選択部29とを備えている。
なお、上記第1位置合わせ部22は、修正前画像データ及び修正後画像データの少なくとも一方に対して、修正前画像データにより示される修正前画像と、修正後画像データにより示される修正後画像との間で、画像読取装置30において読み取る際の修正前原稿と修正後原稿の傾斜角の違いや、読み取り環境の違い等に起因して画像全体に対して発生する、対応する画素の位置のずれを補正する位置合わせ処理を実行する。なお、本実施の形態に係る第1位置合わせ部22では、修正前画像データ及び修正後画像データに基づいて、修正前画像及び修正後画像における予め定められた特徴(本実施の形態では、2値化画像データにおける黒画素の連結画像及び白画素の連結画像)を有する特徴領域を抽出し、修正前画像及び修正後画像の対応する特徴領域同士が重なり合うように、修正前画像データ及び修正後画像データの少なくとも一方を変換する。
ここで、本実施の形態に係る第1位置合わせ部22では、当該変換として、修正前画像データ及び修正後画像データの何れか一方に対してアフィン変換を行うことによる変換を適用しているが、これに限らず、修正前画像データ及び修正後画像データの何れか一方に対する共一次変換、一次等角変換、二次等角変換、射影変換、拡大・縮小、回転、平行移動等の他の従来既知の変換手法を適用する形態とすることもできる。
一方、上記修正検出部24は、修正領域判断部24Aにより、後述する修正領域選択部29によって第1位置合わせ部22により抽出された特徴領域から選択された修正領域に基づいて原稿に対する修正状態を判断し、当該判断結果に応じて修正画像を検出する。
ところで、第1位置合わせ部22による画像の位置合わせでは、画像読取装置30による画像読み取り時においてスキャン速度のむらや、光学系のひずみ等に起因して発生する修正前画像及び修正後画像の局所的なひずみまで補正(位置合わせ)することは困難である。
そこで、修正検出部24に備えられた上記第2位置合わせ部24Bは、上記修正領域の少なくとも一部のみを対象として、修正前画像データ及び修正後画像データの少なくとも一方に対し、修正前画像及び修正後画像との間で対応する画素の位置のずれを補正する位置合わせ処理を実行する。
なお、本実施の形態に係る第2位置合わせ部24Bでは、パターン・マッチング処理により、対応する画素の位置ずれを極力なくすように、修正前画像データ及び修正後画像データの少なくとも一方を変換する。
ここで、本実施の形態に係る第2位置合わせ部24Bでは、当該変換として、修正前画像データ及び修正後画像データの対応する修正領域間の相関係数を算出し、当該相関係数が最も高くなるように修正前画像及び修正後画像の少なくとも一方を平行移動する変換を適用しているが、これに限らず、修正前画像データ及び修正後画像データの何れか一方に対するアフィン変換、共一次変換、一次等角変換、二次等角変換、射影変換、拡大・縮小、回転、平行移動等の他の従来既知の変換手法を適用する形態とすることもできる。
そして、上記修正領域選択部29は、第1位置合わせ部22によって抽出された特徴領域のうち、修正が行われた特徴領域である修正領域を選択し、選択した修正領域を示す修正領域情報を修正検出部24に出力する。
次に、図4を参照して、本実施の形態に係る第1位置合わせ部22の構成について説明する。
同図に示されるように、本実施の形態に係る第1位置合わせ部22は、一対の特徴領域抽出部22A,22Bと、対応付部22Cと、補正パラメータ算出部22Dと、画像変換部22Eとを備えている。
なお、上記特徴領域抽出部22Aは修正前画像データが、上記特徴領域抽出部22Bは修正後画像データが、各々入力されるものであり、特徴領域抽出部22A,22Bは、入力された画像データに基づいて、修正前画像及び修正後画像における前述した予め定められた特徴(本実施の形態では、2値化画像データにおける黒画素の連結画像及び白画素の連結画像)を有する特徴領域を抽出した後、当該特徴領域から予め定められた特徴量(本実施の形態では、後述する大きさ、画素数、筆跡長(図8も参照。))を、入力された画像データに基づいて導出し、特徴領域情報として出力する。
また、上記対応付部22Cは、修正前画像及び修正後画像の間で、特徴領域抽出部22A,22Bから出力された特徴領域情報により示される特徴量の類似度が所定度合以上である特徴領域の対を特定し、特定した特徴領域の対を対応付ける特定特徴領域情報を作成して出力する。
また、上記補正パラメータ算出部22Dは、対応付部22Cから出力された特定特徴領域情報により示される、対応する特徴領域のずれ量に基づいて、修正前画像及び修正後画像の全体的なずれをなくするための補正係数を算出する。そして、上記画像変換部22Eは、補正パラメータ算出部22Dによって算出された補正係数を用いて、修正前画像データ又は修正後画像データ(ここでは、修正後画像データ)に対し、修正前画像及び修正後画像の全体的な位置合わせを行うための画像変換(ここでは、アフィン変換)を実行する。
なお、アフィン変換に適用する補正係数は、幅方向移動量、縦方向移動量、回転角、及び倍率である。補正係数は、一方の画像(ここでは、修正後画像)に対して補正係数に基づく変換を実行した場合に、修正前画像及び修正後画像の対応する特徴領域の重心位置の誤差が最も小さくなる値として算出される。具体的には、例えば、最小二乗法を適用して、修正前画像及び修正後画像の対応する特徴領域の重心位置の誤差の総和が最も小さくなる補正係数として幅方向移動量、縦方向移動量、回転角、及び倍率の各値を求める。なお、最小二乗法を適用した補正係数の算出手法については、一例として特開平9−93431号公報に記載されている。
本実施の形態に係る修正領域選択部29では、特徴領域抽出部22Aから出力された修正前画像に対応する特徴領域情報、特徴領域抽出部22Bから出力された修正後画像に対応する特徴領域情報、及び対応付部22Cから出力された特定特徴領域情報に基づいて、特徴領域抽出部22A,22Bによって抽出された特徴領域のうち、特定特徴領域情報により示される特徴領域に含まれない特徴領域を修正が行われた領域である修正領域として選択し、選択した修正領域を示す修正領域情報を作成して修正検出部24に出力する。
なお、本実施の形態に係る修正領域選択部29では、上記修正領域の選択を、特徴領域抽出部22Aによって抽出された修正前画像における特徴領域のうち、特定特徴領域情報により示される特徴領域に含まれない特徴領域を修正領域aとして選択し、特徴領域抽出部22Bによって抽出された修正後画像における特徴領域のうち、特定特徴領域情報により示される特徴領域に含まれない特徴領域を修正領域bとして選択することにより行っている。
次に、図5を参照して、本実施の形態に係る特徴領域抽出部22A,22Bの構成について説明する。なお、特徴領域抽出部22A及び特徴領域抽出部22Bは入力される画像データが異なるのみで同一の構成とされているため、ここでは、特徴領域抽出部22Aの構成について説明する。
同図に示されるように、本実施の形態に係る特徴領域抽出部22Aは、前処理部40と、連結領域抽出部42と、重心算出部44と、特徴量算出部46とを備えている。
なお、上記前処理部40は、入力された修正前画像データに対して、単色化処理及び二値化処理を実行する。ここで、上記単色化処理は、修正前画像データを輝度情報のみの画素データとする処理である。また、上記二値化処理は、単色化処理によって得られた単色画像を所定の閾値レベルで1(黒)又は0(白)の何れかの値に変換する処理である。なお、入力画像がモノクロ画像である場合は、上記単色化処理を省略することができる。
また、上記連結領域抽出部42は、前処理部40によって二値化処理が施された修正前画像データに対して、前記特徴領域として連結領域を抽出する連結領域抽出処理を実行する。なお、上記連結領域抽出処理は、一例として特開平12−295438号公報に記載されている手法等を適用して実行することができる。ここで、連結領域(特徴領域)は二値化画像における黒画素の連続領域(黒ラン)、或いは黒画素ではない白画素の連続領域(白ラン)として抽出される。上記連結領域抽出処理は、例えば、予め抽出条件として、所定の大きさ(面積又は画素数)の範囲(最小、最大)を設定し、その範囲にある連続する同一画素値の領域等、予め定められた設定条件に基づいて実行される。
ここで、図6を参照して、上記連結領域抽出処理によって抽出される連結領域の具体例について説明する。
同図には、二値化処理が施された修正前画像80と修正後画像90とが示されている。これらの画像から、一定条件の下に黒画素の連続領域(黒ラン)を有する画像データや白画素の連続領域(白ラン)を有する画像データを連結領域として抽出する。同図に示す例では、修正前画像80から黒文字画像である‘A’、‘B’と白抜き文字画像である‘A’が、連結領域81〜83として抽出され、修正後画像90から黒文字画像である‘A’、‘B’と白抜き文字画像である‘A’が、連結領域91〜93として抽出された例が示されている。なお、実際の処理において抽出される連結領域のデータ数は、設計条件にもよるが、数百〜数千個単位のデータの抽出が行われる。
更に、上記重心算出部44は、連結領域抽出部42によって抽出された連結領域(特徴領域)の重心を算出し、上記特徴量算出部46は、各連結領域の特徴量(ここでは、大きさ、画素数、筆跡長)を算出する。なお、本実施の形態では、重心算出部44と特徴量算出部46とを区別しているが、重心も連結領域の1つの特徴量として、特徴量算出部46において算出する構成としてもよいことは言うまでもない。
次に、図7及び図8を参照して、連結領域から求められる重心及び特徴量について説明する。図7に示す文字‘A’が、例えば修正前画像80から抽出された1つの連結領域70である。図8は、修正前画像80と修正後画像90とから抽出された連結領域についての重心と特徴量の各情報からなるテーブルを示している。
まず、図7を参照して、連結領域70の重心及び特徴量の詳細について説明する。
重心72は、連結領域としての文字A70の重心位置を示す情報であり、例えば、修正前画像80をXY座標面とした場合の座標データ(x,y)として算出する(図8も参照。)。
また、大きさは、図7に示される連結領域70を外接するように囲む外接矩形74の幅L及び高さHにより‘L,H’として求める。また、画素数は、連結領域70自体の構成全画素数として算出する。更に、筆跡長は、図7に示すように、連結領域70を細線化して、幅が1画素の線として変換した連結領域細線化データ76における構成画素数として算出する。
重心算出部44及び特徴量算出部46は、比較対象となる修正前画像80と修正後画像90から、連結領域抽出部42によって抽出された連結領域(特徴領域)の各々について、重心位置と、上記大きさ、画素数、筆跡長等が含まれた特徴量情報とを算出し、一例として図8に示されるように、修正前画像80に対応する特徴領域情報50Aと、修正後画像90に対応する特徴領域情報50Bとして整理する。同図に示されるように、修正前画像80と修正後画像90の各々から抽出された各連結領域について唯一無二のID(Identification)が付与され、当該IDによって対応付けられるように、各連結領域の重心位置と、特徴量、すなわち、大きさ、画素数、筆跡長の各情報が特徴領域情報としてハードディスク20D等の記憶手段により記録される。
ところで、本実施の形態に係る対応付部22C(図4参照。)は、前述したように、修正前画像及び修正後画像の間で、特徴領域抽出部22A,22Bから出力された特徴領域情報により示される特徴量の類似度が所定度合以上である特徴領域の対を特定し、特定した特徴領域の対を対応付ける特定特徴領域情報を作成する。
ここで、対応付部22Cでは、一例として、特徴領域抽出部22Aによって記録された特徴領域情報50Aと特徴領域抽出部22Bによって記録された特徴領域情報50Bを入力し、両特徴領域情報に記録された情報に基づくパターン・マッチング処理を行い、この結果に基づいて特定特徴領域情報を作成する。
なお、本実施の形態に係る対応付部22Cでは、修正前画像及び修正後画像の何れか一方の画像から抽出した特徴領域の重心位置から予め定められた距離内に重心位置が位置する他方の画像の特徴領域を、各特徴領域情報における重心位置に基づいて特定することにより、類似度が所定度合以上である特徴領域の候補となる特徴領域を絞り込み、絞り込んだ特徴領域のみを対象として、各特徴領域情報における特徴量(大きさ、画素数、筆跡長)の少なくとも1つの情報の類似度を算出し、当該類似度が所定度合以上となる特徴領域の対を示す情報を特定特徴領域情報として作成する。なお、本実施の形態では、上記類似度として、適用した特徴量間の距離(一例として、ユークリッド距離)の逆数を適用しているが、これに限らず、修正前画像及び修正後画像の各特徴領域情報により示される特徴量の類似の度合を示すものであれば如何なるものも適用できることは言うまでもない。
図9には、本実施の形態に係る特定特徴領域情報のデータ構造の一例が模式的に示されている。同図に示されるように、本実施の形態に係る対応付部22Cでは、類似度が所定度合以上となった修正前画像及び修正後画像の各特徴領域に付与されたIDが対応付けられたものとして特定特徴領域情報を作成する。
なお、以上のように構成された画像処理装置20の各構成要素(第1位置合わせ部22、修正検出部24、修正領域選択部29)による処理は、プログラムを実行することにより、コンピュータを利用してソフトウェア構成により実現することができる。この場合、当該プログラムに本発明の画像処理プログラムが含まれることになる。但し、ソフトウェア構成による実現に限られるものではなく、ハードウェア構成や、ハードウェア構成とソフトウェア構成の組み合わせによって実現することもできることは言うまでもない。
以下では、本実施の形態に係る画像処理システム10が、上記プログラム(以下、「画像処理プログラム」という。)を実行することにより上記各構成要素による処理を実現するものとされている場合について説明する。この場合、当該画像処理プログラムを画像処理装置20に予めインストールしておく形態や、コンピュータ読み取り可能な記録媒体に格納された状態で提供される形態、有線又は無線による通信手段を介して配信される形態等を適用することができる。
次に、図10を参照して、本実施の形態に係る画像処理システム10の作用を説明する。なお、図10は、画像処理装置20のCPU20Aにより実行される画像処理プログラムの処理の流れを示すフローチャートである。また、ここでは、錯綜を回避するために、処理対象とする修正前画像データ及び修正後画像データが同一サイズの原稿画像を示すものとして画像読取装置30から入力され、ハードディスク20Dの所定領域に予め記憶されている場合について説明する。
同図のステップ100では、処理対象とする修正前画像データ及び修正後画像データをハードディスク20Dから読み出すことにより取得し、次のステップ102では、前述した特徴領域抽出部22A,22Bによる処理と同様の処理によって修正前画像及び修正後画像に対応する特徴領域情報(図8も参照。)を導出し、記録する。例えば、修正前画像80及び修正後画像90が図12に示されるものである場合、本ステップ102の処理では、図13(A)に示される特徴領域(本実施の形態では、連結領域)に関する特徴領域情報が修正前画像と修正後画像の各画像別に導出されることになる。
次のステップ104では、導出した特徴領域情報に基づいて、前述した対応付部22Cによる処理と同様の処理により特定特徴領域情報を作成する。本ステップ104の処理により、一例として図13(B)に示される特徴領域が対応付けられた特定特徴領域情報(図9も参照。)が作成されることになる。
次のステップ106では、作成した特定特徴領域情報に基づいて、前述した補正パラメータ算出部22Dによる処理と同様の処理により、修正前画像及び修正後画像の全体的なずれをなくすための補正係数を算出し、次のステップ108では、算出した補正係数を用いて、前述した画像変換部22Eによる処理と同様の処理により修正前画像及び修正後画像の全体的な位置合わせを行うための画像変換処理(本実施の形態では、アフィン変換処理)を実行し、更に、次のステップ110では、前述した修正領域選択部29による処理と同様の処理により、上記ステップ102による特徴領域情報の導出過程において抽出された特徴領域のうち、修正が行われた特徴領域である修正領域を選択し、選択した特徴領域(修正領域)を示す修正領域情報を作成する。なお、上記ステップ108では、画像変換処理を実行した画像データ(ここでは、修正後画像データ)に対応する特徴領域情報を、当該画像変換処理後の画像に応じた値に変換する処理も実行することが好ましい。
本ステップ110の処理において、当該修正領域の選択を、特徴領域抽出部22Aによって抽出された修正前画像の特徴領域のうち、特定特徴領域情報により示される特徴領域に含まれない領域を修正領域(修正領域a)として選択することにより行う際には、一例として図13(C)に示される特徴領域を示す修正領域情報が作成され、上記修正領域の選択を、特徴領域抽出部22Bによって抽出された修正後画像の特徴領域のうち、特定特徴領域情報により示される特徴領域に含まれない領域を修正領域(修正領域b)として選択することにより行う際には、一例として図13(D)に示される特徴領域を示す修正領域情報が作成されることになる。
次のステップ112では、修正前画像の幅(ここでは、当該画像の水平方向の画素数)で、かつ修正前画像の高さ(ここでは、当該画像の垂直方向の画素数)の白色画像を示す画像データ(以下、「白色画像データ」という。)を作成し、次のステップ114では、修正検出部24の処理として、上記修正領域情報により示される修正領域に対応する修正前画像データ及び修正後画像データに基づいて、修正画像を検出する修正画像検出処理ルーチン・プログラムを実行する。
以下、図11を参照して、修正画像検出処理ルーチン・プログラムについて説明する。
同図のステップ200では、一例として次に示すように、上記ステップ110の処理によって作成した修正領域情報により示される修正領域a及び修正領域bの全ての領域の範囲を示す座標(以下、「修正領域座標」という。)を導出する。
まず、各修正領域に対応する重心位置及び大きさの各情報を特徴領域情報から取得する。
次に、取得した重心位置情報により示される重心位置を中心とする、取得した大きさ情報により示される幅L及び高さHを有する矩形領域の角点(本実施の形態では、左上角点及び右下角点)の位置座標を上記修正領域座標として各修正領域毎に算出する。
次のステップ202では、上記ステップ200の処理によって導出した修正領域毎の修正領域座標に基づいて、修正領域aに含まれる修正領域と修正領域bに含まれる修正領域とで重なり合う領域が存在するか否かを判定し、否定判定となった場合は後述するステップ220に移行する一方、肯定判定となった場合にはステップ204に移行する。
ステップ204では、修正前画像データ及び修正後画像データ(上記ステップ108の処理によって画像変換処理が実行されたもの)における、上記ステップ202の処理によって重なり合う領域であるものと判定された修正領域のうちの何れか1組の領域(以下、「処理対象領域」という。)を対象として、修正前画像と修正後画像の位置合わせを行う画像変換処理を、前述した第2位置合わせ部24Bによる処理と同様に実行する。
なお、ここで処理対象領域とされている1組の修正領域のサイズが必ずしも一致するとは限らない。例えば、修正領域aが図13(C)に示されるものであり、修正領域bが図13(D)に示されるものである場合、修正領域aに含まれる修正領域である「さ」と、修正領域bに含まれる修正領域である、バツ(‘×’)が追記された「さしすせ」とでは、各修正領域のサイズは異なる。この場合、本実施の形態に係る修正画像検出処理ルーチン・プログラムでは、サイズが小さい方の修正領域の外接矩形内の領域のみを対象として上記画像変換処理を行うようにする。
次のステップ206では、処理対象領域とされている1組の修正領域で、かつ上記ステップ204の処理によって画像変換処理が実行された領域に対応する修正前画像データ及び修正後画像データに対して、前述した前処理部40と同様に単色化処理及び二値化処理を実行し、次のステップ208にて、二値化処理が施された修正前画像データの黒画素数(以下、「修正前黒画素数」という。)が、二値化処理が施された修正後画像データの黒画素数(以下、「修正後黒画素数」という。)より少ないか否かを判定し、肯定判定となった場合は、処理対象領域が修正前原稿に予め存在した画像に対して重ねて追記された領域である「重なりあり追記領域」であるものと見なしてステップ210に移行する。
ステップ210では、上記ステップ204の処理によって画像変換処理が施された修正前画像及び修正後画像の各画像データを用いて、重なりあり追記領域に対応して予め定められた第1修正画像検出処理を実行し、その後にステップ216に移行する。
なお、本実施の形態に係る修正画像検出処理ルーチン・プログラムでは、上記第1修正画像検出処理として、上記ステップ204の処理によって画像変換処理が施された領域に対応する修正前画像データに対して、当該修正前画像データにより示される画像に対する予め定められたドット数(一例として、1ドット)の画像膨張処理を施した後、当該修正後画像データから、上記ステップ204の処理によって画像変換処理が施された領域に対応する修正前画像データを、対応する画素毎で、かつR,G,Bの各々別に減算する処理を適用しているが、これに限らず、例えば、上記画像膨張処理を行わずに当該減算を行う処理を適用する形態や、上記ステップ206の処理によって二値化された修正後画像データから修正前画像データを、対応する画素毎で、かつR,G,Bの各々別に減算する処理を適用する形態等の、他の従来既知の追記画像検出処理を適用する形態とすることもできる。
一方、上記ステップ208において否定判定となった場合はステップ212に移行し、修正前黒画素数が、修正後黒画素数より多いか否かを判定して、否定判定となった場合は後述するステップ218に移行する一方、肯定判定となった場合は、処理対象領域が修正前原稿に予め存在した画像の一部が消去された領域である「一部消去領域」であるものと見なしてステップ214に移行する。
ステップ214では、上記ステップ204の処理によって画像変換処理が施された修正前画像及び修正後画像の各画像データを用いて、一部消去領域に対応して予め定められた第2修正画像検出処理を実行し、その後にステップ216に移行する。
なお、本実施の形態に係る修正画像検出処理ルーチン・プログラムでは、上記第2修正画像検出処理として、上記ステップ204の処理によって画像変換処理が施された領域に対応する修正後画像データに対して、当該修正後画像データにより示される画像に対する予め定められたドット数(一例として、1ドット)の画像膨張処理を施した後、当該修正前画像データから、上記ステップ204の処理によって画像変換処理が施された領域に対応する修正後画像データを、対応する画素毎で、かつR,G,Bの各々別に減算する処理を適用しているが、これに限らず、例えば、上記画像膨張処理を行わずに当該減算を行う処理を適用する形態や、上記ステップ206の処理によって二値化された修正前画像データから修正後画像データを、対応する画素毎で、かつR,G,Bの各々別に減算する処理を適用する形態等の、他の従来既知の消去画像検出処理を適用する形態とすることもできる。
ステップ216では、上記ステップ210又はステップ214の処理によって得られた画像データを、上記ステップ112の処理によって作成した白色画像データに対して重畳(上書き)することにより、検出した修正画像又は消去画像を合成し、次のステップ218では、上記ステップ202の処理によって重なり合う領域であるものと判定された全ての修正領域について上記ステップ204〜ステップ216の処理が終了したか否かを判定し、否定判定となった場合は上記ステップ204に戻り、当該ステップ204以降の処理を再び実行する一方、肯定判定となった場合にはステップ220に移行する。なお、上記ステップ204〜ステップ218の処理を繰り返し実行する際には、それまでに処理対象としなかった重なり合う修正領域を処理対象領域として適用するようにする。
ステップ220では、上記ステップ200の処理によって導出した修正領域毎の修正領域座標に基づいて、修正領域aに含まれる修正領域で、修正領域bに含まれる何れの修正領域にも重ならない領域が存在するか否かを判定し、肯定判定となった場合は、処理対象領域が修正前原稿に予め存在した画像が消去された領域である「消去領域」であるものと見なしてステップ222に移行し、修正前画像データを用いて、消去領域に対応して予め定められた第3修正画像検出処理を実行し、その後にステップ224に移行する。なお、本実施の形態に係る修正画像検出処理ルーチン・プログラムでは、上記第3修正画像検出処理として、修正前画像データから上記消去領域に対応する画像データを抽出する処理を適用している。
ステップ224では、上記ステップ222の処理によって得られた画像データを、上記白色画像データに対して重畳(上書き)することにより、検出した修正画像(消去された画像)を合成し、その後にステップ226に移行する。なお、上記ステップ220において否定判定となった場合には、上記ステップ222及びステップ224の処理を実行することなくステップ226に移行する。
ステップ226では、上記ステップ200の処理によって導出した修正領域毎の修正領域座標に基づいて、修正領域bに含まれる修正領域で、修正領域aに含まれる何れの修正領域にも重ならない領域が存在するか否かを判定し、肯定判定となった場合は、処理対象領域が修正前原稿において画像が存在せず、かつ追記された領域である「重なりなし追記領域」であるものと見なしてステップ228に移行し、修正後画像データを用いて、重なりなし追記領域に対応して予め定められた第4修正画像検出処理を実行し、その後にステップ230に移行する。なお、本実施の形態に係る修正画像検出処理ルーチン・プログラムでは、上記第4修正画像検出処理として、修正後画像データから上記重なりなし追記領域に対応する画像データを抽出する処理を適用している。
ステップ230では、上記ステップ228の処理によって得られた画像データを、上記白色画像データに対して重畳(上書き)することにより、検出した修正画像(追記された画像)を合成し、その後に本修正画像検出処理ルーチン・プログラムを終了する。なお、上記ステップ226において否定判定となった場合には、上記ステップ228及びステップ230の処理を実行することなく本修正画像検出処理ルーチン・プログラムを終了する。図13(E)には、重なりあり追記領域、一部消去領域、消去領域、及び重なりなし追記領域の条件及び画像例が、図13(F)には、上記第1〜第4修正画像検出処理による修正画像の検出手法が、各々纏めて記されている。
修正画像検出処理ルーチン・プログラムが終了すると、画像処理プログラム(図10参照。)のステップ116に移行し、以上の処理によって修正画像が重畳された白色画像データを用いて修正画像を出力し、その後に本画像処理プログラムを終了する。なお、本実施の形態に係る画像処理プログラムでは、上記ステップ116による修正画像を出力する処理として、ディスプレイ20Fによる表示による出力、及び図示しないプリンタ(所謂画像形成装置)による印刷による出力の双方を適用しているが、これに限定されるものではなく、これらの何れか一方の出力を行う形態や、音声合成装置により音声によって出力する形態等、他の出力形態を適用することができることは言うまでもない。また、本実施の形態に係る画像処理プログラムでは、白色画像データに対して修正画像を重畳することにより、検出した修正画像を記録する場合について説明したが、これに限定されるものではなく、検出した修正画像の位置を示す座標を記録する形態等、修正画像を特定することのできる情報を記録する他の形態とすることができることも言うまでもない。更に、追記画像と消去画像とで色を変える等、追記画像と消去画像が区別できる状態で出力する形態とすることもできる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記実施の形態に多様な変更または改良を加えることができ、当該変更または改良を加えた形態も本発明の技術的範囲に含まれる。
また、上記の実施の形態は、クレーム(請求項)にかかる発明を限定するものではなく、また実施の形態の中で説明されている特徴の組合せの全てが発明の解決手段に必須であるとは限らない。前述した実施の形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜の組み合せにより種々の発明を抽出できる。実施の形態に示される全構成要件から幾つかの構成要件が削除されても、効果が得られる限りにおいて、この幾つかの構成要件が削除された構成が発明として抽出され得る。
例えば、上記実施の形態では、画像処理をソフトウェア構成によって実現した場合について説明したが、本発明はこれに限定されるものではなく、例えば、当該画像処理をハードウェア構成により実現する形態とすることもできる。この場合の形態例としては、例えば、図3に示した画像処理装置20の各構成要素(第1位置合わせ部22、修正検出部24、修正領域選択部29)と同一の処理を実行する機能デバイスを作成して用いる形態が例示できる。この場合は、上記実施の形態に比較して、画像処理の高速化が期待できる。
また、上記実施の形態では、修正画像検出処理ルーチン・プログラムのステップ204〜ステップ218の繰り返し処理において修正領域a及び修正領域bの互いに重なり合う修正領域を1組ずつ処理する場合について説明したが、本発明はこれに限定されるものではなく、例えば、修正領域aに含まれる複数の修正領域が修正領域bに含まれる修正領域の何れか1つに重なる場合や、修正領域bに含まれる複数の修正領域が修正領域aに含まれる修正領域の何れか1つに重なる場合には、当該複数の修正領域を纏めて1つの修正領域として上記ステップ204〜ステップ218の処理を実行する形態とすることもできる。この場合も、上記実施の形態に比較して、画像処理の高速化が期待できる。
その他、上記実施の形態で説明した画像処理システム10や画像処理装置20の構成(図1〜図5参照。)は一例であり、本発明の主旨を逸脱しない範囲内において不要な部分を削除したり、新たな部分を追加したりすることができることは言うまでもない。
また、上記実施の形態で説明した各種情報のデータ構造(図8,図9参照。)も一例であり、本発明の主旨を逸脱しない範囲内において変更を加えることができることは言うまでもない。
更に、上記実施の形態で説明した画像処理プログラム及び修正画像検出処理ルーチン・プログラムの処理の流れ(図10,図11参照。)も一例であり、本発明の主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりすることができることは言うまでもない。
実施の形態に係る画像処理システムの構成を示すブロック図である。 実施の形態に係る画像処理装置の電気系の要部構成を示すブロック図である。 実施の形態に係る画像処理装置の機能的な構成を示す機能ブロック図である。 実施の形態に係る画像処理装置の機能的な構成のうち、第1位置合わせ部の構成を示すブロック図である。 実施の形態に係る画像処理装置の機能的な構成のうち、特徴領域抽出部の構成を示すブロック図である。 実施の形態に係る連結領域(特徴領域)の説明に供する図である。 実施の形態に係る連結領域から求められる重心及び特徴量の各情報の説明に供する図である。 実施の形態に係る特徴領域情報のデータ構造を示す模式図である。 実施の形態に係る特定特徴領域情報のデータ構造を示す模式図である。 実施の形態に係る画像処理プログラムの処理の流れを示すフローチャートである。 実施の形態に係る修正画像検出処理ルーチン・プログラムの処理の流れを示すフローチャートである。 実施の形態に係る画像処理プログラム及び修正画像検出処理ルーチン・プログラムの処理内容の説明に供する図であり、修正前画像及び修正後画像の一例を示す正面図である。 実施の形態に係る画像処理プログラム及び修正画像検出処理ルーチン・プログラムの処理内容の説明に供する他の図である。
符号の説明
10 画像処理システム
20 画像処理装置
20A CPU
20D ハードディスク
20F ディスプレイ
22 第1位置合わせ部
22A 特徴領域抽出部
22B 特徴領域抽出部
22C 対応付部(特定手段)
22D 補正パラメータ算出部(算出手段)
22E 画像変換部(事前位置合わせ手段)
24 修正検出部(検出手段)
24A 修正領域判断部(判断手段)
24B 第2位置合わせ部(位置合わせ手段)
28 記憶部
29 修正領域選択部(選択手段)
30 画像読取装置(取得手段)
40 前処理部
42 連結領域抽出部(抽出手段)
44 重心算出部(導出手段)
46 特徴量算出部(導出手段)

Claims (11)

  1. 修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得手段と、
    2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における黒又は白の連結画像の領域である特徴領域を抽出する抽出手段と、
    2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から当該特徴領域の位置を示す位置情報を導出すると共に、当該特徴領域の大きさ、画素数、および筆跡長の少なくとも1つの特徴量を導出する導出手段と、
    前記位置情報によって示される、前記第1原稿の画像から抽出された特徴領域の位置と前記第2原稿の画像から抽出された特徴領域の位置との間の距離が所定距離以内である特徴領域を対象として、前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定手段と、
    前記抽出手段によって前記第1原稿の画像から抽出された特徴領域で、かつ前記特定手段によって特定された特徴領域に含まれない特徴領域である第1特徴領域、及び前記抽出手段によって前記第2原稿の画像から抽出された特徴領域で、かつ前記特定手段によって特定された特徴領域に含まれない特徴領域である第2特徴領域を前記修正が行われた領域である修正領域として選択する選択手段と、
    前記第1特徴領域及び前記第2特徴領域に基づいて、前記第1特徴領域と前記第2特徴領域とで互いに重なる領域を重なり領域として、前記第1特徴領域における重なり領域内の画像の黒画素数が前記第2特徴領域における重なり領域内の画像の黒画素数に比較して少ない場合に、当該重なり領域が前記第1原稿に予め存在した画像に対して重ねて追記された重なりあり追記領域であると判断する判断手段と、
    前記判断手段によって前記重なりあり追記領域であると判断された領域を対象として前記第2画像情報から前記第1画像情報の減算を画素毎に行うことにより前記追記された画像を検出する検出手段と、
    を備えた画像処理装置。
  2. 修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得手段と、
    2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における黒又は白の連結画像の領域である特徴領域を抽出する抽出手段と、
    2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から当該特徴領域の位置を示す位置情報を導出すると共に、当該特徴領域の大きさ、画素数、および筆跡長の少なくとも1つの特徴量を導出する導出手段と、
    前記位置情報によって示される、前記第1原稿の画像から抽出された特徴領域の位置と前記第2原稿の画像から抽出された特徴領域の位置との間の距離が所定距離以内である特徴領域を対象として、前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定手段と、
    前記抽出手段によって前記第1原稿の画像から抽出された特徴領域で、かつ前記特定手段によって特定された特徴領域に含まれない特徴領域である第1特徴領域、及び前記抽出手段によって前記第2原稿の画像から抽出された特徴領域で、かつ前記特定手段によって特定された特徴領域に含まれない特徴領域である第2特徴領域を前記修正が行われた領域である修正領域として選択する選択手段と、
    前記第1特徴領域及び前記第2特徴領域に基づいて、前記第1特徴領域と前記第2特徴領域とで互いに重なる領域を重なり領域として、前記第1特徴領域における重なり領域内の画像の黒画素数が前記第2特徴領域における重なり領域内の画像の黒画素数に比較して多い場合に、当該重なり領域が前記第1原稿に予め存在した画像の一部が消去された一部消去領域であると判断する判断手段と、
    前記判断手段によって前記一部消去領域であると判断された領域を対象として前記第1画像情報から前記第2画像情報の減算を画素毎に行うことにより前記一部が消去された画像を検出する検出手段と、
    を備えた画像処理装置。
  3. 修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得手段と、
    2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における黒又は白の連結画像の領域である特徴領域を抽出する抽出手段と、
    2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から当該特徴領域の位置を示す位置情報を導出すると共に、当該特徴領域の大きさ、画素数、および筆跡長の少なくとも1つの特徴量を導出する導出手段と、
    前記位置情報によって示される、前記第1原稿の画像から抽出された特徴領域の位置と前記第2原稿の画像から抽出された特徴領域の位置との間の距離が所定距離以内である特徴領域を対象として、前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定手段と、
    前記抽出手段によって前記第1原稿の画像から抽出された特徴領域で、かつ前記特定手段によって特定された特徴領域に含まれない特徴領域である第1特徴領域、及び前記抽出手段によって前記第2原稿の画像から抽出された特徴領域で、かつ前記特定手段によって特定された特徴領域に含まれない特徴領域である第2特徴領域を前記修正が行われた領域である修正領域として選択する選択手段と、
    前記第1特徴領域及び前記第2特徴領域に基づいて、前記第1特徴領域に含まれ、かつ互いに重なる領域が前記第2特徴領域に存在しない領域を、前記第1原稿に予め存在した画像が消去された消去領域であると判断する判断手段と、
    前記判断手段によって前記消去領域であると判断された領域内の情報を前記第1画像情報から抽出することにより前記消去された画像を検出する検出手段と、
    を備えた画像処理装置。
  4. 修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得手段と、
    2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における黒又は白の連結画像の領域である特徴領域を抽出する抽出手段と、
    2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から当該特徴領域の位置を示す位置情報を導出すると共に、当該特徴領域の大きさ、画素数、および筆跡長の少なくとも1つの特徴量を導出する導出手段と、
    前記位置情報によって示される、前記第1原稿の画像から抽出された特徴領域の位置と前記第2原稿の画像から抽出された特徴領域の位置との間の距離が所定距離以内である特徴領域を対象として、前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定手段と、
    前記抽出手段によって前記第1原稿の画像から抽出された特徴領域で、かつ前記特定手段によって特定された特徴領域に含まれない特徴領域である第1特徴領域、及び前記抽出手段によって前記第2原稿の画像から抽出された特徴領域で、かつ前記特定手段によって特定された特徴領域に含まれない特徴領域である第2特徴領域を前記修正が行われた領域である修正領域として選択する選択手段と、
    前記第1特徴領域及び前記第2特徴領域に基づいて、前記第2特徴領域に含まれ、かつ互いに重なる領域が前記第1特徴領域に存在しない領域を、前記第1原稿において画像が存在せず、かつ追記された重なりなし追記領域であると判断する判断手段と、
    前記判断手段によって前記重なりなし追記領域であると判断された領域内の情報を前記第2画像情報から抽出することにより前記追記された画像を検出する検出手段と、
    を備えた画像処理装置。
  5. 前記第1特徴領域と前記第2特徴領域とで互いに重なる領域のみを対象として前記第1画像情報及び前記第2画像情報の少なくとも一方に対して画像の位置合わせ処理を実行する位置合わせ手段
    を更に備えた請求項1乃至請求項4の何れか1項記載の画像処理装置。
  6. 前記位置合わせ手段による位置合わせ処理に先立ち、前記第1画像情報及び前記第2画像情報の少なくとも一方に対して前記第1原稿の画像と前記第2原稿の画像の画像全体における位置合わせ処理を実行する事前位置合わせ手段
    を更に備えた請求項5記載の画像処理装置。
  7. 前記第1原稿の画像と前記第2原稿の画像における対応する前記特徴領域のずれ量に基づいて補正係数を算出する算出手段を更に備え、
    前記事前位置合わせ手段は、前記位置合わせ処理として前記補正係数を用いた前記第1画像情報及び前記第2画像情報の少なくとも一方に対する補正処理を実行する
    請求項6記載の画像処理装置。
  8. 修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得ステップと、
    2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における黒又は白の連結画像の領域である特徴領域を抽出する抽出ステップと、
    2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から当該特徴領域の位置を示す位置情報を導出すると共に、当該特徴領域の大きさ、画素数、および筆跡長の少なくとも1つの特徴量を導出する導出ステップと、
    前記位置情報によって示される、前記第1原稿の画像から抽出された特徴領域の位置と前記第2原稿の画像から抽出された特徴領域の位置との間の距離が所定距離以内である特徴領域を対象として、前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定ステップと、
    前記抽出ステップによって前記第1原稿の画像から抽出された特徴領域で、かつ前記特定ステップによって特定された特徴領域に含まれない特徴領域である第1特徴領域、及び前記抽出ステップによって前記第2原稿の画像から抽出された特徴領域で、かつ前記特定ステップによって特定された特徴領域に含まれない特徴領域である第2特徴領域を前記修正が行われた領域である修正領域として選択する選択ステップと、
    前記第1特徴領域及び前記第2特徴領域に基づいて、前記第1特徴領域と前記第2特徴領域とで互いに重なる領域を重なり領域として、前記第1特徴領域における重なり領域内の画像の黒画素数が前記第2特徴領域における重なり領域内の画像の黒画素数に比較して少ない場合に、当該重なり領域が前記第1原稿に予め存在した画像に対して重ねて追記された重なりあり追記領域であると判断する判断ステップと、
    前記判断ステップによって前記重なりあり追記領域であると判断された領域を対象として前記第2画像情報から前記第1画像情報の減算を画素毎に行うことにより前記追記された画像を検出する検出ステップと、
    をコンピュータに実行させる画像処理プログラム。
  9. 修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得ステップと、
    2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における黒又は白の連結画像の領域である特徴領域を抽出する抽出ステップと、
    2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から当該特徴領域の位置を示す位置情報を導出すると共に、当該特徴領域の大きさ、画素数、および筆跡長の少なくとも1つの特徴量を導出する導出ステップと、
    前記位置情報によって示される、前記第1原稿の画像から抽出された特徴領域の位置と前記第2原稿の画像から抽出された特徴領域の位置との間の距離が所定距離以内である特徴領域を対象として、前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定ステップと、
    前記抽出ステップによって前記第1原稿の画像から抽出された特徴領域で、かつ前記特定ステップによって特定された特徴領域に含まれない特徴領域である第1特徴領域、及び前記抽出ステップによって前記第2原稿の画像から抽出された特徴領域で、かつ前記特定ステップによって特定された特徴領域に含まれない特徴領域である第2特徴領域を前記修正が行われた領域である修正領域として選択する選択ステップと、
    前記第1特徴領域及び前記第2特徴領域に基づいて、前記第1特徴領域と前記第2特徴領域とで互いに重なる領域を重なり領域として、前記第1特徴領域における重なり領域内の画像の黒画素数が前記第2特徴領域における重なり領域内の画像の黒画素数に比較して多い場合に、当該重なり領域が前記第1原稿に予め存在した画像の一部が消去された一部消去領域であると判断する判断ステップと、
    前記判断ステップによって前記一部消去領域であると判断された領域を対象として前記第1画像情報から前記第2画像情報の減算を画素毎に行うことにより前記一部が消去された画像を検出する検出ステップと、
    をコンピュータに実行させる画像処理プログラム。
  10. 修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得ステップと、
    2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における黒又は白の連結画像の領域である特徴領域を抽出する抽出ステップと、
    2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から当該特徴領域の位置を示す位置情報を導出すると共に、当該特徴領域の大きさ、画素数、および筆跡長の少なくとも1つの特徴量を導出する導出ステップと、
    前記位置情報によって示される、前記第1原稿の画像から抽出された特徴領域の位置と前記第2原稿の画像から抽出された特徴領域の位置との間の距離が所定距離以内である特徴領域を対象として、前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定ステップと、
    前記抽出ステップによって前記第1原稿の画像から抽出された特徴領域で、かつ前記特定ステップによって特定された特徴領域に含まれない特徴領域である第1特徴領域、及び前記抽出ステップによって前記第2原稿の画像から抽出された特徴領域で、かつ前記特定ステップによって特定された特徴領域に含まれない特徴領域である第2特徴領域を前記修正が行われた領域である修正領域として選択する選択ステップと、
    前記第1特徴領域及び前記第2特徴領域に基づいて、前記第1特徴領域に含まれ、かつ互いに重なる領域が前記第2特徴領域に存在しない領域を、前記第1原稿に予め存在した画像が消去された消去領域であると判断する判断ステップと、
    前記判断ステップによって前記消去領域であると判断された領域内の情報を前記第1画像情報から抽出することにより前記消去された画像を検出する検出ステップと、
    をコンピュータに実行させる画像処理プログラム。
  11. 修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得ステップと、
    2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における黒又は白の連結画像の領域である特徴領域を抽出する抽出ステップと、
    2値化された前記第1画像情報及び2値化された前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から当該特徴領域の位置を示す位置情報を導出すると共に、当該特徴領域の大きさ、画素数、および筆跡長の少なくとも1つの特徴量を導出する導出ステップと、
    前記位置情報によって示される、前記第1原稿の画像から抽出された特徴領域の位置と前記第2原稿の画像から抽出された特徴領域の位置との間の距離が所定距離以内である特徴領域を対象として、前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定ステップと、
    前記抽出ステップによって前記第1原稿の画像から抽出された特徴領域で、かつ前記特定ステップによって特定された特徴領域に含まれない特徴領域である第1特徴領域、及び前記抽出ステップによって前記第2原稿の画像から抽出された特徴領域で、かつ前記特定ステップによって特定された特徴領域に含まれない特徴領域である第2特徴領域を前記修正が行われた領域である修正領域として選択する選択ステップと、
    前記第1特徴領域及び前記第2特徴領域に基づいて、前記第2特徴領域に含まれ、かつ互いに重なる領域が前記第1特徴領域に存在しない領域を、前記第1原稿において画像が存在せず、かつ追記された重なりなし追記領域であると判断する判断ステップと、
    前記判断ステップによって前記重なりなし追記領域であると判断された領域内の情報を前記第2画像情報から抽出することにより前記追記された画像を検出する検出ステップと、
    をコンピュータに実行させる画像処理プログラム。
JP2006318985A 2006-11-27 2006-11-27 画像処理装置及び画像処理プログラム Expired - Fee Related JP4803001B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006318985A JP4803001B2 (ja) 2006-11-27 2006-11-27 画像処理装置及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006318985A JP4803001B2 (ja) 2006-11-27 2006-11-27 画像処理装置及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2008135857A JP2008135857A (ja) 2008-06-12
JP4803001B2 true JP4803001B2 (ja) 2011-10-26

Family

ID=39560407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006318985A Expired - Fee Related JP4803001B2 (ja) 2006-11-27 2006-11-27 画像処理装置及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP4803001B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7965894B2 (en) * 2009-06-30 2011-06-21 Konica Minolta Systems Laboratory, Inc. Method for detecting alterations in printed document using image comparison analyses
JP2011097538A (ja) * 2009-11-02 2011-05-12 Sharp Corp 画像処理装置、プログラム、記録媒体

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3549478B2 (ja) * 2000-10-10 2004-08-04 シミック株式会社 紙メディアの記載修正検出支援方法および支援装置
JP2003115039A (ja) * 2001-07-11 2003-04-18 Ricoh Co Ltd 文書ファイリング装置、文書ファイリング方法、プログラムおよび記憶媒体
JP2006235785A (ja) * 2005-02-23 2006-09-07 Fuji Xerox Co Ltd 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム

Also Published As

Publication number Publication date
JP2008135857A (ja) 2008-06-12

Similar Documents

Publication Publication Date Title
JP5387193B2 (ja) 画像処理システム、画像処理装置およびプログラム
JP5934762B2 (ja) 文字の形状特徴を使用した文字比較による文書改変検知方法、コンピュータプログラム、記録媒体および情報処理装置
JP5861503B2 (ja) 画像検査装置及び方法
JP2009003936A (ja) デジタル画像におけるテキスト方向判定方法およびシステム、ならびに、制御プログラムおよび記録媒体
JP2007241356A (ja) 画像処理装置および画像処理プログラム
JP5541679B2 (ja) 画像処理装置及び方法、並びに、プログラム
US8254693B2 (en) Image processing apparatus, image processing method and program
JP2009193361A (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び、記録媒体
JP4760883B2 (ja) 画像処理装置及び画像処理プログラム
JP4803001B2 (ja) 画像処理装置及び画像処理プログラム
JP4910635B2 (ja) 画像処理装置及び画像処理プログラム
JP2010074342A (ja) 画像処理装置、画像形成装置、及びプログラム
JP2016063507A (ja) 画像処理装置及び画像処理プログラム
JP6780271B2 (ja) 画像処理装置及び画像処理プログラム
JP2021044803A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2008269131A (ja) 画像処理装置及び画像処理プログラム
JP5056063B2 (ja) 画像処理装置及び画像処理プログラム
JP2008158847A (ja) 画像配信装置および画像配信方法
JP2003046746A (ja) 画像処理方法及び画像処理装置
JP2018137509A (ja) 画像処理装置、画像読み取り装置、および、プログラム
JP5923981B2 (ja) 画像処理装置及び画像処理プログラム
JP2010258627A (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP5434273B2 (ja) 画像処理装置及び画像処理プログラム
JP5146199B2 (ja) 差分抽出装置及び差分抽出プログラム
JP2012181618A (ja) 画像処理プログラムおよび画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110426

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110712

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110725

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees