JP4060559B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP4060559B2 JP4060559B2 JP2001278478A JP2001278478A JP4060559B2 JP 4060559 B2 JP4060559 B2 JP 4060559B2 JP 2001278478 A JP2001278478 A JP 2001278478A JP 2001278478 A JP2001278478 A JP 2001278478A JP 4060559 B2 JP4060559 B2 JP 4060559B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- attribute
- area
- color
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、文書などの画像をファイリングや複写のために文書の構成要素と色情報によって変換処理を行なう画像処理装置および画像処理方法に関する。
【0002】
【従来の技術】
文書画像を画像データとして取り込んで、その画像をハードコピーとして出力したり、イメージファイルとして保存したりする技術として、複写機や、パーソナルコンピュータ等に於ける、イメージ取り込みの分野に利用されている技術や、ファイリングシステム装置やデータベースに利用される技術等がある。
【0003】
この種、画像データを扱う装置に於いて、取り込んだ画像をハードコピーとして出力する場合、文書画像として利用者が見易いものにするために、画像処理を施す場合がある。例えば、文書画像に文字が含まれている場合、ハイパスフィルタ処理を施すことによって、文字のエッジ部分が強調され、くっきりとした、読み易い文字となる。また、写真の場合、写真の滑らかな階調を再現するために、ローパスフィルタを施すことによって、ざらつき感が無くなり、奇麗な出力となる。網点で構成された網点写真であるのか、あるいは銀塩写真であるのかによっても処理を切り替えることも可能である。
【0004】
一方、イメージデータとして取り込む場合、カラー画像や濃淡画像のデータ量は非常に大きいため、データ量を削減するためにデータ圧縮を施すことが多い。このような場合、文字は2値化することによってデータ量を削減することが可能となり、写真は階調性を保存するような圧縮処理を施すことにより写真の美しさを保存しつつ、データ量を圧縮することが可能となる。
【0005】
以上のように、文書画像の種類によって処理手法を変更することは、ハードコピーとして出力する際も、イメージファイルとして保存する際にも非常に有効である。
【0006】
文書画像は、通常、テキスト、図表、写真等の領域がそれぞれ単独にあるいは重なり合うことによって構成されている。したがって、画像処理を行なう場合、文書画像にどのような領域がどのように構成されているかを検知する必要がある。
【0007】
従来、文字、網点、写真等の文書画像を構成する要素を識別するために、入力画像データの濃度値を利用する方法が用いられてきた。2×2から4×4画素程度のブロック内に於ける最大値と最小値の差を用いて写真領域と非写真領域に分離する方法、ブロック内でエッジ画素を検出し、そのエッジ画素が文字の一部か否かをパターンマッチングによって判別する方法、3値化された画像に対しパターンマッチングによりエッジ検出およびピーク画素検出を行ない判定する方法、ブロック内の各画素に於けるエッジ量の総和を算出し分離する方法等である。これらの手法に共通しているのは、高速な処理を実現するため、数画素単位のブロック毎に処理を行なっていることである。
【0008】
したがって、ブロック内に存在する画素値の変化によっては、同一の構成要素に於ける隣接ブロック間で違う要素であると誤って識別される虞があり、その結果として同じ領域でありながら異なった画像処理が施される。
【0009】
これを解決する方法として、特願平8−34702号に記載されているように、レイアウト解析を利用して、文書画像の構造を抽出するものがある。この方法では、2値化処理を行なった後に、画素の連結性を調べ、連結している画素同士を領域として抽出して、その位置や大きさ等の特徴量を利用して識別するものである。さらに、特願平10−191286号に記載されているように、入力された画像に対し、複数の2値画像に分離して、各々の2値画像データに於いてレイアウト解析を行なう方法もある。この方法では濃度値によって画像を分離しているため、各々の画像を処理した結果を比較することで、通常の2値化では困難であった正確な文書要素の抽出や識別を行なうことができる。またカラー画像や濃淡画像を複数の2値画像で表現しているため、処理時間の短縮とメモリ容量の削減が図られている。
【0010】
しかし、これらの方法では、カラー、グレー、黒といった彩度の違いによる色属性を文書要素毎に与えることは可能であったが、どのような色によって描かれているかは分からなかった。
【0011】
例えば、カラー画像に於いて、グラフのような複雑な線図形は、その領域に於ける特徴量が写真と類似することがあり、そのため写真と誤って識別する場合がある。逆に、薄い写真領域は、その領域における特徴量が線図形に類似することがあり、そのため線図形と誤って識別する場合がある。誤った識別の結果、写真領域に対してハイパスフィルタ処理を行なって、ざらついた画像となり、逆に、線図形にローパスフィルタ処理を行なって文字や線がぼやけた画像となる虞がある。通常、カラー写真は、多色により表現されており、色の分布は、散らばっていることが多い。線図形では限定された色により表現され、色の分布は塊のようになっていることが多い。したがって、色の分布を調べることにより誤識別を防ぐことが可能となる。しかし、カラー属性だけでは色の分布を調べることが難しい。
【0012】
また、通常、文書に赤色の文字がある場合、他の部分より注目すべき部分であることが多い。このような文字は、ファイリングを行なう際のキーワードとなることが想定されるため、より高度な文書処理を考慮した場合、他の文字と区別して扱うことが重要となってくる。しかし、この場合もカラー属性だけでは、赤色の文字と他の色との区別をつけるのは難しい。
【0013】
更に、ハードコピーとして出力する場合、予め使われている色が分かっているならば、色変換テーブルを構築する際に、使われていない色を除外し、逆に使われている色の分解能をあげることにより、綺麗な出力を得ることが可能となるが、どのような色分布であるか分からないため、このような適応的なカラーテーブルを構築することは難しい。
【0014】
このように、特願平10−191286号に記載されている方法では、文書要素がどのような色で描かれているかを示す色分布が分からないため、カラー画像に於ける特徴を抽出することが困難であった。
【0015】
【発明が解決しようとする課題】
上述したように従来では、画像データとして読み込まれた画像の各画素を、前記画像の画素およびその近傍画素の濃度情報に応じて複数の画像に分離し、当該各画像から領域を抽出し、抽出した領域の特徴量により分離された画像毎の属性を識別する画像処理に於いて、例えば写真領域、線図形領域等を弁別するための有効な処理手段が存在しなかった。
【0016】
本発明は上記実情に鑑みなされたもので、画像データとして読み込まれた画像の各画素を、前記画像の画素およびその近傍画素の濃度情報に応じて複数の画像に分離し、当該各画像から領域を抽出し、抽出した領域の特徴量により分離された画像毎の属性を識別する画像処理に於いて、例えば写真領域、線図形領域等を弁別するための有効な処理が期待できる画像処理装置および画像処理方法を提供することを目的とする。
【0017】
【課題を解決するための手段】
本発明は、画像データとして読み込まれた画像の各画素を、前記画像の画素およびその近傍画素の濃度情報に応じて複数の画像に分離し、当該各画像から領域を抽出し、抽出した領域の特徴量により分離された画像毎の属性を識別する画像処理方法に於いて、前記抽出した領域の複数色毎若しくは特定色の色の固まり形状を認識し、当該認識した色の固まり状態の情報を識別条件に前記画像の属性を識別することを特徴とする。
【0018】
また、本発明に係る画像処理装置は、画像データとして読み込まれた画像の各画素を、前記画像の画素およびその近傍画素の濃度情報に応じて複数の画像に分離し、当該各画像から領域を抽出し、抽出した領域の特徴量により分離された画像毎の属性を識別する領域識別手段と、前記画像データとして読み込まれた画像の各画素を、前記画像の画素およびその近傍画素の色情報によって数種類の色に分類する色分類手段と、前記領域識別手段で取得した画像の属性、および前記色分類手段で取得した色の各情報をもとに、前記画像データとして読み込まれた画像の各画素の属性を識別する画素属性識別手段と、この画素属性識別手段により識別された属性を画像に変換して出力する画像出力手段とを具備することを特徴とする。
【0019】
また、本発明に係る画像処理装置は、画像データとして読み込まれた画像の各画素を、前記画像の画素およびその近傍画素の濃度情報に応じて複数の画像に分離し、当該各画像から領域を抽出し、抽出した領域の特徴量により分離された画像毎の属性を識別する領域識別手段と、前記画像データとして読み込まれた画像の各画素を、前記画像の画素およびその近傍画素の色情報によって数種類の色に分類する色分類手段と、前記領域識別手段で取得した画像の属性、および前記色分類手段で取得した色の各情報をもとに、前記画像データとして読み込まれた画像の各画素の属性を決定する画素属性識別手段と、前記画素属性識別手段で取得した特定の属性に対して画像生成方法の変更を行なう画像出力制御手段と、前記画素属性識別手段で取得した属性を画像に変換して出力する画像出力手段とを具備することを特徴とする。
【0020】
また、本発明に係る画像処理装置は、画像データとして読み込まれた画像の各画素を、前記画像の画素およびその近傍画素の濃度情報に応じて複数の画像に分離し、当該各画像から領域を抽出し、抽出した領域の特徴量により分離された画像毎の属性を識別する領域識別手段と、前記領域識別手段で抽出された領域内の各画素の色情報から前記領域内の色分布の情報を取得する色分類手段と、前記領域識別手段で取得した画像の属性、および前記色分類手段で取得した色の各情報をもとに、前記画像データとして読み込まれた画像の各画素の属性を識別する画素属性識別手段と、この画素属性識別手段により識別された属性を画像に変換して出力する画像出力手段とを具備することを特徴とする。
【0021】
上記した本発明の機能を備えることにより、従来発生していた写真領域や線図形領域の誤識別の軽減につながり、例えばハードコピーをとる場合、写真領域に対してはローパスフィルタ処理を行って滑らかな階調を再現するためにローパスフィルタを施すことによって、ざらつき感が無くなり、奇麗な出力となり、また、線図形領域に対してはハイパスフィルタ処理を施すことによって、文字のエッジ部分が強調され、くっきりとした出力にすることが可能となる。また、色によって画像編集の指示を行なったり、ファイリングの際に色付きの文字をキーワードとして自動登録を行なったりすることも可能となる。
【0022】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態を説明する。
【0023】
図1は本発明の第1実施形態に於ける装置システムの構成を示すブロック図である。
【0024】
本発明は、文書画像を画像入力部によって取り込み、領域識別部に於いて画素値の濃度差や彩度などの状態によって複数の画像データに分離し、物理的あるいは論理的に連結しているものを一つの領域として抽出した後、個々の領域の画像上の位置、大きさ、形状、構造、濃度分布等の特徴量を計測し、その計測結果を予め定められたルールに基づいて文書構成要素として識別し、色分類部に於いて画素値の色相や彩度などの状態によって、幾つかの色に分類し、その結果を色分布画像データとして保持し、更に複数の画像データから抽出された領域の情報や色分布画像データより画像の各画素の属性を決定することによって、文書画像内の領域毎の属性を検知することができる。また、画像出力制御部で特定の属性を持った画素に対して色分布画像データに基づき、編集処理を行なわせることができる。
【0025】
以下、本発明のより具体的な実施の形態について、図面を参照して説明する。
【0026】
図1は本発明の第1実施形態に於ける画像処理装置の要部の構成要素を示すブロック図である。
【0027】
図1に於いて、101は画像入力部、102は領域識別部、103は色分類部、104は画素属性識別部、105は画像出力部である。
【0028】
画像入力部101は、画像データを入力する装置であり、書類を読み取って画像データに変換する装置であるイメージスキャナ等の画像入力装置により、文書等の書類から描かれているものを取り込む装置である。尚、この画像入力部101はイメージスキャナ等の読み取り装置で構成されたものでもよいし、保存された画像イメージを取り込む装置であってもよい。
【0029】
領域識別部102は、画像入力部101に於いて入力された画像データから文書要素を領域として抽出する。先ず、画像入力部101に於いて入力された画像データに対して、周辺画素の濃度差や彩度などの状態によって複数の2値の画像データに分離し、各画像より文字や図形等が物理的にあるいは論理的に連結されている各領域に分割して抽出し、その領域の位置、大きさ、形状、構造、濃度分布等の特徴量を計測して、文書要素としての各種類や重要度を識別する。文書要素の種類としては、例えば、文字、写真、図、表、網点などがあげられる。複数の2値の画像データに分離する具体的な手法として、既に公知となっているものがあり、例えば、特願平10−053317号で開示されている手法により実現してもよい。この場合、文字画像、中間調画像、下地画像、網点画像、カラー画像、グレー画像、黒画像の7つの2値分離画像データが生成される。また、文書要素の抽出および識別の具体的な手法として、既に公知となっているものがあり、例えば、特願平8−34702号で開示されている手法により実現してもよい。この領域抽出部102では、単一画像データからだけではなく、複数画像データでの特徴量をルールに従って統合し、入力された画像データの領域属性を決定する。例えば、文字画像と中間調画像の双方から同じ位置に領域が抽出された場合、その領域の種類や領域の大きさはどれだけなのかを決定する。具体的な例として、文字画像上に写真領域が存在し、同じ位置に中間調画像に中間調画素が存在する場合、銀塩写真領域と決定する。複数画像データからの領域属性決定の具体的な手法として、既に公知となっているものがあり、例えば、特願平10−053317号で開示されている手法により実現してもよい。
【0030】
色分類部103は、詳細は後述するが、画像入力部101に於いて入力された画像データに対して、周辺画素の色相や彩度などの状態から幾つかの色(数種類の色について、その同色の分布の状態)に分類し、その結果を色分類画像データとして生成するものである。
【0031】
画素属性識別部104は、詳細は後述するが、領域識別部102で識別された複数画像データの領域の種類や重要度と色分離部103で分類された色分類画像データを用いて、入力された画像データの画素毎の属性を決定するものである。
【0032】
画像出力部105は、画素属性識別部104によって決定された領域情報に従って出力を行なう。出力形態としては、例えば属性の領域情報を画像に変換したものでもよい。属性の領域情報を画像に変換する具体的な手法として、既に公知となっているものがあり、例えば、特願平10−053317号で開示されている手法により実現してもよい。
【0033】
図2は上記図1に示した本発明の第1実施形態に於ける画像処理装置の文書処理手順の一例を示すフローチャートである。
【0034】
上記各図を参照して本発明の第1実施形態に於ける処理動作を説明する。
【0035】
まず、書類の画像を画像入力部101により取り込む(ステップST201)。すなわち、スキャナ等の画像入力装置を利用して書類から画像を読み取ったり、またはファイリングシステム等の画像ファイルデータを入力したりしたものを、画像入力部101により画像データに変換する。
【0036】
領域抽出部102は、上記画像入力部101より出力される画像データを1ライン分、または数ライン分ずつ読み取り、周辺画素の濃度差や彩度などの画素毎の状態によって複数の2値画像データに分離し、更に文字や図形等が物理的にあるいは論理的に連結されている領域毎に分割して抽出し、その領域の位置、大きさ、形状、構造、濃度分布等の特徴量を計測して、領域の種類や重要度等の識別を行ない、その結果、文字、写真、図、表、網点領域などの文書要素を抽出する(ステップST202)。この処理を入力された画像の全画素に対して処理が終了するまで繰り返す(ステップST203)。
【0037】
色分類部103は、上記画像入力部101より出力される画像データを1ライン分、または数ライン分ずつ読み取り、周辺画素の色相や彩度などの画素毎の状態によって各画素がどのような色であるか分類を行ない、色分布画像データを生成する。その際、データ圧縮のため、周辺画素の色分布から微小な色分布をその周囲の大きな色分布に置き換える(ステップST204)。この処理を入力された画像の全画素に対して処理が終了するまで繰り返す(ステップST205)。
【0038】
すべての画素に対して領域識別および色分類が終了した後、画素属性判別部104に於いて、各画素の最終的な属性を決定する(ステップST206)。ここで決定される属性の一例としては、写真と線図形の区別や色分布情報の付加などである。そして、上記の処理をすべての画素に対して終了するまで繰り返す(ステップST207)。
【0039】
その後、画像出力部105に於いて、各々の画素属性を画像データとして変換した出力画像を出力する(ステップST208)。
【0040】
以上が本発明の第1実施形態に於ける画像処理装置の大まかな処理動作である。
【0041】
次に上記実施形態に於ける個々の要素の処理の詳細を説明する。
【0042】
図3は本発明の第1実施形態に於ける画像処理装置に設けられた色分類部103の処理手順の一例を示すフローチャートであり、図2に示したステップST204で行われる処理の手順を示すフローチャートである。
【0043】
色分類部103は、入力画像データの色相や彩度および輝度値の特徴から入力画像を数種類の色に分類する。ここで、色の数は、画素属性識別部104で処理を行なう内容によって決定される。厳密に色を調べる必要がある場合、分類数を増やし、逆に大まかな色の分布が分かればよい場合は、分類数を減らす。一般に分類数を増やすとデータ量が増大して、コスト的に不具合が生じる。本発明では、後者の大まかな色の分布が分かればよい場合について述べる。
【0044】
以下の例では、入力された画素を赤(red)、黄色(yellow)、緑(green)、シアン(cyan)、青(blue)、マゼンダ(magenta)、白(white)、グレー(gray)、黒(black)の9通りの色に分類する一例を示す。
【0045】
画像入力部101から入力される画像データ151は、RGBで表現されるカラー情報を含んだものである。このRGBで表わされた画像データを一例として次式によって示されるYUV線形変換によって輝度値Yに変換する(ステップST301)。
【0046】
Y=0.299R+0.587G+0.114B
ここで、R、G、Bは、それぞれ入力された画像データに於ける画素のRGB値である。また、同じRGBで表わされた画像データを一例として表1に示される変換式を用いて彩度Sに変換する。
【0047】
【表1】
【0048】
図4は上記した例で示した画素変換のカラーモデルを示し、図5はそのモデルの断面を表している。図5の中央部の小さい円の領域は、白、グレー、黒のいずれかになる領域である。
【0049】
Hの値により赤(red)、黄色(yellow)、緑(green)、シアン(cyan)、青(blue)、マゼンダ(magenta)の何れかに分類される。
【0050】
以上の処理の結果、各画素は赤(red)、黄色(yellow)、緑(green)、シアン(cyan)、青(blue)、マゼンダ(magenta)、白(white)、グレー(gray)、黒(black)の何れかになる。
【0051】
これらの変換処理を入力された画像データの一行分行ない、その結果をメモリ内に保存する。
【0052】
次にHの値から更に大まかな色分布の決定を行なう(ステップST302)。ここでは、現在の行の色分布データと一つ前の行の色分布データからx方向の解像度を落としながら色分布を決定していく。
【0053】
x方向の解像度を1/Nに落とし、色分布を決定する画素位置を(i,j)とすると、i−1行で前後3N画素、i行で前後3N画素分の色分布を調べ、赤(red)、黄色(yellow)、緑(green)、シアン(cyan)、青(blue)、マゼンダ(magenta)、白(white)、グレー(gray)、黒(black)ごとにカウントする。その結果、最もカウント数が多い色をその画素の色分布と決定する。
【0054】
図6はN=3とした例を示している。図中のrは赤(red)を、mはマゼンダ(magenta)を、gはグレー(gray)を、bは黒(black)を表している。該当する画素に於いて各々の色をカウントすると、r=8、g=5、m=3、b=2となる。これより色分布は赤と決定できる。以上の処理により、解像度を落とした大まかな色の分布状態がわかる色分布を決定できる。
【0055】
そして、決定した色分布から色分布画像データを生成する(ステップST303)。これは、ランレングスデータのように「色の識別子+連続する画素数」という表現でデータを記述することにより、更に圧縮することが可能となる。その結果、色分布画像データ152が出力される。
【0056】
以上により色分類部103の出力として、色分布画像データが生成される。
【0057】
次に画素属性識別処理について説明する。
図7は本発明の第1実施形態に於ける画像処理装置に設けられた画素属性識別部104の画素属性識別処理手順を示すフローチャートであり、図2のステップST206で行われる処理の詳細を示すフローチャートである。
【0058】
画素属性識別処理とは、領域識別と色分類の結果を比較することによって、領域識別結果の確認と修正を行なう処理である。以下、図7に示すフローチャートに従って画素属性識別処理動作を説明する。
【0059】
領域識別部102では、文書要素を抽出して、識別を行ない、その結果を出力する。また、色分類部103では、数種類の色の分類を行ない、その結果を色分布画像データとして出力する。画素属性識別部104では、領域識別の結果とそれに対応する位置の色分布画像データの情報から領域識別結果の再判定を行なう。以下の例では、カラー写真と識別された領域に対しての再判定方法を述べる。尚、ここでの写真はカラー写真のことを指す。
【0060】
まず領域識別データ153が写真属性かどうかを調べる(ステップST401)。写真属性を持っていない場合、例えばテキスト属性である場合、そのまま修正領域データ154として出力する。
【0061】
ステップST401に於いて領域識別データ153が写真属性であった場合、色分布画像データ152から該当する領域の色分布情報のうち、色数を調査する(ステップST402)。写真であるならば、さまざまな色で表現されることが多い。そのような領域では、色分類の結果として、いくつもの色が検出される。逆に、色分類の結果、単色に近い場合、複雑な線図形とみなすことができる。多くの色が存在している場合、写真と判定し、そのまま修正領域データ154として出力する(ステップST403)。また、単色に近い場合、次に色分布画像データ152から該当する領域の色分布の偏りを調査する(ステップST404)。写真であるならば、色が領域中に散らばっていることが多い。逆に、線図形であるならば、オブジェクトに単一色を割り当てることが多いため、色の分布に偏りが生じることが予想される。色の偏りを調べる方法としては、色分布画像データが色情報をもったランレングスデータで表現されているため、色毎の領域抽出処理を行ない、写真と同じ領域で抽出された同一色領域の大きさや形状や画素の分布といった特徴量を抽出してもよい。その結果、色に偏りが無い場合、写真と判定し、そのまま修正領域データ154として出力する(ステップST405)。偏りがある場合、線図形と判定し、写真属性から線図形属性に修正した修正領域データ154を出力する(ステップST406)。
【0062】
以上の処理を全ての写真領域に行なうことで、識別精度の向上を図ることが可能となる。
【0063】
図8は上記した本発明の第1実施形態に於ける画像処理装置に入力される一例としての画像データの例である。ここでは画像データ501として、線図形部分502と、文章部分503が描かれているものを示してある。この例を用いて画素属性識別部104に於ける実際の処理過程を説明する。
【0064】
上記図8に示す画像データ501を画像入力部101より取り込み、領域識別部102によって領域として抽出した線図形部分502は、複雑なグラフであるために、写真領域と誤識別され、文章部分503は文字領域として識別される。その結果は、例えば、線図形領域、は写真領域と誤識別され、図9の502aの如く、文字領域は503aの如く出力される。
【0065】
さて、写真領域と誤識別された線図形領域502aは、画素属性識別部104によって写真であるか否か再判定される。この際は、色分類部103で生成された色分布画像データによって、写真領域と誤識別された線図形領域502aは色が少ないと判定されたとする。その後、色分布画像データから同一色領域の抽出を行ない、その大きさや形状や画素の分布状態から、色の分布に偏りがあると判定される。したがって、画素属性識別部104の出力としては、修正領域データとして、写真領域を線図形領域と変更し、出力することとなる。
【0066】
この例のように、本発明による画像処理装置によると複雑な線図形領域を写真領域として誤識別した場合であっても、色の分布状態から、線図形として正しく識別することが可能となる。
【0067】
以上が、画素属性識別部104の処理の詳細である
また、別の形態では、色分類部103で生成される色分布画像データにしたがって、出力を制御することも可能である。この機能を実現した画像処理装置の一例を本発明の第2実施形態として説明する。
【0068】
以下に本発明の第2実施形態に於ける、より具体的な処理の一例について、図面を参照して説明する。
【0069】
図10は本発明の第2実施形態に於ける画像処理装置の一構成例を示すブロック図である。
【0070】
図10に於いて、101は画像入力部、102は領域識別部、103は色分類部、104は画素属性識別部、105は画像出力部、106は画像出力制御部である。
【0071】
画像入力部101、領域識別部102、色分類部103、および画素属性識別部104については、上述した第1実施形態に於いて、図1を用いて説明した構成要素と同様のものであり、ここではその説明を省略する。
【0072】
画像出力制御部106は、色分類部103で生成される色分布画像データにしたがって、画像出力方法の変更を行ない、その情報を画像出力部105へ渡す。
【0073】
図11は本発明の画像処理装置に入力される一例としての画像データの例である。ここでは画像データ601として、写真部分602と、文章部分603と、閉曲線604が描かれているものを示している。文章部分603は黒で、閉曲線604は赤で描かれているとする。この例を用いて画像出力制御部106に於ける処理の一例を説明する。
【0074】
画像入力部101より取り込まれた画像データ601は、領域識別部102によって領域抽出される。ここでは、図12に於ける写真領域602aと文字領域603aと赤の平曲線604aとに識別される。
【0075】
画像出力制御部106は、抽出された領域の状態と色が対応付けられたルールによって構成される。例えば、「赤の閉曲線で囲まれた領域内に存在する文字の色を赤で置き換える」というルールが記述されているならば、色分類部103で生成される色分布画像データを参照することによって、閉曲線604a内に存在する文字領域603aの文字を「黒」から「赤」に置き換えることが可能となる。上述した従来技術では、閉曲線604a内の全て黒が赤に置き換えられてしまうが、本発明に於いては、画素属性とその色を対応付けることが可能であるため、このような高度な編集も可能となる。
【0076】
また、別の形態では、画像出力部105が画像ファイリングであっても効果がある。
【0077】
以下、本発明の第2実施形態に於ける、より具体的な処理の一例について、図面を参照して説明する。
【0078】
図13は本発明の第2実施形態に於ける画像処理装置に入力される一例としての画像データの例である。ここでは画像データ701として、線図形部分702と、文章部分703が描かれており、更に文字704と文字705は赤で描かれているとする。この例を用いて、上記画像出力制御部106に於ける処理の一例を説明する。
【0079】
画像入力部101より取り込まれた上記画像データ701は、領域識別部102によって領域抽出される。ここでは、図14に於ける線図形領域702aと文字領域703aとに識別される。
【0080】
通常、文書内に於ける赤い文字は、その文書に於いて重要な意味を成すことが多いため、ファイリング時のキーワードとして利用することが考えられる。
【0081】
画像出力制御部106で「赤の文字が存在する場合、その文字領域に対して文字認識処理を行なわせ、キーワードとして登録する」というルールを記述しておくと、上述した色分類部103で生成される色分布画像データを参照することによって、文字領域703a中に赤で描かれている文字704aと705aを自動的に抽出して、キーワード登録することも可能となる。
【0082】
このように本発明の実施形態に於いては、画像データを画像入力部101により取り込み、この画像データ(カラー画像)を領域識別部102に於いて画素値の濃度差や彩度などの状態により複数の画像データに分離し、物理的あるいは論理的に連結しているものを一つの領域として抽出した後、個々の領域の画像上の位置、大きさ、形状、構造、濃度分布等の特徴量を計測し、更に、その計測結果を予め定められたルールに基づいて文書構成要素として識別し、色分類部103に於いて画素値の色相や彩度などの状態によって、幾つかの色に分類し、その結果を色分布画像データとして保持し、画素属性識別部104に於いて領域識別データと色分布画像データから文書内の各画素の属性を決定し、画像出力部105によって、構造的な画素属性を出力している。このような処理機能をもつことで、文書要素の識別精度を向上させることが可能となり、また色の違いを利用した、より高度な編集処理を行なうことが可能となる。
【0083】
【発明の効果】
以上詳記したように、本発明によれば、画像データとして読み込まれた画像の各画素を、前記画像の画素およびその近傍画素の濃度情報に応じて複数の画像に分離し、当該各画像から領域を抽出し、抽出した領域の特徴量により分離された画像毎の属性を識別する画像処理に於いて、例えば写真領域、線図形領域等を弁別するための有効な処理が期待できる。
【0084】
更に、本発明によれば、文書をハードコピーしたり、イメージデータに変換して保存しようとする場合、入力されたカラー画像に対して、画素値の濃度差や彩度などの状態によって複数の画像データに分離し、物理的あるいは論理的に連結しているものを一つの領域として抽出した後、個々の領域の画像上の位置、大きさ、形状、構造、濃度分布等の特徴量を計測し、その計測結果を予め定められたルールに基づいて文書構成要素として識別し、画素値の色相や彩度などの状態によって、幾つかの色に分類して、その結果を色分布画像データとして保持し、領域識別結果と色分布画像データの比較により、文書要素の識別精度を向上させることが可能となる。その結果、従来発生していた写真領域や線図形領域の誤識別の軽減につながり、例えばハードコピーをとる場合、写真領域に対してはローパスフィルタ処理を行って滑らかな階調を再現するためにローパスフィルタを施すことによって、ざらつき感が無くなり、奇麗な出力となる。また、線図形領域ではハイパスフィルタ処理を施すことによって、文字のエッジ部分が強調され、くっきりとした出力にすることが可能となる。また、色によって画像編集の指示を行なったり、ファイリングの際に色付きの文字をキーワードとして自動登録を行なったりすることも可能となる。
【図面の簡単な説明】
【図1】本発明の第1実施形態に於ける画像処理装置の要部の構成要素を示すブロック図。
【図2】上記実施形態に於ける画像処理手順の一例を示すフローチャート。
【図3】上記実施形態に於ける色分類部の処理手順の一例を示すフローチャート。
【図4】上記実施形態に於ける色分類部の処理動作を説明するための画素変換のカラーモデルを示す図。し、図5はそのモデルの断面を表している。
【図5】上記図4に示すカラーモデルの断面を示す図。
【図6】上記実施形態に於ける色分布画像生成処理の動作説明図。
【図7】上記実施形態に於ける画素属性識別部の処理手順を示すフローチャート
【図8】上記実施形態の動作を説明するための入力画像データの一例を示す図。
【図9】上記図8に示す画像データの領域抽出例を示す図。
【図10】本発明の第2実施形態に於ける画像処理装置の要部の構成要素を示すブロック図。
【図11】上記実施形態の動作を説明するための入力画像データの一例を示す図。
【図12】上記図11に示す画像データの領域抽出例を示す図。
【図13】上記実施形態の動作を説明するための入力画像データの一例を示す図。
【図14】上記図13に示す画像データの領域抽出例を示す図。
【符号の説明】
101…は画像入力部
102…領域識別部
103…色分類部
104…画素属性識別部
105…画像出力部
106…画像出力制御部
501…画像データ
502…領域として抽出した線図形部分
503…領域として抽出した文章部分
502a…写真領域と誤識別された線図形領域
503a…文章領域と誤識別された線図形領域
601…画像データ
602…領域として抽出した写真部分
603…領域として抽出した文章部分
604…領域として抽出した閉曲線部分
602a…識別された写真領域
603a…識別された文字領域
604a…識別された平曲線領域
701…画像データ
702…領域として抽出した線図形部分
703…領域として抽出した文章部分
704…領域として抽出した文字部分
704,705…文字領域に赤で描かれた文字
702a…識別された線図形領域
703a…識別された文字領域
704a,705a…自動抽出された赤で描かれている文字[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and an image processing method for converting an image of a document or the like by filing or copying using document components and color information.
[0002]
[Prior art]
Technology used in the field of image capture in copying machines, personal computers, etc., as a technology for capturing document images as image data and outputting the images as hard copies or saving them as image files And technologies used for filing system devices and databases.
[0003]
In this type of apparatus that handles image data, when the captured image is output as a hard copy, image processing may be performed to make it easy for the user to view as a document image. For example, when a character is included in a document image, the edge portion of the character is emphasized by performing a high-pass filter process, and the character becomes clear and easy to read. Further, in the case of a photograph, by applying a low-pass filter to reproduce the smooth gradation of the photograph, the feeling of roughness is eliminated and a beautiful output is obtained. It is also possible to switch the processing depending on whether the photograph is a halftone dot photograph composed of halftone dots or a silver salt photograph.
[0004]
On the other hand, when capturing as image data, the amount of data of color images and grayscale images is very large, and therefore data compression is often performed to reduce the amount of data. In such a case, it is possible to reduce the amount of data by binarizing characters, and the amount of data can be reduced while preserving the beauty of the photograph by applying compression processing that preserves gradation. Can be compressed.
[0005]
As described above, changing the processing method according to the type of document image is very effective both when outputting as a hard copy and when saving as an image file.
[0006]
A document image is usually constituted by areas of text, diagrams, photographs, etc., each independently or overlapping. Therefore, when image processing is performed, it is necessary to detect what region and how the document image is configured.
[0007]
Conventionally, a method using a density value of input image data has been used to identify elements constituting a document image such as characters, halftone dots, and photographs. A method of separating a photo area and a non-photo area using a difference between the maximum value and the minimum value in a block of about 2 × 2 to 4 × 4 pixels, detecting an edge pixel in the block, and the edge pixel is a character A method for determining whether or not it is part of a pattern by pattern matching, a method for determining by performing edge detection and peak pixel detection by pattern matching on a ternary image, and summing the amount of edges at each pixel in the block A method of calculating and separating. What is common to these methods is that processing is performed for each block of several pixels in order to realize high-speed processing.
[0008]
Therefore, depending on the change of the pixel value existing in the block, there is a possibility that it is mistakenly identified as a different element between adjacent blocks in the same component, and as a result, different images in the same area. Processing is performed.
[0009]
As a method for solving this, there is a method for extracting the structure of a document image using layout analysis, as described in Japanese Patent Application No. 8-34702. In this method, after performing the binarization process, the connectivity of the pixels is examined, the connected pixels are extracted as regions, and are identified using the feature amount such as the position and size. is there. Further, as described in Japanese Patent Application No. 10-191286, there is a method in which an input image is separated into a plurality of binary images and layout analysis is performed on each binary image data. . In this method, images are separated based on density values. Therefore, by comparing the results of processing the images, it is possible to accurately extract and identify document elements, which is difficult with normal binarization. . In addition, since color images and grayscale images are expressed by a plurality of binary images, processing time and memory capacity are reduced.
[0010]
However, in these methods, although it was possible to give color attributes based on differences in saturation such as color, gray, and black for each document element, it was not known what color was used for drawing.
[0011]
For example, in a color image, a complicated line figure such as a graph may have a feature amount similar to that of a photograph in the region, and may be erroneously identified as a photograph. Conversely, a thin photographic area may have a feature quantity similar to that of a line figure, and thus may be erroneously identified as a line figure. As a result of erroneous identification, there is a possibility that a high-pass filter process is performed on a photographic area to produce a rough image, and conversely, a line figure is subjected to a low-pass filter process to produce an image with blurred characters and lines. Usually, a color photograph is expressed by multiple colors, and the color distribution is often scattered. A line figure is represented by a limited color, and the color distribution is often like a lump. Therefore, it is possible to prevent erroneous identification by examining the color distribution. However, it is difficult to examine the color distribution only with color attributes.
[0012]
In general, when a document has red characters, it is often a portion that should be noted more than other portions. Since such characters are assumed to be keywords when filing, it is important to distinguish them from other characters when considering more advanced document processing. However, in this case as well, it is difficult to distinguish red characters from other colors only with color attributes.
[0013]
Furthermore, when outputting as a hard copy, if the colors used in advance are known, when the color conversion table is constructed, the unused colors are excluded and the resolution of the colors used is reversed. As a result, it is possible to obtain a beautiful output, but it is difficult to construct such an adaptive color table because the color distribution is unknown.
[0014]
As described above, in the method described in Japanese Patent Application No. 10-191286, the color distribution indicating the color in which the document element is drawn is not known. Therefore, the feature in the color image is extracted. It was difficult.
[0015]
[Problems to be solved by the invention]
As described above, conventionally, each pixel of an image read as image data is separated into a plurality of images according to density information of the pixel of the image and its neighboring pixels, and an area is extracted from each image and extracted. In the image processing for identifying the attribute of each image separated by the feature amount of the area, there is no effective processing means for discriminating, for example, a photographic area, a line figure area, and the like.
[0016]
The present invention has been made in view of the above circumstances, and each pixel of an image read as image data is separated into a plurality of images according to density information of the pixels of the image and its neighboring pixels, and an area from each image is obtained. And an image processing apparatus that can be expected to be effective for discriminating, for example, a photograph area, a line figure area, and the like in image processing for identifying attributes for each image separated by the feature amount of the extracted area, and An object is to provide an image processing method.
[0017]
[Means for Solving the Problems]
The present invention separates each pixel of an image read as image data into a plurality of images according to density information of the pixel of the image and its neighboring pixels, extracts a region from each image, and extracts the extracted region In an image processing method for identifying an attribute for each image separated by a feature amount, a shape of a color cluster of a plurality of colors or a specific color in the extracted region is recognized, and information on the recognized color cluster state is obtained. The attribute of the image is identified by an identification condition.
[0018]
In addition, the image processing apparatus according to the present invention separates each pixel of an image read as image data into a plurality of images according to density information of the pixel of the image and its neighboring pixels, and a region is divided from each image. Region identification means for identifying the attribute for each image extracted and separated by the feature quantity of the extracted region, and each pixel of the image read as the image data by the color information of the pixel of the image and its neighboring pixels Each pixel of the image read as the image data based on the color classification means for classifying into several kinds of colors, the attribute of the image acquired by the area identification means, and the information of the color acquired by the color classification means A pixel attribute identifying means for identifying the attribute of the image, and an image output means for converting the attribute identified by the pixel attribute identifying means into an image and outputting the image.
[0019]
In addition, the image processing apparatus according to the present invention separates each pixel of an image read as image data into a plurality of images according to density information of the pixel of the image and its neighboring pixels, and a region is divided from each image. Region identification means for identifying the attribute for each image extracted and separated by the feature quantity of the extracted region, and each pixel of the image read as the image data by the color information of the pixel of the image and its neighboring pixels Each pixel of the image read as the image data based on the color classification means for classifying into several kinds of colors, the attribute of the image acquired by the area identification means, and the information of the color acquired by the color classification means A pixel attribute identifying unit that determines an attribute of the image, an image output control unit that changes an image generation method for the specific attribute acquired by the pixel attribute identifying unit, and a pixel attribute identifying unit. Characterized by comprising an image output means for converting the attributes in the image.
[0020]
In addition, the image processing apparatus according to the present invention separates each pixel of an image read as image data into a plurality of images according to density information of the pixel of the image and its neighboring pixels, and a region is divided from each image. Area identification means for identifying attributes for each image extracted and separated by the feature quantity of the extracted area, and color distribution information in the area from the color information of each pixel in the area extracted by the area identification means The color classification means for acquiring the image attribute, the attribute of the image acquired by the area identification means, and the attribute of each pixel of the image read as the image data based on each information of the color acquired by the color classification means It comprises a pixel attribute identifying means for identifying, and an image output means for converting the attribute identified by the pixel attribute identifying means into an image and outputting it.
[0021]
By providing the above-described functions of the present invention, it is possible to reduce the erroneous identification of a photographic area or a line figure area that has occurred in the past. For example, when taking a hard copy, a low-pass filter process is performed on the photographic area for smoothness. By applying a low-pass filter to reproduce a smooth gradation, the feeling of roughness is eliminated, resulting in a beautiful output, and by applying high-pass filter processing to the line figure area, the edge portion of the character is emphasized, It becomes possible to obtain a clear output. In addition, it is possible to instruct image editing by color, or to perform automatic registration using colored characters as keywords during filing.
[0022]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0023]
FIG. 1 is a block diagram showing a configuration of an apparatus system according to the first embodiment of the present invention.
[0024]
In the present invention, a document image is captured by an image input unit, and is divided into a plurality of image data according to a state such as a pixel value density difference or saturation in a region identification unit, and is physically or logically connected. Are extracted as a single area, and then the features, such as the position, size, shape, structure, density distribution, etc. on the image of each area are measured, and the measurement results are based on predetermined rules. In the color classification unit, it is classified into several colors according to the state of the pixel value such as hue and saturation, the result is held as color distribution image data, and further extracted from a plurality of image data By determining the attribute of each pixel of the image from the area information and the color distribution image data, the attribute for each area in the document image can be detected. In addition, the image output control unit can cause the pixel having a specific attribute to be edited based on the color distribution image data.
[0025]
Hereinafter, more specific embodiments of the present invention will be described with reference to the drawings.
[0026]
FIG. 1 is a block diagram showing components of a main part of the image processing apparatus according to the first embodiment of the present invention.
[0027]
In FIG. 1, 101 is an image input unit, 102 is a region identification unit, 103 is a color classification unit, 104 is a pixel attribute identification unit, and 105 is an image output unit.
[0028]
The image input unit 101 is a device that inputs image data, and is a device that captures what is drawn from a document such as a document by an image input device such as an image scanner that is a device that reads a document and converts it into image data. is there. The image input unit 101 may be configured by a reading device such as an image scanner, or may be a device that captures a stored image image.
[0029]
The
[0030]
Although the details will be described later, the
[0031]
Although details will be described later, the pixel
[0032]
The
[0033]
FIG. 2 is a flowchart showing an example of a document processing procedure of the image processing apparatus according to the first embodiment of the present invention shown in FIG.
[0034]
The processing operation in the first embodiment of the present invention will be described with reference to the respective drawings.
[0035]
First, a document image is captured by the image input unit 101 (step ST201). That is, an image input unit 101 converts an image input device such as a scanner that reads an image from a document or inputs image file data such as a filing system into image data.
[0036]
The
[0037]
The
[0038]
After region identification and color classification are completed for all pixels, the pixel
[0039]
Thereafter, the
[0040]
The above is the rough processing operation of the image processing apparatus according to the first embodiment of the present invention.
[0041]
Next, details of the processing of individual elements in the above embodiment will be described.
[0042]
FIG. 3 is a flowchart showing an example of the processing procedure of the
[0043]
The
[0044]
In the example below, the input pixels are red, yellow, green, cyan, blue, magenta, white, gray, An example of classification into nine colors of black (black) is shown.
[0045]
The
[0046]
Y = 0.299R + 0.587G + 0.114B
Here, R, G, and B are the RGB values of the pixels in the input image data. Further, the image data expressed in the same RGB is converted into saturation S using the conversion formula shown in Table 1 as an example.
[0047]
[Table 1]
[0048]
FIG. 4 shows a color model of pixel conversion shown in the above example, and FIG. 5 shows a cross section of the model. The small circular area in the center of FIG. 5 is an area that becomes one of white, gray, and black.
[0049]
Depending on the value of H, it is classified into one of red, yellow, green, cyan, blue, and magenta.
[0050]
As a result of the above processing, each pixel is red, yellow, green, cyan, blue, magenta, white, gray, black (black)
[0051]
These conversion processes are performed for one line of the input image data, and the result is stored in the memory.
[0052]
Next, a rougher color distribution is determined from the value of H (step ST302). Here, the color distribution is determined while reducing the resolution in the x direction from the color distribution data of the current row and the color distribution data of the previous row.
[0053]
xWhen the resolution of the direction is reduced to 1 / N and the pixel position for determining the color distribution is (i, j), the color distribution of the 3N pixels before and after the i-1 row and the 3N pixels before and after the i row is examined. Count is performed for each of red, yellow, green, cyan, blue, magenta, white, gray, and black. As a result, the color having the largest count number is determined as the color distribution of the pixel.
[0054]
FIG. 6 shows an example in which N = 3. In the figure, r represents red, m represents magenta, g represents gray, and b represents black. When each color is counted in the corresponding pixel, r = 8, g = 5, m = 3, and b = 2. From this, the color distribution can be determined to be red. Through the above processing, it is possible to determine a color distribution that shows a rough color distribution state with a reduced resolution.
[0055]
Then, color distribution image data is generated from the determined color distribution (step ST303). This can be further compressed by describing the data with the expression “color identifier + number of consecutive pixels” like run-length data. As a result, color
[0056]
As described above, the color distribution image data is generated as the output of the
[0057]
Next, pixel attribute identification processing will be described.
FIG. 7 is a flowchart showing a pixel attribute identification process procedure of the pixel
[0058]
The pixel attribute identification process is a process of confirming and correcting the area identification result by comparing the results of area identification and color classification. Hereinafter, the pixel attribute identification processing operation will be described with reference to the flowchart shown in FIG.
[0059]
The
[0060]
First, it is checked whether or not the
[0061]
If the
[0062]
It is possible to improve the identification accuracy by performing the above processing on all the photo areas.
[0063]
FIG. 8 shows an example of image data input as an example to the image processing apparatus according to the first embodiment of the present invention. Here, as the
[0064]
The
[0065]
Now, the
[0066]
As in this example, according to the image processing apparatus of the present invention, even when a complicated line figure area is erroneously identified as a photographic area, it can be correctly identified as a line figure from the color distribution state.
[0067]
The above is the details of the processing of the pixel
In another embodiment, the output can be controlled according to the color distribution image data generated by the
[0068]
Hereinafter, an example of more specific processing in the second embodiment of the present invention will be described with reference to the drawings.
[0069]
FIG. 10 is a block diagram showing an example of the configuration of the image processing apparatus according to the second embodiment of the present invention.
[0070]
In FIG. 10, 101 is an image input unit, 102 is a region identification unit, 103 is a color classification unit, 104 is a pixel attribute identification unit, 105 is an image output unit, and 106 is an image output control unit.
[0071]
The image input unit 101, the
[0072]
The image
[0073]
FIG. 11 shows an example of image data input to the image processing apparatus of the present invention. Here, as the
[0074]
The
[0075]
The image
[0076]
In another form, the
[0077]
Hereinafter, an example of more specific processing in the second embodiment of the present invention will be described with reference to the drawings.
[0078]
FIG. 13 shows an example of image data that is input to the image processing apparatus according to the second embodiment of the present invention. Here, it is assumed that a
[0079]
The
[0080]
Usually, red characters in a document often have an important meaning in the document, so it may be used as a keyword for filing.
[0081]
If the rule that “when a red character exists, the character area is subjected to character recognition processing and registered as a keyword” is described in the image
[0082]
As described above, in the embodiment of the present invention, image data is captured by the image input unit 101, and the image data (color image) is captured by the
[0083]
【The invention's effect】
As described above in detail, according to the present invention, each pixel of an image read as image data is separated into a plurality of images according to the density information of the pixel of the image and its neighboring pixels, and from each of the images. In the image processing for extracting the region and identifying the attribute for each image separated by the feature amount of the extracted region, it is possible to expect an effective process for discriminating, for example, a photograph region, a line figure region, and the like.
[0084]
Furthermore, according to the present invention, when a document is to be hard-copied or converted to image data and stored, a plurality of input color images can be selected depending on states such as pixel value density differences and saturation. After separating the image data and physically or logically connecting them as one area, measure the amount of features such as the position, size, shape, structure, and density distribution of each area on the image. The measurement result is identified as a document component based on a predetermined rule, and is classified into several colors according to the state of the pixel value such as hue and saturation, and the result is used as color distribution image data. The identification accuracy of the document element can be improved by holding and comparing the region identification result and the color distribution image data. As a result, it has led to the reduction of misidentification of photographic areas and line figure areas that have occurred in the past.For example, when taking a hard copy, low-pass filter processing is performed on the photographic area to reproduce smooth gradations. By applying a low-pass filter, the feeling of roughness is eliminated and a beautiful output is obtained. In addition, by applying high-pass filter processing in the line figure region, the edge portion of the character is emphasized, and a clear output can be obtained. In addition, it is possible to instruct image editing by color, or to perform automatic registration using colored characters as keywords during filing.
[Brief description of the drawings]
FIG. 1 is a block diagram showing components of a main part of an image processing apparatus according to a first embodiment of the present invention.
FIG. 2 is a flowchart showing an example of an image processing procedure in the embodiment.
FIG. 3 is a flowchart showing an example of a processing procedure of a color classification unit in the embodiment.
FIG. 4 is a diagram showing a color model of pixel conversion for explaining a processing operation of a color classification unit in the embodiment. FIG. 5 shows a cross section of the model.
FIG. 5 is a view showing a cross section of the color model shown in FIG. 4;
FIG. 6 is an operation explanatory diagram of color distribution image generation processing in the embodiment.
FIG. 7 is a flowchart showing a processing procedure of a pixel attribute identification unit in the embodiment.
FIG. 8 is a diagram showing an example of input image data for explaining the operation of the embodiment.
9 is a diagram showing an example of region extraction of the image data shown in FIG.
FIG. 10 is a block diagram showing components of a main part of an image processing apparatus according to a second embodiment of the present invention.
FIG. 11 is a diagram showing an example of input image data for explaining the operation of the embodiment.
12 is a diagram showing an example of region extraction of the image data shown in FIG.
FIG. 13 is a diagram showing an example of input image data for explaining the operation of the embodiment.
14 is a diagram showing an example of region extraction of the image data shown in FIG.
[Explanation of symbols]
101 is an image input unit
102 ... Area identification unit
103 ... Color classification part
104: Pixel attribute identification unit
105: Image output unit
106: Image output control unit
501: Image data
502 ... Line figure portion extracted as a region
503 ... sentence part extracted as a region
502a ... Line figure area misidentified as a photograph area
503a: Line figure area misidentified as text area
601: Image data
602 ... Photo part extracted as an area
603 ... sentence part extracted as a region
604 ... Closed curve portion extracted as a region
602a ... Photo area identified
603a: Identified character area
604a ... identified flat curve region
701: Image data
702 ... Line figure portion extracted as a region
703 ... sentence part extracted as a region
704 ... Character portion extracted as a region
704, 705 ... Characters drawn in red in the character area
702a: identified line figure area
703a: identified character area
704a, 705a ... automatically drawn characters drawn in red
Claims (4)
前記入力画像の各画素を、前記入力画像の画素およびその近傍画素の色情報によって数種類の色に分類する色分類手段と、
前記領域識別手段によって識別された画像の領域属性が前記写真属性である場合、前記色分類手段によって分類された色の各情報をもとに、当該領域属性が真に写真属性であるかを再識別する画素属性識別手段であって、前記写真属性であると識別された領域を対象に、前記色分類手段によって分類された色の情報から取得される当該領域の色の数に基づき、当該領域の領域属性が真に写真属性であるかを識別し、真に写真属性であると識別されない場合、当該真に写真属性であると識別されない領域を対象に、前記色分類手段によって分類された色の情報をもとに当該領域における同一色の分布の偏りの有無を判定し、同一色の分布の偏りが無い場合には当該領域の領域属性が真に写真属性であると識別し、同一色の分布の偏りが有る場合には当該領域の領域属性が線図形属性であるとして前記領域識別手段による領域識別結果を修正する画素属性識別手段と
を具備することを特徴とする画像処理装置。Into a plurality of images in accordance with each pixel and the density information of the neighboring pixels of the read input image as image data, from the respective image extracting area, extracted area for each separated image by the feature of Area identifying means for identifying a plurality of area attributes including photo attributes and text attributes ;
Color classification means for classifying each pixel of the input image into several kinds of colors according to color information of the pixel of the input image and its neighboring pixels;
If the area attribute of the image identified by the area identifying means is the photograph attribute, based on each information of the color which has been classified by the color classification means, whether the area attribute is truly photograph attribute re A pixel attribute identifying unit for identifying the region based on the number of colors of the region acquired from the color information classified by the color classification unit for the region identified as the photo attribute If the region attribute is identified as a true photo attribute and is not identified as a true photo attribute, the color classified by the color classifying unit is targeted for the region not identified as a true photo attribute. Based on this information , the presence / absence of bias in the distribution of the same color in the area is determined. If there is no bias in the distribution of the same color, the area attribute of the area is identified as a true photo attribute, and the same color If there is a distribution bias The image processing apparatus characterized by comprising a pixel attribute identifying means region attribute of the region to modify the area identification result by the area identifying means as a line graphic attribute.
前記入力画像の各画素を、前記入力画像の画素およびその近傍画素の色情報によって数種類の色に分類する分類ステップと、
前記領域識別ステップで識別された画像の領域属性が前記写真属性である場合、前記分類された色の各情報をもとに、当該写真属性が真に写真属性であるかを再識別する再識別ステップであって、前記写真属性であると識別された領域を対象に、前記分類された色の情報から取得される当該領域の色の数に基づき、当該領域の領域属性が真に写真属性であるかを識別するステップと、真に写真属性であると識別されない場合、当該真に写真属性であると識別されない領域を対象に、前記分類された色の情報をもとに当該領域における同一色の分布の偏りの有無を判定するステップと、同一色の分布の偏りが無い場合には当該領域の領域属性が真に写真属性であると識別するステップと、同一色の分布の偏りが有る場合には当該領域の領域属性が線図形属性であるとして前記領域識別ステップによる領域識別結果を修正するステップとを含む再識別ステップと
を具備することを特徴とする画像処理方法。The image is separated into a plurality of images according to the density information of each pixel of the input image read as image data and its neighboring pixels, a region is extracted from each image, and each image separated by the extracted region feature amount is extracted. an area identification step of identifying a plurality of regions attributes including photo attributes and text attributes,
A classification step of classifying each pixel of the input image into several types of colors according to color information of the pixel of the input image and its neighboring pixels;
If the area attribute of the identified image in the region identification step is the photograph attribute, based on each information of the classified color, re-identification of re-identifying whether the photograph attribute is truly photograph attribute In the step, for the area identified as the photo attribute, based on the number of colors of the area acquired from the classified color information, the area attribute of the area is truly a photo attribute. Identifying the presence of the same color in the area based on the information on the classified color for an area that is not identified as a true photo attribute. Determining whether or not there is a bias in the distribution of the image, and if there is no bias in the distribution of the same color, the step of identifying that the region attribute of the region is truly a photo attribute, and the case where there is a bias in the distribution of the same color Is the region attribute of the region And re-identification step and a step of correcting the region identification result by the region identification step as a line graphics attribute
An image processing method comprising :
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001278478A JP4060559B2 (en) | 2001-09-13 | 2001-09-13 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001278478A JP4060559B2 (en) | 2001-09-13 | 2001-09-13 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003087562A JP2003087562A (en) | 2003-03-20 |
JP4060559B2 true JP4060559B2 (en) | 2008-03-12 |
Family
ID=19102841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001278478A Expired - Fee Related JP4060559B2 (en) | 2001-09-13 | 2001-09-13 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4060559B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004077567A (en) | 2002-08-09 | 2004-03-11 | Semiconductor Energy Lab Co Ltd | Display device and driving method therefor |
US7271784B2 (en) | 2002-12-18 | 2007-09-18 | Semiconductor Energy Laboratory Co., Ltd. | Display device and driving method thereof |
US20070002348A1 (en) * | 2005-03-15 | 2007-01-04 | Kabushiki Kaisha Toshiba | Method and apparatus for producing images by using finely optimized image processing parameters |
JP4657773B2 (en) | 2005-03-22 | 2011-03-23 | 株式会社東芝 | Image processing apparatus and image processing method |
JP5178490B2 (en) | 2008-12-17 | 2013-04-10 | キヤノン株式会社 | Image processing apparatus, image processing method, and computer program |
JP5042251B2 (en) * | 2009-02-18 | 2012-10-03 | 三菱電機株式会社 | Image processing apparatus and image processing method |
US8977044B2 (en) * | 2011-02-18 | 2015-03-10 | Fuji Xerox Co., Ltd. | Image processing apparatus for area separation of images, image processing method, and computer readable medium |
JP2017175524A (en) * | 2016-03-25 | 2017-09-28 | 株式会社日立ドキュメントソリューションズ | Document management system and image data management method |
CN116977998B (en) * | 2023-07-27 | 2024-07-05 | 江苏苏力机械股份有限公司 | Workpiece feeding visual identification system and method for coating production line |
-
2001
- 2001-09-13 JP JP2001278478A patent/JP4060559B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003087562A (en) | 2003-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100339691B1 (en) | Apparatus for recognizing code and method therefor | |
US6865290B2 (en) | Method and apparatus for recognizing document image by use of color information | |
US7415165B2 (en) | Red-eye detection device, red-eye detection method, and red-eye detection program | |
US9171224B2 (en) | Method of improving contrast for text extraction and recognition applications | |
US8611658B2 (en) | Image processing apparatus and image processing method | |
JPH11126259A (en) | Image detecting method, image detector, image processing method, image processor and medium | |
JP5337563B2 (en) | Form recognition method and apparatus | |
JP4060559B2 (en) | Image processing apparatus and image processing method | |
JP3018949B2 (en) | Character reading apparatus and method | |
US20050271260A1 (en) | Device, method and program for removing pores | |
KR100513784B1 (en) | The method and device of improving image | |
JP5929282B2 (en) | Image processing apparatus and image processing program | |
JP5887242B2 (en) | Image processing apparatus, image processing method, and program | |
US20190356820A1 (en) | Image processing apparatus for processing marked regions | |
JP3906221B2 (en) | Image processing method and image processing apparatus | |
JP4001446B2 (en) | Method, apparatus and computer-readable recording medium for specifying image background color | |
RU2571510C2 (en) | Method and apparatus using image magnification to suppress visible defects on image | |
JPH0654180A (en) | Method and device for image area separation | |
JP3647071B2 (en) | Image processing apparatus and method | |
JP2001109842A (en) | Optical character, reader | |
JP2003196592A (en) | Program for processing image, and image processor | |
JP4228905B2 (en) | Image processing apparatus and program | |
JP2002279345A (en) | Image processing device and method, and computer- readable storage medium with stored program | |
US20080187229A1 (en) | Method For Recognizing and Indexing Digital Media | |
JP7377435B2 (en) | Image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040915 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070122 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070911 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071112 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20071119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071220 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101228 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4060559 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101228 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111228 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121228 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131228 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |