JP4149464B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP4149464B2
JP4149464B2 JP2005171549A JP2005171549A JP4149464B2 JP 4149464 B2 JP4149464 B2 JP 4149464B2 JP 2005171549 A JP2005171549 A JP 2005171549A JP 2005171549 A JP2005171549 A JP 2005171549A JP 4149464 B2 JP4149464 B2 JP 4149464B2
Authority
JP
Japan
Prior art keywords
color
rectangle
group
pattern
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005171549A
Other languages
English (en)
Other versions
JP2005317042A (ja
Inventor
裕 勝山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2005171549A priority Critical patent/JP4149464B2/ja
Publication of JP2005317042A publication Critical patent/JP2005317042A/ja
Application granted granted Critical
Publication of JP4149464B2 publication Critical patent/JP4149464B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は画像処理装置に関し、特に、カラー画像からタイトルなどの文字領域を抽出する場合に適用して好適なものである。
近年、コンピュータやカラープリンタなどの周辺機器の発達と、その低価格化に伴って、カラー画像を処理する分野が広がっている。このため、カラー画像を領域分割し、カラー画像の中から特定領域だけを抽出する技術、例えば、カラー画像中の同色領域を抽出する技術が求められている。
この技術は、例えば、CCDカメラで撮影したカラー情景画像を処理対象の入力画像とする場合では、画像認識による果物選別や、車の監視、セキュリティーのための人物監視等、多方面で求められている。
また、カラー文書画像を入力画像とする場合では、画像から文書名やキーワードなどを自動抽出して、検索時に使用できるものとして期待されている。その一例として、図書館での本の分類や、管理の自動システムがあげられる。その他にも、画像をデータベースとして蓄積、共有化するグループウェアでの自動キーワードまたはファイル名付けなどに利用される。これらの情報は、膨大な量のカラー文書画像を自動検索するのに使用される。
従来のカラー画像中の同色領域を抽出する技術として、カラー画像中の画素を色ごとにクラスタリングすることにより、色分解画像を作成する方法がある。また、隣接拡張法による色ラベリング結果を用いることにより、カラー画像中の同色領域を抽出する方法がある。
また、カラー画像中からタイトルを抽出する技術として、色分解画像を用いて文字領域の抽出処理を行う方法がある。
この方法では、以下の処理が行われる。
・1つの色の色分解画像から連結領域の外接矩形を求める。
・外接矩形のサイズ、形状で一定の範囲にあるものだけに絞る。
・矩形毎に隣接矩形探索範囲を設け、その内部にかかる矩形を探索し、お互いに内部にかかる関係の矩形群をグループとして抽出する。
・グループ内の矩形の重心の直線性がよい物だけを残す。
・グループの外接矩形を求め、その内部を対象にグループを構成する領域の色に近いパターンを抽出する。
なお、従来のカラー文書画像から文字領域を抽出する技術が記載されている文献として、以下の非特許文献1〜4のようなものがある。
仙田等「文字の単色性に着目したカラー画像からの文字パターン抽出法」電子情報通信学会PRU94−09,p17−24 上羽等「等色線処理によるカラー画像からの文字領域の抽出」電子情報通信学会PRU94−09,p9−16 松尾等「カラー文書画像からの単色文字領域の抽出」1997電子情報通信学会総合大会D−12−19 松尾等「濃淡及び色情報による情景画像からの文字列抽出」電子情報通信学会PRU92−121,p25−32
しかしながら、従来のカラー画像の画素の色ごとのクラスタリングにより同色領域を抽出する方法では、画像全体の多数の画素を対象としたクラスタリングが行われるため、クラスタリングに必要な計算時間が大きくなる。
さらに、画像全体の画素を対象としてクラスタリングが行われるので、精度のよい領域抽出ができない場合がある。例えば、第1の色の領域と第2の色の領域とが離れた場所にあり、第1の色と第2の色とが類似しているために、これらの第1の色と第2の色とが1つのクラスタに分類されると、このクラスタから生成される第3の色によっては、第1の色と第2の色との両方を完全にカバーすることができず、抽出結果のパターンに穴が空いたり、輪郭がきれいに抽出されなかったりする場合がある。
また、従来の領域拡張法を用いて同色領域を抽出する方法では、隣り合う画素の色が、人間が見た時には同じように見えるものについても、隣接画素との色の近さをどう定義するかによっては、しきい値よりも大きくかけ離れる場合があり、領域中の穴や領域輪郭が正しく抽出できない場合がある。
さらに、隣接画素との関係だけを見ているので、文字領域と背景領域の境界で徐々に色が変化していく場合には、文字領域が背景領域と同一ラベルになってしまう場合がある。
また、従来の領域拡張法では、多種多様なカラー文書画像に対し、予め定められたしきい値を一律に適用して同色領域の抽出が行われるため、例えば、灰色や中間色などの同色系統の色が背景と文字に使われている場合には、かなりの頻度で背景と文字が同一ラベル化し、文字パターンの抽出精度が損なわれたり、逆に抽出されたラベル領域が文字パターンの中で小さく細切れ状態となり、結果的に文字パターンの抽出精度が悪化したりする場合がある。
また、256色画像などのフルカラー以外の画像に領域拡張法を適応すると、細かいラベル領域が多数発生し、領域抽出の精度が悪化するという問題がある。
また、従来の色分解画像を用いた文字領域の抽出方法では、画像全体についての色分解画像を、その画像から抽出された色の数だけ生成する必要があり、色分解画像の生成に時間がかかるという問題がある。さらに、各色分解画像は画像全体について生成されるので、例えば、その画像からタイトルを抽出する場合に、タイトル領域以外の色の影響を受けやすく、タイトルの抽出精度が悪化するという問題がある。また、連結領域の外接矩形を求める場合、抽出した色分解画像ごとに画像全体について処理を行う必要があるため、1つのカラー画像から複数(抽出した色数分の)の縦横が同じサイズの画像が必要になり、処理に時間がかかるという問題がある。
また、外接矩形のグルーピングも、画像全体について生成された色分解画像ごとに行われるので、処理に時間がかかるとともに、抽出対象となる文字が異なる色分解画像にクラスタリングされると、救済できないという問題がある。
また、グループの構成時に互いに探索範囲にかかる矩形だけを抽出するので、文字パターンの一部であるが、小さい部分がグループから抜け落ち易いという問題がある。また、抜け落ちた部分を拾うために、グループ内の色が近いパターンの抽出を最後に行うが、この時に色が近いノイズを拾いやすいという問題がある。
そこで、本発明の目的は、様々のカラー画像に対応して精度良く同色領域を抽出することが可能な画像処理装置を提供することである。
本発明の一態様によれば、色の輝度値及び読み取り解像度を変数として隣接画素間の色差の最大値が格納されている色差テーブルから、入力画像から得られた隣接画素間の色差が最もよく一致する読み取り解像度を3原色のそれぞれに対して個別に取得し、この3原色の読み取り解像度に基づいて、入力画像の読み取り解像度を算出するようにしている。
このことにより、入力画像の読み取り解像度を算出する際に、読み取り解像度の色成分ごとの違いを考慮することが可能となることから、カラー画像からの同色パターンの抽出精度を向上させることが可能となる。
また、本発明の一態様によれば、画像が取りうる全ての色の輝度値に対し、隣接画素間の色差の最大値を色差テーブルに登録するようにしている。
このことにより、画像の色の輝度値がどのような値であっても、補間などの演算を行うことなく、隣接画素間の色差の最大値を色差テーブルから直接取得することが可能となり、画像の色の輝度値に対応したラベリングのしきい値を高速に求めることが可能となる。
また、本発明の一態様によれば、画像を所定の方向へ走査した際のラベル値の変化回数に基づいて、画像内のパターンの輪郭長を算出するようにしている。
このことにより、輪郭長の算出対象となるパターンの外接矩形の範囲内を1回走査するだけで、そのパターンの輪郭長を算出することが可能となり、輪郭長の算出処理を高速化することが可能となる。
また、本発明の一態様によれば、走査方向に対し第1のラベル以外の画素から第1のラベルに変化する画素数を計数し、走査方向に対し第1のラベルが付された画素が2画素以上続いた後に、第1のラベルから第1のラベル以外の画素に変化する画素数を計数し、第1のラベルが付された画素のうち、走査方向の隣接画素の両方が第1のラベルであり、かつ、走査方向と垂直方向の隣接画素の少なくとも一方が第1のラベル以外である画素数を計数するようにしている。
このことにより、パターンのエッジを検出して輪郭長を算出する際に、走査方向に連続するエッジをパターンの輪郭として検出することが可能となるとともに、1画素幅のパターンについては、輪郭が2回カウントされることを防止することが可能となり、様々な形状のパターンの輪郭長を1度の走査で正確に算出することが可能となる。
本発明の一態様によれば、入力画像の読み取り解像度を算出する際に、読み取り解像度の色成分ごとの違いを考慮することが可能となることから、カラー画像からの同色パターンの抽出精度を向上させることが可能となる。
また、本発明の一態様によれば、画像が取りうる全ての色の輝度値に対し、隣接画素間の色差の最大値を色差テーブルに登録することにより、補間などの演算を行うことなく、隣接画素間の色差の最大値を色差テーブルから直接取得することが可能となり、ラベリングのしきい値を画像の色の輝度値ごとに高速に求めることが可能となる。
また、本発明の一態様によれば、画像を所定の方向へ走査した際のラベル値の変化回数に基づいて、画像内のパターンの輪郭長を算出することにより、輪郭長の算出処理を高速化することが可能となる。
また、本発明の一態様によれば、パターンのエッジを検出して輪郭長を算出する際に、走査方向に連続するエッジをパターンの輪郭として検出するとともに、1画素幅のパターンについては、輪郭が2回カウントされることを防止することにより、様々な形状のパターンの輪郭長を1度の走査で正確に算出することが可能となる。
以下、本発明の実施例に係わる画像処理装置について図面を参照しながら説明する。
図1は、本発明の第1実施例に係わる画像処理装置の構成を示すブロック図である。
図1において、入力画像1が処理対象とされる場合、読み取り情報取得手段2は、入力画像1の読み取り情報を取得する。この読み取り情報は、入力画像1の色数、読み取り解像度、輝度値、彩度、隣接画素間の色差、または色の分散などである。
同色範囲設定手段3は、入力画像1の読み取り情報に基づいて、入力画像1の同一とみなす色の範囲を設定する。
ラベリング手段4は、同色範囲設定手段3で設定された色の範囲の連結画素に同一ラベルを付すことにより、入力画像1のラベリングを行う。
このことにより、ラベリング対象となる入力画像1からラベリングのしきい値を求めることが可能となり、多種多様なカラー画像が処理対象とされ、同一とみなす色の範囲が各カラー画像ごとに異なっている場合においても、そのカラー画像の色の範囲に対応したしきい値を用いてラベリングを行うことができる。
グルーピング手段5は、ラベリング手段4により生成されたラベルパターンのグルーピングを行う。ここで、グルーピング手段5は、同色範囲設定手段3で設定された同一色の範囲のパターンを同一グループにグルーピングすることができる。
グループ情報算出手段5は、同一グループに分類されているパターンの画像情報に基づいて、グループの画像情報を算出する。
ここで、グループの画像情報は、グループの色情報やグループの矩形情報などである。グループの色情報は、例えば、同一グループに属するパターンの色の平均値や同一グループに属するパターンの色の分散である。グループの矩形情報は、例えば、同一グループに属するパターン全体の外接矩形の大きさ、形状、または位置である。
グループの画像情報が求まると、このグループの画像情報は、同色範囲設定手段3、ラベリング手段4及びグルーピング手段5に供給される。
同色範囲設定手段3は、グループの画像情報を受け取ると、このグループの画像情報に基づいて、ラベリングのしきい値を設定することができる。例えば、同一グループに属するパターンの色の変動を求め、同一グループに属するパターンの輝度差の最大値をラベリングのしきい値とすることができる。
このことにより、ラベリングを行うパターン自体からラベリングのしきい値を求めることが可能となり、同一とみなす色の範囲が背景パターンと文字パターンとで異なっている場合においても、ラベリングを精度良く行うことができる。
ラベリング手段4は、グループの画像情報を受け取ると、このグループの画像情報に基づいて、ラベリングを行うことができる。例えば、同色パターンの再抽出を行う場合に、探索する範囲を同一グループに属するパターンを囲む外接矩形内に限定することができる。
このことにより、入力画像1からタイトルパターンを抽出する際に、タイトルを構成するパターンの一部が欠落した場合においても、欠落したパターンのみを効率よく抽出することが可能となる。
グルーピング手段5は、グループの画像情報を受け取ると、このグループの画像情報に基づいて、パターンのグルーピングを行うことができる。例えば、パターンのグルーピングを行う場合に、同一グループに属するパターン全体の色を考慮してグルーピングを行う。
このことにより、グルーピング対象となるパターンの一部に局所的な色の変動がある場合においても、この局所的な色の変動を吸収してパターンのグルーピングを行うことが可能となり、同色パターンの抽出精度を向上させることが可能となる。
図2は、本発明の第2実施例に係わる画像処理装置の構成を示すブロック図である。
図2において、色数判別手段7は、カラー画像の色数を判別する。第1のラベリング手段9は、第1のラベリング方法によりラベリングを行う。第2のラベリング手段10は、第2のラベリング方法によりラベリングを行う。制御手段8は、カラー画像の色数に基づいて、第1のラベリング手段9または第2のラベリング手段10にラベリングを行わせる。
ここで、色数判別手段7は、カラー画像の1画素当たりのビット数を調べることにより、カラー画像の色数を判別することができる。
また、第1のラベリング方法として、色パレットのクラスタリングを用いたラベリングを用いることができ、第2のラベリング方法として、隣接拡張法を用いたラベリングを用いることができる。
また、制御手段8は、色数の少ないカラー画像に対しては、色パレットのクラスタリングを用いたラベリングを行わせ、色数の多いカラー画像に対しては、隣接拡張法を用いたラベリングを行わせることができる。
このことにより、色数の少ないカラー画像に対しては、領域の色差がある程度大きくても、それらの領域を同一色であるとみなしてラベリングを行うことが可能となり、同色領域内での色の欠落を防止して、同色領域を精度良く抽出することが可能となる。また、色数の多いカラー画像では、わずかな色の違いを検出して、異なる色の領域に異なるラベルを付与することが可能となり、文字の背景が文字の色に近い場合においても、文字のみを精度良く抽出することが可能となる。
図3は、本発明の第3実施例に係わる画像処理装置14の構成及び動作を示す図である。
図3において、局所領域抽出手段15は、ラベリング対象となる入力画像13から局所領域を抽出する。色差情報抽出手段16は、局所領域から入力画像13の実際の色差情報を抽出する。しきい値設定手段17は、入力画像13から抽出した色差情報に基づいて、入力画像13のラベリングのしきい値を設定する。
ここで、局所領域抽出手段15は、入力画像をメッシュで区切り、メッシュ領域12の色の分散値が予め決められた範囲にあるものだけを局所領域として抽出することができる。また、色差情報抽出手段16は、局所領域として抽出されたメッシュ領域12内の色の標準偏差を色差情報として算出することができる。また、しきい値設定手段17は、メッシュ領域12ごとに求めた標準偏差の平均値に基づいて、しきい値を設定することができる。
例えば、互いに隣接する画素11の色差がしきい値以下かどうかを調べることにより、同色領域18を抽出することを考える。
ここで、画素11の色差を判定するしきい値は、入力画像13のラベリングを行う前に予め決めておく必要がある。このため、このしきい値として、実験用のカラー画像などを用いて経験的に決めた値を使うと、多種多様なカラー画像に対応できなくなる場合がある。
そこで、色差情報抽出手段16は、ラベリング対象となる入力画像13自体から同色領域18の色差情報を抽出し、しきい値設定手段17は、その色差情報に基づいて入力画像13のラベリングのしきい値を設定する。
入力画像13から同色領域18の色差情報を抽出するために、入力画像13から均一色領域を抽出する。この均一色領域を抽出するために、例えば、入力画像13を3×3の画素11ごとに分割したメッシュ領域12を生成する。メッシュ領域12が生成されると、入力画像13のメッシュ領域12のそれぞれについて、画素11の色の分散を調べる。そして、画素11の色の分散の小さいメッシュ領域12を均一色領域とする。
例えば、入力画像13において、メッシュ領域F、Gは同色領域18内にあるので、メッシュ領域F、Gの画素11の色の分散は小さい。一方、メッシュ領域A、B、C、D、E、H、I、J、K、Lは同色領域18のそれ以外の領域とが混在しているので、メッシュ領域A、B、C、D、E、H、I、J、K、Lの画素11の色の分散は大きい。従って、画素11の色の分散を各メッシュ領域12ごとに調べ、画素11の色の分散の小さなメッシュ領域12のみを抽出することにより、メッシュ領域F、Gのみを均一色領域として抽出することができる。
均一色領域が抽出されると、均一色領域の色差情報に基づいて、ラベリングのしきい値を設定する。
例えば、均一色領域としてメッシュ領域F、Gが入力画像13から抽出されると、各メッシュ領域F、Gの標準偏差の平均値に基づいて、同色領域18を抽出するためのしきい値を設定する。
このように、入力画像13全体には様々な色が分布していても、小さな領域のみに注目した場合には、均一色だけからなる領域も存在するようになる。このため、分割された領域ごとに、その領域の分散を求め、分散の小さな領域のみを取り出すことにより、入力画像13から均一色領域を抽出することが可能となる。入力画像13から均一色領域が抽出されると、この均一色領域の色の変動を調べることにより、同色領域18を画素単位で特定するためのラベリングのしきい値を設定することができる。
この結果、灰色や中間色などの同色系統の色が文字と背景とに使われているため、予め実験的に求めたしきい値を用いただけでは、これらの色を区別できない場合においても、同一色で塗られている範囲の色が実際にどの程度異なっているかを、処理対象となる実際の画像から求めることが可能となり、同色系統の色の文字と背景とが混在した画像から、文字のみを精度良く抽出することが可能となる。
以下、本発明の一実施例に係わるパターン抽出装置について、図面を参照しながら説明する。
図4は、本発明の第4実施例に係わるパターン抽出装置の動作を示すフローチャートである。
図4において、まず、フルエントリ色差テーブル作成処理を行う(ステップS1)。このフルエントリ色差テーブルは、入力画像画が取りうるRGBの各輝度値及び読み込み解像度を変数として、隣接画素との輝度値の最大値を格納したものである。
ここで、隣接画素との輝度値の最大値を求めるために、実際の印刷方法を模倣した印刷モデルを用いて、RGBの各輝度値ごとの同色領域をコンピュータ上に仮想的に生成する。そして、コンピュータ上に仮想的に生成された同色領域での隣接画素との輝度値の最大値を、読み込み解像度ごとに求める。
図5は、網点印刷法における印刷モデルの構築方法を示す図である。
図5において、印刷モデルとして、シアン、マゼンタ、黄色の印刷メッシュM11、M12、M13をそれぞれ回転させて重ね合わせたものを使用し、カラー画像の色を仮想的に表現する。ここで、シアン、マゼンタ、黄色の色の濃さを調節する場合、印刷メッシュM11、M12、M13の各格子点に配置される塗りつぶし円D11、D12、D13の大きさを調節する。
この時、一般的な印刷モデルのパラメータは、
・印刷メッシュM11、M12、M13の格子間隔md(ただし、格子間隔mdは、黄色、シアン、マゼンタ共通サイズ)
・黄色メッシュM11の水平線からの角度θ11
・マゼンタメッシュM12の水平線からの角度θ12
・シアンメッシュM13の水平線からの角度θ13
・黄色の塗りつぶし円D11の半径r11
・マゼンタの塗りつぶし円D12の半径r12
・シアンの塗りつぶし円D13の半径r13
である。ただし、本実施例では、この全てのパラメータを可変にすると煩雑すぎるので、ある程度の限定を与え、以下のように設定した。
・黄色メッシュM11の水平線からの角度θ11=15度
・マゼンタメッシュM12の水平線からの角度θ12=30度
・シアンメッシュM13の水平線からの角度θ13 =45度
・格子間隔md=20ドット
この印刷モデルを使用して、シミュレーションを行い、黄色、マゼンタ、シアンの塗りつぶし円D11、D12、D13のそれぞれの半径r11、r12、r13に影響を受ける平均RGB値(Rm,Gm,Bm)を求める。
具体的には、印刷メッシュM11、M12、M13の格子間隔mdよりもかなり大きな単位面積を考え、平均RGB値(Rm,Gm,Bm)を、
Rm=255−単位面積中のシアンの面積×255/単位面積
Gm=255−単位面積中のマゼンタの面積×255/単位面積
Bm=255−単位面積中の黄色の面積×255/単位面積
として求める。
次に、1つの色(Rm,Gm,Bm)で均一に印刷されている画像をスキャナで読み込んだ場合のスキャナ読み込みモデルについて考える。これは、印刷メッシュM11、M12、M13と独立な間隔sdを有する読み込みメッシュM14を導入し、この読み込みメッシュM14内のRGBの各輝度値(=各色の面積)を求めることに相当する。
ここで、読み込みメッシュM14の間隔sdが、スキャナ読み込み解像度に相当する。なお、同じ平均色(Rm,Gm,Bm)の画像を読み込む場合でも、スキャナ読み込み解像度が大きい場合には、隣接画素のRGB輝度差は大きく異なり、逆に、スキャナ読み込み解像度が小さい場合には、読み取った結果の画素はどの画素も平均色(Rm,Gm,Bm)に近づくため、隣接画素のRGB輝度差は0に近づくようになる。
1つの読み込みメッシュM14内の具体的なRGB輝度値(Rc,Gc,Bc)は、以下のようになる。
Rc=255−読み込みメッシュ面積中のシアンの面積×255/読み込みメッシュ面積
Gc=255−読み込みメッシュ面積中のマゼンタの面積×255/読み込みメッシュ面積
Bc=255−読み込みメッシュ面積中の黄色の面積×255/読み込みメッシュ面積
読み込みメッシュM14の間隔sdを変えながら、RGB輝度値(Rc,Gc,Bc)及び隣接画素とのRGBそれぞれの輝度差を求め、各RGB輝度値に対応した輝度差の適当な値(例えば、最大値)を色差テーブルに記録する。
この時、本来は、印刷モデルでは、印刷メッシュの交点に描かれた塗りつぶし円はRGBが相互に重なり合い、RGBの各輝度値によって相互に影響を及ぼし合うため、RGBは独立とは言えないが、このスキャナ読み込みモデルでは、単純化のために、RGBは相互に独立であるという仮説を立てた。
従って、RGB輝度値、読み込み解像度、及び隣接画素の輝度差の結果を、RGB独立のテーブルに保存することができる。
図6は、Rのテーブルの例を示す図である。
図6において、R輝度値を0〜255まで変化させた場合のR輝度値のそれぞれについて、スキャナ読み込み解像度を14〜35まで変化させた時の隣接画素との輝度差の最大値が格納されている。
なお、フルエントリ色差テーブルの作成方法は、0〜255の輝度値を擬似的に発生させ、それぞれの輝度値の時の隣接画素の輝度差の最大値を印刷モデル上で求め、その値を色差テーブルに格納する。この処理をRGBそれぞれの色要素について行う。
なお、図6の例では、Rのテーブルの場合について示したが、G、Bのテーブルの構成も同様である。
R,G,Bの色差テーブルが与えられると、このR,G,Bの色差テーブルを参照することにより、入力画像から同一色の範囲を検出する際のしきい値を獲得することができる。
このように、0〜255の全ての輝度値のエントリを持ったテーブルを予め作成しておくことにより、補完計算を省略することが可能となり、数十個の飛び飛び輝度値のエントリしか持たない場合に比べて、パラメータ推定処理や色ラベリング処理などの処理時間を減らすことが可能となり、処理の高速化を図ることが可能となる。
なお、数十個の飛び飛び輝度値のエントリしか持たない色差テーブルを用いる場合は、以下の補完演算により隣接画素との輝度差の最大値を求めることができる。
色差テーブルに登録されている輝度値Riに対する隣接画素との輝度差の最大値がRdi、色差テーブルに登録されている輝度値Ri+1に対する隣接画素との輝度差の最大値がRdi+1であるとする。この時、色差テーブルに登録されていない輝度値Rmが、輝度値Riと輝度値Ri+1の間の線形補間で表されるとして、その関係を隣接画素との輝度値の最大値にも適応して、推定される隣接画素との輝度値の最大値infered_deltaを求める。すなわち、
rl=Ri−Ri+1
rm=Rm−Ri
rn=Ri+1−Rm
infered_delta=Rdi*rn/rl+Rdi+1*rm/rl
とする。
次に、画像入力処理を行う(ステップS2)。
この画像入力処理では、CCDカメラやスキャナなどの撮像装置でカラー画像を入力し、メモリに保存する。
次に、フルカラー/その他判定処理を行う(ステップS3)。
このフルカラー/その他判定処理では、入力画像のヘッダに含まれている1画素当たりのビット数を調べ、24ビット/画素の画像をフルカラー画像とみなし、図4のステップS4〜ステップS24の処理を行う。1画素当たりのビット数が24ビットより小さい場合には、フルカラー以外の入力画像とみなし、図4のステップS25、ステップS26及びステップS6〜ステップS24の処理を行う。
次に、モデル解像度推定処理及び距離しきい値獲得処理を行う(ステップS4)。
モデル解像度推定処理は、入力画像の解像度が印刷モデルのどの読み込み解像度に適合しているかを推定する。この処理では、入力画像をメッシュ状に分割し、RGBの各色成分について、各メッシュ領域内における隣接画素との輝度値の最大値と最も良く一致する読み込み解像度を色差テーブルから求める。
また、距離しきい値獲得処理は、ラベリングで使用するしきい値を実際の入力画像の色差から求める。この処理では、入力画像をメッシュ状に分割し、各メッシュ領域内における画素の色の分散を求めることにより、均一色からなるメッシュ領域を抽出する。そして、均一色からなるメッシュ領域の画素の標準偏差に基づいて、ラベリングで使用するしきい値を求める。
以下、モデル解像度推定処理について具体的に説明する。
まず、入力画像をn×nのメッシュに区切り、各メッシュ領域の中の各画素の(R,G,B)の値を各色成分ごとに分解して考えるのではなく、(R,G,B)の値をまとめて考えることにより、入力画像に最も適合する印刷モデルの解像度を求めることを考える。この場合、入力画像の解像度を求めるには、印刷モデルとの適合具合があまりかけ離れていないメッシュ領域から求めた解像度だけを対象に、それらの解像度を画像全体で平均する。
しかし、この方法では、実際の入力画像が印刷モデルと一致していない場合、読み込み解像度に誤差が生じることがある。例えば、実際の入力画像は、Y(イエロー)、M(マゼンタ)、C(シアン)、K(ブラック)を使って印刷されることが多く、それぞれの色のメッシュの角度(スクリン角度)、色の印刷の順番、重ねて印刷された時の色が独立でないことによる影響、メッシュの解像度、YMCの3色を使用するかYMCKの4色を使用するかなどは、それぞれの印刷物ごとに異なっている。一方、印刷モデルの色は、角度固定、色は独立、YMCの3色、メッシュ解像度はある一定の範囲という固定された条件で生成されている。このため、実際の入力画像とのずれが生じ、それが読み込み解像度の推定に影響するからである。
この結果、実際に正しいパターンが抽出される理想的な解像度値と多少ずれた解像度値が推定され、本来同一の色と見なされる領域で、解像度及び対象となる色から決まる同色範囲が狭くなる。このため、同色範囲が細切れの領域に分断され、本来同一のラベルが付される文字パターンが、小さな細切れ領域に分割される現象が発生する。
そこで、本実施例では、推定解像度を全画像から(R,G,B)の各成分ごとに独立に求め、各成分ごとに独立に求めた推定解像度を後で平均化する。
図7は、本発明の一実施例に係わるモデル解像度推定処理を説明する図である。
図7において、入力画像を各RGB成分ごとに分解したR画像21、G画像23及びB画像25をそれぞれ3×3画素a〜iずつのメッシュ領域22、24、26に分割する。そして、各メッシュ領域22、24、26内の3×3画素a〜iの平均RGB輝度(Rm,Gm,Bm)及び隣接画素の輝度差の最大値(Rd,Gd,Bd)を、R画像21、G画像23及びB画像25のそれぞれについて各メッシュ領域22、24、26ごとに求める。ここで、3×3画素a〜iの隣接方向は20通りあるので、これらの20通り隣接画素の輝度差を求め、それらの輝度差のうち最大値(Rd,Gd,Bd)を採用する。
一方、Rテーブル27、Gテーブル28及びBテーブル29には、各輝度値に対応する隣接画素との輝度差の最大値が解像度をパラメータとして登録されている。
そして、平均R輝度Rm及び隣接画素との輝度差の最大値Rdをキー情報としてRテーブル27を検索し、R画像21から求めた隣接画素との輝度差の最大値RdとRテーブル27に登録されている隣接画素との輝度差の最大値との差diff_rを求める。このdiff_rの算出を平均R輝度Rmについて登録されている全ての解像度に対して行い、diff_rの値が最小となる解像度resol_rをRテーブル27から求める。
このresol_rの算出をR画像21の全てのメッシュ領域22に対して行い、各メッシュ領域22について求めた全てのresol_rの平均値mean_resol_rを算出する。
また、平均G輝度Gm及び隣接画素との輝度差の最大値Gdをキー情報としてGテーブル28を検索し、G画像23から求めた隣接画素との輝度差の最大値GdとGテーブル28に登録されている隣接画素との輝度差の最大値との差diff_gを求める。このdiff_gの算出を平均G輝度Gmについて登録されている全ての解像度に対して行い、diff_gの値が最小となる解像度resol_gをGテーブル28から求める。
このresol_gの算出をG画像23の全てのメッシュ領域24に対して行い、各メッシュ領域24について求めた全てのresol_gの平均値mean_resol_gを算出する。
また、平均B輝度Bm及び隣接画素との輝度差の最大値Bdをキー情報としてBテーブル29を検索し、B画像25から求めた隣接画素との輝度差の最大値BdとBテーブル29に登録されている隣接画素との輝度差の最大値との差diff_bを求める。このdiff_bの算出を平均B輝度Bmについて登録されている全ての解像度に対して行い、diff_bの値が最小となる解像度resol_bをBテーブル29から求める。
このresol_bの算出をB画像25の全てのメッシュ領域26に対して行い、各メッシュ領域26について求めた全てのresol_bの平均値mean_resol_bを算出する。
mean_resol_r、mean_resol_g及びmean_resol_bが求まると、これらの値の平均値resolutionを求め、このresolutionを入力画像の印刷モデルでの読み込み解像度とする。
以下、数式を用いて説明する。入力画像を3×3画素づつのメッシュ領域に分割した場合に、その内部の平均RGB輝度を(Rm,Gm,Bm)、隣接画素の輝度差の最大値を(Rd,Gd,Bd)とする。
以下、RGB独立の処理であるので、Rを例にして説明する。
解像度値をある値に固定して、Rmからテーブルを参照して、推定される隣接画素との輝度値の最大値infered_deltaを求める。
この推定される隣接画素との輝度値の最大値infered_deltaと実際に画像から求めたRdとの差diff_rを、
diff_r=|Rd−infered_delta|
として求める。
解像度パラメータをスキャンして、このdiff_rの値が最も小さくなる解像度resol_rを求める。この解像度resol_rを入力画像中の各メッシュ領域全体について算出し、解像度resol_rの平均値mean_resol_rを求める。
これと同様の処理をG,Bでも行い、mean_resol_g,mean_resol_bを求める。そして、それらの値の平均値resolutionを、
resolution=(mean_resol_r
+mean_resol_g+mean_resol_b)/3
として求め、この平均値resolutionを入力画像の推定解像度として用いる。
次に、距離しきい値獲得処理について具体的に説明する。
まず、背景と文字領域との色の境目がぼんやりしている時でも、背景と文字領域との区別を正確に行えるようにするため、同一ラベルの付されたラベル領域(同色と判断された領域)の平均色を算出し、その平均色とその周囲にある対象画素の色との色差が、そのラベル領域の平均色から推定される許容色差の一定倍率の色差以内にあれば、対象画素をそのラベル領域に組み込むことを考える。
この手法によっても、背景と文字領域との区別をある程度正確に行うことが可能である。
しかし、この手法では、ラベリングのしきい値として、色差テーブルに登録されている値を多種多様なカラー画像に対して一律に適用するため、灰色、中間色などの特定の色が背景や文字色にあると、背景と文字とが同じ領域と判断される場合があり、ラベリング対象となるカラー画像によっては、背景色と文字色とを正確に区別できない場合がある。
そこで、本実施例では、入力画像の局地的な同色判定処理を導入し、入力画像の中から局所的に同色領域(色の変化が無い部分)を求め、その局所領域から色ラベリングで使用する距離値のしきい値を求める。
この手法により、背景と文字領域との色の境目がぼんやりしている時でも、背景と文字領域との区別を正確に行うことが可能となり、文字領域のみを背景から精度良く切り離して、文字領域のみを正しく抽出することができる。
具体的には、入力画像を3×3画素づつのメッシュ領域に分割し、その内部の平均RGB輝度値(Rm,Gm,Bm)と分散値(Rv,Gv,Bv)を求める。そして、RGBの各分散値の2乗和のルートを、
s=sqrt(Rv×Rv+Gv×Gv+Bv×Bv)
として求め、この値sをメッシュ領域の分散値とする。入力画像の各メッシュ領域ごとのsの値を求め、それを記録する。また、sの値の最大値をsmaxとして記録する。
ここで、メッシュ領域のsの値が、
smax×RANGE_LOW<s<smax×RANGE_HIGH
かつ
s>MIN_VARI
(例えば、RANGE_LOW=0.004,RANGE_HIGH=0.16,MIN_VALI=10とする。)
の条件を満足する場合、このメッシュ領域をラベリングのしきい値を求めるための局所領域とする。
なお、sの値が小さい程、そのメッシュ領域内の画素の色は互いに近くなるが、sの値の最も小さな領域は、同一色で塗られた背景領域に相当する場合が多い。このため、sの値の最も小さな領域の色差に基づいてラベリングのしきい値を設定し、このしきい値を用いて文字領域の抽出を行うと、しきい値が小さくなり過ぎて、文字領域の抽出には適切でないことがある。従って、しきい値の算出に用いるメッシュ領域のsの値には、下限が設けられている。
しきい値の算出に用いるメッシュ領域を入力画像から求めると、このメッシュ領域のsの値のルートを標準偏差として求める。そして、対象メッシュ領域ごとに求めた標準偏差をk(例えば、k=3.0)倍した後の平均値TH_distを以下の式で求め、この平均値TH_distを距離のしきい値とする。
Figure 0004149464
ここで、iは対象メッシュ領域の番号、nは対象メッシュ領域の個数である。なお、距離しきい値獲得処理においては、モデル解像度推定処理で使用したメッシュと同一のメッシュを用いることにより、モデル解像度推定処理で算出した平均RGB輝度値(Rm,Gm,Bm)を分散値(Rv,Gv,Bv)の算出に使用することができ、処理を高速化することができる。
次に、色ラベリング処理を行う(ステップS5)。
この色ラベリング処理では、領域拡張法によりラベリングを行う。この領域拡張法は、隣接する画素の色が近い時に、同一ラベルを与えることを繰り返すことにより、画像全体を同色領域で区分けしていく手法である。領域拡張法は、同一ラベルを与えるかどうかの判断の対象が注目画素の周辺の画素だけなので、色空間をクラスタリングする場合に比べて処理時間を短縮できる。
一方、領域拡張法では、隣接画素との色の近さをどう定義するかによって、同色パターンに穴が空いたり、輪郭が綺麗に抽出されたかったりする。また、隣接画素との関係だけを見ているので、文字領域と背景領域の境界で徐々に色が変化していく場合には、文字領域が背景領域と同一ラベルになる場合がある。
このため、同一ラベルの付されたラベル領域の平均色を算出し、その平均色とその周囲にある対象画素の色との色差が、そのラベル領域の平均色から推定される許容色差の一定倍率の色差以内にあれば、対象画素をそのラベル領域に組み込むようにすることにより、背景と文字領域との色の境目がぼんやりしている時でも、背景と文字領域との区別をある程度は正確に行うことができる。
しかし、この手法によっても、様々なカラー文書画像には対応できず、灰色や中間色などの領域で、かなりの頻度で背景と文字が同一ラベル化し、文字パターンを正確に抽出できないことがあったり、抽出されたラベル領域が文字パターンの中で小さく細切れ状態となり、結果的に文字パターンを正確に抽出できないことがあったりする。
そこで、本実施例では、領域拡張法によるラベリングのしきい値として、ステップS4で求めたしきい値を用いる。このステップS4で求めたしきい値は、ラベリング対象となる入力画像の同色領域の実際の色差に基づいて設定されており、多種多様なカラー文書画像に対して最適な値を与えることができる。このため、印刷モデルなどを用いて求めたしきい値を多種多様なカラー文書画像に対して一律に適用することなく、多種多様なカラー文書画像の同一色の範囲を個別に考慮してラベリングを行うことが可能となり、同色領域の抽出精度を向上させることができる。
図8は、本発明の一実施例に係わる色ラベリング処理を説明する図である。
図8において、画素a〜rからなる領域(斜線部分)が同色パターン31として抽出され、画素a〜rに同一ラベルが付されているものとする。ここで、例えば、ラベルが付されていない画素sが検出されると、画素sの周囲に既にラベル付けされている画素があるかどうかを調べる。そして、既にラベル付けされている画素p、q、rが見つかると、画素rの色と画素p、q、rのいずれかの色との差がしきい値以下であるかどうかを調べる。そして、例えば、画素sの色と画素pの色との差がしきい値以下であると判断された場合、画素pと同一ラベルが付されている画素a〜rの色の平均色と画素sの色とを比較する。この結果、画素pと同一ラベルが付されている画素a〜rの色の平均色と画素sの色との差がしきい値以下であると判断された場合、画素sに画素pと同一ラベルを付す。
ここで、ラベリングを行うしきい値を、色差テーブルから求めるのではなく、例えば、画素c、d、e、h、i、j、k、l、mからなる領域をメッシュ領域として抽出し、このメッシュ領域内における画素c、d、e、h、i、j、k、l、mの色の分散に基づいて求めることにより、ラベリングの精度を向上させることができる。
具体的には、入力画像の左上からラスタスキャンを行い、ラベル付けがされていない画素に注目する。この注目画素のRGB輝度値(R、G、B)と推定解像度resolutionとを用いてテーブルを検索することにより、隣接画素との輝度値の最大値をRGBの色成分ごとに求める。隣接画素との輝度値の最大値が求まると、この値をラベリングのしきい値(delat_r,delta_g,delta_b)とする。
なお、上述した実施例では、R、G、Bの各成分について、同一の解像度resolutionを用いてテーブルを検索することにより、ラベリングのしきい値(delat_r,delta_g,delta_b)を求める場合について説明したが、R、G、Bの各成分の解像度(mean_resol_r,mean_resol_g,mean_resol_b)を個別に用いて、Rテーブル、Gテーブル、Bテーブルをそれぞれ検索することにより、ラベリングのしきい値(delat_r,delta_g,delta_b)を求めるようにしてもよい。
次に、注目画素の周囲の8画素を走査して、その注目画素の周囲に既にラベル付けされた周囲画素があり、その周囲画素のRGB輝度値(Rs,Gs,Bs)が、
|R−Rs|<=delta_r
かつ
|G−Gs|<=delta_g
かつ
|B−Bs|<=delta_b
の条件を満たす場合に、注目画素の色はその周囲画素の色と近いと判断する。
周囲画素の色が注目画素の色と近い判断されると、周囲画素のラベルをカレントラベル(region)として保存し、注目画素のラベルとしてregionを与える。また、ラベル領域の平均色(Rm,Gm,Bm)として、周囲のラベル領域の平均色に注目画素の色を加味した新たな平均色を求める。
それ以外の場合は、カレントラベルとして、今まで付けたラベル値+1のラベル値を設定し、注目画素のラベルにもその値を付与する。この場合には、ラベル領域の平均色(Rm,Gm,Bm)として、注目画素のRGB値を設定する。
どちらの場合でも、注目画素の座標値を処理対象座標配列に保存する。
次に、注目画素の周りに同色領域を拡張する処理を行う。処理対象座標配列の中から、先頭の座標値を取り出し、その座標値の画素を注目画素とする。注目画素のRGB輝度値からテーブルを検索し、RGB各色成分の隣接画素との輝度値の差を推定しきい値(delta_r,delta_g,delta_b)とする。
注目画素の周囲の8画素を走査して、周囲画素が未処理の場合、その周囲画素のRGB輝度値(Ri,Gi,Bi)を求め、注目画素のRGB輝度値(Rc,Gc,Bc)及びラベル領域の平均色(Rm,Gm,Bm)との輝度差をRGB各成分ごとに求める。
図9は、本発明の一実施例に係わる注目画素の周囲の8画素を示す図である。
図9において、注目画素Cの周囲画素は8個あるので、隣接画素との輝度値の差を求める場合、この8画素の走査を行う。
そして、周囲画素のRGB輝度値(Ri,Gi,Bi)と注目画素のRGB輝度値(Rc,Gc,Bc)との関係が、
|Ri−Rc|<=delta_r
かつ
|Gi−Gc|<=delta_g
かつ
|Bi−Bc|<=delta_b
の条件を満たし、かつ、ラベル領域の平均色(Rm,Gm,Bm)と周囲画素のRGB輝度値(Ri,Gi,Bi)との色差の距離値が、
|Ri−Rm|+|Gi−Gm|+|Bi−Bm|<TH_dist
の条件を満たす場合、注目画素と同一ラベルを周囲画素に付し、周囲画素の座標を処理対象座標配列に追加する。今処理した注目画素は、処理対象座標配列から削除する。処理座標のx,yの最大値、最小値を求め、その値をこのラベル領域の外接矩形として保存する。また、このラベル領域の平均色を外接矩形の属性として保存する。
ここで、ラベル画像の平均色と周囲画素との色差を判定するしきい値として、TH_distを用いる。これは、ラベル画像の平均色と周囲画素との色差を判定するしきい値として、テーブルに登録されているしきい値を用いると、テーブルに登録されているしきい値は隣接画素との輝度差の最大値であるため、同色画素の欠落を防止するのにはよいが、文字と背景との境界がぼんやりしていて、文字と背景との色差があまりない場合には、背景が文字領域に取り込まれ、文字の境界をはっきりと検出できなくなるからである。
一方、TH_distは、色がほぼ同一とみなせる局所領域での色の実際の散らばり具合の平均に基づいて設定されているので、実際の画像の均一色の範囲を精度よく検出することが可能となり、文字と背景との境界がぼんやりしている場合においても、文字を表す色からずれてくる背景の色を区別することが可能となる。
以上の処理を処理対象座標配列の内容がなくなるまで続ける。
ラベリングの結果、同一色で連結している領域には同じラベル値が付与され、同じラベルを持つ領域を囲む外接矩形が獲得される。なお、ラベリング処理の出力情報には、以下の内容が含まれる。
・ラベル画像:4バイト/1画素
・外接矩形
矩形数:maxcount
矩形情報:lbtbl
内包するラベル画像のラベル番号:label
矩形左上座標:(xmin,ymin)
矩形右下座標:(xmax,ymax)
矩形内の代表色:(r,g,b)
所属するグループ番号:string_label
輪郭長:contour
次に、L字形、コ字形パターン削除処理を行う(ステップS6)。
このL字形、コ字形パターン削除処理では、文字パターンの近くに存在し、かつ、その文字パターンと同色のL字形、コ字形のパターンを削除する。
これは、文字パターンの周囲に背景パターンがあると、背景パターンの一部がL字形またはコ字形のパターンとして抽出されやすく、重なり矩形統合処理でL字形またはコ字形のパターンが文字パターンと統合されるためである。このような統合が行われると、以降の処理でこれらのパターンは分離されることがなく、統合されたままの状態で処理が行われるため、文字らしさの形状の特性を失い、処理途中で削除されるか、文字以外のノイズパターンがのったまま文字として抽出される。従って、処理の早い段階でL字形またはコ字形のパターンを削除し、このような不具合を防止する。
図10は、本発明の一実施例に係わるL字形パターンが存在する場合の重なり統合結果を示す図である。
図10(a)において、「文字」というパターン42及びL字形のパターン43が抽出され、パターン42の外接矩形41及びパターン43の外接矩形44が生成されているものとする。ここで、外接矩形41と外接矩形44との重なり矩形統合を行うと、図10(b)に示すように、外接矩形45が生成される。外接矩形45が生成されると、「文字」というパターン42及びL字形のパターン43は、1つのパターンを構成するものとみなされ、「文字」というパターン42の大きさや形状の特性が失われる。
このため、L字形のパターン43を削除することにより、外接矩形41が外接矩形44と統合されることを防止し、「文字」というパターン42の大きさや形状を保ったまま、その後の処理を行うことができるようにする。
具体的には、矩形内のパターンの黒画素比率(=パターンの画素数/矩形の面積)を求める。そして、以下の条件を満たすパターンをL字形またはコ字形パターンとして削除する。
矩形の幅が幅しきい値以上、
かつ
矩形の高さが高さしきい値以上、
かつ
黒画素比率が黒画素比率しきい値未満。
ここで、例えば、幅しきい値=100dot、高さしきい値=100dot、黒画素比率しきい値=0.4に設定する。
次に、注目矩形抽出処理を行う(ステップS7)。
この注目矩形抽出処理では、全ての色についての外接矩形を対象にして、事前に決めた範囲内のサイズの外接矩形を注目矩形として抽出する。
具体的には、以下の条件を満たす外接矩形を注目矩形として抽出する。
x方向長さが23dot(100dpi時)以上で画像の幅の1/2以下
かつ
y方向長さが23dot(100dpi時)以上で画像の高さの1/2以下。
この注目矩形抽出処理により、外接矩形同士をグルーピングする際の基準となる外接矩形の大きさを限定することが可能となり、例えば、タイトル領域を抽出する場合に、タイトルとなる文字の大きさに適合した外接矩形を基準として、外接矩形同士をグルーピングすることが可能となり、ノイズや背景などのタイトルには含まれない外接矩形が基準とされて、グルーピング処理が行われることを防止することが可能となることから、不要な処理を省略して、処理速度を向上させることが可能となる。
次に、注目矩形の周りの探索範囲とそこにかかる矩形抽出を行う(ステップS8)。
この探索範囲にかかる矩形抽出処理では、注目矩形の周囲に、あるサイズの探索範囲を設定し、その範囲にかかる矩形を抽出する。
図11は、本発明の一実施例に係わる注目矩形の周囲の探索範囲の設定方法を説明する図である。
図11において、矩形番号1〜30の外接矩形が抽出され、矩形番号1の外接矩形51を注目矩形としたものとする。そして、この外接矩形51の周りに探索範囲52が設定されたものとすると、外接矩形51についてのグルーピングの処理対象として、探索範囲52にかかる矩形番号2〜24の外接矩形のみを選択し、探索範囲52にかからない矩形番号25〜30の外接矩形については、外接矩形51のグルーピングの処理対象から除く。
このように、外接矩形同士をグルーピングする際に、外接矩形の探索範囲を注目矩形の周りに限定することにより、所定の範囲内にまとまって存在している文字列のみを抽出することが可能となり、例えば、タイトル領域を抽出する場合に、タイトルには含まれないような離れた位置に存在する文字を考慮する必要がなくなることから、タイトル領域の抽出を効率的に行うことが可能となる。
具体的には、探索範囲52は、注目矩形51の縦横の長さの内、長い方をlenとすると、lenと100dpiの35dotとの小さい方を注目矩形の周囲の探索範囲長range_sizeとする。
注目矩形の周囲range_sizeの範囲にかかる外接矩形を高速に求めるため、以下の方法を用いる。
図12は、本発明の一実施例に係わる注目矩形の周囲の探索範囲にかかる矩形の抽出方法を説明する図である。
図12において、矩形番号1〜4の外接矩形61〜64が抽出されたものとすると、XYの各座標値に存在する矩形番号及び矩形数を求め、これらの矩形番号及び矩形数をXYの各座標値ごとに登録する。
例えば、X座標値1〜4の位置には外接矩形61〜64が存在しないので、矩形数n=0、矩形番号=空が登録され、X座標値5〜13の位置には矩形番号4の外接矩形64が存在しているので、矩形数n=1、矩形番号=4が登録され、X座標値14の位置には矩形番号3の外接矩形63及び矩形番号4の外接矩形64が存在しているので、矩形数n=2、矩形番号=3、4が登録され、X座標値15、16の位置には矩形番号4の外接矩形64が存在しているので、矩形数n=1、矩形番号=4が登録される。以下、同様である。
次に、矩形番号3の外接矩形63を注目矩形とし、この外接矩形63の周りに探索範囲65が設定されたものとすると、この探索範囲65に含まれるXYの各座標値を求める。そして、XYの各座標値の矩形番号をXYそれぞれについて求め、XYの両方に含まれる矩形番号を探索範囲65にかかる外接矩形とする。例えば、探索範囲165のX座標に含まれる外接矩形の矩形番号は1〜4、探索範囲65のY座標に含まれる外接矩形の矩形番号は2〜4であるので、XYの両方に含まれる矩形番号は2〜4となる。この結果、探索範囲65にかかる外接矩形として、矩形番号2〜4に対応する外接矩形62〜64が得られる。
具体的には、以下のa)〜d)の処理を行う。
a)画像全体のX,Y軸へ矩形番号を投影する。すなわち、画像全体のX,Y軸の1画素毎に、それに属する矩形数と矩形番号の集合を登録する。例えば、矩形番号iがX軸の(x1,x2)の範囲にあるとすれば、X軸のx1からx2の座標には、番号iが矩形番号の集合に入ることになる。同じことを全矩形について縦横座標について行う。
b)注目矩形の周囲にrange_sizeの範囲を設定する。
c)range_sizeの範囲のX軸の座標毎の矩形種類を論理ORして矩形番号の集合を抽出する。
同様にY軸でも抽出する。
d)X軸から求めた矩形番号の集合とY軸から求めた矩形番号の集合とを論理ANDし、この注目矩形の周囲にある矩形集合を決定する。
なお、図12の矩形番号の格納方法では、画像全体に存在する全ての矩形番号を格納する容量が各座標値ごとに必要となり、記憶容量が大きくなる。
そこで、上述した座標毎の矩形数及び矩形番号を高速に、かつ必要メモリを最小に求めるために、以下のような方式をとる。
図13は、本発明の一実施例に係わる注目矩形の周囲の探索範囲にかかる矩形情報の格納方法を説明する図である。
図13(a)において、矩形番号1、2の外接矩形71、72が抽出されたものとし、外接矩形71はX座標が155〜165の範囲内にあり、外接矩形72はX座標が160〜163の範囲内にあるものとする。このため、図13(b)に示すように、外接矩形71については、X座標が155〜165の位置に矩形番号1が登録され、外接矩形72については、X座標が160〜163の位置に矩形番号2が登録される。
次に、図13(c)に示すように、抽出された矩形番号1、2を、X座標155〜165の順序で矩形番号1、2順に並べ換え、X座標値が同じ値を示す矩形番号が幾つあるかを数えることにより、各座標値の矩形数を求めることができる。
具体的には、以下のi)〜v)の処理を行う。
i)全ての矩形の横幅を合計して、その長さの数だけ矩形番号、座標の情報を持ったデータ構造を用意する。
ii)矩形の座標と矩形番号を用意されたデータ構造のデータにセットする。
iii)このデータ構造のデータを座標値でソートする。
iv)データの座標値を順に見ていき、座標値が同じものの数を座標値毎に数え、それをその座標に属する矩形数とする。また、その座標毎の矩形数分だけ矩形番号を入れる記録領域を確保する。ソートしたデータ構造を先頭からスキャンしていき、座標が同じ間は数をカウントしていき、座標値が変わったところで数を確定させ、それを保存する。
v)ソートしたデータ構造で、座標値が同じ物の矩形番号を上で確保した領域に格納する。これもソートしたデータ構造を先頭からスキャンしていき、座標が同じ間は、矩形番号を格納領域にセットする。
次に、同色グループ抽出処理を行う(ステップS9)。
この同色グループ抽出処理は、異なるラベルが付されているパターンのうち、類似色のパターン同士を1つのグループにまとめるものである。なお、この処理を用いてタイトルを抽出する場合には、タイトルを構成する個々の文字が同じ色であることが前提となる。
まず、1つの矩形の色(なお、矩形の色とは、その矩形により囲まれるパターンの色。以下同様)とその周囲にある矩形の色とが近い時に、それらの矩形を同一グループに入れることを考える。
しかし、この方法では、矩形の色が徐々に変化すると、実際には同色でない矩形までも同一のグループに入れられることになる。
そこで、1つの矩形の色とその周囲にある矩形の色とを比較することに加え、その矩形が属するグループの色との比較も行い、グループに追加しようとしている矩形の色が、グループの色とそれほどかけ離れていない場合のみ、その矩形をグループに加えることとした。なお、グループの色は、例えば、そのグループに属する矩形の色の平均値とすることができる。
図14は、本発明の一実施例に係わる同色グループの生成方法を示す図である。
図14(a)において、外接矩形81〜83が生成されているものとし、外接矩形81〜83内のパターンの色が徐々に変化しているものとする。また、外接矩形81、82内のパターンは文字であるが、外接矩形83内のパターンは背景の一部であるものとする。
外接矩形81〜83についてのグルーピングを行う場合、まず、外接矩形81の周囲に探索領域84を設定し、この探索領域84にかかる外接矩形82を抽出する。この外接矩形82が抽出されると、外接矩形81内のパターンの色と外接矩形82内のパターンの色との間での色空間上の距離distを求める。そして、距離distが所定値以下の場合、外接矩形81と外接矩形82とは、図14(b)に示すように、同一のグループ85に分類される。
次に、外接矩形82の周囲に探索領域86を設定し、この探索領域86にかかる外接矩形83を抽出する。この外接矩形83が抽出されると、外接矩形82内のパターンの色と外接矩形83内のパターンの色との間での色空間上の距離distを求め、距離distが所定値以下かどうかを判断する。
ここで、距離distが所定値以下の場合に、外接矩形83を外接矩形82と同一のグループ85に分類すると、文字のグループに背景のパターンが混在することになる。
そこで、外接矩形81内のパターンの色と外接矩形82内のパターンの色との平均値をグループ85の色として求め、グループ85の色と外接矩形83内のパターンの色との間での色空間上の距離dist2を求める。そして、距離dist2が所定値以下の場合、外接矩形83を外接矩形82と同一のグループ85に分類するようにする。
ここで、外接矩形81〜83内のパターンの色が徐々に変化している場合、外接矩形82内のパターンの色と外接矩形83内のパターンの色との間での色空間上の距離distが近くても、外接矩形81内のパターンの色と外接矩形83内のパターンの色との間での色空間上の距離は遠くなる。
この結果、距離dist2は距離distより大きくなり、外接矩形83内のパターンの色がグループ85の色と離れていると判断することが可能となり、外接矩形83がグループ85に分類されることを防止することが可能となる。
具体的には、1つの注目矩形の色(Rc,Gc,Bc)とその周囲矩形の集合の中の1つの矩形iの色(Ri,Gi,Bi)との間でのRGB空間上の距離を以下のように定義する。
dist=|Rc−Ri|+|Gc−Gi|+Bc−Bi|
また、注目矩形の色(Rc,Gc,Bc)と解像度resolutionから求められるRGBの各輝度差を、delta_r,delta_g,delta_bとする。
また、注目矩形が属する既に抽出されているグループの色を(Rg,Gg,Bg)とする。ここで、グループの色は、そのグループに属する矩形内のパターンの色の平均色とする。なお、最初は、矩形の色はグループの色と同じである。
この時、グループの色(Rg,Gg,Bg)と周囲の矩形iが属するグループの色(Rig,Gig,Big)との色差の距離dist2を以下のように定義する。
dist2=|Rg−Rig|+|Gg−Gig|+|Bg−Big|
注目矩形(Rc,Gc,Bc)とその周囲矩形の集合の中の1つの矩形i(Ri,Gi,Bi)が以下の条件を満足する時、これらの2つの矩形は、注目矩形のグループに属すると判定して、周囲矩形iをそのグループに格納する。また、新たにグループに加わった矩形の矩形番号を新規追加矩形領域に格納する。
(dist<TH_RGB
または
(|Rc−Ri|<delta_r
かつ
|Gc−Gi|<delta_g
かつ
|Bc−Bi|<delta_b))
かつ
dist2<thr_rgb
ここで、
thr_rgb
=(min(Rgから求めた輝度差、Rigから求めた輝度差)
+min(Ggから求めた輝度差,Gigから求めた輝度差)
+min(Bgから求めた輝度差,Bigから求めた輝度差))/2
とする。また、例えば、TH_RGB=20とする。
新規追加矩形領域の先頭の矩形番号を取り出し、それを新たな注目矩形として、その周囲にある矩形を計算し、上記の手順を繰り返して、グループに属する矩形を求める。この手順をグループに新たに加わる矩形が無くなるまで繰り返す。なお、抽出するグループ情報のデータ構造は以下のようになる。
グループ内の矩形数:num
グループを構成する矩形番号:child
重なり矩形統合後の矩形数:overlap_num
重なり矩形統合後の矩形情報:overlap
(データタイプは、矩形情報1btbl型)
グループ内文字列の方向コード:orient
グループ内の文字列数:gyou_num
グループ内の文字列情報:gyou
(データタイプは、矩形情報1btbl型)
次に、グループ内平均文字線太さ抽出処理を行う(ステップS11)。
このグループ内平均文字線太さ抽出処理では、グループ内の外接矩形に対応するラベル画像のパターンに対して、輪郭追跡処理を行い、輪郭長を求める。すなわち、グループに属する1つの外接矩形の矩形範囲内で、その外接矩形のラベル番号に注目して、ラベル画像上で輪郭追跡処理を行う。抽出した輪郭の長さが抽出されると、輪郭の長さをその矩形の輪郭長の属性にセットする。そして、その矩形内のパターンの面積を輪郭長で割って、文字の線の平均的な太さを求め、その値を矩形の属性として矩形情報に登録する。
図15は、本発明の一実施例に係わる文字線の太さの算出方法を説明する図である。
図15(a)において、例えば、「フ」というパターンが抽出されたものとすると、「フ」というパターンに含まれる画素数を数えることにより、「フ」というパターンの面積Sを算出する。
次に、図15(b)に示すように、「フ」というパターンの輪郭を抽出し、この輪郭長Lを算出する。そして、「フ」というパターンの面積Sを輪郭長Lで割って、「フ」というパターンの平均的な太さWを求める。
輪郭長獲得処理として、輪郭を構成する画素の周囲の8つの画素のラベル値を時計回りの順番で調べ、そのラベル値が輪郭を構成する画素のラベル値と一致する画素を輪郭として抽出する方法がある。
しかし、この手法では、文字パターンだけなら高速であるが、背景から抽出された複雑な形状のパターンについてはかなり処理時間がかかる。これは、輪郭追跡手法自体がラベル画像の輪郭の1つ外側をチェックする必要があり、ある輪郭点から次の輪郭点を探すために、既に走査した画素についても何回もチェックしにいく処理が必要となるからである。
そこで、本実施例では、1つのラベル画像のエッジに注目して、ラベル画像の外接矩形の内部をラスタスキャンし、特定のラベル値以外から特定のラベル値に変化する点をカウントするようにした。このことにより、ラベル画像の外接矩形内の1回のラスタスキャンの間に、ラベル画像のパターンの輪郭長を獲得することが可能となり、輪郭長獲得処理にかかる時間を従来の方法に比べて5倍程度高速化することが可能となる。
図16は、本発明の一実施例に係わる輪郭長獲得処理を示すフローチャートである。なお、処理対象となるラベル画像のラベル値をregion、そのラベル値のパターンの外接矩形の座標を(xmin,ymin)−(xmax,ymax)、輪郭長をcount、ラベル画像の画素がエッジかどうかを示すフラグをflag(1画素前がregionの値の画素の場合、1に設定される)、縦方向の太さが1画素のパターンを検出するフラグをfirst_flag(横方向に1画素幅の場合、1に設定される)とする。
図16において、まず、初期設定を行い(ステップS31〜S34)、count=0、y=ymin、flag=0、first_flag=0、x=xminとする。
次に、flag>0かどうかを判断し(ステップS35)、flag>0でない場合、カレント画素のラベル値がregionかどうかを判断する(ステップS46)。ここで、カレント画素のラベル値がregionでない場合、x<xmaxかどうかを判断し(ステップS48)、x<xmaxである場合、xをインクリメントして、ステップS35に戻る。
一方、ステップS46において、カレント画素のラベル値がregionである場合、そのカレント画素は輪郭を構成するので、countをインクリメントするとともに、flag=1、first_flag=1に設定して、ステップS48に進む(ステップS47)。
一方、ステップS35において、flag>0である場合、カレント画素(x、y)のラベル値がregionかどうかを判断し(ステップS36)、カレント画素のラベル値がregionである場合、yがyminまたはymaxかどうかを判断する(ステップS37)。ここで、yがyminまたはymaxである場合、countをインクリメントする(ステップS39)。
また、ステップS37において、yがyminでも、ymaxでもない場合、カレント画素の上か下の画素のラベル値がregionかどうかを判断し(ステップS38)、カレント画素の上か下の画素のラベル値がregionでない場合にのみ、countをインクリメントする(ステップS39)。
一方、ステップS36において、カレント画素のラベル値がregionでない場合、yがyminまたはymaxかどうかを判断し(ステップS40)、yがyminまたはymaxである場合、flag=0とする(ステップS44)。
一方、ステップS40において、yがyminでも、ymaxでもない場合、カレント画素の左の画素の上の画素及び下の画素のラベル値がregionであり(ステップS41)、かつ、first_flagが0である場合にのみ(ステップS42)、countをインクリメントし(ステップS43)、それ以外の場合はステップS44に進む。
次に、first_flag=0に設定し(ステップS45)、以上の処理をxがxmaxに達するまで、xを1ずつインクリメントさせながら繰り返す。
そして、xがxmaxに達すると、flag>0かどうかを判断し(ステップS50)、flag>0でない場合、y<ymaxかどうかを判断する(ステップS55)。ここで、y<ymaxである場合、yをインクリメントして、ステップS33に戻る。
一方、ステップS50において、flag>0である場合、yがyminまたはymaxかどうかを判断し(ステップS51)、yがyminまたはymaxである場合、ステップS55に進む。
一方、ステップS51において、yがyminでも、ymaxでもない場合、カレント画素の左の画素の上の画素及び下の画素のラベル値がregionであり(ステップS52)、かつ、first_flagが0である場合にのみ(ステップS53)、countをインクリメントし(ステップS54)、それ以外の場合はステップS55に進む。
以上の処理をyがymaxに達するまで、yを1ずつインクリメントさせながら繰り返し、yがymaxに達すると、countをラベル値がregionのラベル画像の輪郭長として出力する。
なお、上述した実施例では、外接矩形内を横方向(x方向)にラスタスキャンすることにより、輪郭長を求める場合について説明したが、外接矩形内を縦方向(y方向)にラスタスキャンして、輪郭長を求めるようにしてもよい。
図17は、本発明の一実施例に係わる輪郭長獲得方法を説明するためのパターンの具体例を示す図である。
図17において、同一のラベル値を有するラベル画像88(斜線部分)が抽出され、そのラベル画像88の外接矩形87が生成されているものとする。この外接矩形の座標が(xmin,ymin)−(xmax,ymax)で表されているものとすると、この外接矩形の範囲内を(xmin,ymin)の座標に位置する画素から1ラインずつx方向にスキャンする。
ここで、図16のステップS46からステップS47に進む過程でAの画素がカウントされ、ステップS37からステップS39に進む過程でBの画素がカウントされ、ステップS38からステップS39に進む過程でCの画素がカウントされ、ステップS42からステップS43に進む過程でDの画素がカウントされ、ステップS53からステップS54に進む過程でEの画素がカウントされる。この結果、外接矩形87の範囲内を1回だけスキャンすることにより、ラベル画像88の輪郭を求めることが可能となり、輪郭長獲得処理の高速化を図ることが可能となる。
次に、文字線太さによる再グループ化処理を行う(ステップS11)。
この再グループ化処理では、グループ内の外接矩形を対象に、外接矩形の平均文字線太さを用いてグループ化を行い、新たなグループ情報を構築する。すなわち、グループ内の外接矩形を対象にして、図4のステップS7〜S9の処理を繰り返す。ここで、ステップS9のグループ化の時に、ステップS9で使用した色情報だけでなく、推定文字線太さ(=20×矩形内のパターン面積/パターンの輪郭長)も使用する。
図18は、本発明の一実施例に係わる文字線の太さによる再グルーピング処理を説明する図である。
図18において、「グループ1」という文字列と「グループ2」という文字列が同一色で記述され、互いに近接して配置されているため、「グループ1」という文字列と「グループ2」という文字列が同一のグループ91にグルーピングされているものとする。
ここで、「グループ1」という文字列に含まれる文字の太さと「グループ2」という文字列に含まれる文字の太さを算出し、異なる太さの文字を別々のグループに分割する。この結果、「グループ1」という文字列はグループ92にグルーピングされ、「グループ2」という文字列はグループ93にグルーピングされる。
この処理により、文字パターンの近くにその文字パターンの色と同一の背景パターンがあり、これらの背景パターンと文字パターンが同じグループに属していたものを、別々のグループにしたり、文字パターンだけからなるグループでも、フォントやサイズが異なるものを別々のグループにしたりすることができる。
具体的には、2つの外接矩形のうち、第1の外接矩形の推定文字線太さthick1及び第2の外接矩形の推定文字線太さthick2から、文字線太さの比thick_rateを以下のように求める。
thick_rate=max(thick1,thick2)
/min(thick1,thick2)
そして、以下の条件を満足した時に、2つの外接矩形を同じグループとして記録する。
thick_rate<TH_THICK_RATE
かつ
(dist<TH_RGB
または
(|Rc−Ri|<delta_r
かつ
|Gc−Gi|<delta_g
かつ
|Bc−Bi|<delta_b))
ただし、TH_THICK_RATEは、例えば、2.5とする。
この処理を元のグループ内全ての外接矩形について行い、グループ内の新たなグルーピングを行う。この際、1つのグループの中に1つの矩形しか属していないグループは、タイトルを構成しないものとして削除される。
また、文字線太さによる再グルーピングの他の例として、グループ内の文字線太さの頻度分布を作成し、その文字線太さをクラスタリングすることにより、文字線太さのクラスタを複数個生成する方法でもよい。複数のクラスタを生成する方法として、文字線太さの頻度分布の谷で複数のクラスタに分割する方法や、階層的クラスタリングを適用する方法などを用いることができる。
具体的には、2つの外接矩形のうち、第1の外接矩形の推定文字線太さをthick1、第2の外接矩形の推定文字線太さをthick2とすると、以下の条件を満足した時にこれらの2つの外接矩形を同じグループとする。
thick1とthick2とが同一の文字線太さのクラスタに所属し、
かつ
(dist < TH_RGB
または
(|Rc−Ri|<delta_r
かつ
|Gc−Gi|<delta_g
かつ
|Bc−Bi|<delta_b))
この処理を元のグループ内全ての矩形について行い、グループ内の新たなグルーピングを行う。
次に、グループ内の大きな矩形削除処理を行う(ステップS12)。
このグループ内の大きな矩形削除処理では、グループ内で平均的な矩形サイズを求め、そのサイズを基準に極端に大きなサイズの矩形を背景などのノイズとして削除する。
図19は、本発明の一実施例に係わるグループ内の大きな矩形削除処理を説明する図である。
図19(a)において、外接矩形102〜111がグループ101にグルーピングされているものとすると、グループ101内の各外接矩形102〜111の大きさを求める。ここで、外接矩形102の大きさが他の外接矩形103〜111の大きさに比べ、かけ離れているものとすると、図19(b)に示すように、グループ101から外接矩形102を削除し、外接矩形103〜111よりなるグループ112を生成する。
具体的には、以下のa)〜d)の処理を行う。
a)グループ内の外接矩形の高さのヒストグラムを作成して、最大頻度値を示す矩形高さfreq_heightを以下の方法で求める。
i)ヒストグラムにぼかし用のウィンドウを用いてコンボリューション演算(移動和)を行い、ヒストグラムをぼかす。具体的なぼかし用ウィンドウは、例えば、「11111」の5画素からなる。
ii)最小高さ値(具体的には、100dpiで23dot)を予め決めておき、その最小高さ値以上で最大頻度を示す矩形高さfreq_heightを求める。
b)最大頻度値を示す矩形高さfreq_heightが最小高さ値(具体的には、100dpiで23dot)より小さい時は、最小高さ値を最大頻度値を示す矩形高さfreq_heightとする。
c)大きな矩形と判定するしきい値th_largeを、例えば、th_large=freq_height*10とする。
d)グループ内の外接矩形で縦横サイズとも、th_largeより小さいものだけを残して、後はノイズとしてそのグループから削除する。
次に、グループ内の重なり矩形統合処理を行う(ステップS13)。
このグループ内の重なり矩形統合処理では、グループ内の外接矩形の中で重なりがある外接矩形について、それらの外接矩形を囲む矩形を新たに作り、グループ情報に新たに登録する。
すなわち、グループ内の外接矩形のうち、一部でも重なりがある外接矩形同士を統合して、それらを囲む外接矩形にする。
図20は、本発明の一実施例に係わるグループ内の重なり矩形統合処理を説明する図である。
図20(a)において、外接矩形131は外接矩形132と重なっており、外接矩形132は外接矩形133と部分的に重なっている。この場合、外接矩形131〜133を統合し、外接矩形134を生成する。
この処理により、例えば、「画」や「関」などのように、1つの文字が互いに分離した複数のストロークからなる場合に、これらの複数のストロークからなる1つの文字を一体的に取り扱うことができ、その後の処理を効率的に行うことが可能となる。
また、重なり矩形統合処理を同一グループに属するパターンの中で行うことにより、文字領域に背景ノイズが混在している場合においても、文字と背景ノイズとが統合されることを防止でき、文字の抽出精度を向上させることが可能となる。
次に、グループ内文字列抽出処理を行う(ステップS14)。
このグループ内文字列抽出処理では、グループ内で文字列方向を推定し、その方向に対して、文字列を抽出する。抽出した文字列の方向及び座標などの情報はグループごとに保存する。なお、この処理をタイトルの抽出に用いる場合には、1つのタイトルを構成する個々の文字は、横方向または縦方向に一列に並んでいることが前提になる。
図21は、本発明の一実施例に係わるグループ内文字列抽出処理を説明する図である。
図21(a)において、矩形番号1〜29の外接矩形がグループ141にグルーピングされているものとすると、最も左にある矩形番号1の外接矩形から、右方向に矩形番号1の外接矩形と隣接する外接矩形があるかどうかを探す。そして、矩形番号1の外接矩形と隣接する外接矩形として、矩形番号2の外接矩形が見つかると、見つかった外接矩形に矩形番号1を伝番し、見つかった外接矩形の矩形番号2を矩形番号1に変更する。同様にして、右方向に隣接する外接矩形があるかどうかを探し、隣接する外接矩形が見つかると、左に隣接する外接矩形の矩形番号を右の外接矩形に伝番する。
矩形番号1の外接矩形から右方向に隣接する外接矩形がなくなると、矩形番号15の外接矩形から、右方向に矩形番号15の外接矩形と隣接する外接矩形があるかどうかを探す。矩形番号15の外接矩形と隣接する外接矩形が見つかると、見つかった外接矩形に矩形番号15を伝番する。
以上の処理により、図21(b)に示すように、矩形番号1の外接矩形に右方向に隣接する外接矩形に矩形番号1が付され、矩形番号15の外接矩形に右方向に隣接する外接矩形に矩形番号15が付される。矩形番号の伝番処理が終了すると、同一の矩形番号1が付された外接矩形を囲む外接矩形142を生成し、同一の矩形番号15が付された外接矩形を囲む外接矩形143を生成する。
具体的には、以下のa)〜e)の処理を行う。
a)グループ内の外接矩形の座標から文字列方向を推定する。
b)外接矩形の上下左右の最も近くにある矩形の内向き、外向きの両方向の隣接関係を求める。
c)横方向の文字列の場合、左からの隣接関係のない矩形を開始矩形として、右に矩形がなくなるまで、開始矩形番号を右にある矩形に伝搬していく。縦方向も同様である。
d)左からの隣接関係がなく、左への隣接関係がある矩形は、左の矩形番号を獲得して、それを右へ伝搬し、隣接関係がなくなるまで繰り返す。
e)ここまでの処理をグループ内全ての矩形について行った後に、同じ矩形番号が付いている矩形を求め、同じ矩形番号が付いている矩形の外接矩形を文字列矩形として抽出する。
次に、文字列内分離文字統合処理を行う(ステップS15)。
この文字列内分離文字統合処理では、横書きの上下分離文字統合処理(縦書きでは、左右分離文字統合処理)を文字列矩形に適応して、分離矩形を統合した外接矩形に置き換える。ここでは、抽出された文字列内の矩形に対して文字列方向と直角の方向に矩形統合を行う。これは横書きの文字列ならば、例えば「こ」という文字の上ストロークと下ストロークをそれぞれ囲む矩形をまとめて、1つの矩形とする処理である。また、縦書きの文字列ならば、例えば「い」という文字の右ストロークと左ストロークをそれぞれ囲む矩形をまとめて、1つの矩形とする処理である。
図22は、本発明の一実施例に係わる文字列内分離文字統合処理を説明する図である。
図22(a)において、グループ141内で互いに横方向に隣接する外接矩形を囲む外接矩形142、143が生成され、外接矩形142内には、縦方向に互いに隣接する外接矩形144、145及び縦方向に互いに隣接する外接矩形146、147が存在し、外接矩形143内には、縦方向に互いに隣接する外接矩形148、149及び縦方向に互いに隣接する外接矩形150、151が存在しているものとする。
この場合、図22(b)に示すように、外接矩形144、145を囲む外接矩形152を生成して、外接矩形144、145を統合し、外接矩形146、147を囲む外接矩形153を生成して、外接矩形146、147を統合し、外接矩形148、149を囲む外接矩形154を生成して、外接矩形148、149を統合し、外接矩形150、151を囲む外接矩形155を生成して、外接矩形150、151を統合する。
具体的には、以下のa)〜c)の処理を行う。なお、以下の例では、横文字列の場合について説明するが、縦文字列の場合についても同様である。
a)文字列内矩形をx座標で昇順にソートする。
b)最初の矩形をカレント矩形として、それ以降の次の矩形がカレント矩形のx座標の範囲に重なる場合は統合し、カレント矩形のx座標の範囲も統合結果のものに変更する。この処理を統合する矩形がなくなるまで繰り返す。統合する矩形がなくなったら、分離統合後の矩形として保存する。
c)統合する矩形が無くなったら、次の矩形を新たなカレント矩形として、b)及びc)の処理を繰り返す。
次に、グループ内の文字列サイズによる再グループ化を行う(ステップS16)。
グループ内の文字列サイズによる再グループ化処理では、グループ内の文字列情報から文字列方向に直角のサイズに注目して、その大きさで再グループ化を行い、その結果を新たなグループ情報に格納する。
このことにより、同色グループ内で、文字サイズが異なる文字列を別グループにすることができ、同時にノイズと文字列の別グループ化も可能となる。
なお、この処理をタイトルの抽出に用いる場合には、1つのタイトルを構成する個々の文字の大きさが揃っていることが前提になる。
図23は、本発明の一実施例に係わるグループ内の文字列サイズによる再グループ化処理を説明する図である。
図23(a)において、グループ141内で互いに横方向に隣接する外接矩形を囲む外接矩形142、143が生成されているものとすると、外接矩形142の高さH1及び外接矩形143の高さH2を算出する。そして、外接矩形142の高さH1と外接矩形143の高さH2の差がしきい値より大きい場合は、外接矩形142と外接矩形143とを別々のグループにする。
具体的には、以下の条件を満たす時に、これらの2つの文字列矩形は、同じグループに属するものとして、同じグループ番号を与える。
2つの文字列矩形の高さ(横書きの場合。縦書きなら幅)の差がしきい値より小さい、
かつ、
(2つの文字列矩形が重複する、または、2つの文字列矩形間の距離がしきい値より小さい)
この処理を全てのグループで行う。
次に、グループ内で同じグループ番号の文字列を1つのグループとする新たなグループを作成する。
この処理は、図3のステップS9で同じグループになった文字サイズの異なる文字列を、別々のグループにする働きがある。
次に、グループ内の大きな矩形削除処理を行う(ステップS17)。
このグループ内の大きな矩形削除処理では、ノイズ除去のため、グループ内で平均的な矩形サイズを求め、その矩形サイズを基準として極端に大きなサイズの矩形を再び削除する。すなわち、これまでの処理で変化したグループに対して、図4のステップS12の処理を再度行い、グループ内のノイズを削除する。
次に、グループ統合処理を行う(ステップS18)。
このグループ統合処理では、左右方向または上下方向に互いに近接する同色グループを統合する。すなわち、2つのグループがほぼ同じ色で、かつ近くにあり、グループの外接矩形が並んでいる場合に、その2つの外接矩形を統合し、1つのグループとする。これは、後で行う文字矩形の並びによるグループの文字列らしさの判定を安定化させるために行う。
図24は、本発明の一実施例に係わるグループ統合処理を説明する図である。
図24(a)において、グループ1の外接矩形161とグループ2の外接矩形162が互いに横に並んでいるものとすると、外接矩形161と外接矩形162の距離L1及び外接矩形161と外接矩形162の下端同士の座標の差E1を求める。そして、外接矩形161と外接矩形162の距離L1及び外接矩形161と外接矩形162の下端同士の座標の差E1が各しきい値より小さく、グループ1の代表色とグループ2の代表色の差が所定のしきい値以内にある場合、外接矩形161と外接矩形162とを統合し、外接矩形161及び外接矩形162を囲む外接矩形163を生成する。
具体的には、2つのグループの外接矩形において、色及び下端の座標が近く、かつ、近い距離にあり、2つをまとめて1つの文字列とみれそうなものを1つのグループにまとめる。ここで、2つのグループの平均色をそれぞれ(Rg1,Gg1,Bg1)と(Rg2,Gg2,Bg2)とすると、2つのグループのそれぞれのRGB値の平均値(Rg1+Rg2,Gg1+Gg2,Bg1+Bg2)を求める。そして、そのRGB値の平均値と解像度をキー情報としてテーブルを検索し、テーブルから得られたRGBそれぞれの輝度差(delta_r,delta_g,delta_b)を同色とみなす場合の輝度差のしきい値とする。この時、統合の条件は、以下の通りである。
|Rg1−Rg2|<delta_r
かつ
|Gg1−Gg2|<delta_g
かつ
|Bg1−Bg2|<delta_b
かつ
横並びの場合、横方向の距離が固定しきい値より小さい
(ただし、縦並びの場合は、縦方向の距離が固定しきい値より小さい)
かつ
横並びの場合、2つのグループの外接矩形の下端座標の差が固定しきい値より小さい(ただし、縦並びの場合は、左端と右端同士の差が両方とも固定しきい値よりも小さい)
この処理を統合するグループがなくなるまで繰り返す。
なお、横並びの場合に、下端の座標の差のみを考慮し、上端の座標の差を考慮しないのは、タイトルがアルファベットで書かれている場合などで、そのタイトルに大文字と小文字が混在していると、下端の座標は揃っているが、上端の座標はその差が大きい場合があり、大文字と小文字とを1つのグループに統合できなくなる場合があるからである。例えば、「Windows」という文字列がタイトルにあり、「Wind」の部分と「ows」の部分とが別々のグループとして抽出された場合に、上端の座標の差まで考慮すると、「Wind」の部分と「ows」の部分とを1つのグループに統合できなくなるからである。
次に、矩形並びによる文字らしいグループの抽出処理を行う(ステップS19)。
この矩形並びによる文字らしいグループの抽出処理では、グループ内の矩形の中で、サイズまたは形など一定の条件を満足する矩形を対象に、上端座標または下端座標のどちらかが隣りの矩形と近い場合、この両者の矩形が並んでいると判定し、並びフラグをセットする。そして、その一定条件を満足するグループ内の対象矩形の中で、並んでいる矩形の数がどの程度の割合であるかを示す並び矩形率を求め、その並び矩形率が一定のしきい値以上のグループを文字列と見なして抽出する。
図25は、本発明の一実施例に係わる矩形並びによる文字列らしいグループの抽出処理を説明する図である。
図25(a)において、外接矩形171〜174及び外接矩形176〜187が入力画像から生成され、外接矩形のグルーピングにより、外接矩形171〜174が1つのグループとされた結果、これらの外接矩形171〜174を囲む外接矩形175が生成されている。また、外接矩形のグルーピングにより、外接矩形176〜187が1つのグループとされた結果、これらの外接矩形176〜187を囲む外接矩形188が生成されている。
次に、各グループ内の外接矩形のサイズや位置関係を調べ、横方向に並んでいる外接矩形に対して横並びフラグ1を与え、縦方向に並んでいる外接矩形に対して縦並びフラグ2を与える。この結果、外接矩形175内の外接矩形171〜174はランダムに並んでいるので、外接矩形171〜174には、横並びフラグ1も縦並びフラグ2も付かない。一方、外接矩形188内の外接矩形176〜187は横一列に並んでいるので、外接矩形176〜187には、横並びフラグ1が与えられる。
外接矩形171〜174及び外接矩形176〜187についてのフラグ処理が終了すると、フラグが付された矩形の割合を各グループごとに算出する。そして、フラグが付された矩形の割合の多いグループを文字列として抽出し、フラグが付された矩形の割合の少ないグループをノイズとして捨てる。
この結果、図25(b)に示すように、外接矩形175のグループは、そのグループに属する外接矩形171〜174に対して、フラグが1つも付されてないので、ノイズとして捨てられる。一方、外接矩形188のグループは、そのグループに属する外接矩形176〜187に対して、横並びフラグ1を与えられているので、文字列として抽出される。
具体的には、以下のa)〜e)の処理を行う。
a)グループ内の隣接するサイズまたは形の一定条件を満足する2つの矩形の上端座標同士または下端座標同士の差がしきい値(高さのWID_RATE(=0.2)倍)より小さい場合、その2つの矩形に横並びフラグを与える。
ここで、隣接するとは、基準矩形の幅のWID_RATE_DIST(=0.5)倍の周囲範囲以内に矩形があることをいう。
b)グループ内の隣接するサイズまたは形の一定条件を満足する2つの矩形の左端座標同士または右端座標同士の差がしきい値(幅のWID_RATE倍)より小さい場合、その2つの矩形に縦並びフラグを与える。
ここで、隣接するとは、基準矩形の高さのWID_RATE_DIST倍の周囲範囲以内に矩形があることをいう。
c)グループ内の矩形で、横並びフラグと縦並びフラグの数の多い方を文字列方向として採用して、その数を並んでいる矩形数とする。
d)グループ内の矩形の中で並んでいる矩形の比率を、「並んでいる矩形数/グループ内のサイズまたは形の一定条件を満足する矩形の総数」として算出する。
なお、対象とするグループ内矩形の条件は、グループ内の矩形の最頻値を示す高さを求め、例えば、その3倍をlarge_rectとすると、矩形高さが、固定サイズ(23dot,100dpiで)より大きく、large_rectより小さいものとする。
e)並んでいる矩形の比率が一定しきい値NUM_RATE(=0.8)より大きい場合に、そのグループを文字列らしいグループとして残し、他をノイズとして捨てる。
なお、中点「・」や中棒「ー」などのタイトルとして用いられることがある特殊な記号を予め登録しておき、a)〜e)の条件を満たさない場合でも、このような特殊な記号をタイトルを構成するパターンとして残すようにしてもよい。
次に、ノイズグループの削除処理を行う(ステップS20)。
このノイズグループの削除処理では、グループ内が2つの矩形だけから構成されているグループに対して、その形状及び座標から判断してノイズと思われるグループを抽出し、そのグループを削除する。すなわち、グループ内の矩形数が2つのものについて、その2つの矩形の上下端(または左右端)とも近いかどうかを判断し、2つの矩形が並んでいると判断されるもの以外のグループをノイズとして削除する。
図26は、本発明の一実施例に係わるノイズグループの削除処理を説明する図である。
図26において、2つの外接矩形211、212が1つのグループとして抽出され、この2つの外接矩形211、212を囲む外接矩形213が生成されているものとする。この場合、外接矩形211と外接矩形212の下端座標は揃っているが、外接矩形211と外接矩形212の上端座標は極端に異なっているので、これらの外接矩形211、212はノイズであると見なして、外接矩形211、212からなるグループを文字列らしいグループから削除する。
具体的には、以下の処理を行う。
グループ内の2つの矩形の高さの平均をhei,幅の平均をwidとする。しきい値を決める比率DEL_RATE=0.1として、
(|第1の矩形の上端座標−第2の矩形の上端座標|<hei×DEL_RATE
かつ
|第1の矩形の下端座標−第2の矩形の下端座標|<hei×DEL_RATE)
または
(|第1の矩形の左端座標−第2の矩形の左端座標|<wid×DEL_RATE
かつ
|第1の矩形の右端座標−第2の矩形の右端座標|<wid×DEL_RATE)
を満足するグループだけ残し、後はノイズとして削除する。
次に、文字認識によるノイズ除去処理を行う(ステップS21)。
この文字認識によるノイズ除去処理では、パターンの外接矩形の位置及びサイズ情報によるノイズ除去を行った後に、グループ内のパターンを文字認識処理し、各パターンごとの距離値をグループ内で平均する。その平均値が予め決めたしきい値(例えば、1200)よりも小さい場合に、文字らしいグループとして残し、それ以外のグループを削除する。
この処理により、抽出したグループの内部のパターンが背景部分から抽出されたノイズだけで構成されるグループを検出することが可能となり、明らかに文字と見なせないパターンをタイトル候補から除外することが可能となることから、タイトルの抽出精度を向上させることが可能となる。
また、文字認識結果の距離値に従って、グループ内のパターンを再グルーピングすることもできる。
具体的には、グループ内の全矩形内のパターンの文字認識処理を行い、第1位候補の距離値を矩形ごとに獲得する。そして、矩形ごとの距離値の頻度分布を作成し、その距離値をクラスタリングすることにより、距離値のクラスタを複数個生成する。複数のクラスタを生成する方法として、距離値の頻度分布の谷で複数のクラスタに分割する方法や、階層的クラスタリングを適用する方法などを用いることができる。
2つの外接矩形のうち、第1の外接矩形のパターンの文字認識距離値をdist1、第2の外接矩形のパターンの文字認識距離値をdist2とすると、これらの距離値が同じクラスタに属する時に、これらの2つの外接矩形を同じグループに分類する。
この処理を元のグループ内全ての矩形について行い、グループ内の新たなグルーピングを行う。
次に、グループ内同色パターン抽出処理を行う(ステップS22)。
このグループ内同色パターンの抽出処理では、グループの代表色をグループ内部の矩形の代表色の平均として求める。グループの矩形の内部に相当する範囲で、原画像を探索して、グループの代表色に近いパターンで、既に文字パターンとして抽出されているもの以外ものを2値画像として抽出する。この抽出されたパターンに2値画像用のラベリングを行い、連結成分の外接矩形を求め、その外接矩形の大きさが所定値より大きいものだけを文字パターンの一部として、そのグループに追加する。
この処理により、これまでの処理で抜け落ちるが、実は文字の一部であるパターン、例えば、「ば」の濁点部分のように、文字幅情報や色ずれなどで落されたパターンを再抽出することができる。
ここで、グループの代表色と近い色のパターンを原画像から再抽出する際に、固定しきい値を用いて同色パターンかどうかの判断を行うと、背景色と文字色とが近く、特に、それらの色が黒色に近い場合は、この処理によって背景ノイズを大量に拾ってしまい、文字を消してしまう場合がある。
そこで、原画像から同色パターンを再抽出する際に、固定しきい値を用いて同色パターンかどうかの判断を行うのではなく、文字パターンとして既に抽出されている領域内の色の分散を考え、この分散から求めた標準偏差をしきい値を用いることにより、同色パターンかどうかの判断を行う。
図27は、本発明の一実施例に係わるグループ内同色パターン抽出処理を説明する図である。
図27(a)において、図3のステップS1〜S21の処理により、「クローハル化への3つの成功モデル」という文字列が入力画像から抽出され、これらの文字列を囲む外接矩形221が生成されているものとする。この場合、図27(b)の「ク」という文字の濁点222及び「ハ」という文字の濁点223が欠落している。
ここで、「ク」という文字の濁点222が欠落したのは、「ク」という文字の濁点222の色と「ク」という文字の色との差がしきい値範囲内にないために、「ク」という文字の濁点222が「ク」という文字と異なるグループにグルーピングされたためである。
また、「ハ」という文字の濁点223が欠落したのは、「ハ」という文字の濁点223の色と「ハ」という文字の色との差がしきい値範囲内にないために、「ハ」という文字の濁点223が「ハ」という文字と異なるグループにグルーピングされたためである。
このように、ステップS9の同色グループ抽出処理では、抽出対象となる文字列のうち、局所的な部分の色同士が比較されるので、抽出対象となる文字列の色が色ずれなどで局所的に変化している場合には、文字の一部が欠落したりする。
そこで、「ク」という文字の濁点222及び「ハ」という文字の濁点223の再抽出を行う場合には、既に抽出されている「クローハル化への3つの成功モデル」という文字列全体を考慮して、その代表色を求め、この代表色に近い色を有するパターンを原画像から再抽出する。すなわち、既に抽出されている文字列全体の代表色を求め、この文字列全体の代表色と抽出対象となるパターンの色とを比較することにより、その文字列の局所的な色の変化の影響を軽減することが可能となり、「ク」という文字の濁点222及び「ハ」という文字の濁点223を抽出することが可能となる。
また、再抽出を行う際には、再抽出の対象となるパターンの探索範囲を、外接矩形221の範囲に限定する。この限定を行うことにより、例えば、原画像からタイトルを構成する文字を抽出する場合、その文字の探索範囲をタイトル領域のみに限定して文字の再抽出を行うことが可能となり、抽出処理を高速化することが可能となる。
さらに、再抽出を行う際の同色かどうかの判断に用いるしきい値として、実験的に予め定められた値を用いるのではなく、図27(a)で既に抽出されている「クローハル化への3つの成功モデル」というパターンの色情報から算出した値を用いるようにする。
この結果、背景色と文字色とが近い場合においても、背景色と文字色との微妙な色の違いを区別することが可能となり、「グローバル化への3つの成功モデル」という文字列と近い色の背景ノイズが外接矩形221の範囲内に存在している場合においても、背景ノイズが抽出されることを防止しながら、「ク」という文字の濁点222及び「ハ」という文字の濁点223を抽出することが可能となる。
なお、「グローバル化への3つの成功モデル」という文字列の色と背景ノイズの色とが完全に同一である場合には、これらのノイズが抽出されることを防止できないが、再抽出されたパターンのうち微小なものをノイズとみなして除去することにより、ノイズを減らすことができる。
具体的には、以下の処理を行う。
a)グループ内の矩形について保存されている代表色情報をグループ内の矩形全てについて平均し、グループの代表色(Rm,Gm,Bm)を求める。また、グループ内のRGBの分散(Vr,Vg,Vb)を求め、その分散から、グループの標準偏差を以下の式で求める。
dev=sqrt(sqrt(Vr*Vr+Vg*Vg+Vb*Vb))
b)グループ内の矩形サイズの最頻度を幅と高さについて求め、それぞれmfw,mfhとする。その幅と高さが、最小矩形サイズのしきい値minsize(=2)より大きな場合には、それぞれminsizeで置き換える。
c)グループの外接矩形を求め、その外接矩形の大きさの2値画像を作成する。2値画像の値は、全て0としておく。
d)グループの範囲内で原画像の画素の色を調べ、原画像の画素の色(R,G,B)とグループの代表色(Rm,Gm,Bm)との関係が、
|Rm,−R|+|Gm−G|+|Bm−B|<k×dev (k=5)
を満足する画素の位置を記録し、2値画像のその位置の画素を1にする。
e)2値画像の中から、グループ内の矩形を構成する。このグループ内の矩形から既に抽出されているパターンを除去し、2値画像のパターンを、グループの代表色に近い色であり、かつ、これまでの処理で漏れていたパターンだけにする。
f)この2値画像に対して、2値画像用のラベリングを行い、連結領域の外接矩形を求める。
g)外接矩形の幅w及び高さhが、w>mfw/2 かつ h>mfh/2を満足する矩形だけを残し、他の矩形を削除する。
h)残った矩形に含まれる連結成分のパターンをグループに追加する。
次に、グループの出力順位決定処理を行う(ステップS23)。
このグループの出力順位決定処理では、文字列を含んでいるグループが複数抽出された場合、グループの外接矩形から面積を計算して、全画像中のグループの面積の大きい順にグループをソートして、このソートした結果を出力順序とする。
次に、2値パターン生成処理を行う(ステップS24)。
この2値パターン生成処理では、グループを構成するパターンを文字認識できるような2値画像として作成する。
具体的には、以下のa)〜c)の処理を行う。
a)グループの外接矩形サイズの2値画像を作成し、その値を全て0に設定する。
b)グループ内の矩形のラベル番号を抽出し、対応する矩形領域の内部でラベル画像を探索し、そのラベル番号の画素を抽出し、2値画像上でその座標の画素を1とする。
c)b)の処理を全ての矩形について行い、グループを構成するパターンを2値画像上に作成する。
図4のステップS3で、入力画像がフルカラー画像でないと判定された場合には、クラスタリング処理を行う(ステップS25)。
クラスタリング処理では、RGB画像の画素をRGB空間上、またはRGB以外の色空間(HSV等)上でクラスタリングを行い、1つのクラスタに属する画素だけで色ごとの画像を作成する。
ここで、フルカラー画像以外の画像についてクラスタリング処理を行うのは、フルカラー(例えば、1667万色)画像に用いたラベリング方法を、フルカラー以外(例えば、256色)の画像に適応すると、同色領域に細かい領域が多数発生し、その後の処理時間がフルカラー画像を処理する場合に比べて大幅に増大したり、文字パターンの抽出精度が低下したりするからである。
これは、例えば、256色画像は、フルカラー画像を色のクラスタリングにより減色したものと考えられ、フルカラー画像では異なった色として表現されている領域が、256色画像では同一色の領域として表現されるからである。すなわち、フルカラー画像では1667万色を区別する必要があるため、同一色とみなす色の変動の範囲を小さくする必要があるが、256色画像では256色を区別するだけでよく、同一色とみなす色の変動の範囲がある程度大きくてもよい。このため、フルカラー画像に適用されるラベリング方法を、256色画像の適用すると、256色画像では同一色として表現されている領域が異なった色で構成されていると判断され、同色領域に細かい領域が多数発生することになる。
そこで、フルカラー画像以外の画像について、画像の色パレットを対象にクラスタリング処理を行い、そのクラスタリング結果を用いてラベリングを行うようにする。
また、画像の色分布をクラスタリングし、そのクラスタリング結果を用いてラベリングを行うようにすることもできる。
また、フルカラー画像以外のラベリングを行う場合に、クラスタリングと領域拡張法ラベリングを組み合わせた手法を使用することもできる。
クラスタリング結果として、1つのクラスタ当たり以下のような情報を得ることができる。
・クラスタ番号
・クラスタに含まれる色パレットの個数
・クラスタに含まれる元の画像の色パレット番号
・クラスタの平均色(R,G,B)
クラスタリング手法として、例えば、クラスタ中心間のシティブロック距離を距離尺度に使った階層的クラスタリングを用いることができる。なお、距離の尺度を、ユークリッド距離、重み付きユークリッド距離、またはマハラノビス距離などにより定義することもできる。
また、クラスタ間の距離を測る方法として、最短距離法、最長距離法、メジアン法、重心法、群平均法、またはウォード法などを用いることができる。
また、クラスタリングの終了条件として、例えば、クラスタ中心間の距離の最小値が予め定めたしきい値より小さくなった時に、クラスタリングを終了させることができる。
画像の色分布をクラスタリングする場合、クラスタリングに使用するベクトルは、画像の色パレット(Ri,Gi,Bi)(i=1〜255など)である。
この色パレットのベクトルを使用して階層的クラスタリングを行う場合、色差の尺度としてクラスタ間の距離を求め、クラスタ間の距離が小さいクラスタ同士を統合する。
なお、2つの色(R1,G1,B1)、(R2,G2,B2)の間の距離distを、シティブロック距離で定義した場合、以下の式で表すことができる。
dist=|R1−R2|+|G1−G2|+|B1−B2|
ここで、デバイスによる色の違いの識別能力と人間による色の違いの識別能力とは異なっており、例えば、色空間上での距離値が同じ値を示す色であっても、黒(または白)に近い2つの色は、赤などの高彩度の2つの色などに比べて、人間が見た時の色の識別能力が低い。
すなわち、黒に近い2つの色は、色空間上での距離値が離れていても、人間の目にはその2つの色を区別できず、その2つの色が同一色に見えてしまう。
一方、赤に近い2つの色は、色空間上での距離値がある程度近くても、人間の目にはその2つの色を区別でき、その2つの赤色を異なった色と見ることができる。
そこで、クラスタリングに先立って、低彩度色(黒、または白に近い色)の2色間の距離値を高彩度色の2色間の距離値よりも小さくするための色変換を行う。この色変換により、全ての輝度値の値について、0から255までの輝度値の差分を同じ評価基準で判断することができる。
図28は、本発明の一実施例に係わる色信号の変換方法を説明する図である。
図28において、黒および白に近い色では、(R,G,B)の色空間上の色差よりも、人間が判別する色差の方が鈍感である場合が多い。
例えば、人が色の違いを意識する時には、黒(0,0,0)と黒に近い色(0,0,80)の色差(=80)は、例えば、赤(255,0,0)と赤に近い色(255,5,5)の色差(=10)と同程度の感度である。すなわち、赤系統2つの色は、色差が10程度しかなくても、これらの2つの色の違いを認識できるが、黒系統の2つの色は、色差が80程度以上にならないと、これらの2つの色の違いを認識することができない。
このため、黒や白に近い場合には2色間の色差を圧縮し、それ以外の色の場合には2色間の色差を拡大するような色変換を行い、全ての色で色差の距離を同等に評価可能とする。この色変換により得られた色パレットをクラスタリングすることにより、人が判断した場合と同等のクラスタリング結果を得ることが可能となる。
なお、色変換を計算により行う場合、以下の式を用いることができる。
Rnew={1−cos(R×π/255)}×255+R×4
Gnew={1−cos(G×π/255)}×255+G×4
Bnew={1−cos(B×π/255)}×255+B×4
また、人間の識別能力に対応した色の変換関係を実験的に求め、この実験的に求めた色の変換関係を変換テーブルに予め登録しておくようにしてもよい。
次に、クラスタリング結果を用いた色ラベリング処理を行う(ステップS26)。
このクラスタリング結果を用いた色ラベリング処理では、色パレットのクラスタリング結果から得られた情報を使用してカラー画像のラベリングを行う。
すなわち、フルカラー以外の画像については、その画像を構成する色パレットをクラスタリングを行い、そのクラスタリング結果をラベリング処理に反映させる。
一方、フルカラー画像を対象にクラスタリングを行うと、膨大な時間がかかる。また、処理時間を短縮するために、色空間を適当な区分に分割するなどの疑似クラスタリングを行うと、精度が悪化する。
そこで、フルカラー画像では、クラスタリングを用いたラベリングを行わず、フルカラー以外の256色などの少数の色数の画像のみに限定してクラスタリングを用いたラベリング行う。
図29は、本発明の一実施例に係わるクラスタリング結果を用いた色ラベリング方法を説明する図である。
図29において、画素の色パレットのクラスタリングにより、色パレットのクラスタが生成され、各画素の色パレットが属するクラスタの番号が各画素に与えられているものとする。
例えば、パターン231、235の色が赤、パターン232、234の色が青、パターン233の色が黄であるものとし、赤がクラスタ番号1のクラスタに分類され、青がクラスタ番号2のクラスタに分類され、黄がクラスタ番号3のクラスタに分類されたものとすると、パターン231、235を構成する各画素にはクラスタ番号1が与えられ、パターン232、234を構成する各画素にはクラスタ番号2が与えられ、パターン233を構成する各画素にはクラスタ番号3が与えられる。
クラスタ番号が各画素に与えられると、互いに隣接する画素同士のクラスタ番号を比較し、互いに隣接する画素のクラスタ番号が同一である場合、それらの画素に同一のラベルを与える。
例えば、パターン231を構成する画素はクラスタ番号1の画素で連結しているため、パターン231を構成する画素には、ラベル番号1が与えられる。一方、パターン235を構成する画素のクラスタ番号も1であるが、パターン231とパターン235とは連結していないので、パターン235を構成する画素にはラベル番号5が与えられる。
具体的には、以下の処理を行う。
まず、画素のパレット番号からクラスタ番号を獲得する変換表を作成する。
次に、クラスタ番号に注目した色ラベリング処理を行う。この色ラベリング処理では、隣り合う画素のクラスタ番号が同じ場合に同一ラベルを与える。
すなわち、縮小画像の左上からラスタスキャンを行い、ラベル付けがされていない画素に注目する。
そして、この未処理の画素の周囲8画素を走査して、周囲に既にラベル付けされた画素があり、その画素のクラスタ番号が注目画素のクラスタ番号と同じである場合に、周囲画素のラベルをカレントラベル(region)として保存し、注目画素のラベルとしてregionを与える。
また、領域の平均色(Rm,Gm,Bm)として、周囲のラベルの平均色に注目画素の色を加味した新たな平均色を求める。
それ以外の場合は、カレントラベルとして、今まで付けたラベル値+1のラベル値を設定し、注目画素のラベルにもその値を付与する。この場合でも、領域の平均色(Rm,Gm,Bm)として、注目画素のRGB値を設定する。
どちらの場合でも、注目画素の座標値を処理対象座標配列に保存する。
注目画素の周りに同色領域を拡張する処理を行う。処理対象配列の中から、先頭の座標値を取り出し、その座標の画素を注目画素とする。
注目画素の市有為8画素を走査し、未処理の画素であり、注目画素のクラスタ番号と周囲画素のクラスタ番号が同一である場合、注目画素と同一ラベルを付け、周囲画素の座標を処理対象配列に追加する。今処理した注目画素は、処理対象配列から削除する。処理座標のx,yの最大値、最小値を求め、それをこのラベル領域の外接矩形として保存する。また、このラベル領域の平均色を外接矩形の属性として保存する。
この処理を処理対象配列の内容がなくなるまで続ける。
ラベリングの結果、ラベル画像(同一領域は、同じラベル値が付与されている画像)と同じラベルを持つ領域を囲む外接矩形が獲得される。
ラベリング処理の出力情報は、以下のようになる。
・ラベル画像:4バイト/1画素
・外接矩形
矩形数:maxcount
内包するラベル画像のラベル番号:label
矩形左上座標:(xmin,ymin)
矩形右上座標:(xmax,ymax)
矩形内の代表色:(r,g,b)
所属するグループ番号:string_label
輪郭長:contour
図30は、本発明の一実施例に係わるパターン抽出装置のシステム構成を示すブロック図である。
図30において、241は全体的な処理を行う中央演算処理ユニット(CPU)、242はリードオンリメモリ(ROM)、243はランダムアクセスメモリ(RAM)、244は通信インターフェイス、245は通信ネットワーク、246は入出力インターフェイス、247は入力画像やタイトルの抽出結果などを表示するディスプレイ、248は入力画像やタイトルの抽出結果などを印刷するプリンタ、249はスキャナ250またはCCD251により読み取られたデータを一時的に格納するメモリ、250はカラー画像などを読み取るスキャナ、251はカラー画像などを読み取るCCD、252はキーボード、253は記憶媒体を駆動するドライバ、254はハードディスク、255はICメモリカード、256は磁気テープ、257はフロッピーディスク、258はCD−ROMやDVD−ROMなどの光ディスク、259はバスである。
パターン抽出処理を行うプログラム、印刷モデルを構築するプログラム、色差テーブルなどは、ハードディスク54、ICメモリカード55、磁気テープ56、フロッピーディスク57、光ディスク58などの記憶媒体に格納される。そして、パターン抽出処理を行うプログラム及び色差テーブルを、これらの記憶媒体からRAM243に読み出すことにより、パターン抽出処理を行うことができる。また、パターン抽出処理を行うプログラムなどを、ROM242に格納しておくこともできる。また、印刷モデルを構築するプログラムを起動させることにより、色差テーブルを作成することができる。
さらに、パターン抽出処理を行うプログラムや色差テーブルななどを、通信インターフェイス244を介して通信ネットワーク245から取り出すこともできる。通信インターフェイス244に接続される通信ネットワーク245は、無線及び有線のいずれでもよく、例えば、LAN(LocalArea Network)、WAN(Wide Area Network)、インターネット、アナログ電話網、デジタル電話網(ISDN:IntegralService Digital Network)、PHS(パーソナルハンディシステム)、携帯電話網、衛星通信網などを用いることができる。
CPU241は、パターン抽出処理を行うプログラムが起動されると、スキャナ250またはCCD251により読み取られた入力画像のラベリングを行うしきい値を設定し、スキャナ250またはCCD251により読み取られた入力画像からラベル画像を生成する。ラベル画像が生成されると、入力画像のパターンの各ラベルごとに、各パターンについての外接矩形を生成する。そして、各外接矩形内の領域の色情報及び外接矩形の幾何学情報に基づいて、各外接矩形のグルーピングを行い、このグルーピングされた外接矩形の配置状態や大きさなどを考慮して、タイトル領域などを抽出する。タイトル領域が抽出されると、このタイトル領域に含まれているパターンを入力画像のタイトルとしてディスプレイ247やプリンタ248に出力したり、このタイトル領域に含まれるパターンの文字認識を行い、その認識結果に基づいて、文書の自動分類や自動検索を行ったりする。
以下、上述した処理について、実際のカラー画像を例にとって説明する。なお、以下の説明に用いるカラー画像は、フルカラー画像を例にとっているが、フルカラー画像以外のカラー画像についても、色ラベリング処理が異なる以外は同様に処理できる。
図31(a)は、入力された原画像の例を示す図である。
図31(a)において、この原画像は、847×1167画素から構成され、「祝!パソコン20年」という文字パターン301が黒色で印刷されている。また、この文字パターン301の周囲には、色が黒→オレンジ→黄にかけて少しずつ変化する背景パターン302が存在している。ここで、図31(a)の原画像から「祝!パソコン20年」という文字パターン301を抽出するものとする。
図31(b)は、図31(a)のラベル画像を示す図である。
図31(b)において、このラベル画像は、図4のステップS5の色ラベリング処理により得られたものである。この色ラベリング処理により、同色の連結領域に対して同一ラベルが付され、同一ラベルが付されたパターンの外接矩形が生成される。
ここで、原画像を3×3画素からなるメッシュ領域に分割し、これらのメッシュ領域の中の画素の色の分散の小さいもの選択することにより、図31(a)の原画像から均一色領域を抽出する。例えば、図31(a)の原画像の右上の領域303や右下の領域304は黒一色で着色されているので、これらの領域303、304が原画像の均一色領域として抽出される。
原画像から均一色領域が抽出されると、この均一色領域の色の分散を求め、この分散に基づいてラベリングのしきい値を設定する。このしきい値をラベリングの際に用いることにより、「祝!パソコン20年」という黒色の文字パターン301が黒色の背景パターン302で覆われているのもかかわらず、文字パターン301の色と背景パターン302の色との微妙な違いを区別することができ、「祝!パソコン20年」というパターン301の輪郭を正確に縁取ったラベル画像311を生成することができる。
また、背景パターン302の色は微妙に変化しているため、隣接拡張法によるラベリングでは背景パターン302の色の変動を吸収できず、微小な背景ノイズ312が多数生成されている。
なお、フルカラー画像の場合、色ラベリング処理により得られる外接矩形の個数は数千〜数万程度になる。
図32(a)は、図31(b)のラベル画像から得られた注目矩形を示す図である。
図32(a)において、この注目矩形は、図4のステップS7の注目矩形抽出処理により得られたものである。この注目矩形抽出処理では、図31(b)のラベル画像から得られる外接矩形のうち、所定の範囲内の大きさの外接矩形が注目矩形とされる。このため、図31(b)の色ラベリング処理により得られる外接矩形のうち、矩形番号1〜41の矩形が注目矩形として抽出される。
この注目矩形抽出処理により、タイトルを構成しないことが明らかな微小な背景ノイズ312などの外接矩形を、グルーピングの際の探索範囲の基準となる外接矩形から除去することができ、処理を高速化することが可能となる。例えば、図31(b)の状態では外接矩形の個数が数千〜数万程度あったものが、図32(a)の状態では外接矩形の個数を数十個に減らすことができる。
図32(b)は、グループ抽出結果を示す図である。
図32(b)において、このグループ抽出結果は、図4のステップS9の同色グループ抽出処理により得られたものである。この同色グループ抽出処理は、図31(b)のラベリング処理が終了した段階では、タイトルを構成する個々の文字に異なるラベルが付されているので、タイトルを構成する「祝」、「!」、「パ」、「ソ」、「コ」、「ン」、「2」、「0」及び「年」という文字を1つのグループにまとめるために行われる。
この同色グループ抽出処理により、同一のグループにグルーピングされた外接矩形を囲む外接矩形が生成され、矩形番号が1〜16のグループの外接矩形が生成される。
ここで、同色グループ抽出処理では、図31(b)のラベル画像から得られた外接矩形のうち、図32(a)で設定された注目矩形から所定の範囲内にあり、矩形の色の近いもの同士が同一のグループにグルーピングされる。
このため、タイトルを構成する個々の文字に局所的な色の変動がある場合には、1つのタイトルを構成する文字であっても、それらの文字が異なるグループに分類される場合がある。例えば、図31(a)の「祝!パソコン20年」という文字パターン301のうち、「コ」という文字の色と「ン」という文字の色とが局所的に異なっているとすると、「コ」という文字と「ン」という文字とが異なるグループに分類される。このため、図32(b)では、「祝!ハソコ」というパターンと「ン20年」というパターンとが異なるグループに分類され、「祝!ハソコ」というパターンに対応するグループの外接矩形321と、「ン20年」というパターンに対応するグループの外接矩形322とが生成される。
また、外接矩形321に対応するグループは「祝!ハソコ」というパターンから構成され、「祝!パソコン20年」という文字パターン301から「ハ」の半濁点が欠落している。これは、同色グループ抽出処理では、図32(a)で抽出された注目矩形の色とその周囲にある矩形の色とが比較され、注目矩形の色とその周囲にある矩形の色との差が大きい場合には、それらの矩形は異なるグループに分類されるためである。例えば、「ハ」というパターンの色と「ハ」の半濁点の色との差が大きい場合には、「ハ」というパターンと「ハ」の半濁点とは異なるグループに分類され、「ハ」の半濁点が外接矩形321のグループから欠落する。
さらに、同色グループを抽出する際のしきい値が適切でない時にも、「ハ」の半濁点が外接矩形321に対応するグループから欠落する場合がある。例えば、同色とみなす範囲のしきい値が印刷モデルから獲得した同色パターンの輝度差に基づいて設定されている場合には、印刷モデルと異なる方法で印刷された画像が入力されると、対応できなくなる。
なお、図32(a)の注目矩形から所定の範囲内に、代表色の色の近い他の外接矩形が図31(b)のラベル画像から見つからない場合は、その注目矩形はグループを作らないため、その注目矩形は消滅させる。
図33(a)は、図32(b)のグループ抽出結果を文字線太さで再グループ化した結果を示す図である。
図33(a)において、この再グループ結果は、図4のステップS11の文字線太さによる再グループ化処理により得られたものである。この処理により、矩形番号が0〜12のグループの外接矩形が生成されている。なお、図32(b)の外接矩形のうち、パターンの線の太さによってグループを作ることができないものは消滅させる。
図33(b)は、図33(a)の画像から矩形並びによる文字列らしいグループを抽出した結果を示す図である。
図33(b)において、この文字列らしいグループは、図4のステップS19の矩形並びによる文字列らしいグループの抽出処理により得られたものである。この処理により、図33(a)の矩形番号が0〜12のグループのうち、そのグループ内の矩形がランダムに並んでいるグループは削除され、縦方向または横方向に矩形が規則正しく並んでいるグループだけが残される。この結果、矩形番号が0〜2のグループの外接矩形341〜343が抽出される。
ここで、図33(b)の矩形番号0のグループの外接矩形341は、図33(a)の矩形番号3のグループの外接矩形331と矩形番号2のグループの外接矩形332とを統合したものとなっている。これは、図4のステップS19の処理が行われる前に、図4のステップS18のグループ統合処理が行われたためである。
このグループ統合処理では、グループの統合を行うかどうかの判断がそのグループに属する全てのパターンの色の平均に基づいて行われる。このため、同一タイトルに属するにもかかわらず、別々のグループに属するとされた文字を1つのグループにまとめることができる。
例えば、図32(b)では、「祝!ハソコ」というパターンと「ン20年」というパターンとが異なるグループに分類され、「祝!ハソコ」というパターンに対応するグループの外接矩形321と、「ン20年」というパターンに対応するグループの外接矩形322とが生成されている。これは、図32(b)の同色グループ抽出処理では、互いに隣接する矩形同士の色の違いしか判断しないため、図31(a)の「祝!パソコン20年」という文字パターン301のうち、「コ」という文字の色と「ン」という文字の色とが局所的に異なっているとすると、「コ」という文字と「ン」という文字とが異なるグループに分類されるからである。
一方、図4のステップS18のグループ統合処理では、グループの外接矩形321内の「祝!ハソコ」というパターン全体の色と、グループの外接矩形322内の「ン20年」というパターン全体の色とが比較され、これらのグループの色が近い場合は、1つのグループに統合される。このため、図31(a)の「祝!パソコン20年」という文字パターン301のうち、「コ」という文字の色と「ン」という文字の色とが局所的に異なっている場合でも、「コ」という文字の色の変動は「コ」という文字が属する「祝!ハソコ」というパターン全体の色に吸収され、「ン」という文字の色の変動は「ン」という文字が属する「ン20年」というパターン全体の色に吸収される。このため、「祝!ハソコ」というパターンと「ン20年」というパターンとを1つのグループにまとめることが可能となる。
図34(a)は、図33(b)のグループの外接矩形からそのグループ内のパターンを抽出した結果を示す図である。
図34(a)において、「祝!ハソコン20年」という文字パターン351とノイズパターン352とが抽出されている。ここで、「祝!ハソコン20年」という文字パターン351は、図33(b)のグループの外接矩形341から抽出されたものであり、ノイズパターン352は、図33(b)のグループの外接矩形342から抽出されたものである。なお、図33(b)のグループの外接矩形343のパターンは、そのパターンについての文字認識を行った結果、ノイズと見なされ削除されている。
ここまでの処理では、グループの外接矩形341から抽出された文字パターン351は、「ハ」の半濁点が「祝!パソコン20年」という文字パターン301から欠落したままの状態となっている。そこで、グループの色に近いパターンの再抽出を行う。
図34(b)は、グループの色に近いパターンの再抽出結果を示す図である。図34(b)において、このグループ内パターンは、図4のステップS22のグループ内同色パターン抽出処理により得られたものである。
このグループ内同色パターン抽出処理では、図34(a)の「祝!ハソコン20年」という文字パターン351については、図33(b)のグループの外接矩形341内に存在する図31(a)の原画像のパターンが探索される。
ここで、グループの外接矩形341内に存在する文字パターン351全体の色と、図33(b)のグループの外接矩形341内に抽出されないで残っている原画像のパターンの色とを比較することにより、同色パターンの再抽出を行う。
このため、「祝!ハソコン20年」という文字パターン351全体の色と、「ハ」の半濁点の色とを比較して、これらのパターンが同色かどうかの判定を行うことが可能となり、図31(b)の同色グループ抽出処理では抽出できなかった「ハ」の半濁点を抽出することが可能となる。
また、同色パターンを再抽出する際の同色とみなす範囲のしきい値を、既に抽出されている「祝!ハソコン20年」という文字パターン351の色の変動に基づいて設定する。
このため、タイトルを構成するパターンとして既に抽出されている部分の色情報から、タイトルを構成する残りのパターンを抽出することが可能となり、同色パターンを抽出する際のしきい値として、抽出対象となるパターンの色差を忠実に反映した値を用いることが可能となり、図31(b)の同色グループ抽出処理では抽出できなかった「ハ」の半濁点を抽出することが可能となる。
この結果、図34(a)の「祝!ハソコン20年」という文字パターン351に対し、「ハ」の半濁点を抽出することが可能となり、図31(a)の原画像の文字パターン301に対応する文字パターン361を抽出することが可能となる。
図35は、図31(a)の画像から抽出された第1候補のタイトルを示す図である。
図34(b)の例では、タイトル候補として、2つのパターン361、362が抽出されているので、これらのパターン361、362に対応する外接矩形341、342の面積を計算する。そして、面積の大きい方のパターンをタイトルの第1候補として提示する。この結果、図35に示すように、図31(a)の原画像から抽出された「祝!パソコン20年」という文字パターン301をタイトルの第1候補として提示することができる。
本発明の第1実施例に係わる画像処理装置の構成を示すブロック図である。 本発明の第2実施例に係わる画像処理装置の構成を示すブロック図である。 本発明の第3実施例に係わる画像処理装置の構成を示すブロック図である。 本発明の第4実施例に係わるパターン抽出装置の動作を示すフローチャートである。 本発明の一実施例に係わる印刷モデルの生成方法を示す図である。 本発明の一実施例に係わる色差テーブルの構成を示す図である。 本発明の一実施例に係わる読み取り解像度推定方法を説明する図である。 本発明の一実施例に係わる色ラベリング処理を説明する図である。 本発明の一実施例に係わる注目画素の周囲の8画素を示す図である。 本発明の一実施例に係わるL字形パターンが存在する場合の重なり統合結果を示す図である。 本発明の一実施例に係わる注目矩形の周囲の探索範囲の設定方法を説明する図である。 本発明の一実施例に係わる注目矩形の周囲の探索範囲にかかる矩形の抽出方法を説明する図である。 本発明の一実施例に係わる注目矩形の周囲の探索範囲にかかる矩形情報の格納方法を説明する図である。 本発明の一実施例に係わる同色グループの生成方法を示す図である。 本発明の一実施例に係わる文字線の太さの算出方法を説明する図である。 本発明の一実施例に係わる輪郭長獲得処理を示すフローチャートである。 本発明の一実施例に係わる輪郭長獲得方法を説明するためのパターンの具体例を示す図である。 本発明の一実施例に係わる文字線の太さによる再グルーピング処理を説明する図である。 本発明の一実施例に係わるグループ内の大きな矩形削除処理を説明する図である。 本発明の一実施例に係わるグループ内の重なり矩形統合処理を説明する図である。 本発明の一実施例に係わるグループ内文字列抽出処理を説明する図である。 本発明の一実施例に係わる文字列内分離文字統合処理を説明する図である。 本発明の一実施例に係わるグループ内の文字列サイズによる再グループ化処理を説明する図である。 本発明の一実施例に係わるグループ統合処理を説明する図である。 本発明の一実施例に係わる矩形並びによる文字列らしいグループの抽出処理を説明する図である。 本発明の一実施例に係わるノイズグループの削除処理を説明する図である。 本発明の一実施例に係わるグループ内同色パターン抽出処理を説明する図である。 本発明の一実施例に係わる色信号の変換方法を説明する図である。 本発明の一実施例に係わるクラスタリング結果を用いた色ラベリング方法を説明する図である。 本発明の一実施例に係わるパターン抽出装置のシステム構成を示すブロック図である。 (a)は、本発明の一実施例に係わる原画像を示す図、(b)は、図31(a)のラベル画像を示す図である。 (a)は、図31(b)のラベル画像に設定された注目矩形を示す図、(b)はグループ抽出結果を示す図である。 (a)は、図32(b)のグループ抽出結果を文字線太さで再グループ化した結果を示す図、(b)は、図32(a)の画像から矩形並びによる文字列らしいグループを抽出した結果を示す図である。 (a)は、図33(b)の画像からグループ内パターンを抽出した結果を示す図、(b)は、グループ色に近いパターンの再抽出を行った結果を示す図である。 図31(a)の画像から抽出された第1候補のタイトルのパターンを示す図である。
符号の説明
1 入力画像
2 読み取り情報取得手段
3 同色範囲設定手段
4 ラベリング手段
5 グルーピング手段
6 グループ情報算出手段
7 色数判別手段
8 制御手段
9 第1のラベリング手段
10 第2のラベリング手段
14 画像処理装置
15 局所領域抽出手段
16 色差情報抽出手段
17 しきい値設定手段
241 CPU
242 ROM
243 RAM
244 通信インターフェイス
245 通信ネットワーク
246 入出力インターフェイス
247 ディスプレイ
248 プリンタ
249 メモリ
250 スキャナ
251 CCD
252 キーボード
253 ドライバ
254 ハードディスク
255 ICメモリカード
256 磁気テープ
257 フロッピーディスク
258 光ディスク
259 バス

Claims (2)

  1. 色の輝度値及び読み取り解像度を変数として、隣接画素間の色差の最大値を格納する色差テーブルと、
    入力画像から得られる隣接画素間の色差と前記色差テーブルに格納されている色差とが最もよく一致する読み取り解像度を、3原色のそれぞれに対し個別に取得する解像度取得手段と、
    前記3原色の読み取り解像度に基づいて、前記入力画像の読み取り解像度を算出する解像度算出手段と、
    前記入力画像の読み取り解像度に対応する色差を、前記色差テーブルから取得する色差取得手段と、
    前記色差テーブルから取得した色差に基づいて、ラベリングのしきい値を設定するしきい値設定手段と、
    前記しきい値に基づいて、前記入力画像のラベリングを行うラベリング手段とを備えることを特徴とする画像処理装置。
  2. 前記色差テーブルは、画像が取りうる全ての色の輝度値に対し、隣接画素間の色差の最大値が登録されたものであることを特徴とする請求項1に記載の画像処理装置。
JP2005171549A 2005-06-10 2005-06-10 画像処理装置 Expired - Fee Related JP4149464B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005171549A JP4149464B2 (ja) 2005-06-10 2005-06-10 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005171549A JP4149464B2 (ja) 2005-06-10 2005-06-10 画像処理装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP35034298A Division JP3748172B2 (ja) 1998-12-09 1998-12-09 画像処理装置

Publications (2)

Publication Number Publication Date
JP2005317042A JP2005317042A (ja) 2005-11-10
JP4149464B2 true JP4149464B2 (ja) 2008-09-10

Family

ID=35444315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005171549A Expired - Fee Related JP4149464B2 (ja) 2005-06-10 2005-06-10 画像処理装置

Country Status (1)

Country Link
JP (1) JP4149464B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4872780B2 (ja) * 2007-04-25 2012-02-08 富士ゼロックス株式会社 画像処理システム及び画像処理プログラム
JP4960897B2 (ja) * 2008-01-30 2012-06-27 株式会社リコー 画像処理装置、画像処理方法、プログラム、記憶媒体
JP5095440B2 (ja) * 2008-02-25 2012-12-12 森合精機株式会社 残留付着物測定装置
JP5173898B2 (ja) * 2009-03-11 2013-04-03 キヤノン株式会社 画像処理方法、画像処理装置、及びプログラム
JP4998496B2 (ja) 2009-03-16 2012-08-15 富士ゼロックス株式会社 画像処理装置、情報処理装置および画像読取装置
JP5417099B2 (ja) * 2009-09-14 2014-02-12 株式会社東京建設コンサルタント 超低周波音測定による構造体の状況評価方法
JP5333787B2 (ja) * 2010-07-20 2013-11-06 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
CN112634311B (zh) * 2020-12-28 2023-12-05 中国科学院半导体研究所 一种基于二值图的特征提取的方法及装置

Also Published As

Publication number Publication date
JP2005317042A (ja) 2005-11-10

Similar Documents

Publication Publication Date Title
JP3748172B2 (ja) 画像処理装置
JP3748164B2 (ja) パターン抽出装置
JP4149464B2 (ja) 画像処理装置
CN100533467C (zh) 图像处理装置、图像形成装置、图像读取装置及图像处理方法
JP4764231B2 (ja) 画像処理装置、制御方法、コンピュータプログラム
JP3601658B2 (ja) 文字列抽出装置及びパターン抽出装置
CN105528614B (zh) 一种漫画图像版面的识别方法和自动识别系统
US8385651B2 (en) Character recognition device, image-reading device, computer readable medium, and character recognition method
CN102567300A (zh) 图片文档的处理方法及装置
JP4275866B2 (ja) カラー画像から文字列パターンを抽出する装置および方法
CN113971792A (zh) 交通标志牌的字符识别方法、装置、设备和存储介质
JP4211941B2 (ja) パターン抽出装置
JP4182891B2 (ja) 画像処理装置
CN102682308B (zh) 图像处理方法和图像处理设备
CN114926829A (zh) 一种证件检测方法、装置、电子设备及存储介质
JP3476595B2 (ja) 画像領域分割方法、および画像2値化方法
JP2005184404A (ja) 画像処理装置
JP2613211B2 (ja) 画像入力装置
JP2003271973A (ja) 画像処理方法および画像処理プログラム
JP2002269574A (ja) 囲み領域抽出アルゴリズムの性能を向上させるランレングスに基づく連結成分と輪郭追跡
JP2003216958A (ja) 多角形検出装置、多角形検出方法及び多角形検出プログラム
JP4311183B2 (ja) 画像処理装置及びプログラム
JP4182873B2 (ja) 画像処理装置及びプログラム
JPH0535870A (ja) 多値化データを用いた輪郭点抽出法
JPH0495180A (ja) 線分・曲線認識方式

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080507

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080624

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080625

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120704

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120704

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130704

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees