JP3748164B2 - パターン抽出装置 - Google Patents

パターン抽出装置 Download PDF

Info

Publication number
JP3748164B2
JP3748164B2 JP14642098A JP14642098A JP3748164B2 JP 3748164 B2 JP3748164 B2 JP 3748164B2 JP 14642098 A JP14642098 A JP 14642098A JP 14642098 A JP14642098 A JP 14642098A JP 3748164 B2 JP3748164 B2 JP 3748164B2
Authority
JP
Japan
Prior art keywords
color
rectangle
pattern
circumscribed
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP14642098A
Other languages
English (en)
Other versions
JPH11288465A (ja
Inventor
裕 勝山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP14642098A priority Critical patent/JP3748164B2/ja
Priority to US09/228,427 priority patent/US6701010B1/en
Priority to EP99300472A priority patent/EP0935216A3/en
Priority to KR10-1999-0002796A priority patent/KR100525692B1/ko
Priority to CNB031412378A priority patent/CN1291352C/zh
Priority to CNB991017706A priority patent/CN1136516C/zh
Publication of JPH11288465A publication Critical patent/JPH11288465A/ja
Priority to US10/664,959 priority patent/US6990235B2/en
Application granted granted Critical
Publication of JP3748164B2 publication Critical patent/JP3748164B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/15Cutting or merging image elements, e.g. region growing, watershed or clustering-based techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/18105Extraction of features or characteristics of the image related to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10008Still image; Photographic image from scanner, fax or copier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30176Document
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明はパターン抽出装置に関し、特に、カラー画像から見出しなどの文字領域を抽出する場合に適用して好適なものである。
【0002】
【従来の技術】
近年、コンピュータやカラープリンタなどの周辺機器の発達と、その低価格化に伴って、カラー画像を処理する分野が広がっている。このため、カラー画像を領域分割し、カラー画像の中から特定領域だけを抽出する技術が求められている。例えば、カラー画像中の同色領域を抽出する技術が求められている。
【0003】
この技術は、例えば、CCDカメラで撮影したカラー情景画像を処理対象の入力画像とする場合では、画像認識による果物選別や、車の監視、セキュリティーのための人物監視等、多方面で求められている。
【0004】
また、カラー文書画像を入力画像とする場合では、画像から文書名やキーワードなどを自動抽出して、検索時に使用できるものとして期待されている。その一例として、図書館での本の分類や、管理の自動システムがあげられる。その他にも、画像をデータベースとして蓄積、共有化するグループウェアでの自動キーワードまたはファイル名付けなどに利用される。これらの情報は、膨大な量のカラー文書画像を検索するのに使用される。
【0005】
カラー画像の中から特定領域だけを抽出する技術として、以下に述べるような方法が提案されている。
(1)RGB色空間クラスタリング法
このRGB色空間クラスタリング法では、色分解画像の作成が行われる。すなわち、CCDカメラで撮影したRGB画像の画素についてRGB空間上でのクラスタリングを行う。そして、一つのクラスタに属する画素だけで色毎の画像を作成して、同一色の領域を抽出したり、またこの手法でできた領域を併合したりして、新たな領域を抽出するものである。
【0006】
図44は、従来のRGB色空間クラスタリング法を示す図である。
図44において、カラー文書画像501が入力されたものとすると、近い色を有するパターンを抽出して、クラスタリングを行う。例えば、パターン502、507が青系統色、パターン503が緑系統色、パターン504〜506が赤系統色で描かれているものとすると、青系統色のパターン502、507が属するクラスタ508、緑系統色のパターン503が属するクラスタ509及び赤系統色のパターン504〜506が属するクラスタ510がRGB空間上に生成される。
【0007】
クラスタ508〜510が生成されると、1つのクラスタ508〜510に属する画素だけでクラスタ508〜510ごとの画像を作成する。この結果、クラスタ508については、パターン502’、507’で構成された色分解画像501aが生成され、クラスタ509については、パターン503’で構成された色分解画像501bが生成され、クラスタ510については、パターン504’〜506’で構成された色分解画像501cが生成される。
(2)RGB以外色空間クラスタリング法
RGB空間で表現されたRGB画像の全ての画素をHSVのような別の色空間に変換し、この色空間上で何らかのクラスタリングを行い、一つのクラスタに属する画素だけで色毎の画像を作成して同一色の領域を抽出したり、この手法でできた領域を併合したりして、新たな領域を抽出するものである。
【0008】
なお、従来のカラー文書画像から文字領域を抽出する技術を記載した文献として、例えば、以下のものがある。
・仙田等「文字の単色性に着目したカラー画像からの文字パターン抽出法」電子情報通信学会 PRU94−09,p17−24
・上羽等「等色線処理によるカラー画像からの文字領域の抽出」電子情報通信学会 PRU94−09、p9−16
・松尾等「カラー文書画像からの単色文字領域の抽出」1997電子情報通信学会総合大会 D−12−19
・松尾等「濃淡及び色情報による情景画像からの文字列抽出」電子情報通信学会 PRU92−121、p25−32
(3)領域拡張法
この領域拡張法では、隣り合う画素の色の近さだけに注目してラベリングが行われる。すなわち、RGBで表現された画素を対象に、(R,G,B)の各色要素の最大値(max)を求め、これにより色画素を(R/max,G/max,B/max)と正規化し、正規化された画像を作成する。
【0009】
図45は、従来の領域拡張法を示す図である。
図45において、画像中の画素P1、P2、...をそれぞれ色要素RGBを用いて、P1(R1,G1,B1)、P2(R2,G2,B2)、・・・で表現する(▲1▼)。
【0010】
次に、各色要素の最大値を求める。例えば、画素P1では、R1,G1,B1のうちの最大値をmax1とし、画素P2では、R2,G2,B2のうちの最大値をmax2とする。そして、この最大値により各色要素を正規化して、正規化された画素P1′(R1/max1,G1/max1,B1/max1),P2′(R2/max2,G2/max2,B2/max2)を作成する(▲2▼)。
【0011】
次に、この正規化した画素P1′,P2′に対し、隣り合う画素P1′,P2′の各色要素の差分の二乗を3要素について求め、これを累積して隣接した画素P1′,P2′間の距離d=(R1/max1−R2/max2)2 +(G1/max1−G2/max2)2 +(B1/max1−B2/max2)2 を求める(▲3▼)。
【0012】
このようにして得られた距離dが、予め決めた固定のしきい値TH0より小さい場合に、両画素P1,P2を同一色とみなして、これに同じラベルを付けるラベリングを行う。このようにして全体の画像に対してラベル付けを行った後に、同一ラベルのものを抽出して、同一の色領域を抽出する。
【0013】
この領域拡張法は、処理する対象が画素の周辺だけであるので、RGB色空間クラスタリング法に比べて処理時間を短くできる利点がある。
なお、領域拡張法については、特開平5−298443号公報に詳しく記載されている。
【0014】
また、色分解画像から文字領域を抽出する方法として、上記の“上羽等「等色線処理によるカラー画像からの文字領域の抽出」電子情報通信学会 PRU94−09、p9−16”に記載されている方法がある。この方法では、以下の手順により、カラー画像から文字領域が抽出される。
【0015】
・1つの色の色分解画像から連結領域の外接矩形を求める。
・外接矩形のサイズ及び形状で一定の範囲にあるものだけに絞る。
・矩形毎に隣接矩形探索範囲を設け、その内部にかかる矩形を探索し、お互いに内部にかかる関係の矩形群をグループとして抽出する。
【0016】
・グループ内の矩形の重心の直線性がよいものだけを残す。
・グループの外接矩形を求め、その内部を対象にグループを構成する領域の色に近いパターンを抽出する。
【0017】
【発明が解決しようとする課題】
しかしながら、従来のカラー画像の同色領域のクラスタリング方法では、以下のような問題があった。
【0018】
まず、RGB色空間クラスタリング法でも、HSV空間のような他の色空間クラスタリング法でも、画像全体の画素を使用してクラスタリングが行われる。このため、図44に示すように、パターン502の色とパターン507の色とが異なっている場合においても、パターン502の色とパターン507の色とが近い場合には、抽出したいパターン502と別のパターン507とが同じクラスタ508に分類される可能性がある。この場合、パターン507の色の影響で、パターン502の色が本来形成するクラスタ形状が変化する。この結果、パターン502の色が形成するクラスタ本来の色の範囲が歪んでしまい、パターン502を抽出する場合に、精度のよい領域抽出ができなくなってしまう。例えば、抽出したいパターン502の色と近い色のパターン507が別の場所にあり、両者が1つのクラスタ508として抽出されると、クラスタ508が表す色は、パターン502の色とパターン507の色とが混在したものとなり、このクラスタ508が表す色では、パターン502の色の範囲及びパターン508の色の範囲をカバーできず、抽出結果のパターン502’、507’に穴511、512が空いたり、輪郭が綺麗に抽出されなかったりする場合がある。
【0019】
また、RGB色空間クラスタリング法や、HSV空間のような他の色空間クラスタリング法では、画像全体の多数の画素を対象としたクラスタリングを行うので、クラスタリングのために必要な計算時間も大きくなる。
【0020】
また、領域拡張法では、図45に示すように、正規化を行うため、各画素で割り算を行うための計算量が大きくなる。また、割り算の結果を浮動小数点のデータとして全画素分保有する必要があり、処理に必要なメモリ資源が多数必要となる。また、正規化した後でも、隣り合う画素が、人間がみたとき同じように見えるものについても、隣接画素との色の近さをどう定義するかによっては、固定しきい値よりも大きくかけ離れる場合があり、領域中の穴や領域輪郭が正しく抽出できない結果となる場合がある。また、隣接画素との関係だけを見ているので、文字領域と背景領域の境界で徐々に色が変化していく場合には、文字領域が背景領域と同一ラベルになってしまう場合がある。
【0021】
また、従来の文字領域の抽出方法では、画像全体についての色分解画像が、その画像に存在する色の数だけ生成されるので、色分解画像の生成に時間がかかるという問題がある。各色分解画像は画像全体について生成されるので、例えば、その画像からタイトルを抽出する場合に、タイトル領域以外の色の影響を受けやすく、タイトルの抽出精度が悪化するという問題がある。また、連結領域の外接矩形を求める場合、抽出した色分解画像ごとに画像全体について処理を行う必要があるため、1つのカラー画像から複数(抽出した色数分の)の縦横が同じサイズの画像が必要になり、処理に時間がかかるという問題がある。
【0022】
また、外接矩形のグルーピングも、画像全体について生成された色分解画像ごとに行われるので、処理に時間がかかるとともに、抽出対象となる文字が異なる色分解画像にクラスタリングされると、救済できないという問題がある。
【0023】
また、グループの構成時にお互いに探索範囲にかかる矩形だけを抽出するので、文字パターンの一部であるが、小さい部分がグループから抜け落ち易い。また、抜け落ちた部分を拾うために、グループ内の色が近いパターンの抽出を最後に行うが、この時に色が近いノイズを拾いやすいという問題がある。。
【0024】
そこで、本発明の第1の目的は、正規化処理を行うことなく、しかも距離計算を行う処理対象を画像領域の一部に限定したカラー画像処理装置を提供することである。
【0025】
また、本発明の第2の目的は、抽出対象となるパターンの欠落を抑制しながら、処理を高速化することが可能なパターン抽出装置を提供することである。
また、本発明の第3の目的は、抽出対象となるパターンの境界が不明確である場合においても、抽出対象となるパターンを精度良く抽出することが可能なパターン抽出装置を提供することである。
【0049】
【課題を解決するための手段】
発明の一態様によれば、所定の色で表現された領域の隣接画素間の色差を算出する色差算出手段と、前記色差に基づいて、しきい値を設定するしきい値設定手段と、前記しきい値に基づいて、前記所定の色で表現された画素に隣接する画素のラベリングを行うラベリング手段とを備えている。
【0050】
このことにより、入力画像が網点印刷法などで印刷されているために、入力画像内では同一色として表現されているにもかかわらず、読み取りの際の解像度によっては、異なった色の集合として検出される場合においても、入力画像の読み取りの際に同一色の範囲を精度良く抽出することが可能となり、入力画像内で同一色として表現されている領域からパターンの一部が抜けたり、欠けたりすることを防止することが可能となる。
【0051】
さらに、基本なる色のドットを格子点に配置したメッシュを互いに回転して重ね合わせ、かつ、前記ドットの大きさを変化させることにより、印刷モデルを生成するようにしている。
【0052】
このことにより、網点印刷法で生成される色をコンピュータ上で仮想的に生成することが可能となり、網点印刷法による色の変動を実際の印刷物を用いて解析することなく、網点印刷法による色の変動を識別することが可能となる。
【0053】
また、本発明の一態様によれば、印刷モデルで表現された色の輝度値及び前記輝度値における隣接画素との色差を、前記印刷モデルにおける読み込みの際の解像度ごとに登録した色差テーブルを生成するようにしている。
【0054】
このことにより、実際の印刷物を読み取るデバイスの解像度がどのようなものであっても、実際の印刷物から読み取られた色が同一色かどうかを判断する際のしきい値を容易に取得することが可能となる。
【0055】
また、本発明の一態様によれば、印刷モデルでの読み込みの際の解像度を、入力画像について推定するモデル解像度推定処理部を備えている。
このことにより、デバイスで読み取られた実際の印刷物を、コンピュータ上で仮想的に生成された印刷モデル上で扱うことが可能となり、デバイスで読み取られた実際の印刷物に対し、印刷モデルで生成されたしきい値を適用して、ラベリング処理を行うことが可能となる。
【0056】
また、本発明の一態様によれば、前記モデル解像度推定処理部は、前記色差テーブルに登録されている色の輝度値及び色差が入力画像全体で最も合う解像度を、前記入力画像における前記印刷モデルでの読み込みの際の解像度と推定する。
【0057】
このことにより、デバイスで読み取られた実際の印刷物に対し、印刷モデルで生成された最適なしきい値を入力画像全体に適用して、ラベリング処理を行うことが可能となる。
【0058】
また、本発明の一態様によれば、前記モデル解像度推定処理部は、前記色差テーブルに登録されている色の輝度値及び色差が入力画像の局所的な領域で最も合う解像度を、前記入力画像の局所的な領域における前記印刷モデルでの読み込みの際の解像度と推定する。
【0059】
このことにより、デバイスで読み取られた実際の印刷物に対し、入力画像全体のしきい値と合わない領域については、その領域に最適なしきい値を用いてラベリング処理を行うことが可能となり、ラベリング処理の精度を向上させることが可能となる。
【0060】
また、本発明の一態様によれば、前記モデル解像度推定処理部は、前記印刷モデルでの読み込みの際の解像度を固定値とする。
このことにより、実際の印刷物についてのモデル解像度推定処理を省略することが可能となり、処理速度を向上させることが可能となる。
【0061】
また、本発明の一態様によれば、ラベリングされたラベル画像同士をグルーピングするグルーピング手段を備えている。
このことにより、ラベリングにより抽出された文字領域を、文字列領域としてまとめることが可能となり、タイトルの抽出を効率的に行うことが可能となる。
【0062】
また、本発明の一態様によれば、前記グルーピング手段は、ラベル画像の外接矩形についての色情報及び前記幾何学情報に基づいて、前記ラベル画像を同一のグループに入れるかどうかを判別するようにしている。
【0063】
このことにより、カラー入力画像内から同一色が付された見出し領域を抽出する場合などにおいて、カラー入力画像内の一部の領域に範囲を限定してパターンの抽出を行い、見出し領域と関係ない離れた領域に存在するパターンを分類対象から除いたり、見出し文字とならないノイズなどの小さなパターンや背景などの大きなパターンを処理対象から省略することが可能となることから、見出し領域の抽出処理の速度を向上させることが可能となる。さらに、ラベリングされたパターンを外接矩形で表現することにより、文字などを構成する複雑なパターンを単純な形で表すことが可能となり、パターンを記憶する記憶容量を削減することが可能となるとともに、パターンの位置関係などを求める場合においても、処理を単純化することが可能となる。
【0064】
また、本発明の一態様によれば、色情報は、外接矩形に含まれるパターンの代表色である。
このことにより、ラベリングされたパターンを外接矩形同士で比較することが可能となり、色情報を用いたパターンのグルーピングを行う際に、そのパターンを構成する各画素同士を比較する必要がなくなることから、比較対象となる要素の個数を低減させて、処理を高速に行うことが可能となる。
【0065】
また、本発明の一態様によれば、幾何学情報は、注目する外接矩形から所定の範囲内にある他の外接矩形である。
このことにより、入力画像からタイトル領域などを抽出する際に、グルーピングの対象となる外接矩形の存在する範囲を、タイトル領域として相応しい範囲に限定することが可能となり、タイトル領域からはみ出た領域については、グルーピング処理を省略することが可能となることから、処理を高速に行うことが可能となる。
【0066】
また、本発明の一態様によれば、前記幾何学情報算出手段は、各外接矩形が属する縦横の座標に対応して矩形番号を格納する矩形番号格納手段と、注目する外接矩形から所定の範囲内の縦横の各座標に含まれる矩形番号を抽出する矩形番号抽出手段と、前記抽出された矩形番号のうち縦横の座標の両方に含まれるものを、注目する外接矩形から所定の範囲内にある他の外接矩形として抽出する近傍矩形抽出手段とを備えている。
【0067】
このことにより、注目する外接矩形から所定の範囲内にある他の外接矩形を効率的に見つけ出すことが可能となる。
また、本発明の一態様によれば、前記矩形番号格納手段は、外接矩形の矩形番号を座標値の順序で格納し、前記矩形番号抽出手段は、最も小さい座標値から順に矩形番号を探索し、座標値が変化するまでの間に含まれる矩形番号をその座標に属する矩形番号として抽出する。
【0068】
このことにより、外接矩形の矩形番号を格納する領域を各座標値ごとに予め用意しておくと、注目する外接矩形から所定の範囲内に存在する可能性のある他の外接矩形の個数分だけ、記憶容量を各座標値ごとに予め用意しておく必要があるのに対し、実際に存在する外接矩形に対応してその座標値を格納することが可能となることから、外接矩形の矩形番号を格納するために必要な記憶容量を低減することが可能となる。
【0069】
また、本発明の一態様によれば、注目する外接矩形から所定の範囲内にある他の外接矩形であって、色差テーブルから求めた色差よりも、2つの外接矩形間の代表色の色差が小さい場合に、2つの外接矩形を同一のグループに入れるようにする。
【0070】
このことにより、入力画像からタイトル領域などを抽出する際に、グルーピングの対象となる外接矩形の存在する範囲を、タイトル領域として相応しい範囲に限定することが可能となるとともに、外接矩形同士を比較して色情報を用いたパターンのグルーピングを行う際に、実際の印刷物の読み取りの際に発生する同一色での色の変動を考慮することが可能となり、処理を高速に行うことが可能となるとともに、読み取り精度も向上させることが可能となる。
【0071】
また、本発明の一態様によれば、ラベル画像のパターンの太さに基づいて、前記ラベル画像のグルーピングを行う。
このことにより、太さの異なる文字を別々のグループに入れることが可能となることから、入力画像からタイトルなどを抽出する際に、太さの揃った文字からなる文字列のみを1つのタイトルとすることが可能となり、タイトルを抽出する際の精度を向上させることが可能となる。
【0072】
また、本発明の一態様によれば、パターンの輪郭長を求める輪郭追跡手段と、前記パターンの面積を求める面積算出手段と、前記パターンの面積と前記パターンの輪郭長との比に基づいて、前記パターンの太さを求める太さ算出手段とを備えている。
【0073】
このことにより、パターンの太さを精度良く求めることが可能となる。
また、本発明の一態様によれば、前記輪郭追跡手段は、パターンの輪郭となる第1の画素から前記パターンの輪郭となる第2の画素を探索する際に、前記第1の画素に隣接する8つの画素のうち、前記第1の画素の移動元の画素に隣接する画素から前記第2の画素を探索する。
【0074】
このことにより、パターンの輪郭となる第1の画素から前記パターンの輪郭となる第2の画素を探索するために、第1の画素に隣接する8つの画素を所定の方向に探索し、画素のレベルが背景のレベルからそのパターンのレベルに変わった点を前記第2の画素とする場合、既に抽出されている前記第1の画素がパターンの輪郭となる点として再度抽出されることを防止することが可能となり、輪郭追跡処理の速度を向上させることが可能となる。
【0075】
また、本発明の一態様によれば、グルーピングされた外接矩形の大きさに基づいて、文字サイズを推定する文字サイズ推定手段と、前記文字サイズから定めた所定の範囲を超える外接矩形を、前記外接矩形のグループから削除する矩形削除手段を備えている。
【0076】
このことにより、模様や絵などのパターンがタイトルの近くに存在し、タイトルを構成する文字と模様や絵などのパターンが同一のグループに分類された場合においても、模様や絵などのパターンをそのグループから取り除くことが可能となり、タイトルを抽出する際の精度を向上させることが可能となる。
【0077】
また、本発明の一態様によれば、前記グルーピング手段でグルーピングされた外接矩形の配置状態に基づいて、文字列方向を推定する文字列方向推定手段と、前記グルーピング手段でグルーピングされた外接矩形の配置状態に基づいて、文字列を抽出する文字列抽出手段とを備えている。
【0078】
このことにより、外接矩形が不規則に配置されている領域と、外接矩形が規則的に配置されている領域とを区別することが可能となり、外接矩形が規則的に配置されている領域をタイトル領域とすることが可能となることから、タイトル領域のみを効率よく抽出することが可能となる。
【0079】
また、本発明の一態様によれば、グルーピングされた外接矩形のグループ内のサイズに基づいて、前記グループ内の外接矩形を再グルーピングするようにしている。
【0080】
このことにより、大きさの異なる文字を別々のグループに入れることが可能となることから、入力画像からタイトルなどを抽出する際に、大きさの揃った文字からなる文字列のみを1つのタイトルとすることが可能となり、タイトルを抽出する際の精度を向上させることが可能となる。
【0081】
また、本発明の一態様によれば、前記グルーピング手段でグルーピングされたグループの外接矩形から、所定の大きさを満たす外接矩形を抽出する外接矩形抽出手段と、前記抽出された外接矩形のうち、互いに隣接する外接矩形の上端座標または下端座標が近いものに、横並びフラグを与える横並びフラグ付与手段と、前記抽出された外接矩形のうち、互いに隣接する外接矩形の左端座標または右端座標が近いものに、縦並びフラグを与える縦並びフラグ付与手段と、前記横並びフラグ及び前記縦並びフラグの個数に基づいて、前記グループの文字列方向を決定する文字列方向決定手段と、前記決定された文字列方向に対応するフラグが付与された前記グループ内の外接矩形の個数の比率に基づいて、前記グループの外接矩形が文字列の外接矩形かどうかを決定する文字列決定手段とを備えている。
【0082】
このことにより、グループ内の外接矩形が一列に揃って配置されているかどうかを判別することが可能となり、一列に揃って配置されている外接矩形が多いグループをタイトル領域とみなすことが可能となることから、入力画像からタイトルを効率よく抽出することが可能となる。
【0083】
また、本発明の一態様によれば、グルーピングされたグループの外接矩形を生成する外接矩形生成手段と、グルーピングされたグループ内のパターンの代表色に基づいて、グループの代表色を算出する代表色算出手段とを備えている。
【0084】
このことにより、タイトル領域に存在する全ての色を考慮して、タイトルの色を算出することが可能となり、タイトル領域の局所的な色の違いの影響を低減することが可能となることから、タイトルの色に基づいてタイトル領域を抽出する際の精度を向上させることが可能となる。
【0085】
また、本発明の一態様によれば、グループの代表色に基づいて、互いに隣接して存在するグループの外接矩形を統合するようにしている。
このことにより、同一のタイトルを構成する文字であるにもかかわらず、色が微妙に異なっているために、それらの文字が別々のグループに属するものとされた場合においても、それらの文字を同一のグループにまとめることが可能となり、タイトル領域を効率よく抽出することが可能となる。
【0086】
また、本発明の一態様によれば、互いに隣接して存在するグループの外接矩形の大きさの差が所定の範囲内にあり、かつ、グループの代表色の差が一定の範囲内にある場合に、グループの外接矩形を統合する。
【0087】
このことにより、グループの外接矩形を統合する際に、同一のタイトルを構成する文字からなるグループのみを効率よく統合することが可能となる。
また、本発明の一態様によれば、グループの代表色に基づいて、原画像の画素をグループの外接矩形の範囲内から再抽出するようにしている。
【0088】
このことにより、タイトルを構成する文字に濁点や半濁点などが含まれており、タイトル領域の局所的な色の違いの影響で、これらの濁点や半濁点などがタイトルのグループから抜け落ちた場合においても、タイトル領域の全体的な色と比較して、これらの濁点や半濁点などを再抽出することが可能となり、タイトルを抽出する際の精度を向上させることが可能となる。
【0089】
また、本発明の一態様によれば、再抽出された画素を2値化する2値化手段と、前記2値画像のラベンリングを行う第2のラベリング手段と、前記第2のラベリング手段によりラベリングされたパターンの外接矩形がしきい値より大きいものを、前記グループに追加する追加手段とを備えている。
【0090】
このことにより、濁点や半濁点などをタイトル領域から再抽出する際に、タイトルと同色の細かいノイズがタイトル領域内に存在する場合においても、これらのノイズのみを削除することが可能となり、タイトルを抽出する際の精度を向上させることが可能となる。
【0091】
また、本発明の一態様によれば、グルーピングされたグループの外接矩形の面積、位置及び位置関係の情報に基づいて、グループ内のパターンの出力順序を決定するようにしている。
【0092】
このことにより、入力画像から複数のタイトル候補が抽出された場合においても、タイトルらしさを評価することが可能となり、タイトルとしての優先度の高いものから順に出力することが可能となる。
【0093】
また、本発明の一態様によれば、グルーピングされたグループの外接矩形内のラベル画像に1のレベルを付与した2値パターンを生成するようにしている。
このことにより、色情報を用いてラベリングされたラベル画像から、2値画像を生成することが可能となり、カラー画像から抽出されたパターンの認識処理を効率的に行うことが可能となる。
【0094】
【発明の実施の形態】
以下、本発明の実施例に係わるパターン抽出装置について図面を参照しながら説明する。
【0095】
図1は、本発明の第1実施例に係わるパターン抽出装置の構成を示すブロック図である。
図1において、色情報算出手段1は、入力画像内のパターンについての色情報を算出する。幾何学情報算出手段2は、入力画像内のパターンについての幾何学情報を算出する。分類手段3は、色情報算出手段1で算出された色情報及び幾何学情報算出手段2でされた幾何学情報に基づいて、入力画像内のパターンの分類を行う。ここで、色情報は、例えば、色空間上でのパターンの色である。また、幾何学情報は、例えば、パターンの大きさや入力画像内での位置、または、他のパターンとの相対的な位置関係である。
【0096】
このように、入力画像内のパターンの分類を行う際に、パターンの色情報だけでなく、パターンの幾何学情報を用いることにより、カラー入力画像内から同一色が付された見出し領域を抽出する場合などにおいて、カラー入力画像内の一部の領域に範囲を限定して、異なるラベルが付された同一色のパターンを1つのグループにまとめたり、特定の位置にあるパターンや所定の大きさのパターンのみに着目して、異なるラベルが付されたパターンを1つのグループにまとめることが可能となる。
【0097】
この結果、見出し領域の存在する可能性の大きな範囲のみについてラベリング処理を行ったり、見出し文字とならないようなノイズなどの小さなパターンや背景などの大きなパターンを処理対象から除去したりすることが可能となり、見出し領域の抽出処理の速度を向上させることが可能となるとともに、見出し領域以外の色の影響を少なくすることが可能となることから、見出し領域の抽出精度も向上させることが可能となる。
【0098】
図2は、本発明の第2実施例に係わるパターン抽出装置の構成を示すブロック図である。
図2において、クラスタリング手段11は、隣接する画素同士の色情報に基づいて、入力画像内の画素のクラスタリングを行う。グルーピング手段12は、クラスタリング手段11で得られたクラスタ同士の色情報及び幾何学情報に基づいて、クラスタのグルーピングを行う。
【0099】
このことにより、入力画像内の画素のクラスタリングを行う際には、自分の画素の近隣の画素と色情報を比較すればよく、入力画像内の全ての画素同士を比較する必要がなくなる。
【0100】
この結果、入力画像内の全ての画素同士を比較すると、画素同士の色情報の比較回数が入力画像内の画素数の2乗のオーダーとなるのに対し、自分の画素の近隣の画素と比較した場合には、画素同士の色情報の比較回数を入力画像内の画素数のオーダーで済ませることが可能となり、クラスタリング処理の高速化が可能となる。
【0101】
また、クラスタリングされたクラスタをグルーピングの際の処理対象とすることにより、同一クラスタ内に存在する画素を一体的に取り扱って処理することが可能となり、個々の画素を処理対象とする必要がなくなることから、グルーピング処理を高速に行うことが可能となる。
【0102】
さらに、入力画像内の一部の領域に範囲を限定してクラスタのグルーピングを行ったり、ノイズしか含まれていないような小さなクラスタをグルーピング対象から除いたりすることが可能となることから、グルーピング処理のより一層の高速化を達成することが可能となり、特に、カラー画像などのようにラベル数が莫大な数となるような場合には、効果が大きい。
【0103】
図3は、本発明の第3実施例に係わるパターン抽出装置の構成を示すブロック図である。
図3において、色差算出手段21は、所定の色で表現された領域の隣接画素間の色差を算出する。しきい値設定手段22は、色差算出手段21で算出された色差に基づいてしきい値を設定する。ラベリング手段23は、しきい値設定手段22で設定されたしきい値に基づいて、所定の色で表現された画素に隣接する画素のラベリングを行う。
【0104】
例えば、入力画像が網点印刷法で印刷した印刷物であり、入力画像のパターンの色が、基本となる異なる色のドットの大きさ及びそれらの組み合わせで表現されているものとする。ここで、基本となる異なる色のドットの大きさが小さいために、基本となる異なる色のドットの大きさ及びそれらの組み合わせで1つの色を表現した時に、肉眼では、各ドットごとの色の違いが識別できず、その色が単一色と見える場合でも、デバイスの読み取り解像度が各ドットごとの色の違いを判別できるほど大きい場合には、肉眼では単一色と見える領域が、デバイスにとっては単一色ではないど判断される。
【0105】
このため、このデバイスの読み取り結果をそのまま用いて、ラベリングを行うと、肉眼では単一色と見える1つのパターンに異なったラベルが付され、このラベリング結果に基づいて抽出されたパターンを人間に提示すると、人間が1つのパターンと認識する部分に、穴が開いたり、欠けが発生したりして、パターンの抽出精度が悪化する。
【0106】
そこで、肉眼で単一色と見える部分について、デバイスで読み取った際の色の変動を求め、その色の変動の範囲内にある画素に同一のラベルを付すことにより、肉眼で単一色と見える1つのパターンに同一のラベルを付すことが可能となり、人間が1つのパターンと認識する部分に、穴が開いたり、欠けが発生したりすることを防止することが可能となる。
【0107】
図4は、本発明の第4実施例に係わるパターン抽出装置の構成を示すブロック図である。
図4において、第1の色情報比較手段31は、入力画像の隣接画素間の色情報を比較する。第2の色情報比較手段32は、第1の色情報比較手段31で比較対象となった画素の色情報と、前記画素に隣接するラベル画像の色情報とを比較する。ラベリング手段33は、第1の色情報比較手段31の比較結果及び第2の色情報比較手段32の比較結果に基づいて、ラベリングを行う。ここで、ラベル画像の色情報は、例えば、同一ラベルが付された画素の色情報の平均値である。
【0108】
例えば、入力画像のタイトル領域の色が徐々に変化しているため、タイトルを構成する文字列と背景の境界が不明確になっているものとする。この場合に、互いに隣接する画素の色情報を比較しただけでは、互いに隣接する画素間では色が似ているために、それらの画素に同一のラベルが付され、それらの画素を順々に辿っていくと、タイトル領域内に背景のパターンが取り込まれ、タイトルとは色が明らかに異なる画素にまで同一のラベルが付されることがある。
【0109】
ここで、互いに隣接する画素間だけについて色情報を比較するのではなく、既にラベル付けがされているパターンの色情報との比較も行って、ラベル付けを行うことにより、色が徐々に変化する場合においても、タイトル領域と背景との間の境界を検出することが可能となる。
【0110】
図5は、本発明の一実施例に係わるパターン抽出装置のシステム構成を示すブロック図である。
図5において、41は全体的な処理を行う中央演算処理ユニット(CPU)、42はリードオンリメモリ(ROM)、43はランダムアクセスメモリ(RAM)、44は通信インターフェイス、45は通信ネットワーク、46はバス、47は入出力インターフェイス、48は見出し文字などの認識結果などを表示するディスプレイ、49は見出し文字などの認識結果などを印刷するプリンタ、50はスキャナ51により読み取られたデータを一時的に格納するメモリ、51は入力画像などを読み取るスキャナ、52はキーボード、53は記憶媒体を駆動するドライバ、54はハードディスク、55はICメモリカード、56は磁気テープ、57はフロッピーディスク、58はCD−ROMやDVD−ROMなどの光ディスクである。
【0111】
パターン抽出処理を行うプログラムなどは、ハードディスク54、ICメモリカード55、磁気テープ56、フロッピーディスク57、光ディスク58などの記憶媒体に格納される。そして、パターン抽出処理を行うプログラムなどを、これらの記憶媒体からRAM43に読み出すことにより、パターン抽出処理を行うことができる。また、パターン抽出処理を行うプログラムなどを、ROM42に格納しておくこともできる。
【0112】
さらに、パターン抽出処理を行うプログラムなどを、通信インターフェイス44を介して通信ネットワーク45から取り出すこともできる。通信インターフェイス44に接続される通信ネットワーク45として、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット、アナログ電話網、デジタル電話網(ISDN:Integral Service Digital Network)、PHS(パーソナルハンディシステム)や衛星通信などの無線通信網を用いることができる。
【0113】
CPU41は、パターン抽出処理を行うプログラムが起動されると、スキャナ51により読み取られた入力画像のラベリングを行うしきい値を設定し、スキャナ51により読み取られた入力画像からラベル画像を生成する。ラベル画像が生成されると、入力画像のパターンの各ラベルごとに、各パターンについての外接矩形を生成する。そして、各外接矩形内の領域の色情報及び外接矩形の幾何学情報に基づいて、各外接矩形のグルーピングを行い、このグルーピングされた外接矩形の配置状態や大きさなどを考慮して、タイトル領域などを抽出する。タイトル領域が抽出されると、このタイトル領域に含まれているパターンを入力画像から抽出されたタイトルとしてディスプレイ48やプリンタ49に出力したり、このタイトル領域に含まれるパターンの文字認識を行い、その認識結果に基づいて、文書の自動検索を行ったりする。
【0114】
図6は、本発明の第5実施例に係わるパターン抽出装置の構成を示すブロック図である。
図6において、61はカラー画像入力装置、62は外部出力装置、63はメモリ、64は演算装置(CPU)、65は画像縮小手段、66は可変しきい値設定手段、67はラベリング手段である。
【0115】
カラー画像入力装置1からカラー画像信号が入力されると、画像縮小手段65が、例えば、画素数で1/9の縮小画像を作成する。そして、この縮小画像において、領域拡張法などの手法を用いて、多少の色差を許容するラベリングを行い、同一ラベル領域を示すラベル画像と同一ラベル領域を囲む外接矩形を求める。
【0116】
この際、隣接画素と同一ラベルを与える色の値の差のしきい値は、領域拡張法のような固定ではなく、対象となる色により可変にする。このしきい値は、例えば、対象となる色に応じて、予め作成したテーブルを可変しきい値設定手段66が参照することにより得られる。
【0117】
このように、縮小画像上で求めた同一ラベル領域を探索して、その中の色を表現する(R,G,B)などの数値列の種類を全て調査して、これをこのラベルの属性として記憶する。また、この色の種類から、このラベルの代表色も求める。
【0118】
次に、このような縮小画像で求めた外接矩形を原画像に反映させ、この矩形内部だけを走査して代表色に近い色を検出し、この画素から隣接画素に対するラベリングを行う。ただし、同一と見なす色は前記の処理により同一色と見なした色の種類である。
【0119】
そして、原画像から求めたラベル画像の中から、対象となる業務に適した特定領域抽出を行う。例えば、大きな文字で記載されている見出しや、タイトルなどのキーワードとなる文字の領域をカラー文書から抽出する場合には、外接矩形の大きさや並びの情報を使った文字列抽出技術で、対象となる文字列領域だけを抽出すればよい。
図7は、本発明の第6実施例に係わるパターン抽出装置の構成を示すブロック図である。
【0120】
図7において、71はカラー画像入力装置、72は外部出力装置、73はメモリ、74は演算装置である。
カラー画像入力装置71は、外部のカラー画像をRGB信号で入力するものであり、例えば、CCDカメラとか、スキャナ等である。
【0121】
外部出力装置72は、演算装置74により種々の処理が行われた結果得られた処理結果を出力するものであり、例えば、ディスプレイ等で構成されている。
メモリ73は画像情報やしきい値情報を保持するものであり、カラー画像入力装置71から入力されたカラー画像信号を保持したり、保持されたカラー画像信号を演算装置74が処理を行うことにより得られた処理結果等を保持したりする。
【0122】
演算装置74は、カラー画像入力装置71により入力されたカラー画像信号に対して縮小画像を作成したり、ラベリング処理したり、特定領域抽出処理したり等の各種処理を行うものであり、画像縮小手段75、可変しきい値設定手段76、ラベリング手段77、外接矩形処理78、原画像ラベリング手段79、特定領域抽出手段80等を具備する。
【0123】
図8は、図7のカラー画像処理装置の動作を示すフローチャートである。
図8において、例えば、カラー文書のような被写体を、CCDカメラやスキャナ等の撮像装置の如きカラー画像装置71で入力し、得られたカラー画像をメモリ73に保存する(ステップS1)。
【0124】
次に、このメモリ73上に保存されたカラー画像を、画像縮小手段75が固定縮小率で、あるいは、縮小後に規定の大きさになるような縮小率で縮小して、メモリ73にセットする(ステップS2)。この縮小率は記録しておく。縮小方法は、例えば、図9(a)に示すように、1/3に縮小する場合には(R,G,B)で表現された原画像の3×3の領域を縮小画像1×1に対応させることになるが、この場合、原画像の3×3の領域内部の9ケの画素の色の(R,G,B)を1単位として、図9(b)に示すヒストグラムを作成し、最頻値を対応する縮小画像の画素の値としてセットする。
【0125】
もしも、1つで決まる最頻値がなければ、次の複数値のうちの、いずれか1つを予め定めたアルゴリズムで選出して、これを対応する縮小画像の画素の値とする。
【0126】
一般的には、原画像のn×nの領域を縮小画像の1×1に対応させるような1/nの縮小率で縮小する場合は、原画像のn×nの領域内部にある画素の色の(R,G,B)を1単位として扱ったヒストグラムを作成し、例えば、その中間値とか最頻値を対応する縮小画像の画素の値とするものである。
【0127】
ここで、縮小画像にセットする値は、原画像の対応するn×nの領域内部にある画素の色の平均値などのような作り出した値ではなく、あくまでも、原画像に存在する値を使用する。
【0128】
次に、このように縮小処理した縮小画像に対し、ラベリング手段77が色ラベリング処理、すなわち、縮小画像を対象として隣り合う画素の色が近い場合に同一ラベルを与える処理を行う(ステップS3)。すなわち、縮小画像に対し、その左上からラスタスキャンを行い、ラベル付けがされていない画素に注目し、この画素に今まで付けたラベル値よりも+1したラベル値を付与する。
【0129】
例えば、図10(a)に示すように、注目画素Cのカラーの値を(Rc,Gc,Bc)とし、この注目画素Cの周りの8画素を1〜8とし、これら周りの8画素のカラーの値を(Ri,Gi,Bi)(i=1〜8)とするとき、それぞれの画素のカラーの値(Ri,Gi,Bi)値を求める。すなわち、画素1,2,...8についてのカラーの値(R1,G1,B1),(R2,G2,B2)・・・(R8,G8,B8)を求める。
【0130】
そして、注目画素のカラーの値(Rc,Gc,Bc)との距離dci(i=1〜8)を求め、それがR,G,Bについてしきい値(Rth,Gth,Bth)より小さい値の場合に注目画素と同一ラベルを付ける。例えば、画素1と注目画素Cとの距離dclを求める場合、R,G,Bの各カラー毎にそれぞれの値がしきい値Tth,Gth,Bth以内にあるか否かを求め、3色ともしきい値よりも小さいとき、つまり類似している場合に、Cと同じラベルをiに与えるためにdciに小さな値を与える。しかし、1色の値でもしきい値以上のとき、別のラベルを付与するための大きな値(しきい値thより大きな値)を与える。この距離dclは、下記のようにして求められる。
【0131】
dcl=|Rc−Rl|<Rth
and|Gc−Gl|<Gth
and|Bc−Bl|<Bth ・・・(1)
そして、(1)式が成立するとき、dcl=0として同一ラベルを与え、不成立のとき、dcl=1000などのしきい値よりも大きな値を付与する。一般的には、図10(b)に示すように、以下の式で距離dci(i=1〜8)を示すことができる。
【0132】
0 if|Rc−Ri|<Rth and
|Gc−Gi|<Gth and
|Bc−Bi|<Bth
1000 それ以外の条件
ただし、1000はこれに限定されるものではなく、しきい値より大きい値を示す。
【0133】
なお、カラー毎のしきい値(Rth,Gth,Bth)は、CCDカメラやスキャナなどの入力装置と被写体に依存したサンプルから予め求めておいた表を用いる。しかも、注目画素の色の値(R,G,B)をキーとして、この色の値に応じて予めしきい値を定めておく。
【0134】
例えば、図11(a)に示すように、入力画像について予想される注目画素の色の値(R,G,B)の全ての組み合わせをエントリとして持つ表を引いて、色の各要素毎に、要素毎に独立して定められたしきい値(Rth,Gth,Bth)を求める。例えば、図11(a)のテーブルでは、注目画素のカラーの値が(R1,G1,B1)のときのしきい値がR,G,Bについて、それぞれ(Rth1,Gth1,Bth1)であり、注目画素のカラー値が(R2,G2,B2)のときのしきい値が(Rth2,Gth2,Bth2)である。
【0135】
図11(a)の場合は、予めサンプルの分布から予想される注目画素の色の値をキーとして、全ての色の値の組み合わせをエントリとして持つしきい値参照表を用意しておき、注目画素の色の組み合わせにより、このしきい値参照表を参照する例を示したので、表の大きさがこれらの各色の組み合わせの分だけ必要となり、非常に大きなものとなる。
【0136】
ここで、しきい値参照表の大容量化を防止するために、しきい値参照表のエントリには全ての(R,G,B)の組み合わせは持たずに、(R,G,B)の値でクラスタリングを行った結果の(R,G,B)の代表エントリだけを持つようなしきい値参照表を用意して、注目画素の(R,G,B)の値と代表エントリとの距離値つまり類似度を求め、最も近い代表エントリを抽出して、それをキーにして色の各要素独立のしきい値(Rth,Gth,Bth)を求めることもできる。
【0137】
また、しきい値参照表の大容量化を防止するため、各色の値をN階層に表現したとき、例えば、N=256に表現したとき、カラー値毎にそのカラーに対するしきい値を記入したしきい値参照表を各カラー毎に用意し、カラー毎にしきい値をこれらのしきい値参照表より個別に求めれば、しきい値参照表の容量は、256×3のエントリ数で済むので大幅に小さくすることができる。例えば、注目画素のカラー値が(R1,G2,B2)の場合、図11(b)に示すように、R1に対するしきい値としてしきい値参照表Rを参照して、DRth1を求め、G2に対するしきい値としてしきい値参照表Gを参照して、Gth2を求め、B2に対するしきい値としてしきい値参照表Bを参照として、Bth2を求めることができる。
【0138】
さらに、しきい値を求めるしきい値参照表の形式として、図11(a)に示した全ての(R,G,B)の組み合わせではなく、図12に示すように、カラー値について複数のグループに分け、各グループ毎にしきい値を定めることもできる。図12は各カラー値について4階層毎に1つのしきい値を定めた例であり、R1〜R4については同じしきい値Rt1を、R5〜R8については同じしきい値Rt2・・・、同様にG1〜G4について同じしきい値Gt1を・・・、また、BN−3〜BNについては同じしきい値BtMを定めた例である。
【0139】
これらのしきい値参照表は、特に対象物が印刷物でスキャナ入力の場合では、印刷物の状態をモデル化したものから自動的に作ることもできる。
次に、このラベル処理した縮小画像、つまりラベル画像に対しても外接矩形処理を外接矩形処理手段78が行う(ステップS4)。すなわち、ステップS3において、縮小画像についてのラベリングの結果、同一領域は同じラベル値が付与される。そして、この同一領域について外接矩形を求める。
【0140】
例えば、図13(a)に示すように、文字領域93〜95と他の領域92の色が異なっているカラー画像91が入力された場合、図13(b)に示す縮小ラベル画像96が生成され、縮小ラベル画像96から外接矩形98〜100を求めることができる。
【0141】
図13(b)において、矩形領域97は図13(a)に示す背景領域92に対応し、矩形領域98〜100はそれぞれ図13(a)に示す文字領域93〜95に対応する。
【0142】
それから、ラベル画像において、同一ラベルとして記録されている画素を走査して、その中の色の種類を全て記録する。この記録は、各外接矩形の属性情報として記録する。また、ラベル画像で同一ラベルとして記録されている全ての画素から、各ラベルの代表色を1つ求める。この求め方は、例えば、色の種類毎に頻度分布を求め、最も頻度の高い色を代表色にするというような手法で求めることができる。この代表色情報も、外接矩形の属性情報として記録する。
【0143】
また、このラベリング処理の結果として、ラベリング手段77は次のような出力情報を作成する。
ラベル画像として、1画素あたり2バイト情報であり、縮小画像領域の高さ及び幅のサイズ、縮小率が示される。そして、この縮小画像領域内に存在する矩形数nrとその矩形情報が示される。矩形情報としては、その領域内に存在する矩形の数を示す矩形数nr、矩形番号、この矩形に内包するラベル画像のラベル番号、矩形左上座標(x1,y1)、矩形右下座標(x2,y2)、矩形内の代表色(Rs,Gs,Bs)、色の種類数nc、色の種類(R0,G0,B0)、(R1,G1,B1)・・・(Rn−1,Gn−1,Bn−1)等が出力される。
【0144】
次に、原画像ラベリング手段79は前記出力情報を受けて、先ず、縮小画像で作られた矩形情報の左上座標値と右下座標値をそれぞれ縮小率で割って、対応する原画像での座標を求める。縮小率が1/nの場合は原画像の矩形は、左上座標が(x1*n,y1*n)であり、右下座標が{(x2*n)−1,(y2*n)−1}である。ここで、*は乗算を示し、右下座標は1画素戻すために−1する。
【0145】
原画像ラベリング手段79は、この座標で示される原画像の矩形内をラスタスキャンして、既にラベルが付いていないもので、かつ、前記代表色(Rs,Gs,Bs)に近い画素を探す。近いということは、その画素のカラー値を(Ri,Gi,Bi)とするとき、例えば、
|Rs−Ri|<Rth
and
|Gs−Gi|<Gth
and
|Bs−Bi|<Bth
を満たすことである。なお、ここでのしきい値Rth,Gth,Bthは、固定値である。
【0146】
この条件を満足する画素を検出したら、この画素に今まで付けたラベル値+1のラベル値を付与する。
それから、この注目した画素の周囲8画素を走査して、それぞれの画素のカラー値(Ri,Gi,Bi)を求め、注目画素のカラー値(Rc,Gc,Bc)との関係が、
|Rc−Ri|<Rth
and
|Gc−Gi|<Gth
and
|Bc−Bi|<Bth
を満たすときに注目画素と同一ラベルを付与する(ステップS5)。
【0147】
また、この処理で同一ラベルを付与されなかった場合でも、現在注目している矩形の前記属性情報である色の種類全てと比較して同様の距離を求め、それがしきい値よりも小さい場合に、注目画素と同一ラベルを付与する。
【0148】
このようにして、図13(c)に示すように、各矩形内97〜100で代表色に近い画素に注目してラベル付けすることにより、その矩形領域97〜100内に存在する同じカラー値により構成される画素の領域102〜105が抽出される。なお、実際のカラー文書において、画像領域が図13(a)に示すように大まかではなく、背景や色文字も種々の大きさのものが混在している場合には、同一ラベル領域も、図13(c)に示したように単純なものではなく、複雑なものとなる。
【0149】
次に、このように原画像から求めたラベル画像101の中から、特定領域抽出手段80が、対象となる業務に適した特定領域抽出を行う(ステップS6)。例えば、カラー文書から大きな文字で記載されている見出しや、タイトル等のキーワードとなる文字の領域を抽出する場合には、予め通知された外接矩形の大きさや、並びの情報を使用した従来の文字列抽出の手法に基づき、対象となる文字列領域だけを抽出することができる。
【0150】
例えば、抽出された矩形情報を対象として、矩形の隣接関係を求める。そして、上下または左右の矩形で座標値が近く、つまり、座標値の差がしきい値内に入り、かつ、(R,G,B)の各色差がしきい値内に入るものを文字列として抽出する。そして、これを外部出力装置72において、例えば、表示出力する。
【0151】
また、カラー情景画像から1つの物体を抽出する場合には、ラベル画像で隣り合う領域の代表色をHSV(色相、彩度、明度)等の情報に変換し、色相が近いものを併合処理する。これにより、陰などの影響で分割されていたものを1つの領域にまとめることができる。そして、ある程度の面積を持つ領域を物体の候補領域として出力する。
【0152】
このように、本発明の第6実施例では、縮小画像によりある程度同じ色でまとまった領域を求め、その範囲だけを原画像で精密に抽出するようにしたので、処理時間を非常に短縮することができる。また、隣り合う画素だけを対象にして、しかも、画素の色に従ったしきい値を用いてラベリングを行うので、局所的に精密な色クラスタリングが可能となり、例えば、抽出したい領域とその背景の色が近い場合にも、別に区別することが可能となり、精度のよい領域抽出ができる。
【0153】
また、注目画素の色に応じたしきい値を求めるとき、注目画素の色の3要素をキーとして予め用意されているテーブルを参照すればよいので、しきい値を求めるためにアクセスする計算量が少なくてよい。
【0154】
そして、注目画素の色に応じたしきい値を求めるとき、注目画素の3要素とテーブルのエントリである色の3要素との距離値の類似度を求めて注目画素の色に最も近いエントリを抽出してそこに記録されているしきい値を求めるので、しきい値の記録されているテーブルの容量を小さくすることができる。
【0155】
しかも、色の3要素に対する独立のしきい値を、CCDカメラとか、スキャナなどの入力機器と被写体に依存したサンプルの分布から予め求めていた表を用いて決めるので、入力機器に依存したしきい値を持つ表を作ることができるため、正確なラベル付与を行うことができる。
【0156】
次に、本発明の一実施例に係わるラベリングの際のしきい値の設定方法について説明する。
雑誌などのカラー印刷物は、グラビア等、色々な印刷方法があるが、網点印刷法で印刷されたものが、世の中には多い。網点印刷法で印刷された印刷部では、人間の目には均一色と見える領域でも、拡大してみると、カラーのモアレ模様が生じている。
【0157】
図14は、網点印刷におけるカラーのモアレ模様を示す図である。
図14(a)において、原画像111内の「の」と書かれた領域は、例えば、オレンジ色の一色で描かれているが、図14(b)に示すように、「の」と書かれた領域の一部を拡大すると、その領域は、様々の色が集まって構成されている。
【0158】
このため、隣接画素の色差(RGBの輝度差など)を固定しきい値と比較して、それらの画素に同一ラベルを与えるか否かを判断すると、適応できない場合がある。例えば、図14の「の」と書かれた領域内の画素111〜113は、「の」と書かれた領域内のその他の画素と異なるラベルが付され、原画像111から「の」の文字を抽出する際に、画素112〜114の部分が欠落し、抽出精度が悪化する。
【0159】
そこで、印刷モデルを用いて、RGBの平均輝度値とスキャナ読み取り解像度ごとの隣接画素のRGB各輝度差を予め求め、それらの結果を色差テーブルに格納しておく。そして、色差テーブルを参照しながら、各色ごとにしきい値を制御することにより、ラベリングを行う。
【0160】
例えば、図14の「の」と書かれた領域内において、画素114と画素115との間の色差が最大の場合、画素114と画素115との間の色差をオレンジ色の領域を抽出する際のしきい値に設定する。この結果、原画像111から「の」の文字を抽出する際、画素112〜114の部分についても、「の」と書かれた領域内のその他の画素と同一のラベルを付すことが可能となり、画素112〜114の部分の欠落を防止することが可能となる。
【0161】
以下、本発明の一実施例に係わるカラー印刷モデル及びスキャナ読み込みモデルから、色の平均値、隣接画素との色差及びスキャナ読み込みの際の解像度を記述した色差テーブルの作成手法について説明する。
【0162】
図15は、カラーの網点印刷法で印刷された実際の印刷物を拡大して示した図である。
図15において、網点印刷法では、シアン(水色)、マゼンタ(紫)、黄色の点状の模様が場所によって点121〜123の大きさを変えながら、メッシュ状に規則的に配置されるようになっている。
【0163】
網点印刷を行う場合、まず、3原色(または、黒を加えた4原色)の1つの色について、ある一定の間隔のメッシュの交点に、希望する濃度になるような適当な大きさの塗りつぶし円を配置して1色を刷り上げる。次に、少し回転させた同じ間隔のメッシュを用いて、塗りつぶし円の大きさを変更して、別の色で刷り上げる。もう1つの色は、さらに回転させたメッシュを用いて、塗りつぶし円の大きさも変更して刷り上げる。このような印刷方法をとることにより、1画素づつ見るのではなく、大局的にみる人間にとっては、綺麗な均一色と見えるようになる。
【0164】
図16は、網点印刷法で1つのメッシュを用いて1つの色を印刷した場合に、画素ごとに輝度値が異なる理由を説明する図である。
図16(a)において、網点印刷法で1つの色を印刷する場合、印刷メッシュM1の格子点に配置された半径r1の塗りつぶし円D1を印刷することで行われる。そして、網点印刷法で印刷される色を変える場合、塗りつぶし円D1の半径r1を変化させる。このため、網点印刷法で1つの色が印刷された領域は、半径r1の塗りつぶし円D1が離散的に配置された領域になる。
【0165】
図16(a)の印刷物をスキャナなどで読み取る場合、スキャナなどに固有の解像度で読み取りが行われる。このため、塗りつぶし円D1は、図16(b)に示すように、読み取りの際の解像度に対応した読み取りメッシュM2で区切られる画素ごとに読み取られる。ここで、塗りつぶし円D1は離散的に配置されているので、読み取りメッシュM2で区切られる画素に含まれる塗りつぶし円D1の面積が、全ての画素について均一にならない。この結果、図(c)に示すように、真ん中の注目画素に対し、その周囲の8つの隣接画素P1〜P8の平均輝度が異なるようになる。
【0166】
一方、図16(a)の印刷物から同一色の領域を抽出する場合、図16(a)の印刷物は網点印刷法で1つの色を表すものとして印刷されているので、図16(c)の真ん中の注目画素に対し、その周囲の8つの隣接画素P1〜P8は、注目画素と同一の色を表すものとして抽出する必要がある。このため、注目画素と各隣接画素P1〜P8との輝度差を求め、これらの輝度差の中の最大値(例えば、図16(c)の例では、注目画素と隣接画素P4との輝度差)を記録しておく。そして、入力画像から同一色の領域を抽出する場合、注目画素と隣接画素との間の輝度差の最大値をしきい値として、このしきい値以下の輝度差を有する隣接画素を注目画素と同一の色を表すものとして抽出する。
【0167】
以下、網点印刷法を忠実に再現したスキャナ読み取モデルの構築方法について説明する。
図17は、網点印刷法におけるスキャナ読み取りモデルを示す図である。
【0168】
図17において、スキャナ読み取りモデルとして、シアン、マゼンタ、黄色の印刷メッシュM11、M12、M13を、それぞれ回転させて重ね合わせた印刷モデルを作る。ここで、シアン、マゼンタ、黄色の色の濃さを調節する場合、印刷メッシュM11、M12、M13の各格子点に配置される塗りつぶし円D11、D12、D13の大きさを調節する。
【0169】
この時、一般的なスキャナ読み取りモデルのパラメータは、
・印刷メッシュM11、M12、M13の格子間隔md
(ただし、格子間隔mdは、黄色、シアン、マゼンタ共通サイズ)
・黄色メッシュM11の水平線からの角度θ11
・マゼンタメッシュM12の水平線からの角度θ12
・シアンメッシュM13の水平線からの角度θ13
・黄色の塗りつぶし円D11の半径r11
・マゼンタの塗りつぶし円D12の半径r12
・シアンの塗りつぶし円D13の半径r13
であるが、本実施例では、この全てのパラメータを可変にすると煩雑すぎるので、ある程度の限定を与え、以下のように設定した。
【0170】
・黄色メッシュM11の水平線からの角度θ11=15度
・マゼンタメッシュM12の水平線からの角度θ12=30度
・シアンメッシュM13の水平線からの角度θ13 =45度
・格子間隔md=20ドット
この印刷モデルを使用して、シミュレーションを行い、黄色、マゼンタ、シアンの塗りつぶし円D11、D12、D13のそれぞれの半径r11、r12、r13に影響を受ける平均RGB値(Rm,Gm,Bm)を求める。具体的には、印刷メッシュM11、M12、M13の格子間隔mdよりもかなり大きな単位面積を考え、
Rm=255−単位面積中のシアンの面積×255/単位面積
Gm=255−単位面積中のマゼンタの面積×255/単位面積
Bm=255−単位面積中の黄色の面積×255/単位面積
として求める。
【0171】
次に、1つの色(Rm,Gm,Bm)で均一に印刷されている画像をスキャナで読み込んだ場合のスキャナ読み込みモデルについて考える。これは、印刷メッシュM11、M12、M13と独立な間隔sdを有する読み込みメッシュM14を導入し、この読み込みメッシュM14内のRGBの各輝度=各色の面積を求めることに相当する。
【0172】
ここで、読み込みメッシュM14の間隔sdが、スキャナ読み込み解像度に相当する。なお、同じ平均色(Rm,Gm,Bm)の画像を読み込む場合でも、スキャナ読み込み解像度が大きい場合には、隣接画素のRGB輝度値は大きく異なり、逆にスキャナ読み込み解像度が小さい場合には、読み取った結果の画素はどの画素も平均色(Rm,Gm,Bm)に近づくため、隣接画素のRGB輝度差は0に近づくようになる。
【0173】
具体的な1つの読み込みメッシュM14内のRGB輝度値(Rc,Gc,Bc)は、以下のようになる。
Rc=255−読み込みメッシュ面積中のシアンの面積×255/読み込みメッシュ面積
Gc=255−読み込みメッシュ面積中のマゼンタの面積×255/読み込みメッシュ面積
Bc=255−読み込みメッシュ面積中の黄色の面積×255/読み込みメッシュ面積
間隔sdを変えた読み込みメッシュM14ごとにRGB輝度値(Rc,Gc,Bc)を求めておき、隣接画素とのRGBそれぞれの輝度差を求め、その中の適当な値(例えば、最大値)を色差テーブルに記録する。
【0174】
この時、本来は、印刷モデルでは、印刷メッシュの交点に描かれた塗りつぶし円は、RGB相互に重なり合うので、RGBの各輝度値によって相互に影響がでて、RGB独立とは言えないが、このスキャナ読み込みモデルでは、単純化のために、RGBは相互に独立であるという仮説を立てた。
【0175】
従って、RGB輝度値、読み込み解像度、及び隣接画素の輝度差の結果が、RGB独立のテーブルに保存される。
図18は、Rのテーブルの例を示す図である。
【0176】
図18において、R輝度値を0〜255まで変化させた場合について、スキャナ読み込み解像度が14〜35のそれぞれに対し、隣接画素との輝度差の最大値を求めている。ここで、R輝度値は3間隔で記録しているが、この間隔の間の値については、補間で求めることができる。
【0177】
なお、図の例では、Rのテーブルの場合について示したが、G,Bのテーブルも同様である。
このように、網点印刷法を模倣した印刷モデルを構築することにより、網点印刷法で生成される色をコンピュータ上で再現することが可能となり、網点印刷法で実際に印刷された印刷物を解析することなく、R,G,Bのテーブルを生成することが可能となる。
【0178】
R,G,Bのテーブルが与えられると、このR,G,Bのテーブルを参照することにより、入力画像から同一色の範囲を検出する際のしきい値を獲得することができる。
【0179】
図19は、本発明の第実施例に係わる色差テーブル生成装置の構成を示すブロック図である。
図19において、111はカラー画像入力装置、112は外部出力装置、113はメモリ、114は演算装置(CPU)である。演算装置114には、印刷モデル生成部115及び色差テーブル生成部116が設けられ、印刷モデル生成部115は、図17に示した方法により印刷モデルを構築し、網点印刷法で生成される色をコンピュータ上で再現する。色差テーブル生成部116は、網点印刷法を模倣した印刷モデルに対し、スキャナ読み込みモデルを構築し、図18に示すような色差テーブルを、R,G,Bの各色について生成する。
【0180】
図20は、本発明の第7実施例に係わるパターン抽出装置の構成を示すブロック図である。
図20において、131はカラー画像入力装置、132は外部出力装置、133はメモリ、134は演算装置(CPU)である。演算装置134には、色差テーブル135、色分解画像生成部136及び文字領域抽出部137が設けられている。
【0181】
色差テーブル135は、例えば、図18に示すテーブルであり、RGBの各色ごとに、輝度値、読み込み解像度及び隣接画素の輝度差が格納されている。
色分解画像生成部136は、入力画像の読み込み解像度及びRGB輝度値に基づいて色差テーブル135を検索し、入力画像の読み込み解像度及びRGB輝度値に対応した隣接画素の輝度差を取得する。そして、この隣接画素の輝度差をその隣接画素についてラベリングを行う際のしきい値とする。なお、入力画像の読み込み解像度及びRGB輝度値が異なると、隣接画素の輝度差も異なるので、入力画像のラベリングを行っている途中で、入力画像の読み込み解像度及びRGB輝度が変化した場合には、色差テーブル135を再度検索して、ラベリングを行う際のしきい値を更新する。
【0182】
注目画素の色(R,G,B)をキー情報として、色差テーブル135を検索し、RGB各色の同色と見なす隣接画素とのRGB各輝度差のしきい値が画素ごとに求まると、それを注目画素の周囲の画素に適応し、R,G,Bの各値とも隣接画素との輝度差がしきい値以内であれば、注目画素と隣接画素に同一ラベルを与える処理を行う。
【0183】
このラベリング処理では、隣り合う画素だけを対象にして、しかも画素の色に従ったしきい値を用いてラベリングを行うので、局所的に精密な色クラスタリングが可能となり、ラベル画像に穴が空いたり、輪郭がスムーズでなくなったりすることを防止できる。
【0184】
また、カラー文書画像から均一色の文字領域を高速、高精度に抽出することが可能となる。
さらに、背景と物体の色が局所的に似ていて、画像全体では他の場所にも近い色がある画像に対しては、局所的に正確に同一色領域を抽出することが可能となる。
【0185】
また、同一色とみなされる領域でも画素の色の値が周囲の色の値よりも多少かけ離れる場合においても、その部分が、領域内の穴や輪郭部分のデコボコとして誤って抽出されることを防止し、精度良く抽出することが可能となる。
【0186】
ラベル画像が生成されると、入力画像のパターンの各ラベルごとに、各パターンについての外接矩形を生成する。そして、各外接矩形内の領域の色情報及び外接矩形の幾何学情報に基づいて、各外接矩形のグルーピングを行う。
【0187】
文字領域抽出部137は、色分解画像生成部136でグルーピングされた外接矩形の配置状態や大きさなどを考慮して、原画像から求めたラベル画像の中から、文字列領域抽出を行う。
【0188】
例えば、カラー文書から大きな文字で記載されている見出しやタイトルなどのキーワードとなる文字の領域を抽出する場合、外接矩形の大きさや、外接矩形の並びの情報を使うことにより、見出しやタイトルなどのキーワードとなる文字列領域だけを抽出する。
【0189】
図21は、図20のパターン抽出装置の動作を詳細に示すフローチャートである。
図21において、まず、画像入力処理を行う(ステップS11)。この画像入力処理では、CCDカメラやスキャナなどの撮像装置でカラー画像を入力し、メモリに保存する。
【0190】
次に、モデル解像度推定処理を行う(ステップS12)。このモデル解像度推定処理では、カラー印刷のモアレを表現した印刷モデル及びスキャナ読み込みモデルから求めた色差テーブルに登録されている平均輝度及び隣接画素の輝度差の最大値を、入力画像から得られる平均輝度及び隣接画素の輝度差の最大値と比較し、入力画像全体を通して最も適合するスキャナ読み込み解像度を求める。
【0191】
図22は、本発明の一実施例に係わるモデル解像度推定処理を説明する図である。
図22において、入力画像141を3×3画素づつのメッシュ142に分割し、分割された3×3画素a〜iの平均RGB輝度(Rm,Gm,Bm)と隣接画素の輝度差の最大値(Rd,Gd,Bd)を入力画像141全体について求める。ここで、3×3画素a〜iの隣接方向は20通りあるので、これらの20通り隣接画素の輝度差を求め、それらの輝度差のうち最大値(Rd,Gd,Bd)を採用する。
【0192】
そして、この平均RGB輝度(Rm,Gm,Bm)と隣接画素の輝度差の最大値(Rd,Gd,Bd)をキー情報として色差テーブルを検索し、色差テーブルに登録されている平均輝度及び隣接画素の輝度差の最大値と最も適合するスキャナ読み込み解像度を求める。そして、入力画像141から求めた隣接画素の輝度差の最大値(Rd,Gd,Bd)と、色差テーブルに登録されている最も適合するスキャナ読み込み解像度での隣接画素の輝度差の最大値との差が所定の範囲内にない場合、その3×3画素a〜iに対してリジェクト符号(−1)を返し、それ以外は、適合符号(0)を返すようにする。
【0193】
この処理を入力画像141全体について行うことにより、メッシュ142に分割された全ての3×3画素a〜iについて、リジェクト符号(−1)または適合符号(0)が付される。リジェクト符号(−1)または適合符号(0)が付された3×3画素a〜iのうち、適合符号(0)が付された3×3画素a〜iを対象として、これらについて求めたスキャナ読み込み解像度を平均し、この平均値を入力画像141全体のスキャナ読み込み解像度とする。
【0194】
以下、RGB独立の処理であるので、Rを例にしてより具体的に説明する。
まず、Rテーブルの解像度値をある値に固定して、RテーブルのR輝度値をスキャンしていき、平均輝度値Rmが、Ri≦Rm<Ri+1となるR輝度値RiをRテーブルから検索する。この時、R輝度値Riに対する隣接画素との輝度値の最大値がRdi、R輝度値Ri+1に対する隣接画素との輝度値の最大値がRdi+1であるとすると、平均輝度値Rmが、R輝度値RiとR輝度値Ri+1との間の線形補間で表されるとして、その関係を隣接画素との輝度値の最大値にも適応して、推定される隣接画素との輝度値の最大値infered_deltaを求める。すなわち、
rl=Ri−Ri
rm=Rm−Ri
rn=Ri+1−Rm
infered_delta
=Rri*rn/rl+Rri+1*rm/rl
である。
【0195】
この推定される隣接画素との輝度値の最大値infered_deltaと実際に画像から求めた輝度値の最大値Rdとの差delta_rを、
delta_r=|Rd−infered_delta|
として求める。これと同様の処理をG,Bでも行い、delta_g,delta_bを求める。そして、その和deltaを、
delta=delta_r+delta_g+delta_b
として求める。
【0196】
解像度パラメータをスキャンして、このdeltaの値が最も小さくなる解像度resolと、その時のdeltaの値delta_minを求め、その値delta_minが、
delta_min>TH_SUB (TH_SUBは固定しきい値)
ならば、この3×3メッシュはモデルに適応しなかったとして、リジェクト符号(−1)を返し、それ以外は、適合符号(0)を返すようにする。そして、全入力画像の中の3×3メッシュの中で適合符号がついたメッシュだけを対象に、そのメッシュの解像度resolを平均し、この値を入力画像の解像度resolutionとする。
【0197】
resolution=(Σ適合符号のメッシュのresol)
/適合符号のメッシュの数
なお、この解像度という言葉は、入力画像が実際にスキャナで読み込まれたときの解像度ではなく、この画像を予め用意したモデルに適合させたときのモデル上の読み取り解像度を表す。
【0198】
次に、色ラベリング処理を行う(ステップS13)。この色ラベリング処理では、隣り合う画素の色が近い場合に同一ラベルを与え、ラベル画像と同一ラベルの連結領域の外接矩形を求める。外接矩形の情報には、外接矩形の座標値、外接矩形内の連結領域の平均色(R,G,B)、外接矩形内の連結領域のラベル番号、連結領域の面積(画素数)などを格納する。
【0199】
具体的には、入力画像の左上からラスタスキャンを行い、ラベル付けがされていない画素に注目する。この画素のRGB輝度値と推定解像度resolutionを用いて色差テーブルを検索し、隣接画素との輝度値の最大値をRGBそれぞれについて求める。隣接画素との輝度値の最大値が求まると、この隣接画素との輝度値の最大値を着目画素にラベル付けする際のしきい値とする。
【0200】
このラベリング処理の時に、1画素から始まって次第に拡張していく同一ラベル領域に対して、1画素追加する度に、ラベル領域内の平均色(R,G,B)を求める。そして、このラベル領域と同一のラベルをこのラベル領域の周囲画素に付すかどうかを判断する時に、新たにラベル付けする周囲画素の色が、既にラベル付けされたラベル領域の平均色としきい値以上に離れている場合には、隣接画素間での色差がしきい値以内にあっても、新たにラベル付けする周囲画素に、既にラベル付けされたラベル領域と異なるラベルを付すようにする。この処理により、文字領域と背景領域の境界の次第に色が変化した場合でも、正しく文字領域を抽出することが可能となる。
図23は、本発明の一実施例に係わる色ラベリング処理を説明する図である。
【0201】
図23において、画素eの色が黒で、この画素eから遠ざかるに従って、色が黒から赤に徐々に変化しているものとする。そして、画素eと画素a〜d、f〜iは、画素eと画素a〜d、f〜iの色差がしきい値以内の場合は、画素eと画素a〜d、f〜iに対して同一のラベルが付される。
【0202】
次に、画素jのラベル付けを行う場合、画素fと画素jの色差がしきい値以内かどうかが判断されるとともに、画素a〜iの色の平均値と画素jの色の差がしきい値以内かどうかが判断される。そして、画素fと画素jの色差がしきい値以内であっても、画素a〜iの色の平均値と画素jの色の差がしきい値をこえる場合は、画素jには画素fと異なるラベルが付される。
【0203】
ここで、画素eから遠ざかるに従って、色が徐々に変化している場合には、画素jの色と画素fの色は似ているけれども、画素jの色と画素eの色の違いは顕著になってくる。このため、既にラベル付けされている画素a〜iの色の平均値を画素jの色と比べると、画素a〜iの色の平均値には画素eの色の影響が反映されることから、画素fと画素jの色差に比べた場合に対し、色に差が大きくなる。
【0204】
この結果、色が徐々に変化している場合においても、画素fと画素jとの間で境界を区切ることが可能となり、黒の領域と赤の領域に同一のラベルが付されることを防止できる。
【0205】
以下、具体的な求め方を輝度値Rを例に取り説明する。
Rテーブルの解像度値を推定解像度に固定して、RテーブルのR輝度値をスキャンしていき、注目画素の輝度値Rが、Ri≦R<Ri+1となるR輝度値RiをRテーブルから検索する。この時、R輝度値Riに対する隣接画素との輝度値の最大値をRdi、R輝度値Ri+1に対する隣接画素との輝度値の最大値をRdi+1とすると、注目画素の輝度値Rが、RテーブルのR輝度値RiとRテーブルのR輝度値Ri+1の間の線形補間で表されるとして、その関係を隣接画素との輝度値の最大値にも適応して、推定される隣接画素との輝度値の最大値delta_rを求める。すなわち、
rl=Ri−Ri+1
rm=R−Ri
rn=Ri+1−R
delta_r=Rri*rn/rl+Rri+1*rm/rl
として求める。G,Bについても同様である。
【0206】
このようにして、未処理の注目画素の(R,G,B)値から隣接画素との輝度差の最大値(delta_r,delta_g,delta_b)を求め、この隣接画素との輝度差の最大値(delta_r,delta_g,delta_b)をラベリング時のしきい値とする。
【0207】
次に、この未処理の注目画素の周囲8画素を走査して、注目画素の周囲に既にラベル付けされた画素があり、その既にラベル付けされた画素のRGB輝度値(Rs,Gs,Bs)が、
|R−Rs|<=delta_r
かつ
|G−Gs|<=delta_g
かつ
|B−Bs|<=delta_b
の場合に、注目画素は、その周囲画素と近い色であるので、周囲画素のラベルをカレントラベルregionとして保存し、注目画素のラベルとしてカレントラベルregionを与える。また、同時に、カレントラベルregionが与えられている領域の平均色(Rm,Gm,Bm)として、周囲のラベルの平均色に注目画素の色を加味した新たな平均色を求める。
【0208】
それ以外の場合は、カレントラベルとして、今まで付けたラベル値+1のラベル値を設定し、注目画素のラベルにもそのラベル値を付与する。この場合でも、領域の平均色(Rm,Gm,Bm)として、注目画素のRGB値を設定する。
【0209】
どちらの場合でも、注目画素の座標値を処理対象座標配列に保存する。
次に、注目画素の周りに同色領域を拡張する処理を行う。この処理では、処理対象座標配列の中から、先頭の座標値を取り出し、その座標の画素を注目画素とする。注目画素のRGB輝度値からRGB各色の隣接画素の輝度値の差の推定しきい値(delta_r,delta_g,delta_b)を求める。
【0210】
また、これまでのこの領域の平均色の(Rm,Gm,Bm)値と推定解像度から平均色の各RGBの輝度差のしきい値(delta_rm,elta_gm,elta_bm)を求める。
【0211】
次に、図10(a)に示すように、注目画素の周囲8画素を走査して、注目画素の周囲の各画素の(Ri,Gi,Bi)値(i=1〜8)を求め、注目画素の(Rc,Gc,Bc)値や平均色の(Rm,Gm,Bm)値とのRGB各色の輝度差を求め、それが、
|Ri−Rc|<=delta_r
かつ
|Gi−Gc|<=delta_g
かつ
|Bi−Bc|<=delta_b
|Ri−Rm|<=delta_rm
かつ
|Gi−Gm|<=delta_gm
かつ
|Bi−Bm|<=delta_bm
の場合に、注目画素と同一ラベルを付け、周囲画素の座標を処理対象座標配列に追加する。今処理した注目画素は、処理対象座標配列から削除する。
【0212】
次に、処理座標のx,yの最大値、最小値を求め、それをこのラベル領域の外接矩形として保存する。また、このラベル領域の平均色を外接矩形の属性として保存する。
【0213】
この処理を処理対象配列の内容がなくなるまで続ける。
ラベリングの結果、ラベル画像(同一領域は、同じラベル値が付与されている画像)と同じラベルを持つ領域を囲む外接矩形が獲得される。
【0214】
また、ラベリング処理の出力情報として、以下のデータが出力される。
・ラベル画像:4バイト/1画素
・外接矩形
矩形数 :maxcount
矩形情報:1btbl
内包するラベル画像のラベル番号:label
矩形左上座標 :(xmin,ymin)
矩形右下座標 :(xmax,ymax)
矩形内の代表色 :(r,g,b)
所属するグループ番号 :string_label
輪郭長 :contour
次に、注目矩形抽出処理を行う(ステップS14)。この注目矩形抽出処理では、全ての色の外接矩形を対象にして、ある事前に決めた範囲に入るサイズの外接矩形を注目矩形として抽出する。
【0215】
具体的には、x方向長さが23dot(100dpi時)以上、画像の幅の1/2以下、かつ、y方向長さが23dot(100dpi時)以上、画像の高さの1/2以下の外接矩形を注目矩形として抽出する。
【0216】
この注目矩形抽出処理により、外接矩形同士をグルーピングする際の基準となる外接矩形の大きさを限定することが可能となり、例えば、タイトル領域を抽出する場合に、タイトルとなる文字の大きさに適合した外接矩形を基準として、外接矩形同士をグルーピングすることが可能となり、ノイズや背景などのタイトルには含まれない外接矩形が基準とされて、グルーピング処理が行われることを防止することが可能となることから、不要な処理を省略して、処理速度を向上させることが可能となる。
【0217】
次に、注目矩形の周りの探索範囲とそこにかかる矩形抽出を行う(ステップS15)。この探索範囲にかかる矩形抽出処理では、注目矩形の周囲に、あるサイズの探索範囲を設定し、その範囲にかかる矩形を抽出する。
【0218】
図24は、本発明の一実施例に係わる注目矩形の周囲の探索範囲の設定方法を説明する図である。
図24において、矩形番号1〜30の外接矩形が抽出され、矩形番号1の外接矩形151を注目矩形としたものとする。そして、この外接矩形151の周りに探索範囲152が設定されたものとすると、外接矩形151についてのグルーピングの処理対象として、探索範囲152にかかる矩形番号2〜24の外接矩形のみを選択し、探索範囲152にかからない矩形番号25〜30の外接矩形については、外接矩形151のグルーピングの処理対象としない。
【0219】
このように、外接矩形同士をグルーピングする際に、外接矩形の探索範囲を注目矩形の周りに限定することにより、所定の範囲内にまとまって存在している文字列のみを抽出することが可能となり、例えば、タイトル領域を抽出する場合に、タイトルには含まれないような離れた位置に存在する文字を考慮する必要がなくなることから、タイトル領域の抽出を効率的に行うことが可能となる。
【0220】
具体的には、探索範囲152は、注目矩形151の縦横の長さの内、長い方をlenとして、lenと100dpiで35dotの小さい方を注目矩形の周囲の探索範囲長range_sizeとして求める。
【0221】
注目矩形の周囲range_sizeの範囲にかかる外接矩形を高速に求めるため、以下の方法を用いる。
図25は、本発明の一実施例に係わる注目矩形の周囲の探索範囲にかかる矩形の抽出方法を説明する図である。
【0222】
図25において、矩形番号1〜4の外接矩形161〜164が抽出されたものとすると、XYの各座標値に存在する矩形番号及び矩形数を求め、これらの矩形番号及び矩形数をXYの各座標値ごとに登録する。
【0223】
例えば、X座標値1〜4の位置には外接矩形161〜164が存在しないので、矩形数n=0、矩形番号=空が登録され、X座標値5〜13の位置には矩形番号4の外接矩形164が存在しているので、矩形数n=1、矩形番号=4が登録され、X座標値14の位置には矩形番号3の外接矩形163及び矩形番号4の外接矩形164が存在しているので、矩形数n=2、矩形番号=3、4が登録され、X座標値15、16の位置には矩形番号4の外接矩形164が存在しているので、矩形数n=1、矩形番号=4が登録される。以下、同様である。
【0224】
次に、矩形番号3の外接矩形163を注目矩形とし、この外接矩形163の周りに探索範囲165が設定されたものとすると、この探索範囲165に含まれるXYの各座標値を求める。そして、XYの各座標値の矩形番号をXYそれぞれについて求め、XYの両方に含まれる矩形番号を探索範囲165にかかる外接矩形とする。例えば、探索範囲165のX座標に含まれる外接矩形の矩形番号は2〜4、探索範囲165のY座標に含まれる外接矩形の矩形番号は1〜4であるので、XYの両方に含まれる矩形番号は2〜4となる。この結果、探索範囲165にかかる外接矩形として、矩形番号2〜4に対応する外接矩形162〜164が得られる。
【0225】
具体的には、以下のa)〜d)の処理を行う。
a)画像全体のX,Y軸へ矩形番号を投影する。
画像全体のX,Y軸の1画素毎に、それに属する矩形数と矩形番号の集合を登録する。例えば、矩形番号iがX軸の(x1,x2)の範囲にあるとすれば、X軸のx1からx2の座標には、番号iが矩形番号の集合に入ることになる。同じことを全矩形について縦横座標について行う。
【0226】
b)注目矩形の周囲にrange_sizeの範囲を設定する。
c)range_sizeの範囲のX軸の座標毎の矩形種類を論理ORして矩形番号の集合を抽出する。
【0227】
同様にY軸でも抽出する。
d)X軸から求めた矩形番号の集合と、Y軸から求めた矩形番号の集合を論理ANDして、この注目矩形の周囲にある矩形集合を決定する。
【0228】
なお、図25の矩形番号の格納方法では、画像全体に存在する全ての矩形番号を格納する容量が各座標値ごとに必要となり、記憶容量が大きくなる。
そこで、上述した座標毎の矩形数及び矩形番号を高速に、かつ必要メモリを最小に求めるために、以下のような方式をとる。
【0229】
図26は、本発明の一実施例に係わる注目矩形の周囲の探索範囲にかかる矩形情報の格納方法を説明する図である。
図26(a)において、矩形番号1、2の外接矩形171、172が抽出されたものとし、外接矩形171はX座標が155〜165の範囲内にあり、外接矩形172はX座標が160〜163の範囲内にあるものとする。このため、図26(b)に示すように、外接矩形171については、X座標が155〜165の位置に矩形番号1が登録され、外接矩形172については、X座標が160〜163の位置に矩形番号2が登録される。
【0230】
次に、図26(c)に示すように、抽出された矩形番号1、2を、X座標155〜165の順序で矩形番号1、2順に並べ換え、X座標値が同じ値を示す矩形番号が幾つあるかを数えることにより、各座標値の矩形数を求めることができる。
【0231】
具体的には、以下のi)〜v)の処理を行う。
i)全ての矩形の横幅を合計して、その長さの数だけ矩形番号、座標の情報を持ったデータ構造を用意する。
【0232】
ii)矩形の座標と矩形番号を用意されたデータ構造のデータにセットする。
iii)このデータ構造のデータを座標値でソートする。
iv) データの座標値を順にみていき、座標値が同じものの数を座標値毎に数え、それをその座標に属する矩形数とする。また、その座標毎の矩形数分だけ矩形番号を入れる記録領域を確保する。ソートしたデータ構造を先頭からスキャンしていき、座標が同じ間は数をカウントしていき、座標値が変わったところで数を確定させ、それを保存する。
【0233】
v)ソートしたデータ構造で、座標値が同じ物の矩形番号を上で確保した領域に格納する。これもソートしたデータ構造を先頭からスキャンしていき、座標が同じ間は、矩形番号を格納領域にセットする。
【0234】
次に、同色グループ抽出処理を行う(ステップS16)。この同色グループ抽出では、1つの注目矩形に注目して、その注目矩形内のパターンの平均色からラベリングの時と同様にRGB各色の輝度差のしきい値を求める。注目矩形の探索範囲にかかっている外接矩形の中で、注目矩形とのRGB輝度差が、しきい値以内のものを同一グループとして抽出し、グループ情報領域に格納する。さらに、新たにグループに追加された外接矩形を基準にして同様の処理を行い、グループに追加矩形が無くなるまで繰り返し処理する。
【0235】
具体的には、1つの注目矩形の値(Rc,Gc,Bc)とその周囲矩形の集合の中の1つの外接矩形iの値(Ri,Gi,Bi)のRGB空間上の距離を以下のように定義する。
【0236】
dist=|Rc−Ri|+|Gc−Gi|+|Bc−Bi|
また、注目矩形の値(Rc,Gc,Bc)と解像度resolutionから求められるRGBの各輝度差をdelta_r,delta_g,delta_bとする。注目矩形の値(Rc,Gc,Bc)とその周囲の外接矩形の集合の中の1つの外接矩形iの値(Ri,Gi,Bi)が以下の条件を満足するとき、注目矩形の周囲の外接矩形は、注目矩形のグループに属すると判定して、周囲の外接矩形iを注目矩形のグループに格納する。
【0237】
dist<TH_RGB (TH_RGB=20)
または
(|Rc−Ri|<delta_r
かつ
|Gc−Gi|<delta_g
かつ
|Bc−Bi|<delta_b)
また、同時に、この新たにグループに加わった矩形番号を新規追加矩形領域に格納しておく。
【0238】
次に、新規追加矩形領域の先頭の矩形番号を取り出し、それを新たな注目矩形として、その周囲にある外接矩形を求め、上の手順を繰り返して、グループに属する外接矩形を求める。この手順をグループに新たに加わる矩形が無くなるまで繰り返す。
【0239】
以上の処理により、以下の抽出するグループ情報のデータ構造が得られる。
グループ内の矩形数 :num
グループを構成する矩形番号 :child
重なり矩形統合後の矩形数 :overlap_num
重なり矩形統合後の矩形情報 :overlap
(データタイプは、矩形情報1btb1型)
グループ内文字列の方向コード:orient
グループ内の文字列数 :gyou_num
文字列の矩形情報 :gyou
次に、グループ内平均文字線太さ抽出処理を行う(ステップS17)。このグループ内平均文字線太さ抽出処理では、グループ内の外接矩形に対応するラベル画像のパターンに対して、輪郭追跡処理を行い、輪郭長を求める。すなわち、グループに属する1つの外接矩形の矩形範囲内で、その外接矩形のラベル番号に注目して、ラベル画像上で、輪郭追跡処理を行う。抽出した輪郭の長さを、その矩形の輪郭長の属性にセットする。そして、そのパターンの面積を輪郭長で割って、文字の線の平均的な太さを求め、その値を矩形の属性として矩形情報に登録する。
【0240】
図27は、本発明の一実施例に係わる文字線の太さの算出方法を説明する図である。
図27(a)において、例えば、「フ」というパターンが抽出されたものとすると、「フ」というパターンに含まれる画素数を数えることにより、「フ」というパターンの面積Sを算出する。
【0241】
次に、図27(b)に示すように、「フ」というパターンの輪郭を抽出し、この輪郭長Lを算出する。そして、「フ」というパターンの面積Sを輪郭長Lで割って、「フ」というパターンの平均的な太さWを求める。
【0242】
次に、文字線太さによる再グループ化処理を行う(ステップS18)。この再グループ化処理では、グループ内の外接矩形を対象に、外接矩形の平均文字線太さを用いて、グループ化を行い、新たなグループ情報を構築する。すなわち、グループ内の外接矩形を対象にして、図21のステップS14〜S16の処理をを繰り返す。ここで、ステップS16のグループ化の時に、ステップS15で使用した色情報だけでなく、推定文字線太さ(=矩形内のパターン面積/パターンの輪郭長)も使用する。
【0243】
図28は、本発明の一実施例に係わる文字線の太さによる再グルーピング処理を説明する図である。
図28において、「グループ1」という文字列と「グループ2」という文字列が同一色で記述され、互いに近接して配置されているため、「グループ1」という文字列と「グループ2」という文字列が同一のグループ181にグルーピングされたものとする。
【0244】
ここで、「グループ1」という文字列に含まれる文字の太さと「グループ2」という文字列に含まれる文字の太さを算出し、異なる太さの文字を別々のグループに分割する。この結果、「グループ1」という文字列はグループ182にグルーピングされ、「グループ2」という文字列はグループ183にグルーピングされる。
【0245】
この処理により、元のグループで背景などの文字パターンと同色のものがあり、背景と文字パターンが同じグループに属していたものを、別々のグループにしたり、文字パターンだけのグループでもフォントやサイズが異なるものを別々のグループにしたりすることができる。
【0246】
具体的には、2つの外接矩形のうち、第1の外接矩形の推定文字線太さthick1及び第2の外接矩形の推定文字線太さthick2から、文字線太さの比thick_rateを以下のように求める。
【0247】
thick_rate=max(thick1,thick2)/min(thick1,thick2)
そして、図21のステップS15と同じように、以下の条件を満足した時に、2つの外接矩形を同じグループとして記録する。
【0248】
thick_rate<TH_THICK_RATE
かつ
(dist<TH_RGB
または
(|Rc−Ri|<delta_r
かつ
|Gc−Gi|<delta_g
かつ
|Bc−Bi|<delta_b))
ただし、TH_THICK_RATEは、2.5と設定している。
【0249】
この処理を元のグループ内全ての外接矩形について行い、グループ内の新たなグルーピングを行う。
文字線太さを求める場合、パターンの輪郭を求める必要があるが、輪郭追跡を高速化するため、以下の処理を行う。
【0250】
図29は、本発明の一実施例に係わる輪郭追跡における画素の探索開始点の設定方法を説明する図である。
図29(a)において、画素a〜iで構成されるパターンの輪郭を求めるものとすると、ラベル画像の左上からラスタスキャンを行うことにより、画素aが見つかる。画素aが見つかると、画素aに隣接する8つの画素のうち、画素aの直前に探索された画素の次の画素a’を探索開始点として、画素aに隣接する画素を時計回りに探索する。そして、画素eが見つかると、図29(b)に示すように、画素eに隣接する8つの画素のうち、画素eの直前に輪郭として探索された画素aの次の画素e’を探索開始点として、画素eに隣接する画素を時計回りに探索する。そして、画素iが見つかると、図29(c)に示すように、画素iに隣接する8つの画素のうち、画素iの直前に輪郭として探索された画素eの次の画素i’を探索開始点として、画素iに隣接する画素を時計回りに探索する。以下、同様にして、図29(d)に示すように、画素a→画素e→画素i→画素h→画素g→画素f→画素b→画素cが画素a〜iで構成されるパターンの輪郭として抽出される。
【0251】
具体的には、以下のa)〜f)の処理が行われる。
a)矩形サイズの処理済みフラグを用意し、初期値として、全て未処理フラグとして0をセットする
b)矩形範囲内を処理済みフラグとラベル画像で同時に左上からラスタスキャンして、画素が処理済みフラグが0で、かつラベル番号がカレント矩形のラベル番号である画素iを探す。輪郭長を0と設定する。
【0252】
c)画素iから周囲の8画素を図30の0から順番に時計回りに探索し、画素が処理済みフラグが0で、かつラベル番号がカレント矩形のラベル番号である画素がある場合には、その画素の方向コードDCを抽出する。
【0253】
図30は、本発明の一実施例に係わるカレント画素からみた方向コードを示す図である。
図30において、Cはカレント画素、0〜7はカレント画素からみた周囲画素で、Cからみた方向コードDCである。画素iから周囲の8画素を探索する
場合、この順番で探索する
d)輪郭を構成する次の画素として、カレント画素Cから検出した方向コードDCの画素へ移動する。この時、輪郭長としてすでに計算した輪郭長を1つだけインクリメントする。そして、移動先の画素を新たなカレント画素C′として、再びその周囲の8画素に対し、処理済みフラグが0で、かつラベル番号がカレント矩形のラベル番号である画素を探す。この時、新たなカレント画素C′の周囲の8画素を探索する開始方向コードは、前回の方向コード(DC+5)を8で割った余りのDC′から開始して、時計回りに探索する。
【0254】
これにより、前画素の輪郭追跡処理ですでに探索済みの画素を二重に探索するのを避け、高速な輪郭追跡処理が可能となる。
e)画素移動による輪郭追跡処理を最初に発見した開始座標になるまで続け、この時の輪郭長を、この矩形内にあるラベル値のパターンの1つの輪郭の輪郭長として抽出する。
【0255】
f)c)からf)の処理を同じパターンの他の輪郭でも行い、全ての輪郭長を足し合わせて、最終的にこのパターンの輪郭長して抽出する。
次に、グループ内の大きな矩形削除処理を行う(ステップS19)。このグループ内の大きな矩形削除処理では、ノイズ除去のため、グループ内で平均的な矩形サイズを求め、それを基準に極端に大きなサイズの矩形を削除する。
【0256】
図31は、本発明の一実施例に係わるグループ内の大きな矩形削除処理を説明する図である。
図31(a)において、外接矩形192〜201がグループ191にグルーピングされているものとすると、グループ191内の外接矩形192〜201の大きさを求める。そして、外接矩形192の大きさが外接矩形193〜201の大きさに比べてかけ離れているものとすると、図31(b)に示すように、グループ191から外接矩形192を削除し、外接矩形193〜201よりなるグループ202を生成する。
【0257】
具体的には、以下のa)〜d)の処理を行う。
a)グループ内の外接矩形の高さのヒストグラムを作成して、最大頻度値を示す矩形高さfreq_heightを以下の方法で求める。
【0258】
i)ヒストグラムにぼかし用のウィンドウを用いてコンボリューション演算(移動和)を行い、ヒストグラムをぼかす。具体的なぼかし用ウィンドウは、例えば、「11111」5画素からなる。
【0259】
ii)最小高さ値(具体的には、100dpiで23dot)を予め決めておき、それ以上で最大頻度を示す矩形高さfreq_heightを求める。
図32は、本発明の一実施例に係わる最大頻度値を示す矩形高さの算出方法を説明する図である。
【0260】
図32(a)において、図31の外接矩形192〜201の高さの頻度が求まると、ぼかし用ウィンドウ205を用いて、図32(b)に示すように、図32(a)で求まっている矩形高さの頻度の移動和を算出する。矩形高さの頻度の移動和が求まると、外接矩形192〜201の高さのうち、最大頻度を示す矩形高さfreq_heightを求める。
【0261】
b)最大頻度値を示す矩形高さfreq_heightが最小高さ値(具体的には、100dpiで23dot)より小さいときは、最小高さ値を最大頻度値を示す矩形高さfreq_heightとする。
【0262】
c)大きな矩形と判定するしきい値th_largeをth_large=freq_height*10とする。
d)グループ内の外接矩形で縦横サイズとも、th_largeより小さいものだけを残して、後はノイズとしてそのグループから削除する。
【0263】
次に、グループ内の重なり矩形統合処理を行う(ステップS20)。このグループ内の重なり矩形統合処理では、グループ内にある外接矩形の中で、重なりがある外接矩形について、それらの外接矩形を囲む矩形を新たに作り、グループ情報に新たに登録する。
【0264】
すなわち、グループ内の外接矩形のうち、一部でも重なりがある外接矩形同士を統合して、それらを囲む外接矩形にする。
図33は、本発明の一実施例に係わるグループ内の重なり矩形統合処理を説明する図である。
【0265】
図33(a)において、外接矩形211は外接矩形212と重なっており、外接矩形212は外接矩形213と部分的に重なっている。この場合、外接矩形211〜外接矩形213を統合し、外接矩形211〜外接矩形214を生成する。
【0266】
この処理により、例えば、「画」や「関」などのように、1つの文字が互いに分離した複数のパターンからなる場合に、これらの複数のパターンを一体的に取り扱うことができ、その後の処理を効率的に行うことが可能となる。
【0267】
次に、グループ内文字列抽出処理を行う(ステップS21)。このグループ内の文字列抽出処理では、グループ内で文字列方向を推定し、その方向に対して、文字列を抽出する。抽出した文字列の方向、座標などの情報はグループごとに保存する。
【0268】
図34は、本発明の一実施例に係わるグループ内文字列抽出処理を説明する図である。
図34(a)において、矩形番号1〜29の外接矩形がグループ221にグルーピングされているものとすると、最も左にある矩形番号1の外接矩形から、右方向に矩形番号1の外接矩形と隣接する外接矩形があるかどうかを探す。そして、矩形番号1の外接矩形と隣接する外接矩形として、矩形番号2の外接矩形が見つかると、見つかった外接矩形に矩形番号1を伝番し、見つかった外接矩形の矩形番号2を矩形番号1に変更する。同様にして、右方向に隣接する外接矩形があるかどうかを探し、隣接する外接矩形が見つかると、左に隣接する外接矩形の矩形番号を右の外接矩形に伝番する。
【0269】
矩形番号1の外接矩形から右方向に隣接する外接矩形がなくなると、矩形番号15の外接矩形から、右方向に矩形番号15の外接矩形と隣接する外接矩形があるかどうかを探す。矩形番号15の外接矩形と隣接する外接矩形が見つかると、見つかった外接矩形に矩形番号15を伝番する。
【0270】
以上の処理により、図34(b)に示すように、矩形番号1の外接矩形に右方向に隣接する外接矩形に矩形番号1が付され、矩形番号15の外接矩形に右方向に隣接する外接矩形に矩形番号15が付される。矩形番号の伝番処理が終了すると、同一の矩形番号1が付された外接矩形を囲む外接矩形222を生成し、同一の矩形番号15が付された外接矩形を囲む外接矩形223を生成する。
【0271】
具体的には、以下のa)〜e)の処理を行う。
a)グループ内の外接矩形の座標から文字列方向を推定する。
b)外接矩形の上下左右の最も近くにある矩形の内向き、外向きの両方向の隣接関係を求める。
【0272】
c)横方向の文字列の場合、左からの隣接関係のないい矩形を開始矩形として、右に矩形がなくなるまで、開始矩形番号を右にある矩形に伝搬していく。縦方向も同様である。
【0273】
d)左からの隣接関係がなく、左への隣接関係がある矩形は、左の矩形番号を獲得して、それを右へ伝搬し、隣接関係がなくなるまで繰り返す。
e)ここまでの処理をグループ内全ての矩形について行った後に、同じ矩形番号がついている矩形を求め、同じ矩形番号がついている矩形の外接矩形を文字列矩形として抽出する。
【0274】
次に、文字列内分離文字統合処理を行う(ステップS22)。この文字列内分離文字統合処理では、横書きの上下分離文字統合処理(縦書きでは、左右分離文字統合処理)を文字列矩形に適応して、分離矩形を統合した外接矩形に置き換える。ここでは、抽出された文字列内の矩形に対して文字列方向と直角の方向に矩形統合を行う。これは横書きの文字列ならば、例えば「こ」という文字の上ストロークと下ストロークをそれぞれ囲む矩形をまとめて、1つの矩形とする処理である。
【0275】
図35は、本発明の一実施例に係わる文字列内分離文字統合処理を説明する図である。
図35(a)において、グループ221内で互いに横方向に隣接する外接矩形を囲む外接矩形222、223が生成され、外接矩形222内には、縦方向に互いに隣接する外接矩形224、225及び縦方向に互いに隣接する外接矩形226、227が存在し、外接矩形223内には、縦方向に互いに隣接する外接矩形228、229及び縦方向に互いに隣接する外接矩形230、231が存在しているものとする。
【0276】
この場合、図35(b)に示すように、外接矩形222、223を囲む外接矩形232を生成して、外接矩形222、223を統合し、外接矩形226、227を囲む外接矩形233を生成して、外接矩形226、227を統合し、外接矩形228、229を囲む外接矩形234を生成して、外接矩形228、229を統合し、外接矩形230、231を囲む外接矩形235を生成して、外接矩形230、231を統合する。
【0277】
具体的には、以下のa)〜c)の処理を行う。なお、以下の例では、横文字列の場合について説明するが、縦文字列の場合についても同様である。
a)文字列内矩形をx座標で昇順にソートする。
【0278】
b)最初の矩形をカレント矩形として、次のそれ以降の矩形がカレント矩形のx座標の範囲に重なる場合は統合し、カレント矩形のx座標の範囲も統合結果のものとする。この処理を統合する矩形がなくなるまで繰り返す。統合する矩形がなくなったら、分離統合後の矩形として保存する。
【0279】
c)統合する矩形が無くなったら、次の矩形を新たなカレント矩形として、b)及びc)の処理を繰り返す。
次に、グループ内の文字列サイズによる再グループ化を行う(ステップS23)。グループ内の文字列サイズによる再グループ化処理では、グループ内の文字列情報から文字列方向に直角のサイズに注目して、その大きさで再グループ化を行い、その結果を新たなグループ情報に格納する。
【0280】
このことにより、同色グループ内で、文字サイズが異なる文字列を別グループにすることができ、同時にノイズと文字列の別グループ化も可能となる。
図36は、本発明の一実施例に係わるグループ内の文字列サイズによる再グループ化処理を説明する図である。
【0281】
図36(a)において、グループ221内で互いに横方向に隣接する外接矩形を囲む外接矩形222、223が生成されているものとすると、外接矩形222の高さH1及び外接矩形223の高さH2を算出し、外接矩形222の高さH1と外接矩形223の高さH2の差がしきい値より大きい場合は、外接矩形222と外接矩形223とを別々のグループにする。
【0282】
具体的には、2つの文字列矩形の高さ(横書きの場合。縦書きなら幅)の違いがしきい値より小さく、かつ、2つの文字列矩形が重複もしくは、2つの文字列矩形間の距離がしきい値より小さい場合に、この2つの文字列矩形は、同じグループに属するものとして、同じグループ番号を与える。この処理を全てのグループで行う。
【0283】
次に、グループ内で同じグループ番号の文字列を1つのグループとする新たなグループを作成する。この処理は、図21のステップS18で同じグループになった文字サイズの異なる文字列を別グループにする働きがある。
【0284】
次に、グループ内の大きな矩形再削除処理を行う(ステップS24)。このグループ内の大きな矩形再削除処理では、ノイズ除去のため、グループ内で平均的な矩形サイズを求め、その矩形サイズを基準として極端に大きなサイズの矩形を再び削除する。すなわち、これまでの処理で変化したグループに対して、図21のステップS19の処理を再度行い、グループ内のノイズを削除する。
【0285】
次に、グループ統合処理を行う(ステップS25)。このグループ統合処理では、左右または上下の近くで同色のグループを統合する。すなわち、2つのグループがほぼ同じ色で、かつ近くにあり、グループの外接矩形が並んでいる場合に、その2つの外接矩形を統合し、1つのグループとする。これは、後で行う文字矩形の並びによるグループの文字列らしさの判定を安定化させるために行う。
【0286】
図37は、本発明の一実施例に係わるグループ統合処理を説明する図である。図37(a)において、グループ1の外接矩形241とグループ2の外接矩形242が互いに横に並んでいるものとすると、外接矩形241と外接矩形242の距離L1、外接矩形241と外接矩形242の上端同士の座標の差E1及び外接矩形241と外接矩形242の下端同士の座標の差E2を求める。そして、外接矩形241と外接矩形242の距離L1、外接矩形241と外接矩形242の上端同士の座標の差E1及び外接矩形241と外接矩形242の下端同士の座標の差E2が各しきい値より小さく、グループ1の代表色とグループ2の代表色の差が所定のしきい値以内にある場合、外接矩形241と外接矩形242とを統合し、外接矩形241及び外接矩形242を囲む外接矩形243を生成する。
【0287】
具体的には、2つのグループの外接矩形において、座標が近く、かつ近い距離にあり、2つの外接矩形をまとめて1つの文字列と見れそうなものを1つのグループにまとめる。統合の条件は、以下の通りである。
【0288】
・2つのグループの平均RGBの各RGBの輝度差がある固定しきい値より小さい。
・横並びの場合、横方向の距離が固定しきい値より小さい(縦並びの場合は、縦方向の距離が固定しきい値より小さい)。
【0289】
・横並びの場合、2つのグループ外接矩形の上端同士の座標の差が固定しきい値より小さく、かつ、下端同士の座標の差が固定しきい値より小さい(縦並びの場合、2つのグループ外接矩形の右端同士の座標の差が固定しきい値より小さく、かつ、左端同士の座標の差が固定しきい値より小さい)。
【0290】
この処理を統合するグループが無くなるまで繰り返す。
次に、矩形並びによる文字らしいグループの抽出処理を行う(ステップS26)。この矩形並びによる文字らしいグループの抽出処理では、グループ内の矩形の中で、サイズまたは形など一定の条件を満足する矩形を対象に、上下端座標のどちらかが隣りの矩形と近い場合、この両者の矩形が並んでいると判定し、並びフラグをセットする。その一定条件を満足するグループ内の対象矩形の中で、並んでいる矩形の数がどの程度の割合であるかを示す、並び矩形率を求め、その並び矩形率が一定のしきい値以上のグループを文字列と見なして抽出する。
図38は、本発明の一実施例に係わる矩形並びによる文字列らしいグループの抽出処理を説明する図である。
【0291】
図38(a)において、外接矩形252〜256及び外接矩形258〜269が入力画像から生成され、外接矩形のグルーピングにより、外接矩形252〜256が1つのグループとされた結果、これらの外接矩形252〜256を囲む外接矩形251が生成され、外接矩形258〜269が1つのグループとされた結果、これらの外接矩形258〜269を囲む外接矩形257が生成されているものとする。
【0292】
次に、各グループ内の外接矩形のサイズや位置関係を調べ、横方向に並んでいる外接矩形に対して横並びフラグ1を与え、縦方向に並んでいる外接矩形に対して縦並びフラグ2を与える。この結果、外接矩形251内の外接矩形252〜256はランダムに並んでいるので、外接矩形252〜256には、横並びフラグ1も縦並びフラグ2も付かない。一方、外接矩形257内の外接矩形258〜269は横一列に並んでいるので、外接矩形258〜269には、横並びフラグ1が与えられる。
【0293】
外接矩形252〜256及び外接矩形258〜269についてのフラグ処理が終了すると、各グループごとにフラグが付された矩形の割合を算出し、フラグが付された矩形の割合の多いグループを文字列として抽出し、フラグが付された矩形の割合の少ないグループをノイズとして捨てる。
【0294】
この結果、図38(b)に示すように、外接矩形252〜256からなるグループは、外接矩形252〜256に対して、フラグが1つも付されてないので、ノイズとして捨てられ、外接矩形258〜269からなるグループは、外接矩形258〜269に対して、横並びフラグ1を与えられているので、文字列として抽出される。
【0295】
具体的には、以下のa)〜e)の処理を行う。
a)グループ内の隣接するサイズまたは形の一定条件を満足する2つの矩形の上端座標同士または下端座標同士の差がしきい値(高さのWID_RATE(=0.2)倍)より小さい場合、その2つの矩形に横並びフラグを与える。
【0296】
ここで、隣接するとは、基準矩形の幅のWID_RATE_DIST(=0.5)倍の周囲範囲以内に矩形があることをいう。
b)グループ内の隣接するサイズまたは形の一定条件を満足する2つの矩形の左端座標同士または右端座標同士の差がしきい値(幅のWID_RATE倍)より小さい場合、その2つの矩形に縦並びフラグを与える。
【0297】
ここで、隣接するとは、基準矩形の高さのWID_RATE_DIST倍の周囲範囲以内に矩形があることをいう。
c)グループ内の矩形で、横並びフラグと縦並びフラグの数の多いほうを文字列方向として採用して、その数を並んでいる矩形数とする。
【0298】
d)グループ内の矩形の中で並んでいる矩形の比率を、「並んでいる矩形数/グループ内のサイズまたは形の一定条件を満足する矩形の総数」を算出することにより求める。
【0299】
なお、対象とするグループ内矩形の条件は、グループ内の矩形の最頻値を示す高さを図32に示した手法で求め、その3倍をlarge_rectとして、
矩形高さが、固定サイズ(23dot,100dpiで)より大きく、large_rectより小さいものとする。
【0300】
e)並んでいる矩形の比率が一定しきい値NUM_RATE(=0.8)より大きい場合に、そのグループを文字列らしいグループとして残し、他をノイズとして捨てる。
【0301】
なお、「・」の中点や「ー」の中棒は、文字として残すようにする。
次に、ノイズグループの削除処理を行う(ステップS27)。このノイズグループの削除処理では、グループ内が2つの矩形だけから構成されているグループに対して、その形状、座標からノイズと思われるグループを抽出して、そのグループを削除する。すなわち、グループ内の矩形数が2つのものについて、その2つの矩形が上下(または左右)端とも近いもので、2つの矩形が並んでいると判断される以外のグループをノイズとして削除する。
【0302】
図39は、本発明の一実施例に係わるノイズグループの削除処理を説明する図である。
図39において、2つの外接矩形272、273が1つのグループとして抽出され、この2つの外接矩形272、273を囲む外接矩形271が生成されているものとする。この場合、外接矩形272と外接矩形273の下端座標は揃っているが、外接矩形272と外接矩形273の上端座標は極端に異なっているので、これらの外接矩形272、273はノイズであると見なして、外接矩形272、273からなるグループを文字列らしいグループから削除する。
【0303】
具体的には、以下の処理を行う。
グループ内の2つの矩形の高さの平均をhei,幅の平均をwidとする。しきい値を決める比率DEL_RATE=0.1として、
(|第1の矩形の上端座標−第2の矩形の上端座標|
<hei×DEL_RATE
かつ
|第1の矩形の下端座標−第2の矩形の下端座標|
<hei×DEL_RATE)
または
(|第1の矩形の左端座標−第2の矩形の左端座標|
<wid×DEL_RATE
かつ
|第1の矩形の右端座標−第2の矩形の右端座標|
<wid×DEL_RATE)
を満足するグループだけ残し、後はノイズとしてて削除する。
【0304】
次に、グループ内同色パターン抽出処理を行う(ステップS28)。このグループ内同色パターンの抽出では、グループの代表色をグループ内部の矩形の代表色の平均として求める。グループの内部に相当する範囲で、原画像を探索して、その色に近いパターンで、すでに文字パターンとして抽出されているもの以外ものを2値画像として抽出する。抽出したパターンに2値画像用のラベリングをかけて、連結成分の外接矩形を求め、それの大きさが一定しきい値より大きい物だけを文字パターンの一部として、グループに追加する。
【0305】
例えば、グループ内のパターンの平均色(RGB)を求め、その色に近い画素をグループの外接矩形の範囲内で求め、2値画像を作成する。その中からパターン部分を除去して、残った2値画像に2値画像のラベリング処理を施し、新たな外接矩形を求める。そして、新たな外接矩形の大きさ及び形が一定のしきい値以上である場合に、新たな外接矩形内のパターンをグループに追加する。
【0306】
この処理により、これまでの処理で抜け落ちるが、実は文字の一部であるパターン、例えば、「ば」の濁点部分のように、文字幅情報や色ずれなどで落されたパターンを再抽出することができる。
【0307】
図40は、本発明の一実施例に係わるグループ内同色パターン抽出処理を説明する図である。
図40(a)において、図21のステップS11〜S27の処理により、「クローハル化への3つの成功モデル」という文字列が入力画像から抽出され、これらの文字列を囲む外接矩形280が生成されているものとする。この場合、「ク」という文字の濁点及び「ハ」という文字の濁点が欠落している。
【0308】
ここで、「ク」という文字の濁点が欠落したのは、「ク」という文字の濁点の色と「ク」という文字の色の差がしきい値範囲内にないために、「ク」という文字の濁点が「ク」という文字と異なるグループにグルーピングされたためである。
【0309】
また、「ハ」という文字の濁点が欠落したのは、「ハ」という文字の濁点の色と「ハ」という文字の色の差がしきい値範囲内にないために、「ハ」という文字の濁点が「ハ」という文字と異なるグループにグルーピングされたためである。
【0310】
このように、ステップS16の同色グループ抽出処理では、抽出対象となる文字列のうち、局所的な部分の色同士が比較されるので、抽出対象となる文字列の色が色ずれなどで局所的に変化している場合には、文字の一部が欠落したりする。
【0311】
そこで、「ク」という文字の濁点及び「ハ」という文字の濁点の再抽出を行う。ここで、再抽出を行う際には、既に抽出されている「クローハル化への3つの成功モデル」という文字列全体を考慮して、その代表色を求め、この代表色に近い色を有するパターンをラベル画像から抽出する。既に抽出されている文字列全体を考慮して代表色を求めることにより、その文字列の局所的な色の変化の影響が軽減され、「ク」という文字の濁点及び「ハ」という文字の濁点を抽出することが可能となる。また、再抽出を行う際には、再抽出の対象となるパターンが存在する範囲を、外接矩形280の範囲に限定する。この範囲の限定を行うことにより、再抽出となる文字の濁点がその範囲からはみ出ないようにして、処理対象となるパターンの範囲を狭くすることが可能となり、抽出精度を損なうことなく、処理を高速化することが可能となる。
【0312】
この結果、図40(b)に示すように、「ク」という文字の濁点と「ハ」という文字の濁とが正しく抽出され、「グローバル化への3つの成功モデル」という文字列を入力画像から抽出することができる。
【0313】
なお、この再抽出の結果、「グローバル化への3つの成功モデル」という文字列と同色のノイズが外接矩形280の範囲内にある場合、このノイズも一緒に抽出されるので、再抽出されたパターンのうち微小なものは、ノイズとみなして除去するようにする。
【0314】
具体的には、以下のa)〜h)の処理を行う。
a)グループ内の矩形情報に保存されている代表色情報をグループ内の矩形全てについて平均して、グループの代表色(Rm,Gm,Bm)を求める。
【0315】
b)グループ内の矩形サイズの最頻値を幅と高さについて求め、それらをmfw,mfhとする。最頻値の幅mfwと高さmfhが、最小矩形サイズのしきい値minsize(=2)より大きな場合には、最頻値の幅mfwと高さmfhをそれぞれminsizeで置き換える。
【0316】
c)グループの外接矩形を求め、その外接矩形の範囲で2値画像を作成する。2値画像は、全て0としておく。
d)グループの外接矩形の範囲内で原画像の画素の色をチェックして、原画像の画素の色(R,G,B)とグループの代表色が、
|Rm−R|+|Gm−G|+|Bm−B|<THR×10
(THR=10)
を満足する画素の位置を記録し、2値画像の同じ位置の画素を1にする。
【0317】
e)2値画像の中から、グループ内の矩形を構成する。既に抽出されているパターンを除去して、2値画像をグループの代表色に近い色であり、かつこれまでの処理で漏れていたパターンだけにする。
【0318】
f)2値画像に対して、2値画像用のラベリングを行い、連結領域の外接矩形を求める
g)外接矩形の幅w及び高さhが、
w<mfw/2、かつ、h<mfh/2
を満足する矩形だけを残し、他を削除する。
【0319】
h)残った矩形を構成する連結矩形のパターンをグループに追加する。
次に、グループの出力順位決定処理を行う(ステップS29)。このグループの出力順位決定処理では、文字列を含んでいるグループが複数抽出された場合、グループの外接矩形から面積を計算して、全画像中のグループの面積の大きい順にグループをソートして、このソートした結果を出力順序とする。
【0320】
次に、2値パターン生成処理を行う(ステップS30)。この2値パターン生成処理では、グループを構成するパターンを文字認識できるような2値画像として作成する。
【0321】
具体的には、以下のa)〜c)の処理を行う。
a)グループの外接矩形サイズの2値画像を作成し、それを全て0に設定する。
【0322】
b)グループ内の矩形のラベル番号を抽出し、対応する矩形領域の内部でラベル画像を探索し、そのラベル番号の画素を抽出し、2値画像上でその座標の画素を1とする。
【0323】
c)b)の処理をを全ての矩形について行い、グループを構成するパターンを2値画像上に作成する。
以下、以上の処理を実際のカラー画像を例にとって説明する。
【0324】
図41(a)は、入力された原画像の例を示す図であり、この原画像は、見出し文字301、302、絵柄303、本文文字304、枠305などがカラーで印刷されている。そして、この原画像から見出し文字301、302をタイトルとして抽出するものとする。なお、見出し文字301、302は、それぞれ一色で印刷されているものとする。
【0325】
図41(b)は、図41(a)のラベル画像を示す図である。
図41(b)において、このラベル画像は、図21のステップS13の色ラベリング処理により得られたものである。この色ラベリング処理により、同色の連結領域に対して同一ラベルが付され、同一ラベルが付されたパターンの外接矩形が生成される。この時、外接矩形の個数は数千〜数万程度になる。
【0326】
図41(c)は、図41(b)のラベル画像から得られた注目矩形を示す図である。
図41(c)において、この注目矩形は、図21のステップS14の注目矩形抽出処理により得られたものであり、図41(c)の例では、矩形番号1〜64の注目矩形が抽出されている。
【0327】
なお、ステップS14の注目矩形抽出処理では、ラベル画像から得られる外接矩形のうち、所定の範囲内の大きさの外接矩形が注目矩形とされるので、図41(c)の領域311、312に本来抽出されていなければならない見出し文字301、302の外接矩形が落ちている。これは、例えば、図41(c)の領域312に本来抽出されていなければならない見出し文字302は、図41(a)の「に」の文字に対応する外接矩形であるが、図41(b)のラベル画像では、「に」を構成する3つのストロークに異なるラベルが付されるので、各ストロークの外接矩形の大きさが小さくなったためである。
【0328】
この注目矩形抽出処理により、本文文字304に対応する不図示の外接矩形313やノイズの外接矩形や枠305の外接矩形などを、グルーピングの際の探索範囲の基準となる外接矩形から除去することができ、処理を高速化することが可能となる。例えば、図41(b)の状態では、外接矩形の個数が数千〜数万程度あったものが、図41(c)の状態では、外接矩形の個数が数十個に減っている。
【0329】
図41(d)は、グループ抽出結果を示す図である。
図41(d)において、このグループ抽出結果は、図21のステップS16の同色グループ抽出処理により得られたものであり、矩形番号が1〜21のグループの外接矩形が生成されている。この処理により、図41(b)のラベル画像から得られた外接矩形のうち、図41(c)で設定された注目矩形から所定の範囲内にあり、代表色の色が近いものは、同一のグループにグルーピングされ、同一のグループにグルーピングされた外接矩形を囲む外接矩形が生成される。
【0330】
この結果、図41(a)の「日経400社経営者アンケート」という見出し文字301に対応したグループの外接矩形321が生成され、図41(a)の「貿易不均衡の要因に微妙な差」という見出し文字302に対応したグループの外接矩形322が生成される。このグルーピングにより、見出し文字301、302を構成する文字列をそれぞれ1つにまとめることができる。また、図41(c)の領域311、312に本来抽出されていなければならない見出し文字301、302の外接矩形323、324も正しく抽出することが可能となる。
【0331】
なお、図41(c)の注目矩形から所定の範囲内に、代表色の色が近い他の外接矩形が図41(b)のラベル画像から見つからない場合は、その注目矩形はグループを作らないため、その注目矩形は消滅する。
【0332】
図42(a)は、図41(d)のグループ抽出結果を文字線太さで再グループ化した結果を示す図である。
図42(a)において、この再グループは、図21のステップS18の文字線太さによる再グループ化処理により得られたものであり、矩形番号が0〜12のグループの外接矩形が生成されている。この処理により、図41(a)の「日経400社経営者アンケート」という見出し文字301に対応したグループの外接矩形331が生成され、図41(a)の「貿易不均衡の要因に微妙な差」という見出し文字302に対応したグループの外接矩形332が生成される。
【0333】
なお、図41(d)の外接矩形のうち、パターンの線の太さによってグループを作ることができないものは消滅する。
図42(b)は、図42(a)の矩形の重なり統合後の結果を示す図である。
【0334】
図42(b)において、この矩形の重なり統合後の結果は、図21のステップS20のグループ内重なり矩形統合処理により得られたものであり、矩形番号が0〜12のグループの外接矩形が生成されている。この処理では、図41(a)の絵柄303に対応する領域333の外接矩形は互いに重なっているものが多く、それらの外接矩形は統合されて消滅している。この統合処理により、これ以降の処理の対象となる外接矩形の数が減るので、処理を高速化できる。
【0335】
図42(c)は、図42(b)の画像から矩形家並びによる文字列らしいグループを抽出した結果を示す図である。
図42(c)において、この文字列らしいグループは、図21のステップS26の矩形並びによる文字列らしいグループの抽出処理により得られたものであり、矩形番号が0、1のグループの外接矩形が抽出されている。この処理により、図42(b)の領域342のグループの外接矩形はランダムに並んでいるので、削除され、図42(b)の領域341のグループの外接矩形のみが抽出される。
【0336】
図42(d)は図42(c)の画像からグループ内パターンを抽出した結果を示す図である。
図42(d)において、このグループ内パターンは、図21のステップS28のグループ内同色パターン抽出処理により得られたものであり、図42(c)で得られたグループの外接矩形の領域内のパターンが抽出され、図41(a)の「日経400社経営者アンケート」という見出し文字301及び「貿易不均衡の要因に微妙な差」という見出し文字302が得られる。
【0337】
図43(a)は、図41(a)の画像から抽出されたタイトルの第1候補のパターンを示す図、図43(b)は、図41(a)の画像から抽出されたタイトルの第2候補のパターンを示す図である。
【0338】
図43の例では、抽出されたパターンの外接矩形401、402の面積により、図41(a)の原画像から抽出されたタイトルの出力順位を決定している。
この結果、図41(a)の「貿易不均衡の要因に微妙な差」という見出し文字302ががタイトルの第2候補として提示され、図41(a)の「日経400社経営者アンケート」という見出し文字301がタイトルの第2候補として提示される。
【0351】
【発明の効果】
発明の一態様によれば、所定の色で表現された領域の隣接画素間の色差に基づいて、ラベリングの際のしきい値を設定することにより、入力画像が網点印刷法などで印刷されているために、入力画像内では同一色として表現されているにもかかわらず、読み取りの際の解像度によっては、異なった色の集合として検出される場合においても、入力画像の読み取りの際に同一色の範囲として抽出を行うことが可能となり、入力画像内で同一色として表現されている領域からパターンの一部が抜けたり、欠けたりすることを防止することが可能となる
【0352】
さらに、網点印刷法で生成される色をコンピュータ上で仮想的に生成することにより、網点印刷法による色の変動を実際の印刷物を用いて解析することなく、網点印刷法による色の変動を認識することが可能となる。
【0353】
また、本発明の一態様によれば、印刷モデルで表現された色の輝度値及び前記輝度値における隣接画素との色差を、前記印刷モデルにおける読み込みの際の解像度ごとに登録した色差テーブルを生成することにより、実際の印刷物を読み取るデバイスの解像度がどのようなものであっても、実際の印刷物から読み取られた色が同一色かどうかを判断する際のしきい値を容易に取得することが可能となる。
【0354】
また、本発明の一態様によれば、印刷モデルでの読み込みの際の解像度を、入力画像について推定することにより、デバイスで読み取られた実際の印刷物を、コンピュータ上で仮想的に生成された印刷モデル上で扱うことが可能となり、デバイスで読み取られた実際の印刷物に対し、印刷モデルで生成されたしきい値を適用して、ラベリング処理を行うことが可能となる。
【0355】
また、本発明の一態様によれば、色差テーブルに登録されている色の輝度値及び色差が入力画像全体で最も合う解像度を、入力画像における印刷モデルでの読み込みの際の解像度と推定することにより、デバイスで読み取られた実際の印刷物に対し、印刷モデルで生成された最適なしきい値を入力画像全体に適用して、ラベリング処理を行うことが可能となる。
【0356】
また、本発明の一態様によれば、色差テーブルに登録されている色の輝度値及び色差が入力画像の局所的な領域で最も合う解像度を、入力画像の局所的な領域における印刷モデルでの読み込みの際の解像度と推定することにより、デバイスで読み取られた実際の印刷物に対し、入力画像全体のしきい値と合わない領域については、その領域に最適なしきい値を用いてラベリング処理を行うことが可能となり、ラベリング処理の精度を向上させることが可能となる。
【0357】
また、本発明の一態様によれば、印刷モデルでの読み込みの際の解像度を固定値とすることにより、実際の印刷物についてのモデル解像度推定処理を省略することが可能となり、処理速度を向上させることが可能となる。
【0358】
また、本発明の一態様によれば、ラベリングされたラベル画像同士をグルーピングすることにより、ラベリングにより抽出された文字領域を、文字列領域としてまとめることが可能となり、タイトルの抽出を効率的に行うことが可能となる。
【0359】
また、本発明の一態様によれば、ラベル画像の外接矩形についての色情報及び前記幾何学情報に基づいて、グルーピングを行うことにより、カラー入力画像内から同一色が付された見出し領域を抽出する場合などにおいて、カラー入力画像内の一部の領域に範囲を限定してパターンの抽出を行い、見出し領域と関係ない離れた領域に存在するパターンを分類対象から除いたり、見出し文字とならないノイズなどの小さなパターンや背景などの大きなパターンを処理対象から省略することが可能となることから、見出し領域の抽出処理の速度を向上させることが可能となる。
【0360】
さらに、ラベリングされたパターンを外接矩形で表現することにより、文字などを構成する複雑なパターンを単純な形で表すことが可能となり、パターンを記憶する記憶容量を削減することが可能となるとともに、パターンの位置関係などを求める場合においても、処理を単純化することが可能となる。
【0361】
また、本発明の一態様によれば、外接矩形に含まれるパターンの代表色を比較してグルーピングを行うことにより、ラベリングされたパターンを外接矩形同士で比較することが可能となり、色情報を用いたパターンのグルーピングを行う際に、そのパターンを構成する各画素同士を比較する必要がなくなることから、比較対象となる要素の個数を低減させて、グルーピング処理を高速に行うことが可能となる。
【0362】
また、本発明の一態様によれば、注目する外接矩形から所定の範囲内にある他の外接矩形を対象としてグルーピングを行うことにより、入力画像からタイトル領域などを抽出する際に、グルーピングの対象となる外接矩形の存在する範囲を、タイトル領域として相応しい範囲に限定することが可能となり、タイトル領域からはみ出た領域については、グルーピング処理を省略することが可能となることから、処理を高速に行うことが可能となる。
【0363】
また、本発明の一態様によれば、注目する外接矩形から所定の範囲内の縦横の各座標に含まれる矩形番号を抽出することにより、注目する外接矩形から所定の範囲内にある他の外接矩形を効率的に見つけ出すことが可能となる。
【0364】
また、本発明の一態様によれば、外接矩形の矩形番号を座標値の順序で格納し、最も小さい座標値から順に矩形番号を探索し、座標値が変化するまでの間に含まれる矩形番号をその座標に属する矩形番号として抽出することにより、実際に存在する外接矩形に対応してその座標値を格納することが可能となることから、注目する外接矩形から所定の範囲内に存在する可能性のある他の外接矩形の個数分だけ、記憶容量を各座標値ごとに予め用意しておくことが不要となり、外接矩形の矩形番号を格納するために必要な記憶容量を削減することが可能となる。
【0365】
また、本発明の一態様によれば、注目する外接矩形から所定の範囲内にある他の外接矩形であって、色差テーブルから求めた色差よりも、2つの外接矩形間の代表色の色差が小さい場合に、2つの外接矩形を同一のグループに入れるようにすることにより、入力画像からタイトル領域などを抽出する際に、グルーピングの対象となる外接矩形の存在する範囲を、タイトル領域として相応しい範囲に限定することが可能となるとともに、外接矩形同士を比較して色情報を用いたパターンのグルーピングを行う際に、実際の印刷物の読み取りの際に発生する同一色での色の変動を考慮することが可能となり、処理を高速に行うことが可能となるとともに、読み取り精度も向上させることが可能となる。
【0366】
また、本発明の一態様によれば、太さの異なる文字を別々のグループに入れることにより、入力画像からタイトルなどを抽出する際に、太さの揃った文字からなる文字列のみを1つのタイトルとすることが可能となり、タイトルを抽出する際の精度を向上させることが可能となる。
【0367】
また、本発明の一態様によれば、パターンの面積と前記パターンの輪郭長との比に基づいて、前記パターンの太さを求めることにより、パターンの太さを精度良く求めることが可能となる。
【0368】
また、本発明の一態様によれば、パターンの輪郭となる画素を探索する際に、既にパターンの輪郭として探索された画素については、探索しないようにすることにより、パターンの輪郭と画素が再度抽出されることを防止し、輪郭追跡処理の速度を向上させることが可能となる。
【0369】
また、本発明の一態様によれば、文字サイズから定めた所定の範囲を超える外接矩形を、その外接矩形のグループから削除することにより、模様や絵などのパターンがタイトルの近くに存在し、タイトルを構成する文字と模様や絵などのパターンが同一のグループに分類された場合においても、模様や絵などのパターンをそのグループから取り除くことが可能となり、タイトルを抽出する際の精度を向上させることが可能となる。
【0370】
また、本発明の一態様によれば、外接矩形の配置状態に基づいて、文字列を抽出することにより、外接矩形が不規則に配置されている領域と、外接矩形が規則的に配置されている領域とを区別することが可能となり、外接矩形が規則的に配置されている領域をタイトル領域とすることにより、タイトル領域のみを効率よく抽出することが可能となる。
【0371】
また、本発明の一態様によれば、大きさの異なる文字を別々のグループに入れることにより、入力画像からタイトルなどを抽出する際に、大きさの揃った文字からなる文字列のみを1つのタイトルとすることが可能となり、タイトルを抽出する際の精度を向上させることが可能となる。
【0372】
また、本発明の一態様によれば、グループ内の外接矩形が一列に揃って配置されているかどうかを判別することにより、一列に揃って配置されている外接矩形が多いグループをタイトル領域とみなすことが可能となり、入力画像からタイトルを効率よく抽出することが可能となる。
【0373】
また、本発明の一態様によれば、グループ内のパターンの代表色に基づいて、グループの代表色を算出することにより、タイトル領域に存在する全ての色を考慮して、タイトルの色を算出することが可能となり、タイトル領域に局所的な色の違いが存在する場合においても、その局所的な色の違いの影響を低減することが可能となることから、タイトルの色に基づいてタイトル領域を抽出する際の精度を向上させることが可能となる。
【0374】
また、本発明の一態様によれば、グループの代表色に基づいて、互いに隣接して存在するグループの外接矩形を統合することにより、同一のタイトルを構成する文字であるにもかかわらず、色が微妙に異なっているために、それらの文字が別々のグループに属するものとされた場合においても、それらの文字を同一のグループにまとめることが可能となる。
【0375】
また、本発明の一態様によれば、互いに隣接して存在するグループの外接矩形の大きさの差が所定の範囲内にあり、かつ、グループの代表色の差が一定の範囲内にある場合に、グループの外接矩形を統合することにより、同一のタイトルを構成する文字からなるグループのみを効率よく統合することが可能となる。
【0376】
また、本発明の一態様によれば、グループの代表色に基づいて、原画像の画素をグループの外接矩形の範囲内から再抽出することにより、タイトルを構成する文字に濁点や半濁点などが含まれており、タイトル領域の局所的な色の違いの影響で、これらの濁点や半濁点などがタイトルのグループから抜け落ちた場合においても、タイトル領域の全体的な色と比較して、これらの濁点や半濁点などを再抽出することが可能となることから、タイトルを抽出する際の精度を向上させることが可能となる。
【0377】
また、本発明の一態様によれば、再抽出されたパターンの外接矩形がしきい値より大きいものを、グループに追加することにより、濁点や半濁点などをタイトル領域から再抽出する際に、タイトルと同色の細かいノイズがタイトル領域内に存在する場合においても、これらのノイズのみを削除することが可能となり、タイトルを抽出する際の精度を向上させることが可能となる。
【0378】
また、本発明の一態様によれば、グルーピングされたグループの外接矩形の面積、位置及び位置関係の情報に基づいて、グループ内のパターンの出力順序を決定することにより、入力画像から複数のタイトル候補が抽出された場合においても、タイトルらしさを評価することが可能となり、タイトルとしての優先度の高いものから順に出力することが可能となる。
【0379】
また、本発明の一態様によれば、グルーピングされたグループの外接矩形内のラベル画像から2値パターンを生成することにより、カラー画像から抽出されたパターンの認識処理を効率的に行うことが可能となる。
【図面の簡単な説明】
【図1】本発明の第1実施例に係わるパターン抽出装置の構成を示すブロック図である。
【図2】本発明の第2実施例に係わるパターン抽出装置の構成を示すブロック図である。
【図3】本発明の第3実施例に係わるパターン抽出装置の構成を示すブロック図である。
【図4】本発明の第4実施例に係わるパターン抽出装置の構成を示すブロック図である。
【図5】本発明の一実施例に係わるパターン抽出装置のシステム構成を示すブロック図である。
【図6】本発明の第5実施例に係わるパターン抽出装置の構成を示すブロック図である。
【図7】本発明の第6実施例に係わるパターン抽出装置の構成を示すブロック図である。
【図8】図7のパターン抽出装置の動作を示すフローチャートである。
【図9】本発明の一実施例に係わる縮小画像作成方法を説明する図である。
【図10】本発明の一実施例に係わるラベリング方法を説明する図である。
【図11】本発明の一実施例に係わるしきい値参照テーブルの構成を示す図である。
【図12】本発明の一実施例に係わるしきい値参照テーブルの別の構成を示す図である。
【図13】本発明の一実施例に係わる外接矩形処理及び原画像ラベリング処理を説明する図である。
【図14】網点印刷法によるカラー画像の表現方法を説明する図である。
【図15】網点印刷法によるカラー画像の拡大図である。
【図16】(a)は網点印刷法で均一色で印刷された領域を示す図、(b)は図16(a)の領域に読み取りメッシュを設定した結果を示す図、(c)は各画素ごとの読み取り結果を示す図である。
【図17】本発明の一実施例に係わる印刷モデルの生成方法を示す図である。
【図18】本発明の一実施例に係わる色差テーブルの構成を示す図である。
【図19】本発明の一実施例に係わる色差テーブル生成装置の構成を示すブロック図である。
【図20】本発明の第7実施例に係わるパターン抽出装置の構成を示すブロック図である。
【図21】図7のパターン抽出装置の動作を示すフローチャートである。
【図22】本発明の一実施例に係わるモデル解像度推定処理を説明する図である。
【図23】本発明の一実施例に係わる色ラベリング処理を説明する図である。
【図24】本発明の一実施例に係わる注目矩形の周囲の探索範囲の設定方法を説明する図である。
【図25】本発明の一実施例に係わる注目矩形の周囲の探索範囲にかかる矩形の抽出方法を説明する図である。
【図26】本発明の一実施例に係わる注目矩形の周囲の探索範囲にかかる矩形情報の格納方法を説明する図である。
【図27】本発明の一実施例に係わる文字線の太さの算出方法を説明する図である。
【図28】本発明の一実施例に係わる文字線の太さによる再グルーピング処理を説明する図である。
【図29】本発明の一実施例に係わる輪郭追跡における画素の探索開始点の設定方法を説明する図である。
【図30】本発明の一実施例に係わるカレント画素からみた方向コードを示す図である。
【図31】本発明の一実施例に係わるグループ内の大きな矩形削除処理を説明する図である。
【図32】本発明の一実施例に係わる矩形高さの最大頻度値の算出方法を説明する図である。
【図33】本発明の一実施例に係わるグループ内の重なり矩形統合処理を説明する図である。
【図34】本発明の一実施例に係わるグループ内文字列抽出処理を説明する図である。
【図35】本発明の一実施例に係わる文字列内分離文字統合処理を説明する図である。
【図36】本発明の一実施例に係わるグループ内の文字列サイズによる再グループ化処理を説明する図である。
【図37】本発明の一実施例に係わるグループ統合処理を説明する図である。
【図38】本発明の一実施例に係わる矩形家並びによる文字列らしいグループの抽出処理を説明する図である。
【図39】本発明の一実施例に係わるノイズグループの削除処理を説明する図である。
【図40】本発明の一実施例に係わるグループ内同色パターン抽出処理を説明する図である。
【図41】(a)は、本発明の一実施例に係わる原画像を示す図、(b)は、図41(a)のラベル画像を示す図、(c)は、図41(b)のラベル画像に設定された注目矩形を示す図、(d)はグループ抽出結果を示す図である。
【図42】(a)は、図41(d)のグループ抽出結果を文字線太さで再グループ化した結果を示す図、(b)は、図42(a)の矩形の重なり統合後の結果を示す図、(c)は、図42(b)の画像から矩形家並びによる文字列らしいグループを抽出した結果を示す図、(d)は図42(c)の画像からグループ内パターンを抽出した結果を示す図である。
【図43】(a)は、図41(a)の画像から抽出されたタイトルの第1候補のパターンを示す図、(b)は、図41(a)の画像から抽出されたタイトルの第2候補のパターンを示す図である。
【図44】従来の色分解画像の生成方法を示す図である。
【図45】従来の領域拡張法を示す図である。
【符号の説明】
1 色情報算出手段
2 幾何学情報算出手段
3 分類手段
11 クラスタリング手段
12 グルーピング手段
21 色差算出手段
22 しきい値設定手段
23、33、67、77 ラベリング手段
31 第1の色情報比較手段
32 第2の色情報比較手段
41、64、74、114、134 CPU
42 ROM
43 RAM
44 通信インターフェース
45 通信ネットワーク
46 バス
47 入出力インターフェース
48 ディスプレイ
49 プリンタ
50、63、73、113、133 メモリ
51 スキャナ
52 キーボード
53 ドライバ
54 ハードディスク
55 ICメモリカード
56 磁気テープ
57 フロッピーディスク
58 光ディスク
61、71、111、131 カラー画像入力装置
62、72、112、132 外部出力装置
65、75 画像縮小手段
66、76 可変しきい値設定手段
78 外接矩形処理手段
79 原画像ラベリング手段
80 特定領域抽出手段
115 印刷モデル生成部
116 色差テーブル生成部
135 色差テーブル
136 色分解画像生成部
137 文字領域抽出部

Claims (27)

  1. 所定の色で表現された領域の隣接画素間の色差を算出する色差算出手段と、
    前記色差に基づいて、しきい値を設定するしきい値設定手段と、
    前記しきい値に基づいて、前記所定の色で表現された画素に隣接する画素のラベリングを行うラベリング手段と
    基本となる色のドットを格子点に配置したメッシュを互いに回転して重ね合わせ、かつ、前記ドットの大きさを変化させることにより、印刷モデルとしての色を生成する印刷モデル生成手段とを備えることを特徴とするパターン抽出装置。
  2. 前記印刷モデル生成手段で生成された色の輝度値及び前記輝度値における隣接画素との色差を、前記印刷モデルにおける読み込みの際の解像度ごとに登録した色差テーブルを生成する色差テーブル生成手段を備えることを特徴とする請求項記載のパターン抽出装置。
  3. 前記印刷モデルでの読み込みの際の解像度を、入力画像について推定するモデル解像度推定処理部を備えることを特徴とする請求項記載のパターン抽出装置。
  4. 前記モデル解像度推定処理部は、前記色差テーブルに登録されている色の輝度値及び色差が入力画像全体で最も合う解像度を、前記入力画像における前記印刷モデルでの読み込みの際の解像度と推定することを特徴とする請求項に記載のパターン抽出装置。
  5. 前記モデル解像度推定処理部は、前記色差テーブルに登録されている色の輝度値及び色差が入力画像の局所的な領域で最も合う解像度を、前記入力画像の局所的な領域における前記印刷モデルでの読み込みの際の解像度と推定することを特徴とする請求項に記載のパターン抽出装置。
  6. 前記モデル解像度推定処理部は、前記印刷モデルでの読み込みの際の解像度を固定値とすることを特徴とする請求項に記載のパターン抽出装置。
  7. 前記ラベリング手段でラベリングされたラベル画像同士をグルーピングするグルーピング手段を備えることを特徴とする請求項1〜6のいずれか1項に記載のパターン抽出装置。
  8. 前記グルーピング手段は、
    前記ラベリング手段でラベリングされたラベル画像のパターンの外接矩形を算出する外接矩形算出手段と、
    前記ラベル画像のパターンの色情報を算出する色情報算出手段と、
    前記外接矩形の幾何学情報を算出する幾何学情報算出手段と、
    前記色情報及び前記幾何学情報に基づいて、前記ラベル画像のパターンを同一のグループに入れるかどうかを判別する判別手段とを備えることを特徴とする請求項に記載のパターン抽出装置。
  9. 前記色情報は、前記外接矩形に含まれるパターンの代表色であることを特徴とする請求項に記載のパターン抽出装置。
  10. 前記幾何学情報は、注目する外接矩形から所定の範囲内にある他の外接矩形であることを特徴とする請求項8または9に記載のパターン抽出装置。
  11. 前記幾何学情報算出手段は、
    各外接矩形が属する縦横の座標に対応して矩形番号を格納する矩形番号格納手段と、
    注目する外接矩形から所定の範囲内の縦横の各座標に含まれる矩形番号を抽出する矩形番号抽出手段と、
    前記抽出された矩形番号のうち縦横の座標の両方に含まれるものを、注目する外接矩形から所定の範囲内にある他の外接矩形として抽出する近傍矩形抽出手段とを備えることを特徴とする請求項10に記載のパターン抽出装置。
  12. 前記矩形番号格納手段は、外接矩形の矩形番号を座標値の順序で格納し、
    前記矩形番号抽出手段は、最も小さい座標値から順に矩形番号を探索し、座標値が変化するまでの間に含まれる矩形番号をその座標に属する矩形番号として抽出することを特徴とする請求項11に記載のパターン抽出装置。
  13. 前記判別手段は、注目する外接矩形から所定の範囲内にある他の外接矩形であって、前記色差テーブルから求めた色差よりも、2つの外接矩形間の代表色の色差が小さい場合に、前記2つの外接矩形を同一のグループに入れることを特徴とする請求項9〜12のいずれか1項に記載のパターン抽出装置。
  14. 前記グルーピング手段は、前記ラベル画像のパターンの太さに基づいて、前記ラベル画像のグルーピングを行うことを特徴とする請求項7〜13のいずれか1項に記載のパターン抽出装置。
  15. 前記グルーピング手段は、
    前記パターンの輪郭長を求める輪郭追跡手段と、
    前記パターンの面積を求める面積算出手段と、
    前記パターンの面積と前記パターンの輪郭長との比に基づいて、前記パターンの太さを求める太さ算出手段とを備えることを特徴とする請求項14に記載のパターン抽出装置。
  16. 前記輪郭追跡手段は、パターンの輪郭となる第1の画素から前記パターンの輪郭となる第2の画素を探索する際に、前記第1の画素に隣接する8つの画素のうち、前記第1の画素の移動元の画素に隣接する画素から前記第2の画素を探索することを特徴とする請求項15に記載のパターン抽出装置。
  17. 前記グルーピング手段でグルーピングされた外接矩形の大きさに基づいて、文字サイズを推定する文字サイズ推定手段と、前記文字サイズから定めた所定の範囲を超える外接矩形を、前記外接矩形のグループから削除する矩形削除手段を備えることを特徴とする請求項8〜16のいずれか1項に記載のパターン抽出装置。
  18. 前記グルーピング手段でグルーピングされた外接矩形の配置状態に基づいて、文字列方向を推定する文字列方向推定手段と、
    前記グルーピング手段でグルーピングされた外接矩形の配置状態に基づいて、文字列を抽出する文字列抽出手段とを備えることを特徴とする請求項8〜17のいずれか1項に記載のパターン抽出装置。
  19. 前記グルーピング手段でグルーピングされた外接矩形のグループ内のサイズに基づいて、前記グループ内の外接矩形を再グルーピングする再グルーピング手段を備えることを特徴とする請求項8〜18のいずれか1項に記載のパターン抽出装置。
  20. 前記グルーピング手段でグルーピングされたグループの外接矩形から、所定の大きさを満たす外接矩形を抽出する外接矩形抽出手段と、
    前記抽出された外接矩形のうち、互いに隣接する外接矩形の上端座標または下端座標が近いものに、横並びフラグを与える横並びフラグ付与手段と、
    前記抽出された外接矩形のうち、互いに隣接する外接矩形の左端座標または右端座標が近いものに、縦並びフラグを与える縦並びフラグ付与手段と、
    前記横並びフラグ及び前記縦並びフラグの個数に基づいて、前記グループの文字列方向を決定する文字列方向決定手段と、
    前記決定された文字列方向に対応するフラグが付与された前記グループ内の外接矩形の個数の比率に基づいて、前記グループの外接矩形が文字列の外接矩形かどうかを決定する文字列決定手段とを備えることを特徴とする請求項8〜19のいずれか1項に記載のパターン抽出装置。
  21. 前記グルーピング手段でグルーピングされたグループの外接矩形を生成する外接矩形生成手段と、
    前記グルーピング手段でグルーピングされたグループ内のパターンの代表色に基づいて、前記グループの代表色を算出する代表色算出手段とを備えることを特徴とする請求項8〜20のいずれか1項に記載のパターン抽出装置。
  22. 前記グループの代表色に基づいて、互いに隣接して存在する前記グループの外接矩形を統合するグループ統合手段を備えることを特徴とする請求項21に記載のパターン抽出装置。
  23. 前記グループ統合手段は、互いに隣接して存在するグループの外接矩形の大きさの差が所定の範囲内にあり、かつ、前記グループの代表色の差が一定の範囲内にある場合に、前記グループの外接矩形を統合することを特徴とする請求項22に記載のパターン抽出装置。
  24. 前記グループの代表色に基づいて、原画像の画素を前記グループの外接矩形の範囲内から再抽出する再抽出手段を備えることを特徴とする請求項21〜23のいずれか1項に記載のパターン抽出装置。
  25. 前記再抽出された画素を2値化する2値化手段と、
    前記2値画像のラベンリングを行う第2のラベリング手段と、
    前記第2のラベリング手段によりラベリングされたパターンの外接矩形がしきい値より大きいものを、前記グループに追加する追加手段とを備えることを特徴とする請求項24に記載のパターン抽出装置。
  26. 前記グルーピング手段でグルーピングされたグループの外接矩形の面積、位置及び位置関係の情報に基づいて、グループ内のパターンの出力順序を決定する出力順序決定手段を備えることを特徴とする請求項8〜23のいずれか1項に記載のパターン抽出装置。
  27. 前記グルーピング手段でグルーピングされたグループの外接矩形内のラベル画像に1のレベルを付与した2値パターンを生成する2値パターン生成手段を備えることを特徴とする請求項8〜24のいずれか1項に記載のパターン抽出装置。
JP14642098A 1998-02-06 1998-05-27 パターン抽出装置 Expired - Fee Related JP3748164B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP14642098A JP3748164B2 (ja) 1998-02-06 1998-05-27 パターン抽出装置
US09/228,427 US6701010B1 (en) 1998-02-06 1999-01-12 Color image processing apparatus and pattern extracting apparatus
EP99300472A EP0935216A3 (en) 1998-02-06 1999-01-22 Color image processing apparatus and pattern extracting apparatus
KR10-1999-0002796A KR100525692B1 (ko) 1998-02-06 1999-01-28 컬러 화상 처리 장치 및 패턴 추출 장치
CNB031412378A CN1291352C (zh) 1998-02-06 1999-02-05 彩色图象处理装置及方法、图案抽取装置及方法
CNB991017706A CN1136516C (zh) 1998-02-06 1999-02-05 图案抽取装置和方法
US10/664,959 US6990235B2 (en) 1998-02-06 2003-09-22 Color image processing apparatus and pattern extracting apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2541998 1998-02-06
JP10-25419 1998-02-06
JP14642098A JP3748164B2 (ja) 1998-02-06 1998-05-27 パターン抽出装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005166255A Division JP4211941B2 (ja) 1998-02-06 2005-06-06 パターン抽出装置

Publications (2)

Publication Number Publication Date
JPH11288465A JPH11288465A (ja) 1999-10-19
JP3748164B2 true JP3748164B2 (ja) 2006-02-22

Family

ID=26363018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14642098A Expired - Fee Related JP3748164B2 (ja) 1998-02-06 1998-05-27 パターン抽出装置

Country Status (5)

Country Link
US (2) US6701010B1 (ja)
EP (1) EP0935216A3 (ja)
JP (1) JP3748164B2 (ja)
KR (1) KR100525692B1 (ja)
CN (2) CN1291352C (ja)

Families Citing this family (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6707572B1 (en) * 1997-09-12 2004-03-16 Tesseron, Ltd. Filtering method to reduce pixel density
US6304339B1 (en) 1998-11-16 2001-10-16 Hewlett-Packard Company Compound document page data processing
KR100539943B1 (ko) * 1999-05-04 2005-12-28 삼성전자주식회사 디지털 텔레비젼 수신기에서 고화질 비디오 이미지 축소처리방법
US20020001096A1 (en) * 2000-04-28 2002-01-03 Kenro Hama Image processor for detecting specified pattern
JP4337251B2 (ja) 2000-09-04 2009-09-30 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置、画像処理方法および画像処理プログラムを記録したコンピュータ読取可能な記録媒体
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US7899243B2 (en) 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
US6972868B1 (en) 2000-11-09 2005-12-06 Hewlett-Packard Development Company, L.P. Image data compression method
JP4201602B2 (ja) * 2001-04-20 2008-12-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像を改善させるための画像処理装置及び方法並びにこの画像処理装置を有する画像表示装置
US6580824B2 (en) 2001-05-14 2003-06-17 Hewlett-Packard Development Company, L.P. Classification of photos with sepia tones
JP2003141548A (ja) * 2001-10-22 2003-05-16 Ge Medical Systems Global Technology Co Llc 3次元ラベリング装置及びその方法
WO2004027695A1 (en) * 2002-09-20 2004-04-01 International Business Machines Coporation Color naming, color categorization and describing color composition of images
DE10261221A1 (de) * 2002-12-20 2004-07-15 Océ Document Technologies GmbH Verfahren und Vorrichtung zur Echtzeitkontrolle von Druckbildern
WO2004081887A1 (ja) * 2003-03-14 2004-09-23 Fujitsu Limited 紙葉類識別方法及び紙葉類識別装置
JP4131205B2 (ja) * 2003-07-23 2008-08-13 セイコーエプソン株式会社 画像処理装置及び画像処理をコンピュータに実行させる画像処理プログラム
JP4196782B2 (ja) * 2003-08-26 2008-12-17 セイコーエプソン株式会社 画像処理装置及び画像処理をコンピュータに実行させる画像処理プログラム
US8462244B2 (en) * 2003-08-27 2013-06-11 Hewlett-Packard Development Company, L.P. Adaptively reading one or more but fewer than all pixels of image sensor
JP4339675B2 (ja) * 2003-12-24 2009-10-07 オリンパス株式会社 グラデーション画像作成装置及びグラデーション画像作成方法
EP1745432A1 (en) * 2004-04-29 2007-01-24 Koninklijke Philips Electronics N.V. Image processing apparatus and method
US7480417B2 (en) * 2004-10-19 2009-01-20 Microsoft Corp. System and method for encoding mosaiced image data employing a reversible color transform
US7630544B1 (en) * 2005-04-06 2009-12-08 Seiko Epson Corporation System and method for locating a character set in a digital image
US7899258B2 (en) * 2005-08-12 2011-03-01 Seiko Epson Corporation Systems and methods to convert images into high-quality compressed documents
US7557963B2 (en) * 2005-08-12 2009-07-07 Seiko Epson Corporation Label aided copy enhancement
US7783117B2 (en) * 2005-08-12 2010-08-24 Seiko Epson Corporation Systems and methods for generating background and foreground images for document compression
KR100679052B1 (ko) * 2006-01-04 2007-02-06 삼성전자주식회사 최적 선호색 편집 장치 및 방법
JP4745830B2 (ja) * 2006-01-05 2011-08-10 キヤノン株式会社 画像処理装置、画像処理方法、コンピュータプログラム
JP2008085695A (ja) * 2006-09-28 2008-04-10 Fujitsu Ltd 電子透かし埋め込み装置および検出装置
US8098936B2 (en) 2007-01-12 2012-01-17 Seiko Epson Corporation Method and apparatus for detecting objects in an image
JP4872780B2 (ja) * 2007-04-25 2012-02-08 富士ゼロックス株式会社 画像処理システム及び画像処理プログラム
US7894689B2 (en) * 2007-05-31 2011-02-22 Seiko Epson Corporation Image stitching
US7873215B2 (en) * 2007-06-27 2011-01-18 Seiko Epson Corporation Precise identification of text pixels from scanned document images
US8014596B2 (en) * 2007-10-30 2011-09-06 Sharp Laboratories Of America, Inc. Methods and systems for background color extrapolation
JP4549400B2 (ja) * 2008-03-04 2010-09-22 富士通株式会社 文書認識プログラム、文書認識装置、および文書認識方法
JP4586891B2 (ja) * 2008-06-10 2010-11-24 コニカミノルタビジネステクノロジーズ株式会社 減色方法、減色処理装置、画像形成装置、およびコンピュータプログラム
JP5197239B2 (ja) * 2008-08-29 2013-05-15 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP5023036B2 (ja) * 2008-10-21 2012-09-12 大日本スクリーン製造株式会社 プロファイル生成装置、プロファイル生成プログラム、プロファイル生成方法、画像処理装置、画像処理プログラム、および画像処理方法
US20100124372A1 (en) * 2008-11-12 2010-05-20 Lockheed Martin Corporation Methods and systems for identifying/accessing color related information
US8290255B2 (en) 2009-02-06 2012-10-16 Canon Kabushiki Kaisha Image processing method, image processing apparatus, and program
JP5123870B2 (ja) 2009-02-10 2013-01-23 キヤノン株式会社 画像処理方法および画像処理装置およびプログラム
JP5173898B2 (ja) * 2009-03-11 2013-04-03 キヤノン株式会社 画像処理方法、画像処理装置、及びプログラム
JP4821869B2 (ja) 2009-03-18 2011-11-24 富士ゼロックス株式会社 文字認識装置、画像読取装置、およびプログラム
JP5206525B2 (ja) * 2009-03-19 2013-06-12 富士ゼロックス株式会社 画像処理装置、画像読取装置、画像形成装置及びプログラム
JP5188429B2 (ja) * 2009-03-24 2013-04-24 富士重工業株式会社 環境認識装置
JP5188430B2 (ja) * 2009-03-24 2013-04-24 富士重工業株式会社 画像処理装置
TWI384427B (zh) * 2009-04-29 2013-02-01 Utechzone Co Ltd Background establishment method and device
JP2011013898A (ja) * 2009-07-01 2011-01-20 Canon Inc 画像処理装置、画像処理方法、及び、プログラム
JP5276539B2 (ja) 2009-07-23 2013-08-28 キヤノン株式会社 画像処理方法および画像処理装置およびプログラム
JP5276541B2 (ja) 2009-07-27 2013-08-28 キヤノン株式会社 画像処理方法及び画像処理装置及びプログラム
JP5377148B2 (ja) 2009-08-03 2013-12-25 キヤノン株式会社 クラスタリング処理方法、クラスタリング処理装置、およびプログラム
JP4868046B2 (ja) * 2009-08-31 2012-02-01 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US8600171B2 (en) * 2009-12-10 2013-12-03 Canon Kabushiki Kaisha Image labeling using parallel processing
JP5577763B2 (ja) * 2010-03-09 2014-08-27 富士ゼロックス株式会社 画像処理装置、画像処理システム、及び画像処理プログラム
JP5333787B2 (ja) 2010-07-20 2013-11-06 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
US8571307B2 (en) 2010-11-16 2013-10-29 Hand Held Products, Inc. Method and system operative to process monochrome image data
US8600158B2 (en) 2010-11-16 2013-12-03 Hand Held Products, Inc. Method and system operative to process color image data
JP6019285B2 (ja) * 2010-11-25 2016-11-02 ソニー株式会社 電子書籍再生装置、履歴取得装置、電子書籍生成装置、電子書籍提供システム、電子書籍再生方法、履歴取得方法、電子書籍生成方法、電子書籍再生プログラム、履歴取得プログラム、電子書籍生成プログラム
JP4893861B1 (ja) * 2011-03-10 2012-03-07 オムロン株式会社 文字列検知装置、画像処理装置、文字列検知方法、制御プログラムおよび記録媒体
US9174609B2 (en) 2011-04-21 2015-11-03 Pylon Manufacturing Corp. Wiper blade with cover
WO2013021889A1 (ja) * 2011-08-05 2013-02-14 楽天株式会社 色名決定装置、色名決定方法、情報記録媒体、ならびに、プログラム
JP5974589B2 (ja) 2012-03-30 2016-08-23 ブラザー工業株式会社 画像処理装置およびプログラム
CN102663398A (zh) * 2012-03-31 2012-09-12 上海博康智能信息技术有限公司 一种彩色图像颜色特征提取方法及装置
KR20150024650A (ko) * 2013-08-27 2015-03-09 삼성전자주식회사 전자 장치에서 사운드를 시각적으로 제공하기 위한 방법 및 장치
JP6232906B2 (ja) * 2013-10-09 2017-11-22 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
KR101503213B1 (ko) 2014-04-04 2015-03-17 경주대학교 산학협력단 영상 이미지의 지리정보 및 패턴인식 기술을 이용한 시정거리 측정 장치 및 그 측정 방법
CN104021774B (zh) * 2014-05-29 2016-06-15 京东方科技集团股份有限公司 一种图像处理的方法及装置
WO2016076163A1 (ja) * 2014-11-14 2016-05-19 コニカミノルタ株式会社 測色装置および測色方法
JP5992567B1 (ja) * 2015-03-20 2016-09-14 株式会社Pfu 日付識別装置
CN105430218B (zh) * 2015-11-27 2018-07-24 优渊商贸(上海)有限公司 图像色彩识别方法及装置
CN106897965B (zh) * 2015-12-14 2020-04-28 国基电子(上海)有限公司 彩色图像处理系统及彩色图像处理方法
US20170178341A1 (en) * 2015-12-21 2017-06-22 Uti Limited Partnership Single Parameter Segmentation of Images
WO2017138088A1 (ja) * 2016-02-09 2017-08-17 楽天株式会社 色分類装置、色分類方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
CN109690625A (zh) * 2016-05-03 2019-04-26 莱尼电缆有限公司 用于操作员增强查看的采用颜色分段的视觉系统
CN107346580B (zh) * 2016-05-05 2019-11-05 腾讯科技(深圳)有限公司 票据信息识别方法及装置
JP6516103B2 (ja) * 2016-06-16 2019-05-22 京セラドキュメントソリューションズ株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US10140728B1 (en) * 2016-08-11 2018-11-27 Citrix Systems, Inc. Encoder with image filtering and associated methods
CN107784301B (zh) * 2016-08-31 2021-06-11 百度在线网络技术(北京)有限公司 用于识别图像中文字区域的方法和装置
TWI616843B (zh) * 2016-09-12 2018-03-01 粉迷科技股份有限公司 動態影像去背方法、系統與電腦可讀取儲存裝置
CN108269260B (zh) * 2016-12-30 2021-08-27 粉迷科技股份有限公司 动态影像去背方法、系统与计算机可读取存储装置
KR101979879B1 (ko) * 2017-12-12 2019-05-17 현대건설(주) 항공 사진 측량 결과 후처리 장치 및 방법
CN110378927B (zh) * 2019-04-29 2022-01-04 北京佳讯飞鸿电气股份有限公司 一种基于肤色的目标检测与跟踪方法
CN110619331A (zh) * 2019-09-20 2019-12-27 江苏鸿信系统集成有限公司 一种基于颜色距离的彩色影像字段定位方法
CN111768469B (zh) * 2019-11-13 2024-05-28 中国传媒大学 一种基于图像聚类的数据可视化配色的提取方法
CN115623120B (zh) * 2021-07-13 2024-02-06 海信视像科技股份有限公司 叠屏显示设备和图像显示清晰度的调整方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3310802C2 (de) * 1983-03-22 1987-01-15 Klaus Priv.-Doz. Dr. 1000 Berlin Richter Vorrichtung zur Herstellung von Farbbildern aus Teilbildern
US4958217A (en) * 1986-02-27 1990-09-18 Canon Kabushiki Kaisha Image processing apparatus and method capable of extracting a particular image area using either hue or brightness
EP0461817A3 (en) * 1990-06-15 1993-11-18 American Telephone & Telegraph Image segmenting apparatus and methods
JPH05298443A (ja) 1992-04-20 1993-11-12 Takaoka Electric Mfg Co Ltd カラー画像領域抽出装置
JPH06103371A (ja) 1992-09-18 1994-04-15 Daikin Ind Ltd カラー画像処理方法およびその装置
JPH06162180A (ja) 1992-11-25 1994-06-10 Fujitsu Ltd 領域抽出方式
US5454070A (en) * 1993-01-15 1995-09-26 Canon Kabushiki Kaisha Pixel to spline based region conversion method
JPH0721379A (ja) 1993-06-22 1995-01-24 Matsushita Electric Ind Co Ltd 画像色領域認識装置
US5572600A (en) 1993-06-22 1996-11-05 Nec Corporation Color image processing apparatus capable of suppressing moire
DE69429903T2 (de) * 1993-12-10 2002-10-10 Ricoh Co., Ltd. Verfahren und Gerät zum Erkennen eines spezifizierten Bildes aus einem Bildeingabesignal
JPH08167028A (ja) 1994-12-13 1996-06-25 Toppan Printing Co Ltd 画像処理方法
JP3624013B2 (ja) 1995-06-08 2005-02-23 キヤノン株式会社 画像処理方法及び装置
JPH08202878A (ja) 1995-01-27 1996-08-09 Advantest Corp 画像処理装置
EP0730248A1 (en) 1995-03-01 1996-09-04 Hewlett-Packard Company Method and system for interlaced printing
JPH08339421A (ja) 1995-06-13 1996-12-24 Kobe Steel Ltd 画像の文字領域決定方法
US6317220B1 (en) * 1996-12-06 2001-11-13 Seiko Epson Corporation Image forming apparatus capable of preventing linear nonuniformity and improving image quality
JP3189870B2 (ja) * 1996-12-24 2001-07-16 シャープ株式会社 画像処理装置
US5767978A (en) * 1997-01-21 1998-06-16 Xerox Corporation Image segmentation system
KR100239357B1 (ko) * 1997-04-17 2000-01-15 구자홍 영상 표시 장치의 문자 처리 방법 및 장치

Also Published As

Publication number Publication date
US6990235B2 (en) 2006-01-24
EP0935216A3 (en) 2003-01-02
KR100525692B1 (ko) 2005-11-03
CN1136516C (zh) 2004-01-28
US6701010B1 (en) 2004-03-02
JPH11288465A (ja) 1999-10-19
CN1234569A (zh) 1999-11-10
KR19990072314A (ko) 1999-09-27
CN1516073A (zh) 2004-07-28
CN1291352C (zh) 2006-12-20
EP0935216A2 (en) 1999-08-11
US20040165773A1 (en) 2004-08-26

Similar Documents

Publication Publication Date Title
JP3748164B2 (ja) パターン抽出装置
JP3748172B2 (ja) 画像処理装置
US6839466B2 (en) Detecting overlapping images in an automatic image segmentation device with the presence of severe bleeding
US6738154B1 (en) Locating the position and orientation of multiple objects with a smart platen
EP1081648B1 (en) Method for processing a digital image
JP3601658B2 (ja) 文字列抽出装置及びパターン抽出装置
JP4149464B2 (ja) 画像処理装置
JP4275866B2 (ja) カラー画像から文字列パターンを抽出する装置および方法
JP4211941B2 (ja) パターン抽出装置
JPH05225378A (ja) 文書画像の領域分割システム
JP3228938B2 (ja) 分布マップを用いる画像の分類方法及び装置
JP4077919B2 (ja) 画像処理方法及び装置及びその記憶媒体
EP0975146B1 (en) Locating the position and orientation of multiple objects with a smart platen
JP3488678B2 (ja) 画像分類装置
JP4194309B2 (ja) 文書方向推定方法および文書方向推定プログラム
JP2832928B2 (ja) 文字認識方法
EP0974931A1 (en) Method and apparatus for identifying a plurality of sub-images in an input image
JP2613211B2 (ja) 画像入力装置
JP4409678B2 (ja) 罫線抽出方式
JP3253201B2 (ja) 画像処理装置と画像種類判定方法
JPH08185477A (ja) 画像分類装置
JP2003271973A (ja) 画像処理方法および画像処理プログラム
EP0483279B1 (en) System for representing sampled images
JP2001143076A (ja) 画像処理装置
JPH11232463A (ja) 画像認識装置および方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051124

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091209

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091209

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101209

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111209

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111209

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121209

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121209

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131209

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees