JP5974589B2 - 画像処理装置およびプログラム - Google Patents

画像処理装置およびプログラム Download PDF

Info

Publication number
JP5974589B2
JP5974589B2 JP2012079871A JP2012079871A JP5974589B2 JP 5974589 B2 JP5974589 B2 JP 5974589B2 JP 2012079871 A JP2012079871 A JP 2012079871A JP 2012079871 A JP2012079871 A JP 2012079871A JP 5974589 B2 JP5974589 B2 JP 5974589B2
Authority
JP
Japan
Prior art keywords
region
separation
area
regions
small
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012079871A
Other languages
English (en)
Other versions
JP2013210785A (ja
Inventor
近藤 真樹
真樹 近藤
良平 小澤
良平 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2012079871A priority Critical patent/JP5974589B2/ja
Priority to US13/795,717 priority patent/US9158987B2/en
Priority to EP13159021.8A priority patent/EP2645332B1/en
Publication of JP2013210785A publication Critical patent/JP2013210785A/ja
Application granted granted Critical
Publication of JP5974589B2 publication Critical patent/JP5974589B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/18105Extraction of features or characteristics of the image related to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/413Classification of content, e.g. text, photographs or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/414Extracting the geometrical structure, e.g. layout tree; Block segmentation, e.g. bounding boxes for graphics or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)
  • Character Input (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、画像を複数の領域に分離する画像処理に関する。
従来から、1枚の画像を複数の領域に分離する画像処理が行われている。例えば、適当な閾値を用いて画像全体を2値化し、2値画像における黒画素の連結成分の集合を抽出することによって文字矩形を検索し、矩形毎に閾値を決めて局所的に2値化し、矩形毎の閾値から画像全体のための閾値を決定し、決定された閾値を利用して、局所的に2値化を行った部分以外の部分の全体を2値化する、技術が提案されている。
特開2001−291058号公報
ところが、互いに表示内容が異なる複数の領域を表す画像を処理する場合には、複数の領域を適切に分離できない場合があった。例えば、1つの領域として特定すべき領域が、複数の領域に分離される場合があった。
本発明の主な利点は、領域分離の精度を向上することである。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の適用例として実現することが可能である。
[適用例1]対象画像データによって表される対象画像を、第1領域と、前記第1領域とは異なる第2領域と、を含む複数の領域に分離する第1分離部と、前記第1領域を複数の小領域に分離し、前記第2領域を複数の小領域に分離する、第2分離部と、前記複数の小領域の中の少なくとも2つの前記小領域を統合することによって統合領域を生成する生成部と、を備える、画像処理装置。
この構成によれば、一旦分離された領域が統合されることなく単独の領域として利用される場合と比べて、領域分離の精度を向上できる。
[適用例2]適用例1に記載の画像処理装置であって、前記第2分離部は、第1閾値を用いて前記第1領域の前記分離を行い、前記第1閾値とは異なる第2閾値を用いて前記第2領域の前記分離を行う、画像処理装置。
この構成によれば、1つの閾値を用いて対象画像の全体を複数の領域に分離する場合と比べて、領域分離の精度を向上できる。
[適用例3]適用例1または2に記載の画像処理装置であって、前記第1分離部は、U個(Uは2以上の整数)の画素を含む第1ブロック毎に、前記第1領域と前記第2領域とを含む前記複数の領域の分離を行う、画像処理装置。
この構成によれば、第1分離部が画素毎に領域の分離を行う場合と比べて、処理を簡素化できる。
[適用例4]適用例3に記載の画像処理装置であって、前記第2分離部は、J個(Jは1以上U未満の整数)の画素を含む第2ブロック毎に、前記複数の小領域の分離を行う、画像処理装置。
この構成によれば、第1分離部が粗い領域分離を行った後に、第2分離部が細かい領域分離を行うので、対象画像が複数種類の領域(オブジェクト)を表す場合に、領域分離の精度を向上できる。
[適用例5]適用例4に記載の画像処理装置であって、前記第2ブロックに含まれる前記画素の数であるJ個は、1個である、画像処理装置。
この構成によれば、2個以上の画素を含むブロック毎に領域の分離が行われる場合と比べて、細かい領域分離を実現できる。
[適用例6]適用例1ないし5のいずれかに記載の画像処理装置であって、前記第1分離部は、前記対象画像から、エッジ強度の程度を表す特徴値が所定の基準以上である領域であるエッジ領域を抽出し、前記対象画像を、前記エッジ領域を含む前記第1領域と、前記エッジ領域を含む前記第2領域と、前記エッジ領域を含まない第3領域と、を含む複数の領域に分離する、画像処理装置。
この構成によれば、エッジ強度の程度を表す特徴値を利用して、エッジ領域を含む第1領域と第2領域と、エッジ領域を含まない第3領域と、が分離されるので、対象画像に含まれる色に依存せずに、領域分離の精度を向上できる。
[適用例7]適用例2に記載の画像処理装置であって、前記第2分離部は、前記第1閾値を用いて前記第1領域に含まれる画素の階調値を二値化し、前記二値化後の階調値が同じである画素が連続する1つの領域を、1つの前記小領域として分離し、前記第2閾値を用いて前記第2領域に含まれる画素の階調値を二値化し、前記二値化後の階調値が同じである画素が連続する1つの領域を、1つの前記小領域として分離する、画像処理装置。
この構成によれば、第2分離部による領域分離の処理を簡素化できる。
[適用例8]適用例1ないし7のいずれかに記載の画像処理装置であって、前記生成部は、前記第1領域の小領域と前記第2領域の小領域とを統合することによって前記統合領域を生成する、画像処理装置。
この構成によれば、1つの領域として分離されるべき領域が第1領域と第2領域とに分離した場合に、分離した領域を統合することができるので、領域分離の精度を向上できる。
[適用例9]適用例1ないし8のいずれかに記載の画像処理装置であって、前記生成部は、第1小領域と第2小領域とが所定の統合条件を満たす場合に、前記第1小領域と前記第2小領域とを統合し、前記所定の統合条件は、1)前記第1小領域の大きさと前記第2小領域の大きさとが、所定の大きさ基準以下である、2)前記第1小領域と前記第2小領域との間の距離が、所定の距離基準以下である、3)前記第1小領域と前記第2小領域との間の階調値の差が、所定の階調差基準以下である、の少なくとも1つを要する、画像処理装置。
この構成によれば、1つの領域として分離されるべき領域が第1領域と第2領域とに分離した場合に、分離した領域を適切に統合することができるので、領域分離の精度を向上できる。
[適用例10]適用例1ないし9のいずれかに記載の画像処理装置であって、前記生成部は、3つ以上の前記小領域を統合することによって前記統合領域を生成する、画像処理装置。
この構成によれば、1つの領域として分離されるべき領域が3つ以上の小領域に分離した場合に、分離した領域を統合することができるので、領域分離の精度を向上できる。
[適用例11]適用例10に記載の画像処理装置であって、前記生成部は、2つの小領域を統合することによって前記統合領域を生成し、前記生成した統合領域に前記2つの小領域とは異なる小領域を統合することによって、前記統合領域を更新する、画像処理装置。
この構成によれば、3つ以上の小領域を含む統合領域の生成を、適切に行うことができる。
[適用例12]適用例2に記載の画像処理装置であって、前記第2分離部は、前記第1領域の周囲の領域の階調値と、前記第1領域の縁部分の階調値と、の少なくとも一方に基づく前記第1閾値を用いて、前記第1領域の前記分離を行い、前記第2領域の周囲の領域の階調値と、前記第2領域の縁部分の階調値と、の少なくとも一方に基づく前記第2閾値を用いて、前記第2領域の前記分離を行う、画像処理装置。
この構成によれば、第1領域に適した第1閾値と、第2領域に適した第2閾値と、を用いることができるので、領域分離の精度を向上できる。
[適用例13]適用例1ないし12のいずれかに記載の画像処理装置であって、さらに、前記統合領域が、文字を表す文字領域であるか否かを、判定する判定部を含み、前記判定部は、前記統合領域に含まれる前記小領域の総数が所定の領域数以上であることを要する条件が満たされる場合に、前記統合領域が前記文字領域であると判定する、画像処理装置。
この構成によれば、文字領域であるか否かを適切に判定できる。
[適用例14]画像処理をコンピュータに実行させるためのプログラムであって、対象画像データによって表される対象画像を、第1領域と、前記第1領域とは異なる第2領域と、を含む複数の領域に分離する機能と、前記第1領域を複数の小領域に分離し、前記第2領域を複数の小領域に分離する、機能と、前記複数の小領域の中の少なくとも2つの前記小領域を統合することによって統合領域を生成する機能と、をコンピュータに実行させるためのプログラム。
なお、本発明は、種々の形態で実現することが可能であり、例えば、画像処理方法および画像処理装置、それらの方法または装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体(例えば、一時的ではない記録媒体)、等の形態で実現することができる。
計算機200の構成を示すブロック図である。 画像処理のフローチャートである。 画像処理の全体の流れを示す概略図である。 第1分離部120による処理の概略図である。 エッジ強度の算出式である。 2つの非ベタ領域L101、L102の処理例を示す概略図である。 統合処理のフローチャートである。 2つの領域の統合を示す概略図である。 階調差TDの算出式である。 4つの領域L201〜L204の統合を示す概略図である。 判定処理のフローチャートである。
A.実施例:
次に、本発明の実施の形態を実施例に基づき説明する。図1は、本発明の一実施例としての計算機200の構成を示すブロック図である。計算機200は、例えば、パーソナルコンピュータであり、CPU210と、DRAM等を含む揮発性記憶装置240と、フラッシュメモリやハードディスクドライブ等を含む不揮発性記憶装置290と、タッチパネルやキーボード等の操作部270と、外部装置と通信を行うためのインタフェースである通信部280と、を備えている。
計算機200は、通信部280を介して、外部装置(ここでは、スキャナ300と複合機400)に、通信可能に接続されている。スキャナ300は、光学的に対象物(例えば、紙の文書)を読み取ることによってスキャンデータを取得する画像読取装置である。複合機400は、光学的に対象物を読み取ることによってスキャンデータを取得する画像読取部を備えている。
揮発性記憶装置240には、CPU210が処理を行う際に生成される種々の中間データを一時的に格納するバッファ領域241が設けられている。不揮発性記憶装置290は、ドライバプログラム291を格納している。
CPU210は、ドライバプログラム291を実行することにより、スキャナドライバ100として機能する。スキャナドライバ100は、画像データ取得部110と、第1分離部120と、第2分離部130と、生成部140と、判定部150と、画像調整部160と、を含んでいる。後述するように、スキャナドライバ100は、対象画像データとしてのスキャンデータを利用して、画像処理を実行する。画像処理の結果、対象画像データによって表される対象画像は、複数の領域に分離され、領域毎に画像(領域内のオブジェクト)の種類(属性とも呼ぶ)が判定される。
図2は、画像処理のフローチャートである。ステップS100では、画像データ取得部110(図1)は、通信部280を介して、スキャンデータを、対象画像データとして、取得する。具体的には、画像データ取得部110は、スキャナ300または複合機400の画像読取部を制御して、スキャンデータを取得する。スキャンデータは、例えば、紙の文書の読み取り結果を表している。また、スキャンデータは、複数の画素毎の色を表すビットマップデータである。
図3は、画像処理の全体の流れを示す概略図である。図3(A)〜図3(E)に示す画像TI、LI1、LI2、LI3、RIは、画像処理の後述する5つの段階における処理結果の例を示している。画像処理は、図3(A)〜図3(E)の順に、進行する。図3(A)の対象画像TIは、スキャンデータによって表される画像の一例である。対象画像TIでは、図示しない複数の画素が、第一方向D1と、第一方向D1と直交する第二方向D2と、に沿って、マトリクス状に配置されている。1つの画素の画素データは、例えば、赤Rと緑Gと青Bとの3つの色成分の階調値(例えば、256階調)を表している。
図3(A)の例では、対象画像TIは、背景画像Bg1と、2つの文字画像Ob1、Ob2と、写真画像Ob3と、4つの描画画像Ob4〜Ob7と、を表している。ここで、文字画像は、1以上の文字を表す画像である。写真画像は、デジタルカメラによる撮影や動画から静止画を抜き出す等によって得られた画像である。描画画像は、イラスト、表、グラフ、線図、ベクトルグラフィックス、模様等の、描画によって表された画像である。以下、文字画像を、文字オブジェクトとも呼び、写真画像を、写真オブジェクトとも呼び、描画画像を、描画オブジェクトとも呼ぶ。また、文字画像と写真画像と描画画像とを総称して、オブジェクトとも呼ぶ。
対象画像TI内のオブジェクトOb1〜Ob7は、スキャンデータを生成するためのスキャン対象(例えば、紙の文書や原稿等)に記録されていたものである。図3(A)の例では、第1オブジェクトOb1は、4つの文字(「E」、「F」、「G」、「H」)を含む文字列を表し、第2オブジェクトOb2は、3つの文字(「W」、「X」、「Y」)を含む文字列を表している。また、第5オブジェクトOb5は、枠を表し、第6オブジェクトOb6は、枠に囲まれた一様な領域を表し、第7オブジェクトOb7は、枠に囲まれた別の一様な領域を表している。第1オブジェクトOb1の2つの文字「E」、「F」は、第6オブジェクトOb6内に配置され、第1オブジェクトOb1の残りの2つの文字「G」、「H」は、第7オブジェクトOb7内に配置されている。第6オブジェクトOb6の色と、第7オブジェクトOb7の色と、背景画像Bg1の色とは、互いに異なっている。
図2のステップS105〜S115では、第1分離部120(図1)は、対象画像TIを複数の領域に分離する。具体的には、ステップS105で、第1分離部120(図1)は、対象画像TI(スキャンデータ)を解析することによって、エッジ画像データを生成する。図4は、第1分離部120による処理の概略図である。図4(A)は、対象画像TIを示し、図4(B)は、エッジ画像データの特徴の概略を表すエッジ画像EIを示している。
エッジ画像EIは、対象画像TI内の各画素位置におけるエッジ強度を表している。エッジ強度は、画像内の位置の変化(隣り合う複数の画素)に対する階調値の変化の大きさを表している。図5は、本実施例におけるエッジ強度の算出式を示している。本実施例では、第1分離部120は、いわゆるソーベルオペレータ(Sobel operator)を用いて、赤Rと緑Gと青Bとの3つの色成分毎に、エッジ強度Seを算出する。
図5中の階調値P(x,y)は、対象画像TI内の特定の画素位置(x,y)の階調値を表している。第一方向位置xは、第一方向D1の画素位置を示し、第二方向位置yは、第二方向D2の画素位置を示している。図示するように、対象画像TI内の画素位置(x,y)におけるエッジ強度Se(x,y)は、その画素位置(x,y)を中心とし隣り合う3行3列の9つの画素を用いて算出される。図5の算出式の第1項および第2項は、9つの位置の画素の階調値に、対応する係数をそれぞれ乗じた値の和の絶対値である。第1項は、第一方向D1の階調値の変化の大きさを示し、第2項は、第二方向D2の階調値の変化の大きさを示している。
図4(B)のエッジ画像EIは、各画素位置における、赤Rのエッジ強度と緑Gのエッジ強度と青Bのエッジ強度とを平均化して得られるエッジ強度(参考エッジ強度と呼ぶ)を表している。図中では、参考エッジ強度が小さい画素が白で示され、参考エッジ強度が大きい画素が黒で示されている。エッジ画像EIは、対象画像TIのオブジェクトOb1〜Ob7によって構成されるエッジEgA1〜EgA6を、表している。なお、エッジ画像EI(参考エッジ強度)は、説明の便宜上、示されており、画像処理には要しない。
図2のステップS105で、エッジ画像データを生成した後、ステップS110、S115では、第1分離部120(図1)は、複数の画素を含む第1ブロックBL毎に、ベタ領域と非ベタ領域とを特定する。図4(B)に示すように、第1ブロックBLは、エッジ画像EI(すなわち、対象画像TI)上にマトリクス状に配置されている。1つの第1ブロックBLは、例えば、BLn行×BLn列(BLnは、2以上の整数)の画素PXのブロックである。BLnの値としては、例えば、10〜50の範囲内の値を採用可能である。
ベタ領域とは、領域が有するエッジ強度が所定の基準未満の領域であり、非ベタ領域とは、領域が有するエッジ強度が所定の基準以上の領域である。第1分離部120は、ステップS110で、第1ブロックBL毎に、平均エッジ強度(ERave、EGave、EBave)を算出する。平均エッジ強度(ERave、EGave、EBave)は、赤Rと緑Gと青Bとの3つの色成分毎に、算出される。第1分離部120は、処理対象の第1ブロックBLの平均エッジ強度と所定の基準とを比較して、処理対象の第1ブロックBLを、ベタブロックおよび非ベタブロックのいずれかに分類する。ベタブロックは、平均エッジ強度が所定の基準より小さいブロックである。非ベタブロックは、平均エッジ強度が所定の基準以上であるブロックである。本実施例では、第1分離部120は、平均エッジ強度(ERave、EGave、EBave)を、色成分ごとに定められた基準値(ETr、ETg、ETb)と比較する。この結果、第1分離部120は、ERave<ETr、かつ、EGave<ETg、かつ、EBave<ETbが成立する場合には、処理対象の第1ブロックBLをベタブロックに分類する。ERave≧ETr、および、EGave≧ETg、および、EBave≧ETbのうちの少なくとも一つが成立する場合には、第1分離部120は、処理対象の第1ブロックBLを非ベタブロックに分類する。
図4(C)の画像SIは、分類の結果を示している。ハッチングが付された第1ブロックBLが、非ベタブロックであり、ハッチングのない第1ブロックBLが、ベタブロックである。図示するように、連続する(隣り合う)複数の非ベタブロックで構成される6つの領域NA1〜NA6が、それぞれ形成されている。これらの領域NA1〜NA6の間は、ベタブロックによって隔てられている。2つの領域NA1、NA2は、図4(A)の第1文字画像Ob1に対応する。残りの4つの領域NA3、NA4、NA5、NA6は、4つのオブジェクトOb5、Ob2、Ob3、Ob4に、それぞれ対応する。第3領域NA3の内部に配置されたベタブロックは、第6オブジェクトOb6または第7オブジェクトOb7に対応する。他のベタブロックは、背景画像Bg1に対応する。このように、一般的には、非ベタブロックは、各画素の階調値が一様ではないオブジェクトを表し、ベタブロックは、背景、または、各画素の階調値がおおよそ一様なオブジェクトを表している。各画素の階調値がおおよそ一様なオブジェクトは、背景の一種であり得る。
図2のステップS110で、ベタブロックと非ベタブロックとを特定した後、ステップS115では、第1分離部120(図1)は、対象画像TIにおけるベタ領域と非ベタ領域との特定(ラベリング)を行う。具体的には、第1分離部120は、連続する1以上の非ベタブロックで構成される連続な1つの領域に対応する領域を、1つの非ベタ領域として特定し、連続する1以上のベタブロックで構成される連続な1つの領域に対応する領域を、1つのベタ領域として特定する。このように、連続する1以上の非ベタブロックは、1つの非ベタ領域に組み込まれるので、非ベタ領域は、通常は、ベタ領域に囲まれている。
図4(D)の第1ラベル画像LI1は、領域の特定結果を示している。図4(C)の領域NA1〜NA6に対応して、6つの非ベタ領域L101〜L106が、特定されている。また、第3領域L103内には、2つのベタ領域L107、L108が、特定されている。残りの領域も、ベタ領域L100である。第1分離部120(図1)は、領域L100〜L108に、領域を識別するラベル(例えば、0〜8)を割り当てる。例えば、第1分離部120は、対象画像TIの各画素に、どの領域に含まれるのかを表すラベル(識別子)を割り当てる。なお、第1ラベル画像LI1は、図3(B)の第1ラベル画像LI1と同じである。
図2のステップS115で、対象画像TIにおけるベタ領域と非ベタ領域との特定(ラベリング)を行った後の、ステップS120〜S135では、第2分離部130(図1)は、第1分離部120によって分離された非ベタ領域毎に、非ベタ領域を複数の小領域に分離する処理を、行う。具体的には、ステップS120で、第2分離部130は、1つの未処理の非ベタ領域を、処理対象領域Hとして選択する。次いで、ステップS125では、第2分離部130は、処理対象領域Hの周囲を囲むベタ領域の階調値を利用して、処理対象領域Hを二値化するための閾値を決定する。
図6は、2つの非ベタ領域L101、L102の処理例を示す概略図である。図中には、対象画像TIの一部分TIaが示されている。部分TIaは、第1領域L101と第2領域L102とを含む部分である。図中では、第1領域L101と第2領域L102との間の部分(第3領域L103)の図示が省略されている。
以下、第1領域L101が処理対象領域Hである場合について、説明する。第2分離部130(図1)は、第1領域L101の周囲を囲むベタ領域を特定する(ここでは、第7領域L107)。第2分離部130は、図3(B)の第1ラベル画像LI1を解析することによって、第1領域L101の周囲を囲むベタ領域を特定することができる。第2分離部130は、特定されたベタ領域L107を代表する色CLo1を算出する(以下、第1代表色CLo1と呼ぶ)。第1代表色CLo1のRGB毎の階調値Rr、Gr、Brは、ベタ領域L107の全ての画素についての、RGB毎の平均階調値である。
通常は、オブジェクトは背景上に配置される。従って、第1領域L101の周囲を囲むベタ領域L107は、第1領域L101内のオブジェクトの背景を表している。すなわち、ベタ領域L107の代表色CLo1は、第1領域L101の背景の色と、同じである。
次に、第2分離部130は、第1代表色CLo1を利用して、第1閾値群Ctho1を決定する。本実施例では、第1閾値群Ctho1は、色成分毎(RGB毎)の上限値と下限値とを含んでいる。具体的には、以下の6つの閾値R1、R2、G1、G2、B1、B2が、第1閾値群Ctho1として決定される。
赤Rの下限値R1=Rr−dV、赤Rの上限値R2=Rr+dV
緑Gの下限値G1=Gr−dV、緑Gの上限値G2=Gr+dV
青Bの下限値B1=Br−dV、青Bの上限値B2=Br+dV
ここで、値dVは、予め決められた値である。これらの値R1、R2、G1、G2、B1、B2は、第1代表色CLo1に近い色の範囲、すなわち、背景の色に近い色の範囲を、定めている。
図2のステップS125で、閾値を決定した後、ステップS130では、第2分離部130(図1)は、ステップS125で決定された閾値を利用して、処理対象領域Hを二値化する(二値画像データを生成する)。具体的には、処理対象領域H内の各画素を、1画素毎に、オブジェクト画素と、非オブジェクト画素とに分類する。二値画像データの画素毎の階調値は、オブジェクト画素を表す値(例えば、「1」)と、非オブジェクト画素を表す値(例えば、「ゼロ」)と、のいずれかに設定される。
第2分離部130は、処理対象領域H内(例えば、第1領域L101内)の画素Pxiの色成分毎(RGB毎)の階調値Ri、Gi、Biの全てが、上記の閾値群R1、R2、G1、G2、B1、B2で定められる色範囲内にある場合に、画素Pxiを非オブジェクト画素に分類する。換言すれば、階調値Ri、Gi、Biは、以下の3つの条件E1〜E3を満たしている場合に、画素Pxiは、非オブジェクト画素に分類される。
(第1条件E1)R1(=Rr−dV)<Ri<R2(=Rr+dV)
(第2条件E2)G1(=Gr−dV)<Gi<G2(=Gr+dV)
(第3条件E3)B1(=Br−dV)<Bi<B2(=Br+dV)
この場合には、画素Pxiの色は、第1代表色CLo1(背景の色)に近いので、画素Pxiは、背景を表している可能性が高い。
一方、第2分離部130は、色成分毎の階調値Ri、Gi、Biの少なくとも1つが、上述の色範囲外にある場合には、画素Pxiをオブジェクト画素に分類する(3つの条件E1〜E3の少なくとも1つが満たされない)。この場合には、画素Pxiの色は、第1代表色CLo1(背景の色)から遠いので、画素Pxiは、背景とは異なる画像(オブジェクト)を表している可能性が高い。
図6の第1色分布CD1は、RGB色空間における、第1領域L101内の画素の色分布例を示している。第1色分布CD1には、第1閾値群Ctho1によって定められる色範囲BA1(すなわち、条件E1〜E3の全てが満たされる範囲)が示されている。この色範囲BA1は、背景の色に近い色の範囲を示している(以下、第1背景色範囲BA1とも呼ぶ)。図中の1つの色点PXcは、1つの画素の色を示している。図示された複数の色点PXcのうちの第1色点群CGt1は、文字を表す画素の色の分布を示し、第2色点群CGb1は、文字の周りの背景を表す画素の色の分布を示している。第1色点群CGt1は、第1背景色範囲BA1の外に分布しているので、それらの色点に対応する複数の画素は、オブジェクト画素(文字を表す複数の画素)に分類される。第2色点群CGb1は、第1背景色範囲BA1の内に分布しているので、それらの色点に対応する複数の画素は、非オブジェクト画素(背景を表す複数の画素)に分類される。
図6中の二値部分画像BIaは、二値画像データにおける第1領域L101と第2領域L102とに対応する部分の一例である。図中のハッチングが付された部分は、オブジェクト画素によって構成される領域を示し、ハッチングの無い部分(白い部分)は、非オブジェクト画素によって構成される領域を示している。図示するように、第1領域L101内においては、文字「E」、「F」を表す画素が、オブジェクト画素に分類され、他の画素(背景を表す画素)が、非オブジェクト画素に分類されている。
図2のステップS130で、処理対象領域Hを二値化した(二値画像データを生成した)後、ステップS135では、第2分離部130(図1)が、二値画像データを利用して、オブジェクト領域と非オブジェクト領域との特定(ラベリング)を行う。具体的には、第1分離部120は、連続する1以上のオブジェクト画素(二値化後の階調値が「1」)で構成される連続な1つの領域を、1つのオブジェクト領域として特定し、連続する1以上の非オブジェクト画素(二値化後の階調値が「ゼロ」)で構成される連続な1つの領域を、1つの非オブジェクト領域として特定する。
図6中の画像LI2aは、領域の特定結果を示している。二値部分画像BIaに示す2つの文字の領域K21、K22に対応して、2つのオブジェクト領域L201、L202が特定されている。
二値部分画像BIaに示す非オブジェクト領域(特に、文字の領域K21、K22の周囲を囲む非オブジェクト画素の領域W1)は、第1領域L101の周囲を囲むベタ領域L107と同じ背景を表している可能性が高い。そこで、本実施例では、第2分離部130は、第1領域L101内の非オブジェクト領域W1と、第1領域L101の周囲を囲むベタ領域L107とを含む領域を、1つの領域L211として、特定する。
第2分離部130(図1)は、特定した領域に、領域を識別するラベルを割り当てる。例えば、第2分離部130は、対象画像TIの各画素に、どの領域に含まれるのかを表すラベル(識別子)を割り当てる。なお、図6中の画像LI2aは、図3(C)の第2ラベル画像LI2の一部分を示している。
図2のステップS135で、オブジェクト領域と非オブジェクト領域との特定(ラベリング)を行った後、ステップS140では、第2分離部130(図1)は、全ての非ベタ領域の処理が終了したか否かを判定する。未処理の非ベタ領域が残っている場合には(S140:No)、第2分離部130は、ステップS120に戻って、未処理の非ベタ領域に対して、ステップS120〜S135の処理を、上述の第1領域L101の処理と同様に、実行する。全ての非ベタ領域の処理が終了した場合には(S140:Yes)、第2分離部130は、ステップS145に移行する。
例えば、第2領域L102については、第2分離部130(図1)は、以下のように、処理を行う。図6に示すように、第2分離部130は、第2領域L102の周囲を囲むベタ領域(ここでは、第8領域L108)の代表色CLo2(第2代表色CLo2と呼ぶ)を算出し、第2閾値群Ctho2を決定する。図6中の第2色分布CD2は、第2領域L102内の画素の色分布を示している。図中の第2背景色範囲BA2は、第2閾値群Ctho2によって定められる色の範囲である。本実施例では、第7オブジェクトOb7(図3(A))の色が、第6オブジェクトOb6の色と異なっているので、第2代表色CLo2は、第1代表色CLo1と異なっている。従って、第2閾値群Ctho2は、第1閾値群Ctho1とは異なっている。すなわち、第2背景色範囲BA2は、第1背景色範囲BA1とは異なっている。
図中の第1色点群CGt2は、文字を表す画素の色の分布を示し、第2色点群CGb2は、文字の周りの背景を表す画素の色の分布を示している。第1色点群CGt2は、背景色範囲BA2の外に分布しているので、それらの色点に対応する複数の画素は、オブジェクト画素(文字を表す複数の画素)に分類される。第2色点群CGb2は、背景色範囲BA2の内に分布しているので、それらの色点に対応する複数の画素は、非オブジェクト画素(背景を表す複数の画素)に分類される。そして、第2分離部130は、二値部分画像BIaに示す2つの文字の領域K23、K24に対応して、2つのオブジェクト領域L203、L204を特定する。文字の領域K23、K24の周囲を囲む非オブジェクト領域W2については、非オブジェクト領域W2とベタ領域L108とを含む領域が、1つの領域L212として、特定される。
第4領域L104(図3(B))についても、同様に、オブジェクト領域と非オブジェクト領域との分離が行われる。図3(C)に示すように、3つの文字「W」、「X」、「Y」を表す3つの領域L206、L207、L208が、特定されている。
文字とは異なる種類のオブジェクトを表す(含む)非ベタ領域についても、同様に、第2分離部130は、オブジェクト領域と非オブジェクト領域との分離を行う。例えば、第5領域L105(図3(B))中の非オブジェクト領域(例えば、写真画像Ob3(図3(A))の周囲の背景を表す領域)は、第5領域L105の周囲を囲むベタ領域L100に組み込まれて、1つの領域L200(図3(C))の一部として特定されている。第5領域L105中のオブジェクト領域は、第9領域L209(図3(C))として特定されている。同様に、第6領域L106(図3(B))中の非オブジェクト領域は、第10領域L210(図3(C))として特定され、第3領域L103(図3(B))中の非オブジェクト領域は、第5領域L205(図3(C))として特定されている。ベタ領域については、第2分離部130は、1つのベタ領域を、1つの領域として、特定する。例えば、ベタ領域L100(図3(B))は、第0領域L200(図3(C))として特定されている。
以上の結果、図3(C)の例では、13個の領域L200〜L212が特定されている。特定された領域の総数(ラベルの総数K)は、13個である。
図2のステップS145では、生成部140(図1)は、第2分離部130によって特定された複数の領域のうちの、後述する条件を満たす複数の領域を統合する。この統合は、互いに分離する複数の文字を統合するための処理である。図7は、統合処理のフローチャートである。ステップS200では、生成部140は、第2分離部130によって特定された複数の領域(例えば、図3(C)の領域L200〜L212)の中から、背景領域を選択する。背景領域は、対象画像TI(図3(A))の縁部分に対応するベタ領域である。図3(C)の例では、第0領域L200が、背景領域として選択される。この背景領域L200は、統合の対象から外される。
ステップS200で、背景領域を選択した後、ステップS205では、生成部140(図1)は、1つの未処理の領域を、処理対象領域Nとして選択する。次いで、ステップS210では、生成部140は、処理対象領域Nの画素数が、所定の画素数基準以下であるか否かを判定する。画素数基準は、予め決められている。例えば、画素数基準としては、処理対象領域Nが他の領域と統合すべき文字を表す場合に、処理対象領域Nの画素数が取り得る最大値を若干上回る値を、採用可能である。処理対象領域Nが1つの文字を表す場合の画素数が取り得る最大値を若干上回る値に、予め設定されている。処理対象領域Nの画素数が画素数基準を超える場合には(S210:No)、生成部140は、ステップS205に戻る(現行の処理対象領域Nは、統合の対象から外れる)。この場合には、現行の処理対象領域Nは、典型的な文字よりも大きいので、文字以外の種類のオブジェクトを表している(含む)可能性が高い。
なお、本実施例では、処理対象領域Nの画素数は、対象画像TIにおける、処理対象領域Nに外接する最小矩形に含まれる画素数である。図8は、2つの領域の統合を示す概略図である。図中には、文字「E」を表す処理対象領域Lnが示されている。図中の矩形LnRは、処理対象領域Lnに外接する最小矩形である。この矩形LnR内に含まれる画素数が、処理対象領域Lnの画素数である。ここで、「領域に外接する最小矩形」は、以下のような矩形である。すなわち、矩形は、第一方向D1と平行な2本の辺と、第二方向D2と平行な2本の辺と、で構成されている。そして、矩形の上辺が、領域の上端と接し、矩形の下辺が、領域の下端と接し、矩形の左辺が、領域の左端と接し、矩形の右辺が、領域の右端と接している。ここで、上辺および上端は、第二方向D2の反対方向側の辺および端であり、下辺および下端は、第二方向D2側の辺および端であり、左辺および左端は、第一方向D1の反対方向側の辺および端であり、右辺および右端は、第一方向D1側の辺および端である。なお、生成部140は、処理対象領域Nの画素のみをカウントすることによって、処理対象領域Nの画素数を算出してもよい。すなわち、生成部140は、外接矩形内の複数の画素のうちの処理対象領域Nに含まれない画素をカウントせずに、画素数を算出してもよい。
図7のS210で、処理対象領域Nの画素数が、所定の画素数基準以下である場合(S210:Yes)、ステップS215では、生成部140(図1)は、統合の候補領域Mのリストを初期化する。生成部140は、ステップS205で処理対象領域Nとして選択されたことがない領域のリストを、生成する。例えば、図3(C)の例において、初めて実行されるステップS215で第1領域L201が処理対象領域Nとして選択された場合には、残りの11個の領域L202〜L212が、リストに挙げられる。次回のステップS215で第2領域L202が処理対象領域Nとして選択された場合には、残りの10個の領域L203〜L212が、リストに挙げられる。なお、他の領域に統合済の領域は、リストから除かれる。
次いで、ステップS220では、生成部140(図1)は、生成したリストの中から、1つの未処理の領域を、候補領域Mとして選択する。生成部140は、続く3つのステップS225、S230、S235で、候補領域Mを処理対象領域Nに統合するか否かを判定する。各ステップS225、S230、S235では、以下の条件が判定される。
(S225:第1条件F1)候補領域Mの画素数≦画素数基準
(S230:第2条件F2)第1距離Dis1≦距離基準、かつ、第2距離Dis2≦距離基準
(S235:第3条件F3)階調差TD≦階調差基準
候補領域Mが、これら全ての条件F1、F2、F3を満たす場合(S225:Yes、かつ、S230:Yes、かつ、S235:Yes)に、図7のステップS240で、生成部140(図1)は、候補領域Mを処理対象領域Nに統合する。
ステップS225の第1条件F1は、ステップS210の条件と同様の条件である。ステップS210とステップS225の条件は、「処理対象領域Nの大きさと候補領域Mの大きさとが、所定の大きさ基準以下である」という条件の例である。候補領域Mが第1条件F1を満たさない場合には(S225:No)、候補領域Mは、文字とは異なる種類のオブジェクトを表している(含む)可能性が高い。この場合には、生成部140は、候補領域Mを処理対象領域Nに統合しない(ステップS240をスキップする)。
ステップS230の第2条件F2は、「処理対象領域Nと候補領域Mとの間の距離が、所定の距離基準以下である」という条件の例である。第2条件F2は、候補領域Mが処理対象領域Nに近いことを示している。図8は、第2条件F2の第1距離Dis1と第2距離Dis2との概略を示している。図中には、処理対象領域Lnと候補領域Lmとが示されている。対象矩形LnRは、処理対象領域Lnに外接する最小矩形であり、候補矩形LmRは、候補領域Lmに外接する最小矩形である。
第1距離Dis1は、図8(A)に示すように、対象矩形LnRと候補矩形LmRとの間の、第一方向D1に沿った最短距離(画素数)である。図8(B)に示すように、対象矩形LnRの第一方向D1の位置の範囲(左端PnL〜右端PnR)が、候補矩形LmRの第一方向D1の位置の範囲(左端PmL〜右端PmR)の少なくとも一部と重なる場合には、第1距離Dis1は、ゼロである。
第2距離Dis2は、図8(B)に示すように、対象矩形LnRと候補矩形LmRとの間の、第二方向D2に沿った最短距離(画素数)である。図8(A)に示すように、対象矩形LnRの第二方向D2の位置の範囲(上端PnT〜下端PnB)が、候補矩形LmRの第二方向D2の位置の範囲(上端PmT〜下端PmB)の少なくとも一部と重なる場合には、第2距離Dis2は、ゼロである。
第2条件F2の距離基準は、予め決められている。例えば、距離基準としては、統合すべき2つの文字の間の距離がとり得る最大値を若干上回る値を、採用可能である。候補領域Mが第2条件F2を満たす場合には、候補領域Mと処理対象領域Nとが、同じ文字列に含まれる文字を表している可能性が高い。候補領域Mが第2条件F2を満たさない場合には(S230:No)、候補領域Mは、処理対象領域Nとは関連しないオブジェクトを表している(含む)可能性が高い。この場合には、生成部140は、候補領域Mを処理対象領域Nに統合しない(ステップS240をスキップする)。なお、処理対象領域Nと候補領域Mとの間の距離としては、上記の距離Dis1、Dis2に限らず、距離を表す種々の値を採用可能である。例えば、処理対象領域Nと候補領域Mとの間の最短距離(方向を制限しない最短距離)を採用可能である。
ステップS235の第3条件F3は、「処理対象領域Nと候補領域Mとの間の階調値の差が、所定の階調差基準以下である」という条件の例である。第3条件F3は、候補領域Mの色が処理対象領域Nの色に近いことを、示している。図9は、第3条件F3の階調差TDの算出式を示している。本実施例では、階調差TDは、RGB色空間における、処理対象領域Nの平均色(Rav_n、Gav_n、Bav_n)と、候補領域Mの平均色(Rav_m、Gav_m、Bav_m)との間のユークリッド距離の二乗である。第3条件F3の階調差基準は、予め決められている。例えば、階調差基準としては、同じ色で表された文字列に含まれる複数の文字が、複数の領域に分離した場合に、それらの領域の間の階調差TDが取り得る最大値を採用可能である。候補領域Mが第3条件F3を満たさない場合には(S235:No)、候補領域Mは、処理対象領域Nとは異なる別のオブジェクトを表している(含む)可能性が高い。この場合には、生成部140は、候補領域Mを処理対象領域Nに統合しない(ステップS240をスキップする)。なお、処理対象領域Nと候補領域Mとの間の階調値の差としては、上記の階調差TDに限らず、階調値の差を表す種々の値を採用可能である。例えば、YCbCr色空間におけるユークリッド距離を採用してもよい。
図7のステップS240で、候補領域Mを処理対象領域Nに統合した後、または、ステップS225、ステップS230、ステップS235のいずれかのステップでNoと判断した後、ステップS245では、生成部140(図1)は、リストの全ての候補領域Mの処理が終了したか否かを判定する。未処理の候補領域Mが残っている場合には(S245:No)、生成部140は、ステップS220に戻り、未処理の候補領域Mに対して、ステップS220〜S240の処理を実行する。リストの全ての候補領域Mの処理が終了した場合には(S245:Yes)、生成部140は、ステップS250に移行する。
ステップS250では、生成部140(図1)は、最後にステップS215が実行された後に、処理対象領域Nが拡張されたか否か、すなわち、処理対象領域Nに統合された候補領域Mの総数が1以上であるか否か、を判定する。処理対象領域Nが拡張された場合には(S250:Yes)、生成部140は、拡張済の処理対象領域Nを利用して、再び、ステップS215〜S245の処理を実行する。従って、生成部140は、3つ以上の領域を統合し得る。
図10は、4つの領域L201〜L204の統合を示す概略図である。ここでは、統合処理が、図10(A)〜図10(D)の順に、進行する。図中には、領域に外接する最小矩形も示されている。矩形の符号は、対応する領域の符号の末尾に「R」を付加したものである。例えば、矩形L201Rは、第1領域L201に対応付けられた矩形である。
図10(A)では、第1領域L201が、処理対象領域Nである(図7:S205)。第1領域L201の隣に配置された第2領域L202は、上記条件F1〜F3を満たすので、生成部140(図1)は、第2領域L202を第1領域L201に統合する(S240)。第3領域L203と第4領域L204とは、第1領域L201からの距離が遠いので(第2条件F2を満たさないので)、第1領域L201に統合されない。
上述したように、第2領域L202が第1領域L201に統合された場合、図7のステップS250では、生成部140(図1)は、処理対象領域N(第1領域L201)が拡張された、と判定する。続くステップS215では、生成部140は、第2領域L202を含む拡張済の第1領域L201b(図10(B))のためのリストを生成する。生成されるリストは、第3領域L203と第4領域L204とを含んでいる。
図10(B)では、拡張済の第1領域L201bが、処理対象領域Nである。第1領域L201bの隣に配置された第3領域L203は、上記条件F1〜F3を満たすので、生成部140は、第3領域L203を、第1領域L201bに統合する(図7:S240)。条件F1〜F3の判定には、拡張済の第1領域L201b(「E」の文字と「F」の文字)に外接する最小矩形L201bRが利用される。第4領域L204は、第1領域L201bからの距離が遠いので、第1領域L201bに統合されない。
上述したように、第3領域L203が拡張済みの第1領域L201bに統合された場合、図7のステップS250では、生成部140(図1)は、処理対象領域N(第1領域L201b)が拡張された、と判定する。続くステップS215では、生成部140は、第3領域L203を含む拡張済の第1領域L201c(図10(C))のためのリストを生成する。生成されるリストは、第4領域L204を含んでいる。
図10(C)では、拡張済の第1領域L201cが、処理対象領域である。第1領域L201cの隣に配置された第4領域L204は、上記条件F1〜F3を満たすので、生成部140は、第4領域L204を、第1領域L201cに統合する(図7:S240)。これにより、第4領域L204を含む拡張済みの第1領域L201d(図10(D))が生成される。
このように、生成部140は、処理対象領域Nが拡張された場合には、拡張済の処理対象領域Nと他の領域との統合を試みることによって、3つ以上の領域の統合を実現する。
処理対象領域Nの拡張が完了したら(S250:No)、ステップS255で、生成部140は、全ての領域の処理が完了したか否かを判定する。未処理の領域が残っている場合には(S255:No)、生成部140は、ステップS205に戻る。全ての領域の処理が完了した場合には(S255:Yes)、生成部140は、ステップS260で、ラベル(領域の識別子)を更新し、統合処理を終了する。
図3(D)の第3ラベル画像LI3は、統合処理(図7)によって更新された領域(ラベル)を示している。図3(C)の4つの領域L201、L202、L203、L204(図3(A)の第1文字画像Ob1の4つの文字)が統合されて、1つの領域L301が生成されている。また、図3(C)の3つの領域L206、L207、L208(図3(A)の第2文字画像Ob2の3つの文字)が統合されて、1つの領域L303が生成されている。図3(C)中の6つの領域L200、L205、L209、L210、L211、L212は、他の領域と統合されずに、6つの領域L300、L302、L304、L305、L306、L307として、維持されている。以下、複数の領域が統合されて生成された領域を「統合領域」とも呼ぶ。
図2のステップS145で、統合処理が終了後、ステップS150では、判定部150(図1)は、生成部140による統合処理の結果得られる複数の領域毎に、画像種類(領域内のオブジェクトの種類)が「文字」であるか否かを判定する。図11は、文字判定処理のフローチャートである。ステップS300では、判定部150は、統合数が文字基準値以上であるか否かを判定する。統合数は、統合された領域の総数である。例えば、図3(D)の第1領域L301の統合数は「4」であり、第3領域L303の統合数は「3」である。文字基準値は、予め決められている。例えば、文字基準値としては、統合領域が典型的な文字列を表す場合の統合数が取り得る最小値を若干下回る値(例えば、2〜3)を採用可能である。判定部150は、統合数が文字基準値以上である統合領域の種類を「文字」と判定する(ステップS300:Yes、ステップS310)。判定部150は、統合数が文字基準値未満である統合領域の種類を「非文字」と判定する(ステップS300:No、ステップS320)。なお、判定部150は、統合処理(図7)で他の領域と統合されなかった領域の種類も「非文字」と判定する(ステップS300:No、ステップS320)。
図3(E)の画像RIは、判定結果を示している。2つの領域L301、L303の種類は「文字」と判定され、6つの領域L300、L302、L304、L305、L306、L307の種類は「非文字」と判定されている。
図2のステップS150で、文字判定処理が終了後、ステップS155では、画像調整部160(図1)は、判定結果を利用する画像調整を実行する。例えば、画像調整部160は、対象画像TI中の「文字」の領域に、シャープネスを強調する処理を行い、対象画像TI中の「非文字」の領域に、予め設定された色調整処理を行う。このように、画像調整部160は、スキャンデータに対して、画像種類の判定結果を利用する画像調整を行うことによって、処理済の画像データを生成する。画像調整部160は、処理済の画像データを、不揮発性記憶装置290に格納する。ユーザは、格納された画像データを、画像の出力(例えば、印刷と表示)等に利用することができる。
なお、本実施例では、第1ブロックBL毎に算出される平均エッジ強度(ERave、EGave、EBave)は、「エッジ強度の程度を表す特徴値」の例である。また、「ERave≧ETr、および、EGave≧ETg、および、EBave≧ETbのうちの少なくとも一つが成立する」ことは、「エッジ強度の程度を表す特徴値が所定の基準以上である」ことの例である。
以上のように、本実施例では、第1分離部120(図1)は、対象画像TI(図3(A))を、第1領域L101と第2領域L102とを含む複数の領域に分離する(図3(B))。第2分離部130は、第1領域L101を複数の小領域L201、L202に分離し、第2領域L102を複数の小領域L203、L204に分離する。そして、生成部140は、複数の小領域L201〜L204を統合することによって、統合領域L301(図3(D))を生成する。この結果、一旦分離された領域が統合されることなく単独の領域として利用される場合と比べて、領域分離の精度を向上できる。
また、第2分離部130は、図6に示すように、第1閾値群Ctho1を用いて第1領域L101の分離を行い、第1閾値群Ctho1とは異なる第2閾値群Ctho2を用いて第2領域L102の分離を行う。従って、1つの閾値を用いて対象画像の全体を複数の領域に分離する場合と比べて、領域分離の精度を向上できる。
ここで、第2分離部130は、第1閾値群Ctho1を、第1領域L101の周囲の領域(第7領域L107)の階調値に基づいて決定し、第2閾値群Ctho2を、第2領域L102の周囲の領域(第8領域L108)の階調値に基づいて決定する。このように、第2分離部130は、第1領域L101に適した第1閾値群Ctho1と、第2領域L102に適した第2閾値群Ctho2とを利用することができるので、領域分離の精度を向上できる。
また、第2分離部130は、図6に示すように、二値化後の階調値が同じである画素が連続する1つの領域を、分離された1つの領域として特定する(例えば、オブジェクト画素の階調値は「1」であり、非オブジェクト画素の階調値は「ゼロ」である)。従って、第2分離部130は、容易に領域分離を行うことができるので、領域分離の処理を簡素化できる。
また、第1分離部120は、図4(B)に示すように、複数の画素PXを含む第1ブロックBL毎に、第1領域L101と第2領域L102とを含む複数の領域の分離を行う。従って、第1分離部120が画素PX毎に領域の分離を行う場合と比べて、処理を簡素化できる。
また、第2分離部130は、図6に示すように、1つの画素PX毎に小領域の分離を行う。従って、2個以上の画素PXを含むブロック毎に小領域の分離が行われる場合と比べて、第2分離部130は、細かい領域分離を実現できる。また、第2分離部130は、第1分離部120が第1ブロックBL毎の粗い領域分離を行った後に、細かい領域分離を行うので、対象画像が複数種類の領域(オブジェクト)を表す場合に、領域分離の精度を向上できる。
また、図4に示すように、第1分離部120は、エッジ強度の程度を表す特徴値(平均エッジ強度(ERave、EGave、EBave))が所定の基準以上である領域であるエッジ領域(非ベタ領域)を抽出し、対象画像TIを、エッジ領域を含む2つの領域L101、L102と、エッジ領域を含まない領域L100と、を含む複数の領域に分離する。このように、エッジ強度を利用して領域分離を行うので、対象画像に含まれる色に依存せずに、領域分離の精度を向上できる。
特に、実施例では、第1分離部120が、エッジ強度を利用した粗い領域分離を行い、その後に、第2分離部130が、第1分離部120によって分離された領域毎に、背景色を利用した細かい領域分離を行っている。このように、第1分離部120は、階調値の大きさ(すなわち、色)を分離する閾値ではなくエッジ強度を利用して、対象画像を複数の領域に分離する。従って、対象画像が複数種類のオブジェクトを表す場合であっても、オブジェクト間の色(特に背景色)の差が領域分離に与える影響を緩和できる。そして、第1分離部120による領域分離の後には、第2分離部130は、分離された領域毎に、背景色を特定するための閾値を利用した細かい領域分離を行う。第1分離部120によって分離された1つの領域内では、背景の色は、特定の色に集中している可能性が高い。従って、第2分離部130は、閾値を利用することによって、適切な領域分離を実現できる。また、第2分離部130は、第1分離部120と比べて、細かい領域分離を行う。以上により、領域分離の精度を向上できる。
また、図7、図10で説明したように、生成部140は、分離された複数の領域を統合することによって、統合領域を生成する。従って、1つの領域として分離されるべき領域(例えば、第1文字画像Ob1の領域)が、複数の領域に分離した場合に、生成部140は、それらの領域を統合することができるので、領域分離の精度を向上できる。ここで、2つの領域を統合するための統合条件は、上述の3つの条件F1〜F3を要する。従って、分離した領域を適切に統合することができる。
特に、図7、図10で説明したように、生成部140は、2つの領域を統合することによって統合領域を生成し、生成した統合領域に別の領域を統合することによって、統合領域を更新する。従って、3つ以上の領域を含む統合領域の生成を、適切に行うことができる。
また、図11で説明したように、判定部150は、統合領域に含まれる領域の総数が文字基準値以上であることを要する条件が満たされる場合に、領域の種類が文字であると判定する。従って、判定部150は、領域の種類が文字であるか否かを適切に判定できる。
B.変形例:
(1)エッジ強度の算出式としては、図5の算出式に限らず、階調値の変化の大きさを表す値を算出可能な他の任意の算出式を採用可能である。例えば、エッジ強度は、第一方向D1の変化の大きさの二乗と、第二方向D2の変化の大きさの二乗との合計値であってもよい。また、ソーベルオペレータの代わりに、プレウィットオペレータ(Prewitt operator)、または、ロバーツクロスオペレータ(Roberts Cross operator)など種々のエッジ検出用オペレータを利用可能である。また、エッジ強度は、赤緑青の各色成分に限らず、他の色成分(例えば、輝度)の階調値を用いて算出されてもよい。
(2)第1分離部120によって領域分離に利用される「エッジ強度の程度を表す特徴値」としては、エッジ強度の程度を表す任意の値を採用可能である。例えば、色成分毎の平均エッジ強度(ERave、EGave、EBave)のうちの最大値を、特徴値として採用してもよい。また、輝度値を利用して算出されたエッジ強度を、採用してもよい。
また、「エッジ強度の程度を表す特徴値が所定の基準以上である」ことの判定条件としては、「ERave≧ETr、および、EGave≧ETg、および、EBave≧ETbのうちの少なくとも一つが成立する」ことに限らず、種々の条件を採用可能である。例えば、特徴値が1つの値によって表される場合には、特徴値が特定の閾値以上であることを、採用可能である。
(3)図4(B)に示す第1ブロックBLの縦の長さ(第二方向D2の画素数)は、横の長さ(第一方向D1の画素数)と、異なっていてもよい。また、第1ブロックBLの形状としては、矩形に限らず、他の種々の形状を採用可能である。また、1つの第1ブロックBLに含まれる画素PXの総数としては、種々の値(例えば、U個(Uは2以上の整数))を採用可能である。
また、第2分離部130は、2個以上の画素PXを含む第2ブロック毎に、小領域の分離を行ってもよい。こうすれば、第2分離部130による処理を簡素化できる。この場合には、第2分離部130は、例えば、第2ブロックを代表する階調値(色成分毎の階調値)を利用して、領域分離を行うことができる。第2ブロックを代表する階調値としては、例えば、第2ブロック内の平均階調値、第2ブロック内の所定位置の画素の階調値等を採用可能である。
一般には、第2ブロックに含まれる画素PXの総数Jは、1以上、かつ、第1ブロックBLに含まれる画素PXの総数U未満、であることが好ましい。こうすれば、第1分離部120が、粗い領域分離を行った後に、第2分離部130が、細かい領域分離を行うので、対象画像TIが複数種類の領域(オブジェクト)を表す場合に、領域分離の精度を向上できる。
(4)図2のステップS125で決定される背景色範囲において、色成分毎の幅が互いに異なっていてもよい。また、背景色範囲は、RGB色空間において、代表色からの距離(ユークリッド距離)が所定値以下の範囲であってもよい。一般には、背景色範囲としては、代表色を含む種々の範囲を採用可能である。
また、代表色(より一般的には、閾値)は、処理対象領域Hの周囲の領域(処理対象領域Hの周囲を囲むベタ領域)内の、処理対象領域Hに近い一部の領域の階調値を利用して、算出されてもよい。例えば、図6の第1領域L101のための第1代表色CLo1は、ベタ領域L107内の、第1領域L101からの距離が所定値以下の領域L107cから、算出されてもよい。この代わりに、代表色(閾値)は、処理対象領域Hの縁部分の階調値を利用して、算出されてもよい。例えば、図6の第1領域L101のための第1代表色CLo1は、第1領域L101内の、第1領域L101の輪郭からの最短距離が所定値以下の領域L101iから、算出されてもよい。また、代表色(閾値)は、処理対象領域Hの周囲の領域の階調値と、処理対象領域Hの縁部分の階調値と、の両方を利用して、算出されてもよい。いずれの場合も、代表色のRGB毎の階調値としては、平均値に限らず、種々の値(例えば、RGB毎の最頻値、RGB毎の中央値等)を採用可能である。
(5)第2分離部130(図1)によって行われる領域分離の方法としては、階調値の二値化を利用する方法に限らず、種々の方法を採用可能である。例えば、第2分離部130は、第1分離部120と同様に、エッジ強度を利用して領域分離を行ってもよい。
(6)図7の処理において、生成部140(図1)は、統合の候補領域Mとして、処理対象領域Nと同じ領域から分離した領域のみを、採用してもよい。
また、候補領域Mを処理対象領域Nに統合するための条件は、上記の条件F1、F2、F3のうちの予め選択された1つの条件であってもよく、上記の条件F1、F2、F3のうちの予め選択された2つの条件であってもよい。また、上記条件F1、F2、F3とは異なる条件を採用してもよい。
また、3個以上の領域を統合する方法としては、図10で説明したように1つずつ統合する方法に限らず、種々の方法を採用可能である。例えば、まず、統合の条件を満たす複数のペア領域(2つの領域が統合された領域)を生成し、次に、複数のペア領域のうちの共通の領域を含む複数のペア領域を統合する、方法を採用可能である。
(7)文字判定の条件は、「統合数が文字基準値以上であること」に加えて、他の条件を要してもよい。例えば、文字判定の条件は、判定対象領域で利用されている色の数が所定値以下であることを要しても良い。
(8)文字判定の結果を利用する画像処理(図2のS155)としては、シャープネス強調処理や色調整処理に限らず、種々の処理を採用可能である。例えば、文字の領域を比較的高い圧縮率で圧縮し、他の領域を比較的低い圧縮率で圧縮することによって、いわゆる高圧縮PDF(Portable Document Format)データを生成する処理を採用可能である。
また、領域分離の結果を利用する画像処理としては、文字判定(図2のS150)に限らず、種々の処理を採用可能である。例えば、画像調整部160(図1)は、ユーザによって選択されたオブジェクトを表すように画像を自動的にトリミングする処理を実行してもよい。このように、図1の判定部150と、図2のステップS150(図3(E)の画像RI)、S155とは、省略可能である。さらに、画像調整部160を省略してもよい。この場合には、生成部140は、特定された領域を表す画像データ(例えば、図3(D)の第3ラベル画像LI3を表す画像データ)を、不揮発性記憶装置290に格納すればよい。格納された画像データは、種々の画像処理に利用可能である。
(9)第1分離部120(図1)が、対象領域を、第1領域と、第1領域とは異なる第2領域と、を含む複数の領域に分離すること(第1分離と呼ぶ)を実現できない場合があってもよい。例えば、上記実施例では、対象画像が、1つ写真画像のみを表す場合には、第1分離部120は、背景以外の領域として、その写真画像を表す1つの領域のみを分離する可能性がある。このように第1分離を実現できない場合があったとしても、対象画像が特定の条件である第1特定条件を満たす場合に(例えば、対象画像が、互いに離れた複数のオブジェクトを表す場合に)、第1分離部120が第1分離を実現できるのであれば、この第1分離部120は、第1分離を行う第1分離部の例である。換言すれば、この第1分離部120は、第1分離を行うように構成された第1分離部の例である。
また、第2分離部130(図1)が、第1領域を複数の小領域に分離し、第2領域を複数の小領域に分離すること(第2分離と呼ぶ)を実現できない場合があってもよい。例えば、上記実施例では、対象画像が、1つの写真画像のみを表す場合には、第2分離部130は、写真を表す1つの領域(第1分離部120によって分離された領域)を、複数の小領域に分離できない可能性がある。このように第2分離を実現できない場合があったとしても、対象画像が特定の条件である第2特定条件を満たす場合に(例えば、第1領域が複数の文字で構成された文字列を表し、かつ、第2領域が複数の文字で構成された文字列を表す場合に)、第2分離部130が第2分離を実現できるのであれば、この第2分離部130は、第2分離を行う第2分離部の例である。換言すれば、この第2分離部130は、第2分離を行うように構成された第2分離部の例である。
また、第1領域のための第1閾値が、第2領域のための第2閾値と同じである場合があってもよい。すなわち、第2分離部130が、第1閾値を用いて第1領域の分離を行い、第1閾値とは異なる第2閾値を用いて第2領域の分離を行うこと(異閾値分離と呼ぶ)を実現できない場合があってもよい。例えば、上記実施例では、図3(A)において、第6オブジェクトOb6の色が、第7オブジェクトOb7の色と同じである場合には、図3(B)において、第1領域L101の周囲を囲む第7領域L107の色が、第2領域L102の周囲を囲む第8領域L108の色と、同じである。この場合、第1領域L101のための第1閾値群Ctho1(図6)が、第2領域L102のための第2閾値群Ctho2と、同じとなり得る。このように異閾値分離を実現できない場合があったとしても、対象画像が特定の条件である第3特定条件を満たす場合に(例えば、第2領域の周囲を囲む領域の色が、第1領域の周囲を囲む領域の色と異なる場合に)、第2分離部130が異閾値分離を実現できるのであれば、この第2分離部130は、異閾値分離を行う第2分離部の例である。換言すれば、この第2分離部130は、異閾値分離を行うように構成された第2分離部の例である。
また、生成部140(図1)が、3つ以上の小領域を統合することによって統合領域を生成すること(三統合生成と呼ぶ)を実現できない場合があってもよい。例えば、上記実施例では、対象画像が、2つの文字で構成された1つの文字列のみを表す場合には、生成部140は、3個以上の小領域を統合することができない可能性がある。このように、三統合生成を実現できない場合があったとしても、対象画像が特定の条件である第4特定条件を満たす場合に(例えば、対象画像が、3個以上の文字を含む文字列を表す場合に)、生成部140が三統合生成を実現できるのであれば、この生成部140は、三統合生成を行う生成部の例である。換言すれば、この生成部140は、三統合生成を行うように構成された生成部の例である。また、生成部140が、複数の小領域の中の少なくとも2つの小領域を統合することによって統合領域を生成すること(統合領域生成と呼ぶ)を実現できない場合があってもよい。例えば、上記実施例では、対象画像が、1つ写真画像のみを表す場合には、第1分離部120と第2分離部130との処理の結果、背景以外の領域として、その写真画像を表す1つの領域のみが分離される可能性がある。この場合、生成部140は、統合領域を生成できない。このように、統合領域生成を実現できない場合があったとしても、対象画像が特定の条件である第5特定条件を満たす場合に(例えば、対象画像が、2個以上の文字を含む文字列を表す場合に)、生成部140が、統合領域生成を実現できるのであれば、この生成部140は、統合領域生成を行う生成部の例である。換言すれば、この生成部140は、統合領域生成を行うように構成された生成部の例である。
(10)計算機200のスキャナドライバ100による画像処理機能は、光学的に対象物を読み取ることによって対象物を表す画像データを生成する画像読取部を含む画像処理装置によって実現されてもよい(例えば、複合機400やスキャナ300や図示しないデジタルカメラ)。この場合には、画像処理装置は、自身の画像読取部によって生成された画像データを用いて、画像処理(例えば、図2の処理)を行えばよい。
一般的には、画像処理(例えば、図2の処理)を実現する画像処理装置は、計算機200に限らず、種々の装置であってよい。例えば、プリンタ、デジタルカメラ、スキャナなどの画像関連機器の内部のコンピュータ、汎用のパーソナルコンピュータ、ネットワークに接続されたサーバ等を採用可能である。また、ネットワークを介して互いに通信可能な複数のコンピュータが、画像処理に要する機能を一部ずつ分担して、全体として、画像処理の機能を提供してもよい(このようなコンピュータシステムを利用する技術は、クラウドコンピューティングとも呼ばれる)。この場合、コンピュータシステムの全体が、特許請求の範囲における画像処理装置に対応する。いずれの場合も、対象画像データを取得する画像データ取得部110を、画像処理装置に設けることができる。対象画像データを取得する方法としては、任意の方法を採用可能である。例えば、画像データ取得部110は、画像処理装置内の他の要素(例えば、不揮発性記憶装置290や画像読取部)から対象画像データを取得してもよく、通信路を介して他の装置(例えば、USBメモリやスマートフォン)から、対象画像データを取得してもよい。
(11)上記各実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部あるいは全部をハードウェアに置き換えるようにしてもよい。例えば、図1の処理部110〜160から任意に選択された一部または全部の処理部の機能を、論理回路を有する専用のハードウェア回路によって実現してもよい。
また、本発明の機能の一部または全部がソフトウェアで実現される場合には、そのソフトウェア(コンピュータプログラム)は、コンピュータ読み取り可能な記録媒体(例えば、一時的ではない記録媒体)に格納された形で提供することができる。また、ソフトウェア(コンピュータプログラム)は、提供時と同一または異なる記録媒体(コンピュータ読み取り可能な記録媒体)に格納された状態で、使用され得る。「コンピュータ読み取り可能な記録媒体」は、メモリーカードやCD−ROMのような携帯型の記録媒体に限らず、各種ROM等のコンピュータ内の内部記憶装置や、ハードディスクドライブ等のコンピュータに接続されている外部記憶装置も含んでいる。
以上、実施例、変形例に基づき本発明について説明してきたが、上記した発明の実施の形態は、本発明の理解を容易にするためのものであり、本発明を限定するものではない。本発明は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれる。
200...計算機、210...CPU、240...揮発性記憶装置、241...バッファ領域、270...操作部、280...通信部、290...不揮発性記憶装置、291...ドライバプログラム、300...スキャナ、400...複合機、100...スキャナドライバ、110...画像データ取得部、120...第1分離部、130...第2分離部、140...生成部、150...判定部、160...画像調整部

Claims (15)

  1. 対象画像データによって表される対象画像を、前記対象画像を解析することによって、第1領域と、前記第1領域とは異なる第2領域と、を含む複数の領域に分離する第1分離部と、
    前記第1領域を複数の小領域に分離し、前記第2領域を複数の小領域に分離する、第2分離部と、
    前記複数の小領域の中の少なくとも2つの前記小領域を統合することによって統合領域を生成する生成部と、
    を備え
    前記第2分離部は、第1閾値を用いて前記第1領域の前記分離を行い、前記第1閾値とは異なる第2閾値を用いて前記第2領域の前記分離を行い、
    前記生成部は、前記第1領域の小領域と前記第2領域の小領域とを統合することによって前記統合領域を生成する、
    画像処理装置。
  2. 対象画像データによって表される対象画像を、第1領域と、前記第1領域とは異なる第2領域と、を含む複数の領域に分離する第1分離部と、
    前記第1領域を複数の小領域に分離し、前記第2領域を複数の小領域に分離する、第2分離部と、
    前記複数の小領域の中の少なくとも2つの前記小領域を統合することによって統合領域を生成する生成部と、
    を備え
    前記第1分離部は、
    前記対象画像から、エッジ強度の程度を表す特徴値が所定の基準以上である領域であるエッジ領域を抽出し、
    前記対象画像を、前記エッジ領域を含む前記第1領域と、前記エッジ領域を含む前記第2領域と、前記エッジ領域を含まない第3領域と、を含む複数の領域に分離する、
    画像処理装置。
  3. 対象画像データによって表される対象画像を、第1領域と、前記第1領域とは異なる第2領域と、を含む複数の領域に分離する第1分離部と、
    前記第1領域を複数の小領域に分離し、前記第2領域を複数の小領域に分離する、第2分離部と、
    前記複数の小領域の中の少なくとも2つの前記小領域を統合することによって統合領域を生成する生成部と、
    を備え
    前記第2分離部は、
    第1閾値を用いて前記第1領域の前記分離を行い、前記第1閾値とは異なる第2閾値を用いて前記第2領域の前記分離を行い、
    前記第1閾値を用いて前記第1領域に含まれる画素の階調値を二値化し、前記二値化後の階調値が同じである画素が連続する1つの領域を、1つの前記小領域として分離し、
    前記第2閾値を用いて前記第2領域に含まれる画素の階調値を二値化し、前記二値化後の階調値が同じである画素が連続する1つの領域を、1つの前記小領域として分離する、
    画像処理装置。
  4. 対象画像データによって表される対象画像を、第1領域と、前記第1領域とは異なる第2領域と、を含む複数の領域に分離する第1分離部と、
    前記第1領域を複数の小領域に分離し、前記第2領域を複数の小領域に分離する、第2分離部と、
    前記複数の小領域の中の少なくとも2つの前記小領域を統合することによって統合領域を生成する生成部と、
    を備え
    前記第2分離部は、
    第1閾値を用いて前記第1領域の前記分離を行い、前記第1閾値とは異なる第2閾値を用いて前記第2領域の前記分離を行い、
    前記第1領域の周囲の領域の階調値と、前記第1領域の縁部分の階調値と、の少なくとも一方に基づく前記第1閾値を用いて、前記第1領域の前記分離を行い、
    前記第2領域の周囲の領域の階調値と、前記第2領域の縁部分の階調値と、の少なくとも一方に基づく前記第2閾値を用いて、前記第2領域の前記分離を行う、
    画像処理装置。
  5. 請求項1から4のいずれかに記載の画像処理装置であって、
    前記第1分離部は、U個(Uは2以上の整数)の画素を含む第1ブロック毎に、前記第1領域と前記第2領域とを含む前記複数の領域の分離を行う、画像処理装置。
  6. 請求項に記載の画像処理装置であって、
    前記第2分離部は、J個(Jは1以上U未満の整数)の画素を含む第2ブロック毎に、前記複数の小領域の分離を行う、画像処理装置。
  7. 請求項に記載の画像処理装置であって、
    前記第2ブロックに含まれる前記画素の数であるJ個は、1個である、画像処理装置。
  8. 請求項1から7のいずれかに記載の画像処理装置であって、
    前記生成部は、第1小領域と第2小領域とが所定の統合条件を満たす場合に、前記第1小領域と前記第2小領域とを統合し、
    前記所定の統合条件は、
    1)前記第1小領域の大きさと前記第2小領域の大きさとが、所定の大きさ基準以下である、
    2)前記第1小領域と前記第2小領域との間の距離が、所定の距離基準以下である、
    3)前記第1小領域と前記第2小領域との間の階調値の差が、所定の階調差基準以下である、
    の少なくとも1つを要する、画像処理装置。
  9. 請求項1から8のいずれかに記載の画像処理装置であって、
    前記生成部は、3つ以上の前記小領域を統合することによって前記統合領域を生成する、画像処理装置。
  10. 請求項に記載の画像処理装置であって、
    前記生成部は、2つの小領域を統合することによって前記統合領域を生成し、前記生成した統合領域に前記2つの小領域とは異なる小領域を統合することによって、前記統合領域を更新する、
    画像処理装置。
  11. 請求項1から10のいずれかに記載の画像処理装置であって、さらに、
    前記統合領域が、文字を表す文字領域であるか否かを、判定する判定部を含み、
    前記判定部は、前記統合領域に含まれる前記小領域の総数が所定の領域数以上であることを要する条件が満たされる場合に、前記統合領域が前記文字領域であると判定する、
    画像処理装置。
  12. 画像処理をコンピュータに実行させるためのプログラムであって、
    対象画像データによって表される対象画像を、前記対象画像を解析することによって、第1領域と、前記第1領域とは異なる第2領域と、を含む複数の領域に分離する第1分離機能と、
    前記第1領域を複数の小領域に分離し、前記第2領域を複数の小領域に分離する、第2分離機能と、
    前記複数の小領域の中の少なくとも2つの前記小領域を統合することによって統合領域を生成する生成機能と、
    をコンピュータに実行させ
    前記第2分離機能は、第1閾値を用いて前記第1領域の前記分離を行い、前記第1閾値とは異なる第2閾値を用いて前記第2領域の前記分離を行い、
    前記生成機能は、前記第1領域の小領域と前記第2領域の小領域とを統合することによって前記統合領域を生成する、
    プログラム。
  13. 画像処理をコンピュータに実行させるためのプログラムであって、
    対象画像データによって表される対象画像を、第1領域と、前記第1領域とは異なる第2領域と、を含む複数の領域に分離する第1分離機能と、
    前記第1領域を複数の小領域に分離し、前記第2領域を複数の小領域に分離する、第2分離機能と、
    前記複数の小領域の中の少なくとも2つの前記小領域を統合することによって統合領域を生成する生成機能と、
    をコンピュータに実行させ
    前記第1分離機能は、
    前記対象画像から、エッジ強度の程度を表す特徴値が所定の基準以上である領域であるエッジ領域を抽出し、
    前記対象画像を、前記エッジ領域を含む前記第1領域と、前記エッジ領域を含む前記第2領域と、前記エッジ領域を含まない第3領域と、を含む複数の領域に分離する、
    プログラム。
  14. 画像処理をコンピュータに実行させるためのプログラムであって、
    対象画像データによって表される対象画像を、第1領域と、前記第1領域とは異なる第2領域と、を含む複数の領域に分離する第1分離機能と、
    前記第1領域を複数の小領域に分離し、前記第2領域を複数の小領域に分離する、第2分離機能と、
    前記複数の小領域の中の少なくとも2つの前記小領域を統合することによって統合領域を生成する生成機能と、
    をコンピュータに実行させ
    前記第2分離機能は、
    第1閾値を用いて前記第1領域の前記分離を行い、前記第1閾値とは異なる第2閾値を用いて前記第2領域の前記分離を行い、
    前記第1閾値を用いて前記第1領域に含まれる画素の階調値を二値化し、前記二値化後の階調値が同じである画素が連続する1つの領域を、1つの前記小領域として分離し、
    前記第2閾値を用いて前記第2領域に含まれる画素の階調値を二値化し、前記二値化後の階調値が同じである画素が連続する1つの領域を、1つの前記小領域として分離する、
    プログラム。
  15. 画像処理をコンピュータに実行させるためのプログラムであって、
    対象画像データによって表される対象画像を、第1領域と、前記第1領域とは異なる第2領域と、を含む複数の領域に分離する第1分離機能と、
    前記第1領域を複数の小領域に分離し、前記第2領域を複数の小領域に分離する、第2分離機能と、
    前記複数の小領域の中の少なくとも2つの前記小領域を統合することによって統合領域を生成する生成機能と、
    をコンピュータに実行させ
    前記第2分離機能は、
    第1閾値を用いて前記第1領域の前記分離を行い、前記第1閾値とは異なる第2閾値を用いて前記第2領域の前記分離を行い、
    前記第1領域の周囲の領域の階調値と、前記第1領域の縁部分の階調値と、の少なくとも一方に基づく前記第1閾値を用いて、前記第1領域の前記分離を行い、
    前記第2領域の周囲の領域の階調値と、前記第2領域の縁部分の階調値と、の少なくとも一方に基づく前記第2閾値を用いて、前記第2領域の前記分離を行う、
    プログラム。
JP2012079871A 2012-03-30 2012-03-30 画像処理装置およびプログラム Active JP5974589B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012079871A JP5974589B2 (ja) 2012-03-30 2012-03-30 画像処理装置およびプログラム
US13/795,717 US9158987B2 (en) 2012-03-30 2013-03-12 Image processing device that separates image into plural regions
EP13159021.8A EP2645332B1 (en) 2012-03-30 2013-03-13 Image processing device that separates image into plural regions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012079871A JP5974589B2 (ja) 2012-03-30 2012-03-30 画像処理装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2013210785A JP2013210785A (ja) 2013-10-10
JP5974589B2 true JP5974589B2 (ja) 2016-08-23

Family

ID=47997015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012079871A Active JP5974589B2 (ja) 2012-03-30 2012-03-30 画像処理装置およびプログラム

Country Status (3)

Country Link
US (1) US9158987B2 (ja)
EP (1) EP2645332B1 (ja)
JP (1) JP5974589B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6108220B2 (ja) * 2013-03-26 2017-04-05 ブラザー工業株式会社 画像処理装置、画像処理プログラム
US10026005B2 (en) * 2014-03-28 2018-07-17 Nec Corporation Color-scheme evaluation device, color-scheme evaluation method, and storage medium on which color-scheme evaluation program is stored
JP6503850B2 (ja) * 2015-04-06 2019-04-24 富士通株式会社 範囲指定プログラム、範囲指定方法および範囲指定装置
US9798924B2 (en) * 2015-08-17 2017-10-24 Kofax International Switzerland Sarl Content delineation in document images
US10332262B2 (en) * 2017-02-16 2019-06-25 Adobe Inc. Removal of background information from digital images
JP2018148378A (ja) * 2017-03-03 2018-09-20 ブラザー工業株式会社 画像処理装置、および、コンピュータプログラム
JP2018147199A (ja) * 2017-03-03 2018-09-20 ブラザー工業株式会社 画像処理装置、および、コンピュータプログラム
JP7013341B2 (ja) * 2018-07-06 2022-01-31 日立チャネルソリューションズ株式会社 帳票認識装置、帳票認識方法、及び帳票認識プログラム
JP7028099B2 (ja) * 2018-08-02 2022-03-02 日本電信電話株式会社 候補領域推定装置、候補領域推定方法、及びプログラム
EP4318387A4 (en) * 2021-05-11 2024-05-22 Mitsubishi Electric Corp IMAGE ANALYSIS DEVICE, IMAGE ANALYSIS METHOD, AND IMAGE ANALYSIS PROGRAM

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3100383B2 (ja) * 1989-09-06 2000-10-16 株式会社リコー 文字領域分離方法および装置
EP0587450B1 (en) * 1992-09-11 2004-11-17 Canon Kabushiki Kaisha Image processing method and apparatus
KR100239357B1 (ko) * 1997-04-17 2000-01-15 구자홍 영상 표시 장치의 문자 처리 방법 및 장치
JP3748164B2 (ja) * 1998-02-06 2006-02-22 富士通株式会社 パターン抽出装置
JP3692018B2 (ja) * 2000-01-24 2005-09-07 株式会社東芝 テロップ情報処理装置
JP4275866B2 (ja) * 2000-01-27 2009-06-10 富士通株式会社 カラー画像から文字列パターンを抽出する装置および方法
US6738510B2 (en) * 2000-02-22 2004-05-18 Olympus Optical Co., Ltd. Image processing apparatus
JP2001291058A (ja) 2000-04-07 2001-10-19 Fujitsu Ltd 文字認識装置及び記録媒体
JP4797308B2 (ja) * 2001-09-27 2011-10-19 ブラザー工業株式会社 画像処理装置及び画像処理プログラム
JP2004046632A (ja) * 2002-07-12 2004-02-12 Minolta Co Ltd 画像処理装置
JP4059389B2 (ja) * 2002-09-05 2008-03-12 株式会社リコー 画像処理装置、画像処理プログラムおよび記憶媒体
JP2004240583A (ja) * 2003-02-04 2004-08-26 Brother Ind Ltd 画像処理装置およびそれを備えた画像読み取り装置
JP4139760B2 (ja) * 2003-10-10 2008-08-27 富士フイルム株式会社 画像処理方法および装置ならびに画像処理プログラム
EP1555804A3 (en) * 2004-01-19 2006-08-16 Ricoh Company, Ltd. Image processing apparatus, image processing program and storage medium
JP2006085665A (ja) 2004-08-18 2006-03-30 Ricoh Co Ltd 画像処理装置、画像処理プログラム、記憶媒体、画像処理方法および画像形成装置
JP5008572B2 (ja) 2004-12-21 2012-08-22 キヤノン株式会社 画像処理方法、画像処理装置およびコンピュータ可読媒体
US7831107B2 (en) * 2005-10-17 2010-11-09 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program
JP4861845B2 (ja) * 2007-02-05 2012-01-25 富士通株式会社 テロップ文字抽出プログラム、記録媒体、方法及び装置
US20090041344A1 (en) 2007-08-08 2009-02-12 Richard John Campbell Methods and Systems for Determining a Background Color in a Digital Image
JP5028337B2 (ja) * 2008-05-30 2012-09-19 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、及び記憶媒体
JP5171421B2 (ja) 2008-06-18 2013-03-27 キヤノン株式会社 画像処理装置、画像処理方法、コンピュータプログラム
JP5049922B2 (ja) * 2008-08-26 2012-10-17 キヤノン株式会社 画像処理装置及び画像処理方法
WO2010055558A1 (ja) * 2008-11-12 2010-05-20 富士通株式会社 文字領域抽出装置,文字領域抽出機能を備えた撮像装置,および文字領域抽出プログラム
KR101566196B1 (ko) 2009-03-02 2015-11-05 삼성전자주식회사 히스토그램 분석을 이용한 영상 분류 방법 및 장치, 이를 이용한 문자 인식 방법 및 장치
JP5312166B2 (ja) * 2009-04-13 2013-10-09 キヤノン株式会社 画像処理装置及び制御方法及びプログラム
JP5455038B2 (ja) * 2009-12-28 2014-03-26 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP5701182B2 (ja) * 2011-08-18 2015-04-15 株式会社Pfu 画像処理装置、画像処理方法及びコンピュータプログラム
JP5651773B2 (ja) * 2011-09-16 2015-01-14 ファーウェイ デバイス カンパニー リミテッド 文字表示方法及び装置

Also Published As

Publication number Publication date
US20130259383A1 (en) 2013-10-03
EP2645332A2 (en) 2013-10-02
JP2013210785A (ja) 2013-10-10
US9158987B2 (en) 2015-10-13
EP2645332A3 (en) 2015-03-18
EP2645332B1 (en) 2019-10-02

Similar Documents

Publication Publication Date Title
JP5974589B2 (ja) 画像処理装置およびプログラム
KR101802146B1 (ko) 화상처리장치 및 화상처리방법
JP5875637B2 (ja) 画像処理装置、画像処理方法
JP6139396B2 (ja) 文書を表す二値画像を圧縮する方法及びプログラム
JP5455038B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5934174B2 (ja) 印刷文書を認証するための方法及びプログラム
JP2016505186A (ja) エッジ保存・ノイズ抑制機能を有するイメージプロセッサ
US9171224B2 (en) Method of improving contrast for text extraction and recognition applications
US9928417B2 (en) Imaging process for binarization and punched hole extraction
JP2010218420A (ja) 文字認識装置、画像読取装置、およびプログラム
JP2010205067A (ja) 領域抽出装置、領域抽出方法及び領域抽出プログラム
JP2011248702A (ja) 画像処理装置、画像処理方法、画像処理プログラム及びプログラム記憶媒体
KR102311367B1 (ko) 화상 처리 장치, 화상 처리 방법, 및 프로그램
JP4077919B2 (ja) 画像処理方法及び装置及びその記憶媒体
JP5888068B2 (ja) 画像処理装置およびプログラム
JP5335581B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20230316697A1 (en) Association method, association system, and non-transitory computer-readable storage medium
JP6546385B2 (ja) 画像処理装置及びその制御方法、プログラム
CN115410191A (zh) 文本图像识别方法、装置、设备和存储介质
US9977984B2 (en) Computer-readable storage medium storing image processing program, image processing device, and image processing method
JP6091400B2 (ja) 画像処理装置
JP2020087320A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6641982B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6613625B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
JP5846011B2 (ja) 画像処理装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160704

R150 Certificate of patent or registration of utility model

Ref document number: 5974589

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150