JP2004120092A - Image processing apparatus, image processing system, image processing method, storage medium, and program - Google Patents

Image processing apparatus, image processing system, image processing method, storage medium, and program Download PDF

Info

Publication number
JP2004120092A
JP2004120092A JP2002277550A JP2002277550A JP2004120092A JP 2004120092 A JP2004120092 A JP 2004120092A JP 2002277550 A JP2002277550 A JP 2002277550A JP 2002277550 A JP2002277550 A JP 2002277550A JP 2004120092 A JP2004120092 A JP 2004120092A
Authority
JP
Japan
Prior art keywords
image
target image
area
processing
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002277550A
Other languages
Japanese (ja)
Inventor
Okinobu Tsuchiya
土屋 興宜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002277550A priority Critical patent/JP2004120092A/en
Publication of JP2004120092A publication Critical patent/JP2004120092A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of easily and efficiently providing an image after excellent color processing even when an image of a processing object is any type of image. <P>SOLUTION: When the object image is divided into regions and color processing is applied to the division regions, division means 407 to 409 divide the object image into the regions on the basis of color information of the object image and spatial frequency information obtained by edge extraction applied to the object image. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、例えば、画像を領域分割し、領域毎に、或いは必要な領域に対して、色調整又は色修正等の色処理を施す装置或いはシステムに用いられる、画像処理装置、画像処理システム、画像処理方法、それを実施するためのプログラムを記憶したコンピュータ読み取り可能な記憶媒体、及び当該プログラムに関するものである。
【0002】
【従来の技術】
従来より例えば、画像を領域に分割し、領域毎に或いは必要な領域に対して、色調整又は色修正等の色処理を行うという画像処理は、印刷製版工程におけるカタログやチラシ等の作成や、DTP(Desk Top Publishing )等のディザイナー側において、画像レタッチソフトウェアを用いての画像調整等で頻繁に行われる処理である。
【0003】
ところで、画像を分割して類似色が同一領域となるようにし、その後、各領域に対して色処理するという画像処理では、処理対象の画像が、背景に当該背景色と区別ができる文字が描かれている画像のように、領域分割しやすい画像であるならば問題ない場合が多い。しかしながら、処理対象の画像が、自然画等のような画像である場合、具体的には、色の変化がなだらかな画像である場合、画像を領域分割して色処理しようとしても、領域分割した結果が人間の感覚と一致しない等のために、分割領域に対して実施した色処理に不具合を生じる場合がある。
【0004】
上記の不具合の代表的なものとしては、例えば、分割領域毎に色処理を行った結果、領域を分割している分割線が目立ってしまい、原画像には存在しなかった境界線である所謂擬似輪郭が発生し、原画像と比較しても、不自然な処理後画像が得られてしまう、という不具合が挙げられる。
【0005】
そこで、上記の問題点を解決するために、領域分割の精度を上げ、人間の感覚に近いような領域分割を行えることを目的とした画像処理方法として、例えば、特開平6−237372号公報等では、クラスタリングを行う空間を工夫して、領域分割の結果が、人間の感覚に近くなるようにする方法が提案されている。
【0006】
また、例えば、特開平11−306334号公報等では、対象画像を色及び座標空間上でクラスタリングして領域分割し、当該領域分割されたクラスタ間の色変化の小さい領域を曖昧領域として設定し、当該曖昧領域については、画像処理のパラメータを調整する方法が提案されている。
【0007】
【発明が解決しようとする課題】
しかしながら、特開平6−237372号公報等に記載の従来の画像処理方法では、領域分割処理をどのように工夫したとしても、人間の感覚に近い領域分割を行うことはかなり困難であると思われる。
また、特開平11−306334号公報等に記載の従来の画像処理方法では、領域分割処理を精度良く行うために、色処理の対象を原画像全体とする必要があり、この結果、領域分割に必要なメモリ容量及び演算量共に膨大なものとなってしまう。例えば、画像を領域分割して、前記分割された領域毎に異なる画像処理を行う場合、画像の実解像度でのプレスキャン及び領域分割と、画像領域毎の画像処理(実解像度)の2回の、実解像度でのスキャンが必要となる。
【0008】
そこで、本発明は、上記の欠点を除去するために成されたもので、処理対象の画像が如何なる画像であっても、良好な色処理後の画像を容易且つ効率的に提供できる、画像処理装置、画像処理システム、画像処理方法、それを実施するためのプログラムを記憶したコンピュータ読み取り可能な記憶媒体、及び当該プログラムを提供することを目的とする。
【0009】
具体的には例えば、処理対象の画像を領域分割し、その後、各領域毎の色処理を行っても、領域の切り替わり部に擬似輪郭が生じないようにする。また、領域分割を行う際、これに要するメモリ量や演算量を少なくし、簡易的な領域分割を行えるようにする。
【0010】
【課題を解決するための手段】
斯かる目的下において、本発明は、対象画像を領域分割し、当該分割領域に対して色処理を施す画像処理装置であって、対象画像から得られる色情報及び空間周波数情報に基づいて、対象画像を領域分割する分割手段を備えることを特徴とする。
【0011】
また、本発明は、対象画像をプレスキャンすることで検出した対象画像の特徴に基づいて、対象画像への補正処理を行なう画像処理装置であって、上記プレスキャンの際に入力された対象画像の領域分割を行い、当該領域分割で確定しなかった領域については、上記補正処理の際に再度領域分割を行なう分割手段と、上記分割手段により得られた分割領域毎に、対象領域に応じた上記補正処理を施す処理手段とを備えることを特徴とする。
【0012】
また、本発明は、対象画像において、類似した色が同一領域となるよう領域分割を行うための画像処理方法であって、対象画像を入力する入力ステップと、上記入力ステップにより入力された対象画像の色情報を認識する色情報認識ステップと、上記入力ステップにより入力された対象画像の空間周波数情報を認識する空間周波数情報認識ステップと、上記色情報認識ステップにより認識された色情報、及び空間周波数情報認識ステップにより認識された空間周波数情報により、対象画像領域を認識する画像領域認識ステップとを含むことを特徴とする。
【0013】
また、本発明は、対象画像をプレスキャンして対象画像の特徴を検出し、当該検出結果に基づき対象画像の補正処理を行なうための画像処理方法であって、上記プレスキャンの際に入力画像の領域分割を行い、上記プレスキャンの際の領域分割により確定しなかった領域については上記補正処理の際に再度領域分割を行ない、当該分割領域に応じた上記補正処理を行なう処理ステップを含むことを特徴とする。
【0014】
また、本発明は、コンピュータを所定の手段として機能させるためのプログラムであって、上記所定の手段は、対象画像を領域分割し、当該分割領域に対して色処理を施す装置或いはシステムが有する手段として、対象画像から得られる色情報及び空間周波数情報に基づいて、対象画像を領域分割する手段を備えることを特徴とする。
【0015】
また、本発明は、コンピュータを所定の手段として機能させるためのプログラムであって、上記所定の手段は、対象画像をプレスキャンすることで検出した対象画像の特徴に基づいて、対象画像への補正処理を行なう装置或いはシステムが備える手段として、上記プレスキャンの際に入力された対象画像の領域分割を行い、当該領域分割で確定しなかった領域については、上記補正処理の際に再度領域分割を行なう分割手段と、上記分割手段により得られた分割領域毎に、対象領域に応じた上記補正処理を施す処理手段とを備えることを特徴とする。
【0016】
また、本発明は、コンピュータに所定のステップを実行させるためのプログラムであって、上記所定のステップは、対象画像を類似した色が同一となるよう領域分割を行うための処理ステップとして、対象画像を入力する入力ステップと、上記入力ステップにより入力された対象画像の色情報を認識する色情報認識ステップと、上記入力ステップにより入力された対象画像の空間周波数情報を認識する空間周波数情報認識ステップと、上記色情報認識ステップにより認識された色情報、及び空間周波数情報認識ステップにより認識された空間周波数情報により、対象画像領域を認識する画像領域認識ステップとを含むことを特徴とする。
【0017】
また、本発明は、コンピュータに所定のステップを実行させるためのプログラムであって、上記所定のステップは、対象画像をプレスキャンして対象画像の特徴を検出し、当該検出結果に基づき対象画像の補正処理を行なうための処理ステップとして、上記プレスキャンの際に入力画像の領域分割を行い、上記プレスキャンの際の領域分割により確定しなかった領域については上記補正処理の際に再度領域分割を行ない、当該分割領域に応じた上記補正処理を行なう処理ステップを含むことを特徴とする。
【0018】
また、本発明は、請求項14〜17の何れかに記載のプログラムをコンピュータ読み取り可能な記憶媒体に記録したことを特徴とする。
【0019】
【発明の実施の形態】
以下、本発明の実施の形態について図面を用いて説明する。
【0020】
本発明は、例えば、図1に示すようなホストコンピュータ100に適用される。
本実施の形態のホストコンピュータ100は、画像を類似した色が同一となるよう分割した領域に対して色調整や色修正等の色処理を行う、或いは画像を分割した領域毎に色調整や色修正等の色処理を行う機能を有し、特に、画像を領域分割した後に領域毎に色処理を行っても、領域の切り替わり部に擬似輪郭が生じることがなく、また、領域分割に要するメモリ量及び演算量が少ない簡易的な領域分割を実施するように構成されている。
以下、本実施の形態のホストコンピュータ100の構成及び動作について具体的に説明する。
【0021】
<ホストコンピュータ100の構成>
ホストコンピュータ100には、上記図1に示すように、例えば、インクジェットプリンタ等のプリンタ106とモニタ105が接続されている。
【0022】
また、ホストコンピュータ100は、ワープロや、表計算、或いはインターネットブラウザ等のアプリケーションソフトウエア101と、OS(Operating System)102と、アプリケーションソフトウエア101によりOS102に対して発行される出力画像を示す各種描画命令群(イメージ描画命令、テキスト描画命令、及びグラフィックス描画命令等)を処理して印刷データを作成するプリンタドライバ103と、アプリケーションソフトウエア101により発行される各種描画命令群を処理してモニタ106で画面表示を行うモニタドライバ104とをソフトウエアとして有する構成としている。
【0023】
また、ホストコンピュータ100は、ソフトウエア101〜104が動作可能なハードウエアとして、中央演算処理装置(CPU)108、ハードディスクドライバ(HD)107、ランダムアクセスメモリ(RAM)109、及びリードオンリーメモリ(ROM)110等を備えている。
【0024】
上記図1に示される本実施の形態としては、例えば、ホストコンピュータ100として、一般的に普及しているIBM社のATコンパチのパーソナルコンピュータを使用し、このパーソナルコンピュータに対して、Microsoft社のWindows(R)98をOS102として使用し、任意の印刷可能なアプリケーション101をインストールし、そして、モニタ105とプリンタ106を接続した形態が挙げられる。
【0025】
<ホストコンピュータ100の一連の動作>
ホストコンピュータ100において、例えば、CPU108は、ユーザからの指示(モニタ105に表示された画像に基づいた指示)により、アプリケーション101を起動する。これにより、アプリケーション101は、文字等のテキストに分類されるテキストデータや、図形等のグラフィックスに分類されるグラフィックスデータ、或いは自然画等に分類されるイメージ画像データ等を用いた出力画像データを生成する。
【0026】
出力画像データを印刷出力する場合、アプリケーション101は、OS102に対して印刷出力要求を発行する。
具体的には例えば、アプリケーション101は、出力画像データについて、グラフィックスデータ部分はグラフィックス描画命令、イメージ画像データ部分はイメージ描画命令で構成される出力画像を示す描画命令群を、OS102に対して発行する。
【0027】
OS102は、アプリケーション101からの描画命令群を受け取り、当該描画命令群を印刷要求として、プリンタ106に対応するプリンタドライバ103に対して発行する。
【0028】
プリンタドライバ103は、OS102からの印刷要求(描画命令群)を処理することで、プリンタ105で印刷可能な印刷データを生成し、これをプリンタ106に対して転送する。
具体的には例えば、プリンタ106がラスタープリンタである場合、プリンタドライバ103は、OS102からの描画命令群に対して、順次画像補正処理を行い、順次RGB24ビットページメモリにラスタライズし、全ての描画命令をラスタライズした後に、RGB24ビットページメモリの内容を、プリンタ106が印刷可能なデータ形式、例えば、CMYKデータに変換し、これをプリンタ106に対して転送する。
【0029】
<プリンタドライバ103の構成>
プリンタドライバ103は、例えば、図22に示されるような色処理を実行するものであり、図2に示すように、画像補正処理部201及びプリンタ用補正処理部202を含んでいる。
【0030】
画像補正処理部201は、OS102からの描画命令群に含まれる色情報に対して、画像補正処理を行う。
具体的には例えば、画像補正処理部201は、描画命令群により示される画像全体を、そのRGB色情報に基づき領域分割し、分割領域毎に異なる色変換を行なう。
【0031】
プリンタ用補正処理部202は、先ず、画像補正処理部201で画像補正処理された色情報に基づき、描画命令群をラスタライズすることで、RGB24ビットページメモリ上にラスター画像を生成する。そして、プリンタ用補正処理部202は、当該ラスター画像を構成する各画素に対して、プリンタ106の色再現性に依存したCMYKデータを生成し、これをプリンタ106に対して転送する。
【0032】
<画像補正処理部201の全体動作>
図3は、画像補正処理部201の全体動作をフローチャートにより示したものである。
【0033】
ステップS301:
画像補正処理部201は、OS102からの描画命令群により示される画像全体(以下、「原画像」とも言う)をプレスキャンすることで、領域テーブルを生成する。
【0034】
具体的には例えば、画像補正処理部201は、原画像(図5)をプレスキャンすることで、原画像全面の情報を収集し、この情報に基づいて、原画像を領域分割し、領域テーブルを生成する。ここで、領域テーブルとは、原画像(図5)に対応して、例えば、「緑の領域」、「空の領域」、「肌の領域」などをあらわすフラグを記した「2次元の座標値−領域フラグ」の形式のテーブル(図8)のことである。
【0035】
尚、プレスキャン処理時では、画像補正処理部201は、原画像を構成する全画素について処理するのではなく、例えば、原画像全面について640画素×480画素分をサンプリングし、このサンプリング後の画像(図6)について処理を行う。
このように処理対象画素数を減らすことにより、領域分割処理時のメモリ使用量軽減及び処理の高速化を図ることができる。
【0036】
ステップS302:
画像補正処理部201は、ステップS301で生成した領域テーブル(図8)を参照し、これに基づいて、原画像を分割した領域毎(ラスタ毎)に、当該分割領域に応じた画像変換(当該分割領域毎に異なる画像処理)を行う。
【0037】
<画像補正処理部201における領域テーブル設定処理(ステップS301)>図4は、画像補正処理部201において、上記図3に示したステップS301の処理を実施するための構成を示したものである。
画像補正処理部201は、上記図4に示すように、画像入力部401、画像サンプル部402、画像信号変換部403、画像再サンプル部404、エッジ抽出部405,406、領域フラグ設定部407、境界領域選択部408、及び境界領域フラグ設定部409を備えている。
【0038】
特に、本実施の形態では、上記図4に示す構成において、画像サンプル部402及び画像再サンプル部404でサンプリングを行った入力画像データ(原画像データ)について、エッジ抽出部405,406でエッジ抽出を行い、領域フラグ設定部407において、エッジ抽出により取得した空間周波数情報、及び入力画像の色情報に基づき領域分割を行なう。このとき、サンプリング後の画像データからは正確に領域分割できない領域については、詳細は後述するが、画像補正時に実解像度での領域分割を行い、当該分割領域に応じた画像補正処理を行なう。
【0039】
具体的には、先ず、画像入力部401は、OS102からの描画命令群により構成される画像、例えば、図5に示すような、RGB形式の画像データ500を入力画像データとして、画像サンプル部402に対して入力する。ここで図5の入力画像の画像サイズは、例えば、2560画素×1920画素のデータである。
【0040】
画像サンプル部402は、画像入力部401からの入力画像データ500をサンプリングし、例えば、図6に示すような、640画素×480画素のサイズのサムネイル程度の画素数にまで間引いた画像データ501を生成する。
なお、図6では、原画像(図5)にサンプリング間隔を記した模式的な描き方をしているが、実際には、図6の1マスの画素値は、原画像(図5)の対応する領域の画素値の平均値となっている。
画像信号変換部403は、画像サンプル部402で得られた画像データ501を、YCrCb形式の画像データに変換する。
【0041】
画像再サンプル部404は、画像サンプル部402と同様にして、画像信号変換部403による変換後の画像データをサンプリングし、例えば、図7に示すような画像データ502を生成する。ここで、図7は、320画素×240画素となっている。
エッジ抽出部405は、画像再サンプル部404で得られた画像データ502から、低周波数領域を抽出することで、低周波エッジ画像を生成する。
【0042】
エッジ抽出部406は、画像信号変換部403による変換後の画像データから、中周波数領域を抽出することで、中周波エッジ画像を生成する。
【0043】
領域フラグ設定部407に対しては、エッジ抽出部405で得られた低周波エッジ画像、エッジ抽出部406で得られた中周波エッジ画像、及び画像信号変換部403による変換後の画像(無変換の640画素×480画素のYCrCb形式の間引き画像)が入力される。
【0044】
領域フラグ設定部407は、詳細は後述するが、図6の入力画像に基づいて、例えば、図8に示されるような、緑領域、肌領域、及び空領域等の特定色領域(上記図8では、これらの特定色色領域を異なるタイプの斜線で示す)に対応したフラグを割り当て、当該境界フラグからなる境界なしフラグテーブルを生成する。
【0045】
ところで、画像を粗く間引いた間引き画像上で領域分割を行っても、上記図8に示される間引き画像上での境界領域は、上記図5に示した原画像(実解像度画像)500の境界領域には厳密に対応しない。すなわち、図8の領域テーブルの解像度は、図5の原画像よりも解像度が粗く設定されているため、図8の領域テーブルの解像度では表現し得ない、原画像(図5)における細かな構造物については、誤判定されてしまったり、原画像(図5)の解像度では2つに分割されるべき領域が、図8の領域テーブルの解像度では,どちらか一方の領域として認識されてしまう場合がある。
【0046】
そこで、本実施の形態では、本処理(上記図3に示したステップS301の処理)において、上記図8に示すように粗い領域分割を行い、その境界部分については、本スキャン時に、原画像(実解像度画像)500の解像度で再領域分割を行うようにしている。
【0047】
具体的には、境界領域選択部408は、領域フラグ設定部407で設定された境界なし領域テーブルに基づいて、例えば、図9に示すように、「○(白丸)」で示す領域を選択する。
ここでの境界領域の選択では、例えば、図10に示すように、8近傍領域について、当該8近傍画素中の3画素以上、注目点と異なる領域が含まれている場合に、境界領域と見なすようにする。
【0048】
境界領域選択部408で選択された領域、例えば、図11に示すような、斜線で塗りつぶされていない領域については、境界領域フラグ設定部409により、図12に示すように境界領域フラグを設定する。
【0049】
したがって、上記図3に示したステップ301の領域テーブルの設定では、例えば、緑領域、肌領域、及び空領域等の特定色領域と、境界領域と、これらを除いた非特定色領域とに分割された、サムネイル程度の間引き画像サイズの画像についての領域テーブルが生成されることになる。
【0050】
領域フラグ設定部407は、例えば、図13に示すような構成により、境界なし領域テーブルを設定する。
【0051】
具体的には、まず、領域フラグ設定部407には、上述したように、エッジ抽出部405で得られた低周波エッジ画像、エッジ抽出部406で得られた中周波エッジ画像、及び画像信号変換部403による変換後の画像(無変換の640画素×480画素のYCrCb形式の間引き画像)が入力され、領域フラグ設定部407は、これらの入力画像に基づいて、領域識別のためのフラグを設定することで領域テーブルを生成し、これを出力する。
【0052】
このため領域フラグ設定部407は、上記図13に示すように、低周波域判別部611及び中周波域判別部612を含む周波数判定部610と、色相判定部621、明度判定部622、及び彩度判定部623を含む色度判定部620と、領域決定部630と、領域フラグ設定部640とを備えている。
【0053】
ここでは説明の簡単のため、例えば、間引き画像を、640画素×480画素サイズのYCrCbデータの画像とし、低周波領域のエッジ画像(低周波エッジ画像)を、320画素×240画素サイズのYデータをLaplacianフィルタで処理したグレースケール画像とし、中周波領域のエッジ画像(中周波エッジ画像)を、640画素×480画素サイズのYデータをLaplacianフィルタで処理したグレースケール画像としている。
【0054】
領域フラグ設定部407において、先ず、低周波エッジ画像は、低周波域判定部611に対して入力され、中周波エッジ画像は、中低周波域判定部612に対して入力され、間引き画像は、色度判定部620に対して入力される。
【0055】
低周波域判定部611、中低周波域判定部612、色度判定部620に含まれる色相判定部621、明度判定部622、及び彩度判定部623はそれぞれ、例えば、図14に示されるような分割手法(定量的な分割条件)に従って、入力画像の領域分割を行う。
領域決定部630は、低周波域判定部611、中低周波域判定部612、色相判定部621、明度判定部622、及び彩度判定部623による領域分割結果に基づいて、該当する領域を特定する。
【0056】
尚、どの領域にも該当しない領域については、「その他の領域」として分類される。
【0057】
領域フラグ設定部640は、領域決定部630により特定された領域に基づいて、領域テーブル上の対応する箇所に該当する領域のフラグを設定し、これを境界なし領域テーブルとして出力する。
【0058】
尚、定量的な分割条件としては、上記図14に示したものに限られることはなく、例えば、図15に示すような条件をも適用可能である。
上記図15に示す分割条件において、「Laplacian320×240」は、320画素×240画素に再サンプルされたY画像をLaplacianフィルタで処理したものを示し、「Laplacian640×480」は、640画素×480画素にサンプルされたY画像を処理したものを示す。
また、上記図15に示す分割条件では、全ての特徴量についての閾値に従って処理が実行されることになるが、例えば、図16に示されるような確率的な判定結果に従って処理を実行するように構成してもよい。この場合、当該判定結果を、それぞれの領域である確率を用いて、重み付けベクトルに反映させるようにすればよい。
【0059】
上述のように本実施の形態では、従来の色度を用いた領域分割の構成に加えて、周波数領域での条件を分割の条件とするように構成しているので、領域分割の精度を高めることができる。また、周波数領域での条件に従って、入力画像のプレスキャン時に収集する間引き画像を用いて処理することで、実空間領域でのフィルタ処理を高速に行うことが可能となる。
【0060】
<画像補正処理部201における領域別画像変換処理(ステップS302)>
図17は、画像補正処理部201において、上記図3に示したステップS302の処理を実施するための構成を示したものである。
画像補正処理部201は、上記図17に示すように、上記図4に示した画像入力部401及び画像信号変換部403と共に、セレクタ410、局所領域フラグ設定部411、局所領域画像処理決定部412、領域毎画像処理決定部413、境界領域フラグ選択部414、セレクタ415、画像変換部416、画像信号変換部417、及び画像出力部418を備えている。
【0061】
上記図17に示す構成では、原画像のプレスキャン時に、上記図4に示した構成(上記図3に示したステップS301の領域テーブル設定処理を実施するための構成)により得られた領域テーブルデータに基づき、対応する画像領域毎に異なる画像変換を行う。
【0062】
本発明は、領域分割の精度を上げるために、色味による分割及び周波数領域での分割において、
1.低解像度のサムネイル画像を使用しての粗い領域分割
2.原画像と同じ(または近い)解像度での領域再分割(1で決定しきれない部分のみ)
というように、2段構えの領域分割をおこなうことで、処理が軽く、必要となるメモリ容量の少ない領域分割を行うことができる。
【0063】
尚、ここで使用する領域テーブルデータは、処理対象の入力画像(図5)のサイズが2560画素×1920画素であるのに対し、入力画像をサンプリングした640画素×480画素となっており、相対的に小さな(解像度が粗い)サイズとなっている。
【0064】
したがって、2560画素×1920画素の画像サイズでは表現可能だが、640画素×480画素でサンプリングすると、その形状が崩れてしまうような細かな構造物(エッジ等)がある場合には、原画像では細かな構造物(エッジ等)の左右で色味が変化していたとしても、粗い解像度での領域分割が行なわれた結果、上記構造物(エッジ等)の左右とも同じ色領域として変換されてしまい、細かな構造物を表現できなくなってしまう場合がある。
【0065】
そこで、本発明では、原画像よりも低い解像度で大まかに領域分割を行い、低解像度の領域分割での分割領域の境界部分については、画像変換の直前でより高い解像度で再分割を行なうことで、解像度の高い原画像の変換において、高解像度な原画像に対して、不自然な変換が行なわれないようにしている。
【0066】
具体的には、先ず、画像入力部401は、上記図5に示したような画像データ(RGB形式の画像データ)500を入力する。
画像入力部401により入力された画像データは、以下に説明するような「境界領域でない場合」と「境界領域である場合」に分けて処理される。
【0067】
境界領域でない場合:
画像信号変換部403は、画像入力部401により入力されたRGB形式の画像データを、YCrCb形式の画像データに変換する。
【0068】
画像処理決定部413は、画像信号変換部403による変換後の画像データについて、ステップS301の領域テーブル設定処理で得られた領域テーブルを参照し、現在の変換対象の画素が境界領域であるか否かを調べ、この結果、境界領域でない場合、領域テーブルに設定されたフラグ(領域識別番号)に基づいて、例えば、緑領域用色処理、肌領域用色処理、空領域用色処理、及び非特定色領域用色処理の重み付けベクトルWunitを決定する。
【0069】
具体的には例えば、上記図5に示す画像上の領域G0について、領域テーブルでは、上記図12の“G0”部分に示すように、緑領域のフラグ(領域識別番号)が設定されている。
【0070】
したがって、画像処理決定部413は、上記の設定に基づいて、
Wunit={1(緑領域),0(肌領域),0(空領域),0(非特定領域)}
なる色処理の重み付けベクトルWunitを設定する。
【0071】
セレクタ415は、境界領域でない場合に境界領域フラグ選択部414から供給される非境界領域を示す信号に基づいて、画像処理決定部413で設定された重み付けベクトルWunitを選択して画像変換部416に供給する。
画像変換部416は、画像信号変換部403による変換後の画像データを、セレクタ415からの重み付けベクトルWunitで重み付けした処理により画像変換する。
【0072】
画像変換部416による変換後の画像データ(YCrCb形式の画像データ)は、画像信号変換部417によりRGB形式の画像データに変換され、画像出力部418を介して出力される。
【0073】
境界領域である場合:
画像信号変換部403は、画像入力部401により入力されたRGB形式の画像データを、YCrCb形式の画像データに変換する。
【0074】
画像処理決定部412は、画像信号変換部403による変換後の画像データについて、ステップS301の領域テーブル設定処理で得られた領域テーブルを参照し、現在の変換対象の画素が境界領域であるか否かを調べ、この結果、境界領域であることを認識すると(上記図12参照)、画素毎に順次、画像処理を決定する。
【0075】
具体的には例えば、本実施の形態では、原画像(図5)よりも粗い解像度の領域テーブル(図8)によって定められた画像の境界領域において、境界前後で画像処理が変化することによって生じる階調の不連続を防ぐために、局所領域画像処理決定部412は、間引き画像での近傍領域での画像処理、及び局所領域フラグ設定部411で設定された領域での画像処理のそれぞれについて、荷重平均を取得し、これに基づいて、色処理の重み付けベクトルWlocalを生成して出力する。
【0076】
セレクタ415は、境界領域である場合に境界領域フラグ選択部414から供給される境界領域を示す信号に基づいて、画像処理決定部412で設定された重み付けベクトルWlocalを選択して画像変換部416に供給する。
画像変換部416は、画像信号変換部403による変換後の画像データを、セレクタ415からの重み付けベクトルWlocalで重み付けした処理により画像変換する。
【0077】
画像変換部416による変換後の画像データ(YCrCb形式の画像データ)は、画像信号変換部417によりRGB形式の画像データに変換され、画像出力部418を介して出力される。
【0078】
図18は、上記図17に示した局所領域フラグ設定部411の構成を具体的に示したものである。
局所領域フラグ設定部411は、上記図18に示すように、色相判定部701、明度判定部702、彩度判定部703、局所領域決定部704、及び局所領域フラグ設定部705を備えている。
【0079】
局所領域フラグ設定部411に対しては、処理対象の領域が境界領域である場合に、セレクタ410を介したYCrCb形式の画像データが入力される。局所領域フラグ設定部411は、上記図18に示した構成により、入力画像データにおいて、処理対象の領域が局所的にどの領域に属しているかを判定する。
【0080】
すなわち、局所領域フラグ設定部411において、上記図4及び図13に示した領域フラグ設定部407と同様に、色相判定部701、明度判定部702、及び彩度判定部703は、入力画像データについて、該当する領域を判定する。
【0081】
局所領域決定部704は、色相判定部701、明度判定部702、及び彩度判定部703による判定結果に基づいて、該当する領域を決定する。なお、ここでの判定は図15の周波数領域以外の項目に基づいて判定を行う。
局所領域フラグ設定部705は、局所領域決定部704により決定された領域に基づいて、該当する領域の識別フラグ(領域識別フラグ)を出力する。
【0082】
尚、ここでは一例として、フィルタ処理を用いた空間周波数領域での判定は、実解像度画像に対して行うと演算量が多くなることから、色度のみを用いて判定を行うようにしているが、例えば、演算量の増加に対応できるような装置或いはシステムで本実施の形態の構成を実現する場合、勿論実解像度画像に対する空間周波数領域での判定を併用してもよい。
また、ここでは一例として、上記図4及び図13に示した領域フラグ設定部407と同様に、閾値による処理を実行し、スカラーのフラグ(領域識別フラグ)を出力する構成としているが、例えば、上記図16に示したような確率的な判定を行ない、ベクトル形式のフラグを出力し、これを重み付けベクトルWlocalに反映させるようにしてもよい。
【0083】
図19は、上記図17に示した画像変換部416の構成を具体的に示したものである。
画像変換部416は、入力画像データ(原画像データ)を、色処理の重み付けベクトルWlocalで重み付けした処理により画像変換するものであり、上記図19に示すように、LUT演算部801〜803,809、重み付け処理部804〜807、及び加算器808を備えている。
【0084】
画像変換部416には、セレクタ415(上記図17参照)により選択された各色処理の重み付けベクトルWと、画像信号変換部403(上記図17参照)によりYCrCb形式に変換された画像データが入力される。
【0085】
LUT演算部801〜803,809はそれぞれ、該当する色領域用の色処理テーブルが格納されたデータベース(不図示)を有し、当該色処理テーブルにより、入力画像データを変換する。
重み付け処理部804〜807はそれぞれ、LUT演算部801〜803,809の中の対応する演算部から供給された画像データを、該当する色処理の重み付けベクトルWに従って重み付けして出力する。
加算器808は、重み付け処理部804〜807の各出力を加算し、この加算結果を、YCrCb形式の変換後画像データとして出力する。
【0086】
尚、LUT演算部801〜803,809がそれぞれ有するデータベース(DB)には、例えば、緑色領域用に最適化された色変換テーブル、空色領域用に最適化された色変換テーブル、肌色領域用に最適化された色変換テーブル、及びそれ以外の領域用の汎用の色変換テーブルが格納されている。これらの色変換テーブル(LUT)の形式としては、例えば、R,G,B={0,32,64,96,128,160,192,224,255}なる格子点について変換後のRGB値が記録された「3D LUT」の形式を用いている。したがって、LUT演算部801〜803,809は、「3D LUT」の色変換テーブルを用いて、入力画像データを、例えば、四面体補間等の公知の補間技術を用いた補間演算で処理することで、入力画像データのRGB値を変換する。
【0087】
図20は、上記図17に示した局所領域画像処理決定部412の構成を具体的に示したものである。
局所領域画像処理決定部412は、領域テーブルからのデータ、及び局所領域フラグ設定部411で設定された局所領域に対応する領域識別フラグに基づき、色処理の重み付けベクトルWlocalを生成して出力するものであり、上記図20に示すように、近傍領域フラグ検知部901及び領域フラグ合成部902を備えている。
【0088】
近傍領域フラグ検知部901は、実画像解像度よりも低い640画素×480画素の低解像度でみた場合の近傍領域の領域識別フラグを調べ、各領域別に計数する。
領域フラグ合成部902は、境界前後での不連続階調の発生を抑えるために、局所領域フラグ設定部411で得られた領域識別フラグと、近傍領域フラグ検知部901により得られた近傍領域の領域識別フラグとを、各領域識別フラグのカウント値(計数)に従って重み付けして合成することで、各領域の重み付けベクトルWlocalを生成して出力する。
【0089】
図21は、上記図20に示した局所領域画像処理決定部412の構成を、より詳細に示したものである。
【0090】
局所領域画像処理決定部412は、上記図21に示すように、肌領域係数部911、空領域係数部912、緑領域係数部913、その他領域係数部914、加算器915、カウンタ916、除算器917、及びベクトル化部918を備えている。
【0091】
局所領域画像処理決定部412は、上記図21に示す構成により、領域テーブル上で境界領域となっている領域について、局所的な画像情報を元に判定された領域情報と、周囲との整合性をとることで、精密な領域分割を行いつつ、階調の不連続が生じないようにする。
【0092】
局所領域画像処理決定部412は、局所領域フラグ設定部411で設定された局所的なフラグと、領域テーブルの処理対象の注目画素の近傍領域とに基づいて、領域重み付けベクトルWlocalを出力する。
【0093】
重み付けベクトルWlocalは、領域テーブルの処理対象の注目画素の近傍領域での肌、空、緑、その他の色領域、それぞれの計数結果(計数部911〜914の計数結果)と、局所領域フラグ設定部411で設定された局所的なフラグとの総和が“1”となるように、除算器917により正規化し、これをベクトル化部918により単位ベクトル(Wlocal)として出力する。
【0094】
尚、本実施の形態では、領域分割された領域毎に異なる色処理を行うようにしたが、これに限られることはなく、例えば、分割領域毎に異なるフィルタ処理を行うことで、銀塩カメラで背景のぼかしに用いられるソフトフォーカスフィルタのような効果を出すことも可能である。
【0095】
また、本発明の目的は、本実施の形態の機能を実現するソフトウェアのプログラムコードを記憶した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読みだして実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読み出されたプログラムコード自体が本実施の形態の機能を実現することとなり、そのプログラムコードを記憶した記憶媒体及び当該プログラムコードは本発明を構成することとなる。
プログラムコードを供給するための記憶媒体としては、ROM、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード等を用いることができる。
また、コンピュータが読みだしたプログラムコードを実行することにより、本実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS等が実際の処理の一部又は全部を行い、その処理によって本実施の形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された拡張機能ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって本実施の形態の機能が実現される場合も含まれることは言うまでもない。
【0096】
【発明の効果】
以上説明したように本発明では、対象画像を領域分割し、当該分割領域に対して色処理(補正処理)を施すにあたり、対象画像から得られる色情報及び空間周波数情報に基づいて、対象画像を領域分割するように構成した。
これにより、領域分割された後に各領域毎の色処理を行っても、領域の切り替わり部に擬似輪郭等が生じることはなく、良好な色処理後の画像を提供することができる。
【0097】
また、対象画像をサンプリングした低解像度の画像を領域分割の対象とするように構成すれば、領域分割に要するメモリ量や演算量の少ない簡易的な領域分割を行うことができる。
【図面の簡単な説明】
【図1】本発明を適用したホストコンピュータの構成を示すブロック図である。
【図2】プリンタドライバの構成を示すブロック図である。
【図3】画像情報収集及び画像変換の処理を説明するためのフローチャートである。
【図4】画像変換部の構成を示すブロック図である。
【図5】処理対象となる画像(原画像)の一例を説明するための図である。
【図6】原画像のプレスキャンにおいて、画像情報を収集する対象となる640画素×480画素のサイズの間引き画像の一例を説明するための図である。
【図7】640画素×480画素のサイズの間引き画像を再度サンプルした低解像度画像の一例を説明するための図である。
【図8】特定色領域に対応したフラグのみが割り当てられた、境界フラグからなる境界なしフラグテーブルの一例を説明するための図である。
【図9】境界なしフラグテーブルにおいて、で境界領域として選択される領域を説明するための図である。
【図10】注目画素の8近傍を説明するための図である。
【図11】境界領域と原画像の対応を説明するための図である。
【図12】境界領域フラグの設定された領域テーブルを説明するための図である。
【図13】領域フラグ設定部の構成を示すブロック図である。
【図14】定性的な領域分割の基準を説明するための図である。
【図15】定量的な領域分割の基準を説明するための図である。
【図16】特徴量について閾値による処理方法のバリエーションを説明するための図である。
【図17】画像補正処理部の構成を示すブロック図である。
【図18】局所領域フラグ設定部の構成を示すブロック図である。
【図19】画像変換部の構成を示すブロック図である。
【図20】局所領域画像処理決定部の構成を示すブロック図である。
【図21】局所領域画像処理決定部の構成を詳細に示すブロック図である。
【図22】プリンタドライバで行われる色処理を説明するための図である。
【符号の説明】
100 ホストコンピュータ
101 アプリケーション
102 OS
103 プリンタドライバ
104 モニタドライバ
105 モニタ
106 プリンタ
107 HD
108 CPU
109 RAM
110 ROM
201 画像補正処理部
401 画像入力部
402 画像サンプル部
403 画像信号変換部
404 画像再サンプル部
405 エッジ抽出部(低周波)
406 エッジ抽出部(中周波)
407 領域フラグ設定部
408 境界領域選択部
409 境界領域フラグ設定部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention is, for example, an image processing apparatus, an image processing system, which is used for an apparatus or a system that divides an image and performs color processing such as color adjustment or color correction for each area or a necessary area. The present invention relates to an image processing method, a computer-readable storage medium storing a program for performing the image processing method, and the program.
[0002]
[Prior art]
Conventionally, for example, image processing of dividing an image into regions, and performing color processing such as color adjustment or color correction for each region or a necessary region is performed by creating a catalog or a flyer in a printing plate making process, This process is frequently performed on a designer side such as DTP (Desk Top Publishing) by image adjustment using image retouching software.
[0003]
By the way, in image processing in which an image is divided so that similar colors become the same area, and then color processing is performed on each area, an image to be processed is drawn on the background with characters that can be distinguished from the background color. In many cases, there is no problem if the image is easy to be divided into regions, such as a divided image. However, if the image to be processed is an image such as a natural image, specifically, if the image has a gradual color change, even if the image is divided into regions and color processing is performed, the region is divided. In some cases, the color processing performed on the divided area may cause a problem because the result does not match the human sense.
[0004]
As a typical example of the above-mentioned inconvenience, for example, as a result of performing color processing for each divided region, a dividing line dividing the region is conspicuous, and is a so-called boundary line that did not exist in the original image. There is a problem that a pseudo contour occurs and an unnatural processed image is obtained even when compared with the original image.
[0005]
Therefore, in order to solve the above-mentioned problems, as an image processing method aiming to increase the accuracy of region division and perform region division close to human sensation, for example, JP-A-6-237372 and the like A method has been proposed in which a space for performing clustering is devised so that the result of region division is closer to human senses.
[0006]
In addition, for example, in Japanese Patent Application Laid-Open No. H11-306334, a target image is clustered on a color and coordinate space to divide an area, and an area where a color change between the divided areas is small is set as an ambiguous area. Regarding the ambiguous area, a method of adjusting image processing parameters has been proposed.
[0007]
[Problems to be solved by the invention]
However, in the conventional image processing method described in Japanese Patent Application Laid-Open No. 6-237372 and the like, it seems that it is quite difficult to perform a region division close to a human sense, no matter how the region division process is devised. .
Further, in the conventional image processing method described in Japanese Patent Application Laid-Open No. H11-306334, it is necessary to perform color processing on the entire original image in order to perform region division processing with high accuracy. Both the required memory capacity and the amount of calculation are enormous. For example, in a case where an image is divided into regions and different image processing is performed for each of the divided regions, pre-scanning and region division at an actual resolution of the image and image processing (real resolution) for each image region are performed twice. Scanning at the actual resolution is required.
[0008]
Therefore, the present invention has been made to eliminate the above-mentioned drawbacks, and is capable of easily and efficiently providing a good color-processed image regardless of the image to be processed. It is an object to provide an apparatus, an image processing system, an image processing method, a computer-readable storage medium storing a program for executing the image processing method, and the program.
[0009]
Specifically, for example, even if an image to be processed is divided into regions, and then color processing is performed for each region, a pseudo contour is not generated at a region switching portion. In addition, when performing area division, the amount of memory and the amount of calculation required for this are reduced, so that simple area division can be performed.
[0010]
[Means for Solving the Problems]
For this purpose, the present invention relates to an image processing apparatus that divides a target image into regions and performs color processing on the divided regions, and performs color processing on the target image based on color information and spatial frequency information obtained from the target image. It is characterized by comprising a dividing means for dividing an image into regions.
[0011]
The present invention is also an image processing apparatus for performing a correction process on a target image based on characteristics of the target image detected by pre-scanning the target image, wherein the target image input at the time of the pre-scan is provided. For the areas that are not determined by the area division, a dividing unit that performs the area division again at the time of the above-described correction processing, and a division area obtained by the above-described division unit, according to the target area. Processing means for performing the correction processing.
[0012]
Further, the present invention is an image processing method for performing area division so that similar colors become the same area in a target image, comprising: an input step of inputting a target image; and a target image input by the input step. A color information recognizing step of recognizing the color information of the target image; a spatial frequency information recognizing step of recognizing the spatial frequency information of the target image input by the inputting step; a color information recognized by the color information recognizing step; An image area recognizing step of recognizing a target image area based on the spatial frequency information recognized in the information recognizing step.
[0013]
Further, the present invention is an image processing method for pre-scanning a target image to detect characteristics of the target image, and performing a correction process on the target image based on the detection result. And performing a region division again on the region not determined by the region division at the time of the pre-scan in the correction process, and performing the correction process according to the divided region. It is characterized by.
[0014]
Further, the present invention is a program for causing a computer to function as predetermined means, wherein the predetermined means divides a target image into regions and performs color processing on the divided regions. The present invention is characterized in that a means is provided for dividing a target image into regions based on color information and spatial frequency information obtained from the target image.
[0015]
Further, the present invention is a program for causing a computer to function as predetermined means, wherein the predetermined means corrects a target image based on characteristics of the target image detected by pre-scanning the target image. As means provided in the apparatus or system that performs the processing, the target image input at the time of the pre-scan is divided into regions, and the region not determined by the region division is divided again during the correction process. And a processing unit that performs the correction process according to the target area for each of the divided areas obtained by the dividing means.
[0016]
The present invention is also a program for causing a computer to execute a predetermined step, wherein the predetermined step is a processing step for dividing a target image into regions having similar colors. An input step of inputting, a color information recognition step of recognizing color information of the target image input by the input step, and a spatial frequency information recognition step of recognizing spatial frequency information of the target image input by the input step. And an image area recognition step of recognizing a target image area based on the color information recognized in the color information recognition step and the spatial frequency information recognized in the spatial frequency information recognition step.
[0017]
Further, the present invention is a program for causing a computer to execute a predetermined step, wherein the predetermined step detects a characteristic of the target image by pre-scanning the target image, and detects the characteristic of the target image based on the detection result. As a processing step for performing the correction processing, the area division of the input image is performed at the time of the pre-scan, and the area not determined by the area division at the time of the pre-scan is divided again at the time of the correction processing. And a processing step of performing the correction process according to the divided area.
[0018]
Further, the present invention is characterized in that the program according to any one of claims 14 to 17 is recorded on a computer-readable storage medium.
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0020]
The present invention is applied to, for example, a host computer 100 as shown in FIG.
The host computer 100 according to the present embodiment performs color processing such as color adjustment and color correction on an area obtained by dividing an image so that similar colors are the same, or performs color adjustment and color correction on each area obtained by dividing an image. It has a function of performing color processing such as correction, and in particular, even if color processing is performed for each area after the image is divided into areas, a pseudo contour does not occur at the switching part of the area, and a memory required for the area division It is configured to perform simple area division with a small amount and a small amount of calculation.
Hereinafter, the configuration and operation of the host computer 100 according to the present embodiment will be specifically described.
[0021]
<Configuration of Host Computer 100>
As shown in FIG. 1, for example, a printer 106 such as an inkjet printer and a monitor 105 are connected to the host computer 100.
[0022]
Further, the host computer 100 includes application software 101 such as a word processor, a spreadsheet, or an Internet browser, an OS (Operating System) 102, and various renderings indicating output images issued to the OS 102 by the application software 101. A printer driver 103 that processes commands (image drawing command, text drawing command, graphics drawing command, etc.) to create print data, and a monitor 106 that processes various drawing commands issued by the application software 101 And a monitor driver 104 for displaying a screen as software.
[0023]
The host computer 100 includes a central processing unit (CPU) 108, a hard disk driver (HD) 107, a random access memory (RAM) 109, and a read-only memory (ROM) as hardware on which the software 101 to 104 can operate. ) 110 and the like.
[0024]
In the present embodiment shown in FIG. 1, for example, a commonly used IBM compatible AT compatible personal computer is used as the host computer 100, and this personal computer is used in conjunction with Microsoft Windows. (R) 98 is used as the OS 102, an arbitrary printable application 101 is installed, and the monitor 105 and the printer 106 are connected.
[0025]
<A series of operations of the host computer 100>
In the host computer 100, for example, the CPU 108 starts the application 101 in response to an instruction from a user (an instruction based on an image displayed on the monitor 105). As a result, the application 101 can output image data using text data classified as text such as characters, graphics data classified as graphics such as graphics, or image image data classified as natural images or the like. Generate
[0026]
When printing output image data, the application 101 issues a print output request to the OS 102.
Specifically, for example, regarding the output image data, the application 101 sends, to the OS 102, a drawing command group indicating an output image including a graphics drawing command for the graphics data portion and an image drawing command for the image data portion. Issue.
[0027]
The OS 102 receives a drawing command group from the application 101, and issues the drawing command group as a print request to the printer driver 103 corresponding to the printer 106.
[0028]
The printer driver 103 generates print data printable by the printer 105 by processing a print request (drawing command group) from the OS 102, and transfers the print data to the printer 106.
More specifically, for example, when the printer 106 is a raster printer, the printer driver 103 sequentially performs image correction processing on a group of drawing commands from the OS 102, sequentially rasterizes the drawing command group into a 24-bit RGB page memory, and stores all drawing commands. Is converted into a data format printable by the printer 106, for example, CMYK data, and transferred to the printer 106.
[0029]
<Configuration of Printer Driver 103>
The printer driver 103 executes, for example, color processing as shown in FIG. 22, and includes an image correction processing unit 201 and a printer correction processing unit 202 as shown in FIG.
[0030]
The image correction processing unit 201 performs an image correction process on the color information included in the rendering command group from the OS 102.
Specifically, for example, the image correction processing unit 201 divides the entire image indicated by the drawing command group into regions based on the RGB color information, and performs different color conversions for each divided region.
[0031]
First, the printer correction processing unit 202 generates a raster image on an RGB 24-bit page memory by rasterizing a drawing command group based on the color information subjected to the image correction processing by the image correction processing unit 201. Then, the printer correction processing unit 202 generates CMYK data depending on the color reproducibility of the printer 106 for each pixel constituting the raster image, and transfers this to the printer 106.
[0032]
<Overall Operation of Image Correction Processing Unit 201>
FIG. 3 is a flowchart showing the overall operation of the image correction processing unit 201.
[0033]
Step S301:
The image correction processing unit 201 generates an area table by pre-scanning the entire image (hereinafter, also referred to as an “original image”) indicated by a drawing command group from the OS 102.
[0034]
Specifically, for example, the image correction processing unit 201 collects information on the entire original image by pre-scanning the original image (FIG. 5), divides the original image into regions based on this information, Generate Here, the area table corresponds to the original image (FIG. 5), for example, “two-dimensional coordinates” in which flags indicating “green area”, “sky area”, “skin area” and the like are described. This is a table (FIG. 8) in the form of "value-area flag".
[0035]
At the time of the pre-scan processing, the image correction processing unit 201 does not process all pixels constituting the original image, but samples, for example, 640 pixels × 480 pixels over the entire original image, and processes the sampled image. (FIG. 6) is processed.
By reducing the number of pixels to be processed in this way, it is possible to reduce the amount of memory used during the area division processing and to speed up the processing.
[0036]
Step S302:
The image correction processing unit 201 refers to the area table (FIG. 8) generated in step S301 and, based on this, converts each area (each raster) into which the original image has been divided into image conversions (corresponding to the divided areas). Different image processing is performed for each divided area.
[0037]
<Area Table Setting Process in Image Correction Processing Unit 201 (Step S301)> FIG. 4 shows a configuration for performing the process of step S301 shown in FIG. 3 in the image correction processing unit 201.
As shown in FIG. 4, the image correction processing unit 201 includes an image input unit 401, an image sampling unit 402, an image signal conversion unit 403, an image resampling unit 404, edge extraction units 405 and 406, an area flag setting unit 407, A boundary area selection unit 408 and a boundary area flag setting unit 409 are provided.
[0038]
Particularly, in the present embodiment, in the configuration shown in FIG. 4 described above, the edge extraction units 405 and 406 extract the edge of input image data (original image data) sampled by the image sampling unit 402 and the image resampling unit 404. The region flag setting unit 407 divides the region based on the spatial frequency information obtained by edge extraction and the color information of the input image. At this time, for an area that cannot be accurately divided from the sampled image data, as will be described later in detail, the area is divided at the actual resolution at the time of image correction, and the image correction processing corresponding to the divided area is performed.
[0039]
More specifically, first, the image input unit 401 receives an image constituted by a drawing command group from the OS 102, for example, image data 500 in RGB format as shown in FIG. Enter for. Here, the image size of the input image in FIG. 5 is, for example, data of 2560 pixels × 1920 pixels.
[0040]
The image sampling unit 402 samples the input image data 500 from the image input unit 401, and converts the image data 501 thinned out to a pixel number of about 640 pixels × 480 pixels, for example, a thumbnail, as shown in FIG. Generate.
In FIG. 6, the original image (FIG. 5) is schematically drawn in which sampling intervals are described. However, in actuality, the pixel values of one cell in FIG. 6 are the same as those of the original image (FIG. 5). It is the average value of the pixel values in the corresponding area.
The image signal conversion unit 403 converts the image data 501 obtained by the image sampling unit 402 into YCrCb format image data.
[0041]
The image resampling unit 404 samples the image data converted by the image signal converting unit 403 in the same manner as the image sampling unit 402, and generates, for example, image data 502 as shown in FIG. Here, FIG. 7 shows 320 pixels × 240 pixels.
The edge extraction unit 405 generates a low-frequency edge image by extracting a low-frequency region from the image data 502 obtained by the image resampling unit 404.
[0042]
The edge extracting unit 406 generates a medium frequency edge image by extracting a medium frequency region from the image data converted by the image signal converting unit 403.
[0043]
For the area flag setting unit 407, the low-frequency edge image obtained by the edge extraction unit 405, the medium-frequency edge image obtained by the edge extraction unit 406, and the image converted by the image signal conversion unit 403 (no conversion) 640 pixels × 480 pixels of a YCrCb format thinned image).
[0044]
The area flag setting unit 407, based on the input image shown in FIG. 6, may be configured based on the input image shown in FIG. 6, such as a specific color area such as a green area, a skin area, and a sky area (see FIG. Then, flags corresponding to these specific color areas are indicated by different types of oblique lines), and a borderless flag table including the border flags is generated.
[0045]
By the way, even if the area is divided on the thinned image obtained by roughly thinning the image, the boundary area on the thinned image shown in FIG. 8 is the boundary area of the original image (real resolution image) 500 shown in FIG. Does not correspond exactly. That is, since the resolution of the area table of FIG. 8 is set to be lower than that of the original image of FIG. 5, a fine structure in the original image (FIG. 5) cannot be expressed by the resolution of the area table of FIG. When an object is erroneously determined or an area to be divided into two at the resolution of the original image (FIG. 5) is recognized as one of the areas at the resolution of the area table in FIG. There is.
[0046]
Therefore, in the present embodiment, in this processing (the processing of step S301 shown in FIG. 3), coarse area division is performed as shown in FIG. Re-area division is performed at a resolution of (actual resolution image) 500.
[0047]
Specifically, the boundary area selection unit 408 selects, for example, an area indicated by “) (white circle)” as illustrated in FIG. 9 based on the area table without the boundary set by the area flag setting unit 407. .
In the selection of the boundary region here, for example, as shown in FIG. 10, when eight or more neighboring regions include a region different from the attention point by three or more of the eight neighboring pixels, the region is regarded as a boundary region. To do.
[0048]
For a region selected by the boundary region selection unit 408, for example, a region that is not shaded as shown in FIG. 11, a boundary region flag is set by the boundary region flag setting unit 409 as shown in FIG. .
[0049]
Therefore, in the setting of the area table in step 301 shown in FIG. 3, for example, a specific color area such as a green area, a skin area, and a sky area, a boundary area, and a non-specific color area excluding these are divided. Thus, an area table is generated for an image having a reduced image size of about a thumbnail.
[0050]
The area flag setting unit 407 sets an area table without boundaries, for example, with a configuration as shown in FIG.
[0051]
Specifically, first, as described above, the area flag setting unit 407 includes the low-frequency edge image obtained by the edge extraction unit 405, the medium-frequency edge image obtained by the edge extraction unit 406, and the image signal conversion. An image after conversion by the unit 403 (a non-converted YCrCb format thinned image of 640 pixels × 480 pixels) is input, and the area flag setting unit 407 sets a flag for area identification based on these input images. To generate an area table and output it.
[0052]
Therefore, as shown in FIG. 13, the area flag setting unit 407 includes a frequency determination unit 610 including a low frequency range determination unit 611 and a medium frequency range determination unit 612, a hue determination unit 621, a brightness determination unit 622, and a color determination unit. A chromaticity determination unit 620 including a degree determination unit 623, an area determination unit 630, and an area flag setting unit 640 are provided.
[0053]
Here, for simplicity of explanation, for example, the thinned image is an image of YCrCb data having a size of 640 pixels × 480 pixels, and an edge image in a low frequency region (low frequency edge image) is converted to a Y image having a size of 320 pixels × 240 pixels. Is a grayscale image processed by a Laplacian filter, and an edge image in a medium frequency region (middle frequency edge image) is a grayscale image obtained by processing Y data of 640 pixels × 480 pixels by a Laplacian filter.
[0054]
In the area flag setting unit 407, first, the low-frequency edge image is input to the low-frequency area determination unit 611, the medium-frequency edge image is input to the medium-low frequency area determination unit 612, and the thinned image is It is input to the chromaticity determination unit 620.
[0055]
The low frequency range determining unit 611, the middle and low frequency range determining unit 612, the hue determining unit 621, the lightness determining unit 622, and the saturation determining unit 623 included in the chromaticity determining unit 620 are each, for example, as illustrated in FIG. The region of the input image is divided according to a simple division method (quantitative division condition).
The region determining unit 630 specifies a corresponding region based on a region division result by the low frequency range determining unit 611, the middle and low frequency range determining unit 612, the hue determining unit 621, the lightness determining unit 622, and the saturation determining unit 623. I do.
[0056]
Note that areas that do not correspond to any area are classified as “other areas”.
[0057]
The area flag setting unit 640 sets a flag of an area corresponding to a corresponding portion on the area table based on the area specified by the area determining unit 630, and outputs this as an area table without boundaries.
[0058]
The quantitative division conditions are not limited to those shown in FIG. 14, but may be, for example, the conditions shown in FIG.
In the division conditions shown in FIG. 15, “Laplacian 320 × 240” indicates a result of processing a Y image resampled to 320 pixels × 240 pixels by a Laplacian filter, and “Laplacian 640 × 480” indicates 640 pixels × 480 pixels. Shows the processed Y image.
Further, in the division condition shown in FIG. 15, the processing is performed according to the threshold values for all the feature amounts. For example, the processing is performed according to a stochastic determination result as shown in FIG. You may comprise. In this case, the determination result may be reflected in the weighting vector using the probability of each area.
[0059]
As described above, in the present embodiment, in addition to the conventional configuration of region division using chromaticity, a condition in the frequency domain is used as the condition of division, so that the accuracy of region division is improved. be able to. In addition, by performing processing using a thinned image collected at the time of pre-scanning an input image in accordance with a condition in the frequency domain, it is possible to perform filtering processing in the real space domain at high speed.
[0060]
<Image conversion processing for each area in the image correction processing unit 201 (step S302)>
FIG. 17 shows a configuration for performing the process of step S302 shown in FIG. 3 in the image correction processing unit 201.
As shown in FIG. 17, the image correction processing unit 201 includes a selector 410, a local area flag setting unit 411, and a local area image processing determination unit 412 together with the image input unit 401 and the image signal conversion unit 403 shown in FIG. , An area-based image processing determination unit 413, a boundary area flag selection unit 414, a selector 415, an image conversion unit 416, an image signal conversion unit 417, and an image output unit 418.
[0061]
In the configuration shown in FIG. 17, the area table data obtained by the configuration shown in FIG. 4 (the configuration for performing the area table setting process in step S301 shown in FIG. 3) at the time of pre-scanning the original image , A different image conversion is performed for each corresponding image area.
[0062]
The present invention, in order to increase the accuracy of the region division, in the division by color and in the frequency domain,
1. Coarse region segmentation using low resolution thumbnail images
2. Region re-segmentation at the same (or close) resolution as the original image (only the part that cannot be determined by 1)
As described above, by performing the two-stage region division, it is possible to perform the region division that is light in processing and requires a small memory capacity.
[0063]
The area table data used here is 640 pixels × 480 pixels obtained by sampling the input image while the size of the input image to be processed (FIG. 5) is 2560 pixels × 1920 pixels. The size is relatively small (coarse in resolution).
[0064]
Therefore, although it can be expressed with an image size of 2560 pixels × 1920 pixels, if there is a fine structure (edge or the like) whose shape is destroyed when sampling is performed at 640 pixels × 480 pixels, the original image will be fine. Even if the color changes between the right and left sides of a simple structure (edge, etc.), as a result of the area division with coarse resolution, the left and right sides of the above structure (edge, etc.) are converted as the same color area. In some cases, it becomes impossible to express a detailed structure.
[0065]
Therefore, in the present invention, the region is roughly divided at a lower resolution than the original image, and the boundary of the divided region in the low-resolution region division is re-divided at a higher resolution immediately before the image conversion. In the conversion of the high-resolution original image, unnatural conversion is not performed on the high-resolution original image.
[0066]
Specifically, first, the image input unit 401 inputs image data (image data in RGB format) 500 as shown in FIG.
The image data input by the image input unit 401 is processed separately into “if not a boundary area” and “if it is a boundary area” as described below.
[0067]
If it is not a boundary area:
The image signal conversion unit 403 converts the RGB image data input by the image input unit 401 into YCrCb format image data.
[0068]
The image processing determination unit 413 refers to the area table obtained by the area table setting processing in step S301 for the image data converted by the image signal conversion unit 403, and determines whether the current conversion target pixel is a boundary area. As a result, if it is not a boundary area, based on the flag (area identification number) set in the area table, for example, green area color processing, skin area color processing, sky area color processing, A weight vector Wunit for the specific color area color processing is determined.
[0069]
Specifically, for example, as for the area G0 on the image shown in FIG. 5, a flag (area identification number) of a green area is set in the area table as shown in the “G0” part of FIG.
[0070]
Therefore, the image processing determining unit 413 determines, based on the above setting,
Wunit = {1 (green area), 0 (skin area), 0 (empty area), 0 (non-specific area)}
A color processing weight vector Wunit is set.
[0071]
The selector 415 selects the weighting vector Wunit set by the image processing determination unit 413 based on the signal indicating the non-boundary region supplied from the boundary region flag selection unit 414 when it is not the boundary region, and sends it to the image conversion unit 416. Supply.
The image conversion unit 416 performs image conversion on the image data converted by the image signal conversion unit 403 by weighting with the weight vector Wunit from the selector 415.
[0072]
The image data (YCrCb format image data) converted by the image conversion unit 416 is converted into RGB format image data by the image signal conversion unit 417, and output via the image output unit 418.
[0073]
If it is a boundary area:
The image signal conversion unit 403 converts the RGB image data input by the image input unit 401 into YCrCb format image data.
[0074]
The image processing determination unit 412 refers to the area table obtained in the area table setting process in step S301 for the image data converted by the image signal conversion unit 403, and determines whether the current conversion target pixel is a boundary area. Is checked, and as a result, when it is recognized that the area is a boundary area (see FIG. 12), image processing is sequentially determined for each pixel.
[0075]
Specifically, for example, in the present embodiment, in the boundary region of the image defined by the region table (FIG. 8) having a resolution lower than that of the original image (FIG. 5), the image processing changes before and after the boundary. In order to prevent the discontinuity of the gradation, the local area image processing determination unit 412 applies a load to each of the image processing in the nearby area in the thinned image and the image processing in the area set by the local area flag setting unit 411. An average is obtained, and a weighting vector Wlocal for color processing is generated and output based on the average.
[0076]
The selector 415 selects the weighting vector Wlocal set by the image processing determination unit 412 based on the signal indicating the boundary region supplied from the boundary region flag selection unit 414 when the image is a boundary region, and sends the weighted vector Wlocal to the image conversion unit 416. Supply.
The image conversion unit 416 performs image conversion on the image data converted by the image signal conversion unit 403 by weighting with the weight vector Wlocal from the selector 415.
[0077]
The image data (YCrCb format image data) converted by the image conversion unit 416 is converted into RGB format image data by the image signal conversion unit 417, and output via the image output unit 418.
[0078]
FIG. 18 specifically shows the configuration of the local area flag setting unit 411 shown in FIG.
As shown in FIG. 18, the local area flag setting section 411 includes a hue determining section 701, a lightness determining section 702, a saturation determining section 703, a local area determining section 704, and a local area flag setting section 705.
[0079]
When the region to be processed is a boundary region, image data in YCrCb format is input to the local region flag setting unit 411 via the selector 410. The local area flag setting unit 411 uses the configuration illustrated in FIG. 18 to determine to which area the processing target area locally belongs in the input image data.
[0080]
That is, in the local area flag setting unit 411, the hue determination unit 701, the lightness determination unit 702, and the saturation determination unit 703 determine the input image data similarly to the area flag setting unit 407 illustrated in FIGS. The corresponding area is determined.
[0081]
The local area determination unit 704 determines a corresponding area based on the determination results by the hue determination unit 701, lightness determination unit 702, and saturation determination unit 703. The determination here is made based on items other than the frequency domain in FIG.
The local area flag setting unit 705 outputs an identification flag (area identification flag) of the corresponding area based on the area determined by the local area determination unit 704.
[0082]
Here, as an example, the determination in the spatial frequency domain using the filter processing is performed using only the chromaticity because the calculation amount increases when the determination is performed on the real resolution image. For example, when the configuration of the present embodiment is realized by an apparatus or system capable of coping with an increase in the amount of calculation, it is needless to say that the determination in the spatial frequency domain for the real resolution image may be used together.
Further, as an example, similar to the area flag setting unit 407 illustrated in FIGS. 4 and 13, the processing is performed by using a threshold, and a scalar flag (area identification flag) is output. A probabilistic determination as shown in FIG. 16 may be performed, a flag in the form of a vector may be output, and this may be reflected in the weight vector Wlocal.
[0083]
FIG. 19 specifically shows the configuration of the image conversion unit 416 shown in FIG.
The image conversion unit 416 performs image conversion of the input image data (original image data) by a process weighted by a weight vector Wlocal for color processing. As shown in FIG. 19, the LUT calculation units 801 to 803 and 809 are used. , Weighting processing units 804 to 807, and an adder 808.
[0084]
The weighting vector W of each color process selected by the selector 415 (see FIG. 17) and the image data converted into the YCrCb format by the image signal converting unit 403 (see FIG. 17) are input to the image converting unit 416. You.
[0085]
Each of the LUT calculation units 801 to 803 and 809 has a database (not shown) in which a color processing table for a corresponding color area is stored, and converts the input image data using the color processing table.
Each of the weighting processing units 804 to 807 weights and outputs the image data supplied from the corresponding calculation unit in the LUT calculation units 801 to 803 and 809 according to the weight vector W of the corresponding color processing.
The adder 808 adds the outputs of the weighting processing units 804 to 807, and outputs the addition result as converted image data in the YCrCb format.
[0086]
The database (DB) of each of the LUT calculation units 801 to 803 and 809 includes, for example, a color conversion table optimized for a green region, a color conversion table optimized for a sky blue region, and a color conversion table for a skin color region. An optimized color conversion table and a general-purpose color conversion table for other areas are stored. As a format of these color conversion tables (LUT), for example, RGB values after conversion are obtained for grid points of R, G, B = {0, 32, 64, 96, 128, 160, 192, 224, 255}. The format of the recorded “3D LUT” is used. Therefore, the LUT calculation units 801 to 803 and 809 process the input image data by an interpolation calculation using a known interpolation technique such as tetrahedral interpolation using a “3D LUT” color conversion table. , And converts the RGB values of the input image data.
[0087]
FIG. 20 specifically shows the configuration of the local area image processing determination unit 412 shown in FIG.
The local area image processing determination unit 412 generates and outputs a weight vector Wlocal for color processing based on data from the area table and an area identification flag corresponding to the local area set by the local area flag setting unit 411. 20. As shown in FIG. 20, a proximity area flag detection unit 901 and an area flag combination unit 902 are provided.
[0088]
The neighborhood area flag detection unit 901 checks the area identification flag of the neighborhood area when viewed at a low resolution of 640 pixels × 480 pixels lower than the actual image resolution, and counts each area.
The area flag synthesizing unit 902 includes an area identification flag obtained by the local area flag setting unit 411 and an area identification flag obtained by the adjacent area flag detection unit 901 in order to suppress the occurrence of discontinuous gradation before and after the boundary. By weighting and combining the area identification flag according to the count value (count) of each area identification flag, a weight vector Wlocal of each area is generated and output.
[0089]
FIG. 21 shows the configuration of the local area image processing determination unit 412 shown in FIG. 20 in more detail.
[0090]
As shown in FIG. 21, the local area image processing determination unit 412 includes a skin area coefficient unit 911, a sky area coefficient unit 912, a green area coefficient unit 913, other area coefficient units 914, an adder 915, a counter 916, and a divider. 917 and a vectorization unit 918.
[0091]
With the configuration shown in FIG. 21 described above, the local area image processing determination unit 412 determines the consistency between the area information determined based on the local image information and the surroundings for the area that is the boundary area on the area table. In this way, it is possible to prevent the discontinuity of the gradation while performing the precise area division.
[0092]
The local area image processing determination unit 412 outputs an area weighting vector Wlocal based on the local flag set by the local area flag setting unit 411 and the area near the target pixel to be processed in the area table.
[0093]
The weighting vector Wlocal is obtained by calculating the skin, sky, green, and other color regions in the region near the target pixel to be processed in the region table, the respective counting results (the counting results of the counting units 911 to 914), and the local region flag setting unit. The divider 917 normalizes the sum so that the sum with the local flag set in 411 becomes “1”, and outputs this as a unit vector (Wlocal) by the vectorization unit 918.
[0094]
In the present embodiment, different color processing is performed for each divided region. However, the present invention is not limited to this. For example, by performing different filtering for each divided region, It is also possible to produce an effect like a soft focus filter used for blurring the background.
[0095]
Further, an object of the present invention is to provide a storage medium storing program codes of software for realizing the functions of the present embodiment to a system or an apparatus, and a computer (or CPU or MPU) of the system or the apparatus to execute the storage medium. Needless to say, this can also be achieved by reading and executing the program code stored in the.
In this case, the program code itself read from the storage medium realizes the function of the present embodiment, and the storage medium storing the program code and the program code constitute the present invention.
As a storage medium for supplying the program code, a ROM, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, or the like can be used.
The functions of the present embodiment are realized not only by executing the program code read by the computer, but also by the operating system running on the computer based on the instruction of the program code. It goes without saying that a part or all of the above is performed and the function of the present embodiment is realized by the processing.
Further, after the program code read from the storage medium is written into a memory provided in an extension function board inserted into the computer or a function extension unit connected to the computer, the function extension is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the present embodiment.
[0096]
【The invention's effect】
As described above, in the present invention, when a target image is divided into regions and color processing (correction processing) is performed on the divided regions, the target image is divided based on color information and spatial frequency information obtained from the target image. It was configured to divide the area.
As a result, even if the color processing is performed for each area after the area is divided, a pseudo contour or the like does not occur at the area switching portion, and a good image after the color processing can be provided.
[0097]
In addition, if a low-resolution image obtained by sampling the target image is configured to be a target of region division, simple region division requiring a small amount of memory and a small amount of calculation can be performed.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a host computer to which the present invention has been applied.
FIG. 2 is a block diagram illustrating a configuration of a printer driver.
FIG. 3 is a flowchart for explaining processing of image information collection and image conversion.
FIG. 4 is a block diagram illustrating a configuration of an image conversion unit.
FIG. 5 is a diagram for explaining an example of an image (original image) to be processed.
FIG. 6 is a diagram illustrating an example of a thinned-out image having a size of 640 pixels × 480 pixels from which image information is collected in pre-scanning of an original image.
FIG. 7 is a diagram for explaining an example of a low-resolution image obtained by re-sampling a thinned image having a size of 640 pixels × 480 pixels.
FIG. 8 is a diagram for explaining an example of a borderless flag table including border flags to which only flags corresponding to specific color areas are assigned.
FIG. 9 is a diagram for explaining an area selected as a boundary area in the no-boundary flag table.
FIG. 10 is a diagram for explaining eight neighborhoods of a target pixel.
FIG. 11 is a diagram for explaining a correspondence between a boundary region and an original image.
FIG. 12 is a diagram illustrating an area table in which a boundary area flag is set.
FIG. 13 is a block diagram illustrating a configuration of an area flag setting unit.
FIG. 14 is a diagram for describing a qualitative area division criterion.
FIG. 15 is a diagram for describing a criterion for quantitative area division.
FIG. 16 is a diagram illustrating a variation of a processing method based on a threshold value for a feature amount.
FIG. 17 is a block diagram illustrating a configuration of an image correction processing unit.
FIG. 18 is a block diagram illustrating a configuration of a local area flag setting unit.
FIG. 19 is a block diagram illustrating a configuration of an image conversion unit.
FIG. 20 is a block diagram illustrating a configuration of a local area image processing determination unit.
FIG. 21 is a block diagram illustrating a configuration of a local area image processing determination unit in detail.
FIG. 22 is a diagram illustrating color processing performed by a printer driver.
[Explanation of symbols]
100 Host computer
101 Application
102 OS
103 Printer Driver
104 monitor driver
105 monitor
106 Printer
107 HD
108 CPU
109 RAM
110 ROM
201 Image correction processing unit
401 Image input unit
402 Image sample part
403 Image signal converter
404 Image resampling unit
405 Edge extraction unit (low frequency)
406 Edge extractor (medium frequency)
407 area flag setting unit
408 Boundary area selector
409 Boundary area flag setting unit

Claims (18)

対象画像を領域分割し、当該分割領域に対して色処理を施す画像処理装置であって、
対象画像から得られる色情報及び空間周波数情報に基づいて、対象画像を領域分割する分割手段を備えることを特徴とする画像処理装置。
An image processing apparatus that divides a target image into regions and performs color processing on the divided regions,
An image processing apparatus comprising: a dividing unit that divides a target image into regions based on color information and spatial frequency information obtained from the target image.
上記空間周波数情報は、対象画像をサンプリングした低解像度画像から得られる情報を含むことを特徴とする請求項1記載の画像処理装置。The image processing apparatus according to claim 1, wherein the spatial frequency information includes information obtained from a low-resolution image obtained by sampling a target image. 上記分割手段は、対象画像をサンプリングした低解像度画像から得られる上記空間周波数情報に基づき対象画像を領域分割し、当該領域分割で分割できない領域については実解像度の対象画像から得られる上記空間周波数情報に基づき対象画像を領域分割することを特徴とする請求項1記載の画像処理装置。The dividing means divides the target image into regions based on the spatial frequency information obtained from the low-resolution image obtained by sampling the target image. For the region that cannot be divided by the region division, the spatial frequency information obtained from the real-resolution target image is used. 2. The image processing apparatus according to claim 1, wherein the target image is divided into regions based on the following. 上記分割手段により得られた分割領域毎に、対象領域に応じた色処理を施す処理手段を備えることを特徴とする請求項1記載の画像処理装置。2. The image processing apparatus according to claim 1, further comprising processing means for performing color processing according to the target area for each of the divided areas obtained by the dividing means. 対象画像をプレスキャンすることで検出した対象画像の特徴に基づいて、対象画像への補正処理を行なう画像処理装置であって、
上記プレスキャンの際に入力された対象画像の領域分割を行い、当該領域分割で確定しなかった領域については、上記補正処理の際に再度領域分割を行なう分割手段と、
上記分割手段により得られた分割領域毎に、対象領域に応じた上記補正処理を施す処理手段とを備えることを特徴とする画像処理装置。
An image processing apparatus that performs a correction process on a target image based on characteristics of the target image detected by pre-scanning the target image,
Dividing means for performing area division of the target image input at the time of the prescan, and for an area not determined by the area division, performing area division again at the time of the correction processing;
An image processing apparatus comprising: a processing unit that performs the correction process according to a target region for each of the divided regions obtained by the dividing unit.
上記分割手段は、対象画像から得られる色情報及び空間周波数情報に基づいて、対象画像を領域分割することを特徴とする請求項5記載の画像処理装置。6. The image processing apparatus according to claim 5, wherein the dividing unit divides the target image into regions based on color information and spatial frequency information obtained from the target image. 上記分割手段は、上記プレスキャンの際に入力された対象画像の領域分割では、当該入力画像をサンプリングした当該入力画像よりも低解像度の画像を分割することを特徴とする請求項5記載の画像処理装置。6. The image according to claim 5, wherein the division unit divides an image having a lower resolution than the input image obtained by sampling the input image in the area division of the target image input at the time of the pre-scan. Processing equipment. 複数の機器が互いに通信可能に接続されてなる画像処理システムであって、
上記複数の機器のうち少なくとも1つの機器は、請求項1〜7の何れかに記載の画像処理装置の機能を有することを特徴とする画像処理システム。
An image processing system in which a plurality of devices are communicably connected to each other,
An image processing system, wherein at least one of the plurality of devices has a function of the image processing apparatus according to claim 1.
対象画像を類似した色が同一となるよう領域分割を行うための画像処理方法であって、
対象画像を入力する入力ステップと、
上記入力ステップにより入力された対象画像の色情報を認識する色情報認識ステップと、
上記入力ステップにより入力された対象画像の空間周波数情報を認識する空間周波数情報認識ステップと、
上記色情報認識ステップにより認識された色情報、及び空間周波数情報認識ステップにより認識された空間周波数情報により、対象画像領域を認識する画像領域認識ステップとを含むことを特徴とする画像処理方法。
An image processing method for dividing a target image into regions so that similar colors are the same,
An input step of inputting a target image;
A color information recognition step of recognizing color information of the target image input in the input step;
A spatial frequency information recognition step of recognizing spatial frequency information of the target image input by the input step,
An image region recognition step of recognizing a target image region based on the color information recognized in the color information recognition step and the spatial frequency information recognized in the spatial frequency information recognition step.
上記空間周波数情報認識ステップは、対象画像をサンプリングした低解像度画像の空間周波数情報を認識するステップを含むことを特徴とする請求項9記載の画像処理方法。The image processing method according to claim 9, wherein the step of recognizing the spatial frequency information includes a step of recognizing spatial frequency information of a low-resolution image obtained by sampling the target image. 対象画像をプレスキャンして対象画像の特徴を検出し、当該検出結果に基づき対象画像の補正処理を行なうための画像処理方法であって、上記プレスキャンの際に入力画像の領域分割を行い、上記プレスキャンの際の領域分割により確定しなかった領域については上記補正処理の際に再度領域分割を行ない、当該分割領域に応じた上記補正処理を行なう処理ステップを含むことを特徴とする画像処理方法。An image processing method for pre-scanning the target image to detect characteristics of the target image, and performing a correction process on the target image based on the detection result, wherein the input image is divided into regions at the time of the pre-scan, An image processing method comprising: performing a region division again in the correction process for an area not determined by the region division at the time of the prescan, and performing the correction process according to the divided region. Method. 上記処理ステップは、対象画像を類似した色が同一となるよう領域分割を行うためのステップとして、
対象画像を入力する入力ステップと、
上記入力ステップにより入力された対象画像の色情報を認識する色情報認識ステップと、
上記入力ステップにより入力された対象画像の空間周波数情報を認識する空間周波数情報認識ステップと、
上記色情報認識ステップにより認識された色情報、及び空間周波数情報認識ステップにより認識された空間周波数情報により、対象画像領域を認識する画像領域認識ステップとを含むことを特徴とする請求項11記載の画像処理方法。
The above processing steps are steps for performing region division so that similar colors of the target image are the same.
An input step of inputting a target image;
A color information recognition step of recognizing color information of the target image input in the input step;
A spatial frequency information recognition step of recognizing spatial frequency information of the target image input by the input step,
The image processing apparatus according to claim 11, further comprising: an image area recognition step of recognizing a target image area based on the color information recognized in the color information recognition step and the spatial frequency information recognized in the spatial frequency information recognition step. Image processing method.
上記処理ステップは、上記プレスキャン時の領域分割において、対象画像をサンプリングした当該対象画像よりも低解像度の画像を分割するステップを含むことを特徴とする請求項11記載の画像処理方法。The image processing method according to claim 11, wherein the processing step includes a step of dividing an image having a lower resolution than the target image obtained by sampling the target image in the region division at the time of the pre-scan. コンピュータを所定の手段として機能させるためのプログラムであって、
上記所定の手段は、対象画像を領域分割し、当該分割領域に対して色処理を施す装置或いはシステムが有する手段として、
対象画像から得られる色情報及び空間周波数情報に基づいて、対象画像を領域分割する手段を備えることを特徴とするプログラム。
A program for causing a computer to function as predetermined means,
The above-mentioned predetermined means is a device or system that divides the target image into regions and performs color processing on the divided regions,
A program comprising means for dividing a target image into regions based on color information and spatial frequency information obtained from the target image.
コンピュータを所定の手段として機能させるためのプログラムであって、
上記所定の手段は、対象画像をプレスキャンすることで検出した対象画像の特徴に基づいて、対象画像への補正処理を行なう装置或いはシステムが備える手段として、
上記プレスキャンの際に入力された対象画像の領域分割を行い、当該領域分割で確定しなかった領域については、上記補正処理の際に再度領域分割を行なう分割手段と、
上記分割手段により得られた分割領域毎に、対象領域に応じた上記補正処理を施す処理手段とを備えることを特徴とするプログラム。
A program for causing a computer to function as predetermined means,
The predetermined means is a means provided in an apparatus or a system for performing a correction process on the target image based on characteristics of the target image detected by pre-scanning the target image,
Dividing means for performing area division of the target image input at the time of the prescan, and for an area not determined by the area division, performing area division again at the time of the correction processing;
A program, comprising: processing means for performing the correction processing according to a target area for each divided area obtained by the dividing means.
コンピュータに所定のステップを実行させるためのプログラムであって、
上記所定のステップは、対象画像を類似した色が同一となるよう領域分割を行うための処理ステップとして、
対象画像を入力する入力ステップと、
上記入力ステップにより入力された対象画像の色情報を認識する色情報認識ステップと、
上記入力ステップにより入力された対象画像の空間周波数情報を認識する空間周波数情報認識ステップと、
上記色情報認識ステップにより認識された色情報、及び空間周波数情報認識ステップにより認識された空間周波数情報により、対象画像領域を認識する画像領域認識ステップとを含むことを特徴とするプログラム。
A program for causing a computer to execute predetermined steps,
The predetermined step is a processing step for performing area division such that similar colors of the target image are the same,
An input step of inputting a target image;
A color information recognition step of recognizing color information of the target image input in the input step;
A spatial frequency information recognition step of recognizing spatial frequency information of the target image input by the input step,
A program for recognizing a target image region based on the color information recognized in the color information recognition step and the spatial frequency information recognized in the spatial frequency information recognition step.
コンピュータに所定のステップを実行させるためのプログラムであって、
上記所定のステップは、対象画像をプレスキャンして対象画像の特徴を検出し、当該検出結果に基づき対象画像の補正処理を行なうための処理ステップとして、
上記プレスキャンの際に入力画像の領域分割を行い、上記プレスキャンの際の領域分割により確定しなかった領域については上記補正処理の際に再度領域分割を行ない、当該分割領域に応じた上記補正処理を行なう処理ステップを含むことを特徴とするプログラム。
A program for causing a computer to execute predetermined steps,
The predetermined step is a processing step for pre-scanning the target image to detect a feature of the target image, and performing a correction process on the target image based on the detection result.
The input image is divided into regions at the time of the pre-scan, and the region not determined by the region division at the time of the pre-scan is subjected to the region division again at the time of the correction processing, and the correction according to the divided region is performed. A program comprising processing steps for performing processing.
請求項14〜17の何れかに記載のプログラムを記録したことを特徴とするコンピュータ読み取り可能な記憶媒体。A computer-readable storage medium on which the program according to claim 14 is recorded.
JP2002277550A 2002-09-24 2002-09-24 Image processing apparatus, image processing system, image processing method, storage medium, and program Pending JP2004120092A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002277550A JP2004120092A (en) 2002-09-24 2002-09-24 Image processing apparatus, image processing system, image processing method, storage medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002277550A JP2004120092A (en) 2002-09-24 2002-09-24 Image processing apparatus, image processing system, image processing method, storage medium, and program

Publications (1)

Publication Number Publication Date
JP2004120092A true JP2004120092A (en) 2004-04-15

Family

ID=32273114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002277550A Pending JP2004120092A (en) 2002-09-24 2002-09-24 Image processing apparatus, image processing system, image processing method, storage medium, and program

Country Status (1)

Country Link
JP (1) JP2004120092A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309613A (en) * 2005-04-28 2006-11-09 Toppan Printing Co Ltd Image adjustment method and device
JP2008048308A (en) * 2006-08-21 2008-02-28 Kyocera Mita Corp Image processing apparatus and image processing program
JP2008182633A (en) * 2007-01-26 2008-08-07 Konica Minolta Business Technologies Inc Image processing apparatus
WO2008151270A1 (en) * 2007-06-05 2008-12-11 Microsoft Corporation Learning object cutout from a single example
JP2009231921A (en) * 2008-03-19 2009-10-08 Toshiba Corp Image processing apparatus, image processing method, and image processing system
JP2010034964A (en) * 2008-07-30 2010-02-12 Sharp Corp Image composition apparatus, image composition method and image composition program
JP2011028742A (en) * 2009-07-03 2011-02-10 Canon Inc Image processing apparatus
JP2013232750A (en) * 2012-04-27 2013-11-14 Ricoh Co Ltd Image processing apparatus, image processing system and program
CN103927715A (en) * 2014-03-14 2014-07-16 中瑞科技(常州)有限公司 Ultrasound image speckle noise suppression method
US8976411B2 (en) 2009-07-01 2015-03-10 Canon Kabushiki Kaisha Image processing in correspondence with each pixel of an image
US9013750B2 (en) 2009-06-25 2015-04-21 Canon Kabushiki Kaisha Image processing for processing image data in correspondence with each pixel of an image

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309613A (en) * 2005-04-28 2006-11-09 Toppan Printing Co Ltd Image adjustment method and device
JP4696669B2 (en) * 2005-04-28 2011-06-08 凸版印刷株式会社 Image adjustment method and image adjustment apparatus
JP2008048308A (en) * 2006-08-21 2008-02-28 Kyocera Mita Corp Image processing apparatus and image processing program
JP2008182633A (en) * 2007-01-26 2008-08-07 Konica Minolta Business Technologies Inc Image processing apparatus
US8644600B2 (en) 2007-06-05 2014-02-04 Microsoft Corporation Learning object cutout from a single example
WO2008151270A1 (en) * 2007-06-05 2008-12-11 Microsoft Corporation Learning object cutout from a single example
JP2009231921A (en) * 2008-03-19 2009-10-08 Toshiba Corp Image processing apparatus, image processing method, and image processing system
JP2010034964A (en) * 2008-07-30 2010-02-12 Sharp Corp Image composition apparatus, image composition method and image composition program
US9013750B2 (en) 2009-06-25 2015-04-21 Canon Kabushiki Kaisha Image processing for processing image data in correspondence with each pixel of an image
US8976411B2 (en) 2009-07-01 2015-03-10 Canon Kabushiki Kaisha Image processing in correspondence with each pixel of an image
US9466017B2 (en) 2009-07-01 2016-10-11 Canon Kabushiki Kaisha Image processing device and image processing apparatus which process image data in correspondence with one or more image pixels of an image
US9661182B2 (en) 2009-07-01 2017-05-23 Canon Kabushiki Kaisha Image processing device and image processing apparatus
US9888150B2 (en) 2009-07-01 2018-02-06 Canon Kabushiki Kaisha Image processing apparatus, and image processing device which processes image data in correspondence with one or more pixels of an image
JP2011028742A (en) * 2009-07-03 2011-02-10 Canon Inc Image processing apparatus
US9635218B2 (en) 2009-07-03 2017-04-25 Canon Kabushiki Kaisha Image processing based on a pixel value in image data
US10063748B2 (en) 2009-07-03 2018-08-28 Canon Kabushiki Kaisha Image processing apparatus having a determination unit that determines an attribute value which specifies processing content of one or more pixels
JP2013232750A (en) * 2012-04-27 2013-11-14 Ricoh Co Ltd Image processing apparatus, image processing system and program
CN103927715A (en) * 2014-03-14 2014-07-16 中瑞科技(常州)有限公司 Ultrasound image speckle noise suppression method

Similar Documents

Publication Publication Date Title
JP5875637B2 (en) Image processing apparatus and image processing method
WO2018223994A1 (en) Method and device for synthesizing chinese printed character image
JP4491129B2 (en) Color gamut mapping method and apparatus using local area information
US8634659B2 (en) Image processing apparatus, computer readable medium storing program, and image processing method
US20110113323A1 (en) Systems and methods to resize document content
JPH10178541A (en) Image processing method, document display method and computer execution operation selecting method
JP2007507802A (en) Text-like edge enhancement in digital images
JP2003132358A (en) Image processing method, device and system
JP2001297303A (en) Method and device for recognizing document image and computer readable recording medium
JP4123356B2 (en) Image processing apparatus, image processing program, and storage medium
JP6743092B2 (en) Image processing apparatus, image processing control method, and program
JP4582204B2 (en) Image processing apparatus, image conversion method, and computer program
JP5042917B2 (en) Image processing apparatus and program
RU2469400C1 (en) Method to convert bitmapped image into metafile
KR20020064350A (en) Image data compressing method and restoring method
JP2004120092A (en) Image processing apparatus, image processing system, image processing method, storage medium, and program
EP2782065A1 (en) Image-processing device removing encircling lines for identifying sub-regions of image
JP4386216B2 (en) Color printing system and control method thereof
JP5335581B2 (en) Image processing apparatus, image processing method, and program
JP2010074342A (en) Image processing apparatus, image forming apparatus, and program
JP4441300B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium storing the program
JP2001307109A (en) Method and device for processing image and recording medium
JP2004199622A (en) Apparatus and method for image processing, recording media, and program
JP4164215B2 (en) Image processing method, apparatus, and recording medium
US20060119897A1 (en) Output apparatus and program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061107

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070508