JP3845927B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP3845927B2
JP3845927B2 JP00427697A JP427697A JP3845927B2 JP 3845927 B2 JP3845927 B2 JP 3845927B2 JP 00427697 A JP00427697 A JP 00427697A JP 427697 A JP427697 A JP 427697A JP 3845927 B2 JP3845927 B2 JP 3845927B2
Authority
JP
Japan
Prior art keywords
image processing
image
image data
analysis
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP00427697A
Other languages
Japanese (ja)
Other versions
JPH10200752A (en
Inventor
豊 中村
信雄 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP00427697A priority Critical patent/JP3845927B2/en
Publication of JPH10200752A publication Critical patent/JPH10200752A/en
Application granted granted Critical
Publication of JP3845927B2 publication Critical patent/JP3845927B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像データに対して画質調整等の指示により画像処理を行う画像処理装置および画像処理方法に関し、特に画像処理オペレータの実施の際に、対象となる処理画像の特性に応じて画像を複数の領域に分類し、それぞれの領域に対して異なる画像処理パラメータを用いて画像処理を行い、各領域に適した画像処理を実行することにより操作者の意図する画質調整が容易に行い得る画像処理装置及び画像処理方法に関する。
【0002】
【従来の技術】
昨今、画像データを編集、加工、解析するための画像処理装置が各種開発されている。画像処理の実現形態にはさまざまなものがあるが、基本的には対象となる画像を画像表示装置で表示し、画像処理を加えたい領域を指定するとともに、コントラスト、シヤープネス、エッジ等の画像表現を変化させる画像処理オペレータを指定し、さらに場合によっては処理パラメータで細かな設定を行い、画像処理を実行することにより、所望の画像を得るのが一般的である。また、画像全体に対する処理の前にプレビュー処理を実行させることにより、おおまかな処理結果をあらかじめ表示して確認できるようにした画像処理装置もある。実際にはこれら単一画像処理を各種組み合わせることにより目的とする画像処理結果を得ている。このような画像処理装置をソフトウエアで実現したものとして例えば「Photoshop」がある。
【0003】
これら一般的な画像処理装置には多数の例えば、「濃度反転」、「画像回転」、「シヤープネス調整」、「エッジ強調」等の画像および画質の変化をもたらす画像処理オペレータがあり、操作者が、これら多数の画像処理オペレータを用いて画像処理を実行し、さらに場合によっては各オペレータごとに設定された所定の画像処理パラメータを設定しながら、より微妙な調整を実行することによって所望の画像を得ている。そのため、これらの画像処理プロセスは、実際には操作者の試行錯誤の繰り返しのプロセスが画像編集、加工、解析作業の多くを占めることとなる。すなわち、所定のオペレータ、およびパラメータを操作者が設定し、設定されたパラメータに基づいて画像処理を実行し、その処理結果を操作者が確認し、所望の結果が得られない場合には、再度異なるオペレータ、パラメータを設定する。このような処理の繰り返しによって画像処理を実行することになる。従来の画像処理に関する研究の多くは、a)画像処理オペレータの種類を増やすこと、b)それぞれの画像処理の速度を速くすること等を目的として行われている。一方、上記のような操作者のプロセスの軽減についての研究も行われている。
【0004】
画像処理プロセスの簡易化、また、操作者がより感覚的に処理できる画像処理装置の実現を目指した研究の成果の一例として、例えば特開平7−203230に記載されているカラー画像形成装置がある。このカラー画像形成装置では複数の色調整パラメータの組み合わせと、その処理による画像の変化とを感覚的な言葉で定義した色パラメータとの対応関係を記憶し、これを感覚的な言葉である「色心理パラメータ」として定義し、この「色心理パラメータ」を用いた指示による画像処理を可能としている。この「色心理パラメータ」の使用により、色調整等の際、従来の分かりにくい単なる数値的あるいは抽象的な表現であった画像処理パラメータを使用する必要がなくなり、ユーザの感覚により近くわかりやすい形での画像処理を可能とした。このようにして、パラメータ設定に際してのユーザの試行錯誤のプロセスを軽減させ、画像処理を容易にしたシステムが提供されている。
【0005】
しかし、これら従来の画像処理装置は画像処理オペレータの指示を与えた場合、対象となる画像全体に対して、同一の画像処理パラメータが適用されるのが一般的であった。通常、画像中にはそれぞれの異なる領域においてさまざまの異なる画像特性があり、同一画像処理パラメータを画像全体に適用した場合、操作者が注目し、修正を意図した部分においては予定の処理結果が得られるが、同時に操作者の意図と異なる処理結果となってしまう画像領域が新たに出現する可能性も大きかった。その結果、画像全体としては操作者の意図した結果と異なるものとなってしまい、操作者にとっては満足のできる画像処理結果が得られないという問題があった。
【0006】
【発明が解決しようとする課題】
これまでの画像処理装置には、所定の画像処理オペレータに対して画像処理パラメータを選択肢で変更し、オペレータ中の画像処理に対してより微妙な調整を行いうるよう設定するものはあるが、パラメータを設定した時点で、画像処理パラメータ群は一意に定まり、その画像処理パラメータ群をもとに、すべての領域での画像処理が実行されていた。その結果、一意に定まった画像処理パラメータ群で画像全体の画像処理が実行されるここととなり、画像中の特定の領域においては適切であったパラメータであっても他の領域では適切でないという事態を招き、画像全体で見た場合にユーザの希望する結果が得られず、画質の改善に結びつかないという結果を引き起こすことがあった。
【0007】
このような問題を解決するための1つの手法として、画像を複数の領域に分割する方法がある。分割された領域ごとに適切な画像処理パラメータ群を設定することにより全体の均一な画像処理を回避するものである。しかしながら、従来の領域分割手法は画一的な画像の分割、あるいはユーザが画像を目視しながらの分割が一般的である。従って、処理速度、処理結果とも操作者にとって満足の得られる結果をもたらすものは存在しなかった。また、特にユーザが手動で領域を設定する手法を用いるものにおいては、所定の画像データを表示装置に表示し、これを目視しながら正確に領域設定を行うことが要求されるが、実際にはユーザが目視で領域設定した箇所が同一の画像特性を有する領域と一致しない場合があり、画像に対して正確な領域分割を実行して、分割された領域ごとに適切な画像処理を行なうことは困難であった。
【0008】
本発明は上記の問題を解決するためになされたものである。本発明の目的は、特性が異なるさまざまな画像データに対して、画像処理オペレータを実施する際に、画像解析を行い、その画像解析結果に応じて画像処理パラメータを同一画像内で適宜変更しながら適切な画像処理を実施できるようにした画像処理装置及び画像処理方法を提供することにある。
【0009】
【課題を解決するための手段】
本発明の画像処理装置は、画像データを入力する画像入力手段と、入力された画像データを蓄積する画像データ蓄積手段と、画像に対して画像処理手法を指示する画像処理オペレータ指示手段と、画像処理オペレータをもとに対象となる画像データの解析を実行する画像データ解析手段と、画像データ解析手段による解析の結果を分析し、画像処理パラメータのパラメータ値、およびそのパラメータ値に基づく画像処理を実行する画像処理領域を決定する画像処理パラメータ・領域決定手段と、画像処理オペレータと決定された画像処理パラメータ、および画像処理適用領域情報に基づき画像データに対して画像処理を施す画像処理手段を有することを特徴とする画像処理装置にあり、画質の変更等の画像処理オペレータの指示を与えた場合、画像処理オペレータごとに、処理すべき画像データを解析し、画像の特性に応じた適切な複数の画像処理パラメータを用いて画像処理を行うことを特徴とする。
【0010】
また、本発明の画像処理装置において、画像データ解析手段によって実行される画像データ解析は画像処理オペレータ指示手段によって指示されたオペレータの実行の際に使用される画像処理パラメータの決定に必要とされる画像データを対象とすることを特徴とする。
【0011】
さらに、本発明の画像処理装置における画像処理パラメータ・領域決定手段は、画像データ解析手段による画像解析結果に応じて画像データを複数の領域に分類し、該分類された領域ごとに各々画像処理パラメータを設定し、該分類された領域ごとに設定された画像処理パラメータに基づいて画像処理を実行することを特徴とする。
【0012】
さらに、本発明の画像処理装置におけるにおける画像処理パラメータ・領域決定手段は、前記画像処理オペレータ指示手段によって指示されたオペレータごとに、画像データに対して該指示オペレータに対応する画像解析処理を行い、そのオペレータ対応画像解析結果を分析することにより、分類された領域ごとの画像処理態様を決定し、当該決定された画像処理態様に応じた画像処理パラメータを選択して、分類領域ごとの画像処理を実行することを特徴とする。
【0013】
さらに、本発明の画像処理装置における画像処理パラメータ・領域決定手段は、画像処理オペレータ指示手段によって指示されたオペレータごとに、画像データに対して解析処理を行い、その結果を分析し、あらかじめ設定されたしきい値に基づいて、個々の画像処理態様適用領域を分類し、該分類された画像処理態様適用領域ごとに適用する画像処理パラメータを決定することを特徴とする。
【0014】
また、本発明の画像処理装置は画像処理オペレータがエッジ強調処理であるとき、画像データ解析手段は画像のエッジ強度解析を実行し、画像処理パラメータ・領域決定手段は、エッジ強調処理の強度を設定するためのフィルタ係数を画像処理パラメータとして設定する。また、画像処理オペレータが、色調補正処理であるときは、画像データ解析手段は画像の色調分析を実行し、画像処理パラメータ・領域決定手段は、色調分析の結果に基づいて色調補正の強度を設定するパラメータを決定する。さらに、画像処理オペレータが画像縮小処理であるときは、画像データ解析手段は、エッジ強度の高い画素を含む画像領域を前記画像データ解析によって抽出し、画像処理パラメータ・領域決定手段は、エッジ強度の高い画素を含む画像領域においては、エッジの保存のために該エッジ強度の高い画素に重み付けを行って画像縮小を実行するパラメータを設定し、それ以外の画像領域においては平均値縮小を実行するようにパラメータを設定する。
【0015】
また、本発明の画像処理方法は、画像データを入力する画像入力手段と、入力された画像データを蓄積する画像データ蓄積手段と、画像に対して画像処理手法を指示する画像処理オペレータ指示手段と、画像処理を施す画像処理手段を有する画像処理装置において、画像処理オペレータ指示手段によって指示された画像処理オペレータに応じて対象となる画像データの解析を実行するステップと、画像データ解析の結果を分析し、画像処理パラメータのパラメータ値および該パラメータ値に基づく画像処理を実行する画像処理領域を決定するステップと、決定された画像処理パラメータ、および画像処理適用領域情報に基づき画像データに対して指示された画像処理オペレータによる画像処理を実行するステップと、を有することを特徴とする画像処理方法である。
【0016】
【発明の実施の形態】
以下、本発明を実施例に基づいて、図面を参照して具体的に説明する。図1は、本発明の一実施例の画像処理装置の全体の構成を示すブロック図である。図1における画像処理装置は、画像入力部1、画像データ蓄積部2、画像処理オペレータ指示部3、画像データ解析処理部4、画像処理パラメータ・領域決定処理部5、および、画像処理部6によって構成されている。これら各構成部は相互にデータ転送が可能なように所定のバスによって連結されている。
【0017】
画像入力部1は、スキャナ、デジタルビデオ、デジタルカメラのようなさまざまな機器から出力された画像情報をデジタルデータとして入力するものである。画像データ蓄積部2は、画像入力部1に入力された画像情報をデジタルデータとして蓄積するものであり、必要に応じて蓄積された画像データを画像処理オペレータ指示部3、画像データ解析処理部4、および画像処理部6へ出力する。画像処理オペレータ指示部3は、画像解析、画質調整、フォーマット変換のような画像処理オペレータを指示する。画像データ解析処理部4は、画像処理オペレータが指示されると、指示内容に応じて画像データを解析すべきかどうかを判断し、必要な場合は各種画像解析を行い解析結果を出力する。画像処理パラメータ・領域決定処理部5は、画像処理オペレータに伴う画像処理パラメータの種類と画像データ解析処理部により得られた結果を用いて分析を行い、画像データを複数の画像適用領域に分類するとともに、それぞれの領域において適用すべき画像処理パラメータ群を決定する。画像処理部6は入力された画像処理オペレータと画像処理パラメータおよび画像処理パラメータ適用領域情報をもとに、画像データに対して画像処理を行う。
【0018】
次に、本発明の画像処理装置の一実施例の動作について図面を参照して具体的に説明する。図2は画像処理オペレータが指示された場合に、どのように画像処理パラメータを決定して画像処理を行うかを説明するフロー図である。まず、ステップ201で画像解析、画質調整、フォーマット変換のような画像処理オペレータの指示があると、ステップ202において、その画像処理オペレータが画像処理パラメータを含むか否か、画像処理パラメータを含む場合には、その画像処理パラメータは画像データによって変える必要のある画像処理パラメータかどうかについて判定し、画像解析が必要ない場合は、判定はNoとなり、すぐにステップ206の画像処理ステップに移行する。例えば「濃度反転」のような画像処理オペレータの場合は、画像処理パラメータがないため、すぐに画像処理ステップへ進む。また、画像回転のように回転角度、回転手法が一意に決まる画像処理パラメータの場合もすぐに画像処理ステップに進む。このような場合は画像解析は行わない。それに対して後述するエッジ強調のような画像処理オペレータの場合は画像解析を行う。ステップ202で画像解析を行う必要があると判定(YES)された場合は、ステップ203で画像処理オペレータ毎に必要な画像解析を行う。そしてステップ204で画像を特性に応じて分類し、さらに画像解析結果と、画像処理パラメータの分析・結び付けを行い、ステップ205において、画像処理パラメータ群および画像処理領域を決定・出力する。そして、最後にステップ206でその画像処理パラメータを用いて指示された画像処理オペレータを実施する。
【0019】
さらに、具体的にパラメータ決定処理部の動作について説明する上で、一例として画像処理オペレータとしてエッジ強調を選択した場合について説明する。通常、画像処理操作者が、画像処理オペレータとしてエッジ強調を選択する場合、まず画像入力部を通して蓄積された画像データをCRT等で表示し、必要に応じてエッジ強調を実行したい領域を設定し、エッジ強調の画像処理オペレータを選択する。画像処理オペレータを指示する際、例えば図3に示すようなインタフェースで画像処理オペレータとともに、画像処理パラメータも指定する。この実施例ではオぺレータの1つとして「エッジ強調」を選択した場合を示す。「エッジ強調」の選択に対しては処理パラメータとして「強い」「普通」「弱い」等が用意されている。場合によってはさらに細かい値を設定できる場合もある。「強い」「普通」「弱い」は感覚的な言葉であり、物理量ではない、しかしこれまでの画像処理装置では、実際の処理において、例えば、図4に示するように「強い」「普通」「弱い」に相当する個別物理パラメータ(この例ではフィルタ係数)がそれぞれ代入され、それぞれに対応する固定されたフィルタ係数、A、B、Cを用いて画像処理が実行されていた。「強い」「普通」「弱い」という言葉は、特性上、一般的に分類しているにすぎないものであり、それぞれに対応して固定されたフィルタ係数が割り振られる。
【0020】
実際の画像では、同一画像の中でも、エッジが強く見える領域、エッジがぼやけている領域等さまざまな異なる特性を有している。このような画像に対して例えばエッジ強度「強い」の処理を行った場合、もともとエッジがはっきり現れているような画像領域では、エッジがさらに強く強調され、場合によっては処理演算上、処理結果が飽和してしまう場合もある。エッジを強調したいと想定していた領域はエッジ強調による改善効果が見られる。一方、濃度分布がなめらかな領域ではノイズ成分が過度に強調されるため、滑らかな濃度状態ではあるが、ざらつき感が強くなってしまう。このように同一画像に対して同一画像処理パラメータで処理を行うと、処理結果として得られる画像の状態差が強調されるため、必ずしも満足する処理結果が得られるとは限らない。また、この問題は画像処理パラメータを振ったとしても解決されるものではない。そこで、本発明では、処理すべき対象となる画像がどの程度のエッジ強度を持つかを解析し、その値を元に、どの程度の処理領域に分類すべきか、またその際の画像処理オペレータをどのように決定するべきかを求める。
【0021】
本発明の画像処理パラメータ・領域決定方式の一例を図5、6を用いて説明する。画像処理オペレータとして「エッジ強調」が選択されると、まず、画像データ解析処理部はエッジ強調の画像処理パラメータ決定のために必要な解析処理を行う。本実施例では、解析処理として、画像データ全体のエッジ強度を求める。図5は解析結果としてのエッジ強度ヒストグラムである。図5に示す画像全体のエッジ強度ヒストグラムが得られると、次にエッジ強度ヒストグラムを所定の複数のしきい値TH1、TH2、およびTH3で分割する。これらしきい値によって分割されたそれぞれのエッジ強度範囲ごとに、それぞれの強度範囲に属するエッジ強度を持つ画素が分類され、これら分類された画素ごとに適用パラメータが決定されることになる。解析処理の結果によって得られる画像処理の分類の詳細を図6に示す。図6に示すように、それぞれの画像処理パラメータと領域を分類するための複数のしきい値(エッジ強度解析結果)TH11−TH33および、それぞれに対するエッジ強調の適用パラメータ(本実施例ではフィルタ係数)であるフィルタA1−A4、B1−B4、C1−C4を関連付けることにより、各処理を実行する領域の分類とそれぞれの画像処理パラメータが決まる。本実施例では画像処理パラメータ強、中、弱、それぞれにおいてエッジ強度を4つに分類し、それぞれに対してエッジ強調処理の画像処理パラメータ(フィルタ係数)が設定されている。これらの結果を、画像処理パラメータおよび画像処理適用領域情報として出力する。すなわち、エッジ強度ヒストグラムで処理対象となる画像領域を分類し、さらにそれぞれの処理対象となる画像領域に対する適用すべき画像処理パラメータを決める。
【0022】
画像処理パラメータ・領域決定方式の他の実施例を図5、7を用いて説明する。例えば、画像処理オペレータとして「エッジ強調」が選択されるとまず、画像データ解析処理部はエッジ強調の画像処理パラメータ設定のために必要な解析処理を行う。本実施例では、解析処理として、画像データ全体のエッジ強度を求め、図5に示すようなエッジ強度ヒストグラムを導出する。さらにその導出されたエッジ強度ヒストグラムに基づいて、エッジ強度の中央値、最大値、最小値、標準偏差等を求める。
【0023】
まず領域の分類であるが、これは上述した説明と同様に、図5におけるエッジ強度ヒストグラムを複数のしきい値TH1、TH2、およびTH3で分類することにより実施できる。分類するためのしきい値であるが、これらしきい値は、それぞれのパラメータごとに固定であっても構わないし、また図7に示すように画像解析結果によって得られたエッジ平均Es、エッジ分散Eσ、中央値、最大値、最小値、標準偏差等の各種結果をパラメータとする関数によって得られる値としても構わない。例えば、図7中のしきい値決定の欄にあるようにしきい値TH1の決定関数としてTH1=ω1(Es,Eσ,α,β…)を使用するごとくである。エッジ強調「強い」「普通」「弱い」においてエッジ強度ヒストグラムから処理領域を分類した場合のそれぞれの領域におけるエッジ強調の特性であるが、図7に示すように、これは上記解析結果から導出されるパラメータであるエッジ平均Es、エッジ分散Eσ、中央値、最大値、最小値、標準偏差等からなる関数となっており、解析結果をもとにエッジ強調の処理内容(例えばフィルタ係数)を逐次計算し、得られた結果を画像処理パラメータとして出力する。例えば図7において、エッジ強調で「強い」を指定したときはフィルタA1、A2、A3について、それぞれの関数f1、f2、f3によってフイルタ係数が決定される。エッジ強調において「普通」を指定した場合はフィルタB1、B2、B3について関数g1、g2、g3によって同様な処理がなされ、エッジ強調において「弱い」が指定された場合はフィルタC1、C2、C3について関数h1、h2、h3によってフィルタ係数の決定がなされる。以上の操作により求められた画像処理パラメータ群および画像処理適用領域情報を画像処理部へ出力する。画像処理部はこれらのパラメータ、処理領域情報にしたがって、分類された領域ごとに適用するパラメータの設定を変更して指示されたオペレータに基づく画像処理を実行する。以上の処理により、画像処理オペレータ指示に対して、感覚的に受ける処理結果が同一画像中のさまざまな特性領域に対して、適切な処理が実行されるようなしくみが実現できる。
【0024】
本実施例ではエッジ強調のみについて解説したが、上記手法を各種の画像処理オペレータ、例えば「シヤープネス」、「コントラスト」、「色調補正」、「画像縮小」等各種のオペレータにおいて実行し、それぞれの画像領域において異なる処理パラメータを設定することも可能である。
【0025】
「色調補正」を実行する処理において本発明を適用した場合を説明する。例えば赤みを増したい場合、まず画像全体の色調解析を実行する。すなわち、赤みのある領域と無い領域の2種類に分類する。あるいは赤みのある領域、無い領域、その中間に属する領域の3種類に分類してもよい。次に、赤みのある部分の赤みをさらに増加させたい場合は、赤みのある画像領域において色調補正により赤みを増加させる処理を実行するようにし、それ以外の画像領域においては赤みを増加させないように色調補正をする。この補正により、赤みのある画像領域部分のみがより赤みを強調させた画像となり、それ以外の画像領域は赤み増加処理の影響の無い色調補正が実行される。また、この逆の補正、すなわち赤い部分の色調はあまり変化させず、それ以外の画像領域部分の色調のみを変化させるようにすることも可能である。
【0026】
次に、画像縮小をする場合の処理について説明する。画像縮小のオペレータの実行に際して、まず画像解析によって画像全体のエッジ強度ヒストグラムを求め、エッジ強度の高い領域とそうでない領域とに分類する。画像縮小を行う際に、エッジ強度の高い画素が含まれていない部分は単純な平均値縮小を実行する。一方、エッジ強度が高い領域が含まれている場合は、エッジを保存するためにエッジ強度の高い画素値に重み付けをして画像縮小処理を実行する。すなわち、画像解析により求められたエッジ強度の高い画像領域に対しては、その他のエッジ強度の高い部分が含まれない領域とは異なる処理を実行するために、異なる処理パラメータを割り振る。また、エッジ強度の高い領域、低い領域、その中間に属する領域に分類してそれぞれの領域ごとに異なるパラメータを割り振ることによって、さらに微妙な処理を実行するようにすることも可能である。
【0027】
本発明の手法によれば、従来複雑で困難であったさまざまな画像処理オペレータについてのパラメータ設定を、操作者にとって感覚的処理に近いより使いやすい設定によって実行することができる。本実施例では画像処理オペレータに対して1つの画像処理パラメータがある場合について解説したが、画像処理オペレータによっては2つあるいは3つ以上の複数の画像処理パラメータを設定してオペレータを実行することが必要となる場合もある。その場合も画像データの解析結果とそれぞれの画像処理パラメータ群についての関連づけをそれぞれの画像処理パラメータごとに設定されたしきい値を用いて実行し、適切な複数の処理パラメータを分類された領域ごとに設定することが可能であり、画像解析による画像領域の分類を行うことによって、画像領域各々に対して最適な画像処理パラメータの設定を行うことができる。
【0028】
【発明の効果】
以上説明したように、本発明の画像処理装置および画像処理方法によれば、画像処理オペレータを実行する際に、画像解析を行い、その結果に基づき領域ごとに適切な画像処理パラメータを決定することができる。従って、従来行われていた画像処理パラメータの試行錯誤しながらの決定プロセスが簡易化され、画像処理オペレータ実行の際の画像処理領域に対する適切なパラメータ割り振りが容易にかつ正確に実行でき、操作者の希望する画像を効率よく容易に得ることが可能となる。
【図面の簡単な説明】
【図1】 本発明に係る画像処理装置全体の構成を示すブロック図である。
【図2】 本発明の動作を説明するフロー図である。
【図3】 本発明における、エッジ強調処理を例とした画像処理オペレータを指示する例を示す図である。
【図4】 エッジ強調処理を例とした画像処理オペレータの指示と従来手法である画像処理パラメータの結び付きを説明する図である。
【図5】 エッジ強度ヒストグラムと領域分類の関係を説明する図である。
【図6】 画像処理オペレータ・領域決定処理における領域分類と画像処理パラメータの関係を説明する図である。
【図7】 画像解析結果に基づく領域分類、および画像処理パラメータの設定方法について説明する図である。
【符号の説明】
1 画像入力部
2 画像蓄積部
3 画像処理オペレータ指示部
4 画像データ解析処理部
5 画像処理パラメータ・領域決定処理部
6 画像処理部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and an image processing method for performing image processing on image data according to an instruction such as image quality adjustment, and in particular, when an image processing operator performs, an image is processed according to characteristics of a target processed image. An image that can be easily adjusted to the image quality intended by the operator by classifying into multiple areas, performing image processing using different image processing parameters for each area, and executing image processing suitable for each area The present invention relates to a processing apparatus and an image processing method.
[0002]
[Prior art]
In recent years, various image processing apparatuses for editing, processing, and analyzing image data have been developed. There are various forms of image processing. Basically, the target image is displayed on the image display device, the area to be subjected to image processing is specified, and image representation such as contrast, sharpness, and edge is displayed. It is common to obtain a desired image by designating an image processing operator to change the image, further setting the processing parameters in some cases, and executing image processing. There is also an image processing apparatus that allows a rough processing result to be displayed and checked in advance by executing a preview process before processing the entire image. Actually, a desired image processing result is obtained by variously combining these single image processes. An example of such an image processing apparatus implemented by software is “Photoshop”.
[0003]
These general image processing apparatuses have a large number of image processing operators that bring about changes in image quality and image quality such as “density inversion”, “image rotation”, “sheepness adjustment”, “edge enhancement”, etc. The image processing is performed using these many image processing operators, and further, a desired image can be obtained by performing more subtle adjustments while setting predetermined image processing parameters set for each operator. It has gained. Therefore, in these image processing processes, the process of repeated trial and error by the operator actually occupies most of image editing, processing, and analysis work. That is, the operator sets a predetermined operator and parameters, executes image processing based on the set parameters, checks the processing result, and if the desired result cannot be obtained, Set different operators and parameters. Image processing is executed by repeating such processing. Much of research related to conventional image processing is performed for the purpose of a) increasing the types of image processing operators, b) increasing the speed of each image processing, and the like. On the other hand, research on the reduction of the operator's process as described above is also conducted.
[0004]
For example, a color image forming apparatus described in Japanese Patent Application Laid-Open No. 7-203230 is an example of a result of research aimed at simplifying an image processing process and realizing an image processing apparatus that can be processed more intuitively by an operator. . In this color image forming apparatus, a correspondence relationship between a combination of a plurality of color adjustment parameters and a color parameter in which a change in the image due to the processing is defined in a sensory language is stored, and this is referred to as a sensory word “color”. It is defined as “psychological parameter”, and image processing by an instruction using this “color psychological parameter” is enabled. By using these “color psychological parameters”, it is not necessary to use image processing parameters that were simply numerical or abstract expressions that were difficult to understand during color adjustment, etc. Image processing is possible. In this way, a system has been provided in which the user trial and error process for parameter setting is reduced and image processing is facilitated.
[0005]
However, these conventional image processing apparatuses generally apply the same image processing parameters to the entire target image when an instruction from the image processing operator is given. Usually, there are various different image characteristics in different areas in the image. When the same image processing parameters are applied to the entire image, the operator pays attention and the intended processing result is obtained in the part intended to be corrected. However, at the same time, there is a high possibility that a new image area will appear that results in a processing result different from the operator's intention. As a result, the entire image is different from the result intended by the operator, and there is a problem that an image processing result that is satisfactory for the operator cannot be obtained.
[0006]
[Problems to be solved by the invention]
Some conventional image processing apparatuses change an image processing parameter as an option for a predetermined image processing operator and set it so that a finer adjustment can be made to the image processing in the operator. At the time of setting, the image processing parameter group is uniquely determined, and the image processing is executed in all regions based on the image processing parameter group. As a result, the image processing of the entire image is executed with a set of uniquely defined image processing parameters, and the parameters that were appropriate in a specific area in the image are not appropriate in other areas. When the entire image is viewed, the result desired by the user is not obtained, and the image quality may not be improved.
[0007]
One method for solving such a problem is a method of dividing an image into a plurality of regions. By setting an appropriate image processing parameter group for each divided region, the entire uniform image processing is avoided. However, the conventional region dividing method is generally divided into a uniform image or divided while the user views the image. Therefore, none of the processing speed and the processing result yields a satisfactory result for the operator. In particular, in the case of using a method in which the user manually sets the area, it is required to display the predetermined image data on the display device, and to accurately set the area while visually checking it. It is possible that the part where the user visually sets the area does not match the area having the same image characteristics, and performing accurate area division on the image and performing appropriate image processing for each divided area It was difficult.
[0008]
The present invention has been made to solve the above problems. An object of the present invention is to perform image analysis when performing an image processing operator on various image data having different characteristics, and appropriately change image processing parameters in the same image according to the image analysis result. An object of the present invention is to provide an image processing apparatus and an image processing method capable of performing appropriate image processing.
[0009]
[Means for Solving the Problems]
An image processing apparatus according to the present invention includes an image input unit for inputting image data, an image data storage unit for storing the input image data, an image processing operator instruction unit for instructing an image processing method for the image, and an image Analyzing the target image data based on the processing operator, analyzing the analysis result by the image data analyzing unit, and performing image processing based on the parameter value of the image processing parameter and the parameter value Image processing parameter / region determining means for determining an image processing area to be executed, and image processing means for performing image processing on image data based on the image processing parameter determined as an image processing operator and image processing application area information When an image processing operator's instruction to change the image quality is given For each image processing operators, it analyzes the image data to be processed, and performs image processing using a suitable plurality of image processing parameters corresponding to the characteristics of the image.
[0010]
Further, in the image processing apparatus of the present invention, the image data analysis executed by the image data analysis means is required for determining the image processing parameters used when the operator instructed by the image processing operator instruction means is executed. It is characterized by image data.
[0011]
Further, the image processing parameter / region determining unit in the image processing apparatus of the present invention classifies the image data into a plurality of regions according to the image analysis result by the image data analyzing unit, and each of the classified regions has the image processing parameter. And image processing is executed based on the image processing parameter set for each classified area.
[0012]
Further, the image processing parameter / region determining means in the image processing apparatus of the present invention performs image analysis processing corresponding to the instructing operator on the image data for each operator instructed by the image processing operator instructing means, By analyzing the image analysis result corresponding to the operator, an image processing mode for each classified region is determined, an image processing parameter corresponding to the determined image processing mode is selected, and image processing for each classified region is performed. It is characterized by performing.
[0013]
Further, the image processing parameter / region determination means in the image processing apparatus of the present invention performs an analysis process on the image data for each operator instructed by the image processing operator instruction means, analyzes the result, and sets in advance. Each image processing mode application area is classified based on the threshold value, and an image processing parameter to be applied is determined for each classified image processing mode application area.
[0014]
In the image processing apparatus of the present invention, when the image processing operator performs edge enhancement processing, the image data analysis means executes edge strength analysis of the image, and the image processing parameter / region determination means sets the strength of edge enhancement processing. Filter coefficients for setting the image processing parameters as image processing parameters. When the image processing operator is color tone correction processing, the image data analysis unit executes color tone analysis of the image, and the image processing parameter / region determination unit sets the strength of color tone correction based on the result of the color tone analysis. Determine the parameters to be used. Further, when the image processing operator performs image reduction processing, the image data analysis means extracts an image area including pixels with high edge strength by the image data analysis, and the image processing parameter / area determination means In an image area including high pixels, a parameter for executing image reduction is set by weighting pixels having high edge strength in order to preserve edges, and average value reduction is executed in other image areas. Set the parameter to.
[0015]
The image processing method of the present invention includes an image input means for inputting image data, an image data storage means for storing the input image data, and an image processing operator instruction means for instructing an image processing technique for the image. In the image processing apparatus having image processing means for performing image processing, the step of executing analysis of the target image data in accordance with the image processing operator instructed by the image processing operator instruction means, and analyzing the result of the image data analysis Determining the parameter value of the image processing parameter and the image processing area for executing the image processing based on the parameter value, and instructing the image data based on the determined image processing parameter and the image processing application area information. Executing image processing by an image processing operator. The image processing method.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be specifically described based on examples with reference to the drawings. FIG. 1 is a block diagram showing the overall configuration of an image processing apparatus according to an embodiment of the present invention. 1 includes an image input unit 1, an image data storage unit 2, an image processing operator instruction unit 3, an image data analysis processing unit 4, an image processing parameter / region determination processing unit 5, and an image processing unit 6. It is configured. These components are connected by a predetermined bus so that data can be transferred between them.
[0017]
The image input unit 1 inputs image information output from various devices such as a scanner, digital video, and digital camera as digital data. The image data storage unit 2 stores image information input to the image input unit 1 as digital data. The image data stored as necessary is stored in an image processing operator instruction unit 3 and an image data analysis processing unit 4. And output to the image processing unit 6. The image processing operator instruction unit 3 instructs an image processing operator such as image analysis, image quality adjustment, and format conversion. When the image processing operator is instructed, the image data analysis processing unit 4 determines whether or not the image data should be analyzed according to the content of the instruction, and performs various image analysis if necessary and outputs an analysis result. The image processing parameter / region determination processing unit 5 performs analysis using the types of image processing parameters accompanying the image processing operator and the results obtained by the image data analysis processing unit, and classifies the image data into a plurality of image application regions. At the same time, an image processing parameter group to be applied in each region is determined. The image processing unit 6 performs image processing on the image data based on the input image processing operator, image processing parameters, and image processing parameter application area information.
[0018]
Next, the operation of an embodiment of the image processing apparatus of the present invention will be specifically described with reference to the drawings. FIG. 2 is a flowchart for explaining how image processing parameters are determined and image processing is performed when an image processing operator is instructed. First, when there is an instruction of an image processing operator such as image analysis, image quality adjustment, and format conversion in step 201, in step 202, whether or not the image processing operator includes an image processing parameter, and includes an image processing parameter. Determines whether the image processing parameter is an image processing parameter that needs to be changed depending on the image data. If image analysis is not required, the determination is no and the process immediately proceeds to the image processing step of step 206. For example, in the case of an image processing operator such as “density inversion”, since there is no image processing parameter, the process immediately proceeds to the image processing step. In the case of an image processing parameter in which the rotation angle and rotation method are uniquely determined as in image rotation, the process immediately proceeds to the image processing step. In such a case, image analysis is not performed. On the other hand, in the case of an image processing operator such as edge enhancement described later, image analysis is performed. If it is determined in step 202 that image analysis needs to be performed (YES), in step 203, necessary image analysis is performed for each image processing operator. In step 204, the images are classified according to the characteristics, and the image analysis result and the image processing parameters are analyzed and combined. In step 205, an image processing parameter group and an image processing area are determined and output. Finally, in step 206, the designated image processing operator is executed using the image processing parameters.
[0019]
Furthermore, when the operation of the parameter determination processing unit is specifically described, a case where edge enhancement is selected as an image processing operator will be described as an example. Usually, when an image processing operator selects edge enhancement as an image processing operator, first, the image data accumulated through the image input unit is displayed on a CRT or the like, and an area where edge enhancement is to be executed is set as necessary. An image processing operator for edge enhancement is selected. When instructing the image processing operator, an image processing parameter is also designated together with the image processing operator through an interface as shown in FIG. 3, for example. This embodiment shows a case where “edge enhancement” is selected as one of the operators. For selection of “edge enhancement”, “strong”, “normal”, “weak”, etc. are prepared as processing parameters. In some cases, a finer value may be set. “Strong”, “ordinary”, and “weak” are sensory terms and are not physical quantities, but in conventional image processing apparatuses, in actual processing, for example, as shown in FIG. Individual physical parameters (filter coefficients in this example) corresponding to “weak” are respectively substituted, and image processing is executed using fixed filter coefficients A, B, and C corresponding to the individual physical parameters. The terms “strong”, “ordinary”, and “weak” are only generally classified according to their characteristics, and a fixed filter coefficient is assigned to each of them.
[0020]
The actual image has various different characteristics such as a region where the edge is strongly visible and a region where the edge is blurred in the same image. For example, when processing with an edge strength of “strong” is performed on such an image, the edge is emphasized more strongly in an image area where the edge originally appears clearly. It may become saturated. An improvement effect by edge enhancement can be seen in the region where the edge is supposed to be emphasized. On the other hand, in a region where the density distribution is smooth, the noise component is excessively emphasized, so that although the density is smooth, the feeling of roughness becomes strong. When processing is performed on the same image with the same image processing parameters in this way, the difference in the state of the image obtained as a processing result is emphasized, and therefore a satisfactory processing result is not always obtained. This problem cannot be solved even if the image processing parameters are changed. Therefore, in the present invention, the degree of edge strength of the image to be processed is analyzed, and based on the value, the processing area to be classified and the image processing operator at that time are determined. Find out how to decide.
[0021]
An example of the image processing parameter / region determination method of the present invention will be described with reference to FIGS. When “edge enhancement” is selected as the image processing operator, first, the image data analysis processing unit performs analysis processing necessary for determining image processing parameters for edge enhancement. In this embodiment, as the analysis process, the edge strength of the entire image data is obtained. FIG. 5 is an edge intensity histogram as an analysis result. When the edge intensity histogram of the entire image shown in FIG. 5 is obtained, the edge intensity histogram is then divided by a plurality of predetermined threshold values TH1, TH2, and TH3. For each edge intensity range divided by these threshold values, pixels having edge intensity belonging to each intensity range are classified, and an application parameter is determined for each of the classified pixels. Details of the classification of image processing obtained by the result of the analysis processing are shown in FIG. As shown in FIG. 6, a plurality of threshold values (edge strength analysis results) TH11-TH33 for classifying the respective image processing parameters and regions, and edge enhancement application parameters (filter coefficients in this embodiment) for each of them. By associating the filters A1-A4, B1-B4, and C1-C4, the classification of the area in which each process is executed and the respective image processing parameters are determined. In the present embodiment, the edge strength is classified into four in each of the strong, medium, and weak image processing parameters, and image processing parameters (filter coefficients) for edge enhancement processing are set for each. These results are output as image processing parameters and image processing application area information. That is, the image areas to be processed are classified based on the edge intensity histogram, and image processing parameters to be applied to the respective image areas to be processed are determined.
[0022]
Another embodiment of the image processing parameter / region determination method will be described with reference to FIGS. For example, when “edge enhancement” is selected as the image processing operator, first, the image data analysis processing unit performs analysis processing necessary for setting image processing parameters for edge enhancement. In this embodiment, as analysis processing, the edge strength of the entire image data is obtained, and an edge strength histogram as shown in FIG. 5 is derived. Further, based on the derived edge intensity histogram, a median value, maximum value, minimum value, standard deviation, and the like of the edge intensity are obtained.
[0023]
First, classification of regions is performed by classifying the edge intensity histogram in FIG. 5 with a plurality of threshold values TH1, TH2, and TH3, as described above. Although these threshold values are used for classification, these threshold values may be fixed for each parameter. Further, as shown in FIG. 7, the edge average Es and the edge variance obtained from the image analysis result are shown. A value obtained by a function having various results such as Eσ, median, maximum, minimum, and standard deviation as parameters may be used. For example, as in the threshold value determination column in FIG. 7, TH1 = ω1 (Es, Eσ, α, β...) Is used as a determination function for the threshold value TH1. The characteristics of edge enhancement in each region when the processing regions are classified from the edge strength histograms in edge enhancement “strong”, “normal”, and “weak” are as shown in FIG. This is a function consisting of parameters such as edge average Es, edge variance Eσ, median value, maximum value, minimum value, standard deviation, and so on. Calculate and output the obtained result as an image processing parameter. For example, in FIG. 7, when “strong” is designated for edge enhancement, filter coefficients are determined by the functions f1, f2, and f3 for the filters A1, A2, and A3. When “normal” is designated in edge enhancement, the same processing is performed for the filters B1, B2, and B3 by the functions g1, g2, and g3. When “weak” is designated in edge enhancement, the filters C1, C2, and C3 are processed. The filter coefficients are determined by the functions h1, h2, and h3. The image processing parameter group and the image processing application area information obtained by the above operation are output to the image processing unit. The image processing unit executes image processing based on the instructed operator by changing the setting of the parameter to be applied to each classified region according to these parameters and processing region information. With the above processing, it is possible to realize a mechanism in which appropriate processing is executed for various characteristic regions in the same image whose processing results are sensuously received in response to an image processing operator instruction.
[0024]
Although only edge enhancement has been described in the present embodiment, the above method is executed by various image processing operators, for example, various operators such as “sheepness”, “contrast”, “color tone correction”, “image reduction”, and the like. It is also possible to set different processing parameters in the region.
[0025]
A case where the present invention is applied to a process of executing “color tone correction” will be described. For example, when it is desired to increase redness, first, the color tone analysis of the entire image is executed. That is, it is classified into two types, a reddish area and a non-red area. Or you may classify | categorize into three types, the area | region which does not have redness, the area | region which does not exist, and the area | region which exists in the middle. Next, if you want to further increase the redness of the reddish area, perform a process to increase redness by color correction in the reddish image area, and do not increase the redness in the other image areas. Correct the color tone. As a result of this correction, only the reddish image region portion becomes an image in which redness is further enhanced, and tone correction without influence of the redness increasing process is executed in the other image regions. Further, it is also possible to change the color correction of the other image area part without changing the color tone of the red part, that is, the reverse correction.
[0026]
Next, processing for image reduction will be described. When the image reduction operator executes, first, an edge strength histogram of the entire image is obtained by image analysis, and is classified into a region having a high edge strength and a region having no edge strength. When performing image reduction, a simple average value reduction is executed for a portion that does not include a pixel with high edge strength. On the other hand, when a region having a high edge strength is included, a pixel value having a high edge strength is weighted to perform image reduction processing in order to preserve the edge. In other words, different processing parameters are assigned to an image region having a high edge strength obtained by image analysis in order to execute a different processing from a region that does not include other portions having a high edge strength. Further, it is possible to classify the region into a region having a high edge strength, a region having a low edge strength, and an intermediate region, and assigning different parameters to each region, so that more delicate processing can be executed.
[0027]
According to the method of the present invention, parameter setting for various image processing operators, which has been complicated and difficult in the past, can be executed with settings that are easier for the operator to use than sensory processing. In the present embodiment, the case where there is one image processing parameter for the image processing operator has been described. However, depending on the image processing operator, it is possible to set two or more image processing parameters and execute the operator. It may be necessary. Even in this case, the correlation between the analysis result of the image data and each image processing parameter group is executed using a threshold value set for each image processing parameter, and appropriate multiple processing parameters are classified for each classified region. By classifying image areas by image analysis, it is possible to set optimum image processing parameters for each image area.
[0028]
【The invention's effect】
As described above, according to the image processing apparatus and the image processing method of the present invention, when an image processing operator is executed, image analysis is performed, and an appropriate image processing parameter is determined for each region based on the result. Can do. Therefore, the determination process using trial and error of the image processing parameter that has been conventionally performed is simplified, and appropriate parameter allocation to the image processing area at the time of image processing operator execution can be easily and accurately performed. It is possible to efficiently and easily obtain a desired image.
[Brief description of the drawings]
FIG. 1 is a block diagram showing the overall configuration of an image processing apparatus according to the present invention.
FIG. 2 is a flowchart illustrating the operation of the present invention.
FIG. 3 is a diagram illustrating an example in which an image processing operator is instructed by taking edge enhancement processing as an example in the present invention;
FIG. 4 is a diagram for explaining a connection between an image processing operator's instruction and an image processing parameter that is a conventional method using edge enhancement processing as an example;
FIG. 5 is a diagram illustrating a relationship between an edge strength histogram and a region classification.
FIG. 6 is a diagram for explaining the relationship between region classification and image processing parameters in image processing operator / region determination processing;
FIG. 7 is a diagram for explaining a region classification based on an image analysis result and an image processing parameter setting method.
[Explanation of symbols]
1 Image input section
2 Image storage unit
3 Image processing operator instruction section
4 Image data analysis processor
5 Image processing parameter / region determination processing unit
6 Image processing section

Claims (7)

画像データを入力する画像入力手段と、入力された画像データを蓄積する画像データ蓄積手段と、画像に対して画像処理手法を指示する画像処理手法指示手段と、指示された画像処理手法をもとに対象となる画像データの解析を実行する画像データ解析手段と、前記画像データ解析手段の解析結果を分析し、画像データを1または複数の画像処理領域に分類し、当該画像処理領域ごとに画像処理手法調整指標の値を決定する画像処理調整指標・領域決定手段と、前記画像処理領域の各々に対して、当該画像処理領域につき決定された画像処理手法の調整指標の値により当該画像処理手法で画像処理を施す画像処理手段を有することを特徴とする画像処理装置。Based on an image input means for inputting image data, an image data storage means for storing the input image data, an image processing technique instruction means for instructing an image processing technique for the image, and an instructed image processing technique Image data analysis means for performing analysis of target image data, and analyzing the analysis result of the image data analysis means , classifying the image data into one or a plurality of image processing areas, and for each image processing area an image processing adjustment indicators and area determination means for determining a value of the adjustment indicator of processing techniques, for each of the image processing area, the image processing by the value of the adjustment measure of the image processing area image processing technique which has been determined for An image processing apparatus comprising image processing means for performing image processing by a technique . 前記画像データ解析手段によって実行される画像データ解析は前記画像処理手法指示手段によって指示された画像処理手法の実行の際に使用される調整指標の値の決定に必要とされる画像データを対象とすることを特徴とする請求項1記載の画像処理装置。Image data analysis performed by the image data analysis means and the target image data that is required to determine the value of the adjustment indicator which is used during the execution of the image processing method instructed by the image processing method instruction unit The image processing apparatus according to claim 1, wherein: 前記画像処理調整指標・領域決定手段は、前記画像処理オペレータ指示手段によって指示された画像処理手法ごとに、前記画像データに対して解析処理を行い、その結果を分析し、あらかじめ設定されたしきい値に基づいて、個々の画像処理領分類し、該分類された画像処理領域ごとに適用する画像処理指標を決定することを特徴とする請求項1記載の画像処理装置。The image processing adjustment index / region determining means performs an analysis process on the image data for each image processing method instructed by the image processing operator instruction means, analyzes the result, and sets a predetermined threshold. based on the value, classified into each image processing area, the image processing apparatus according to claim 1, wherein determining the image processing indicator to be applied to each said classified image processing area. 前記画像処理手法は、エッジ強調処理であり、前記画像データ解析手段は画像のエッジ強度解析を実行し、前記画像処理調整指標・領域決定手段は、エッジ強調処理の強度を設定するためのフィルタ係数を調整指標として設定することを特徴とする請求項1記載の画像処理装置。The image processing method is edge enhancement processing, the image data analysis means executes edge strength analysis of an image, and the image processing adjustment index / region determination means has a filter coefficient for setting the strength of edge enhancement processing The image processing apparatus according to claim 1, wherein: is set as an adjustment index . 前記画像処理手法は色調補正処理であり、前記画像データ解析手段は画像の色調解析を実行し、前記画像処理調整指標・領域決定手段は、該色調解析の結果に基づいて色調補正の強度を設定する調整指標を決定することを特徴とする請求項1記載の画像処理装置。The image processing method is a color tone correction process, the image data analysis unit executes a color tone analysis of the image, and the image processing adjustment index / region determination unit sets the strength of the color tone correction based on the result of the color tone analysis. The image processing apparatus according to claim 1, wherein an adjustment index to be determined is determined. 前記画像処理手法は画像縮小処理であり、前記画像データ解析手段は、エッジ強度の高い画素を含む画像領域を前記画像データ解析によって抽出し、前記画像処理調整指標・領域決定手段は、エッジ強度の高い画素を含む画像領域においては、エッジの保存のために該エッジ強度の高い画素に重み付けを行って画像縮小を実行する調整指標を設定し、それ以外の画像領域においては平均値縮小を実行するように調整指標を設定するものであることを特徴とする請求項1記載の画像処理装置。The image processing method is an image reduction process, the image data analysis unit extracts an image region including a pixel having a high edge strength by the image data analysis, and the image processing adjustment index / region determination unit In an image area including high pixels, an adjustment index for performing image reduction is set by weighting pixels having high edge strength in order to preserve edges, and average value reduction is executed in other image areas. The image processing apparatus according to claim 1, wherein an adjustment index is set as described above. 画像データを入力する画像入力手段と、前記入力された画像データを蓄積する画像データ蓄積手段と、前記画像に対して画像処理手法を指示する画像処理手法指示手段と、画像処理を施す画像処理手段を有する画像処理装置における画像処理方法において、前記画像処理手法指示手段によって指示された画像処理手法に応じて画像データの解析を実行するステップと、前記画像データ解析の結果を分析し、画像データを1または複数の画像処理領域に分類し、当該画像処理領域ごとに前記画像処理手法調整指標を決定するステップと、前記画像処理領域の各々に対して、当該画像処理領域につき決定された画像処理手法の調整指標の値により当該画像処理手法で画像処理を実行するステップと、を有することを特徴とする画像処理方法。Image input means for inputting image data, image data storage means for storing the input image data, image processing technique instruction means for instructing an image processing technique for the image, and image processing means for performing image processing an image processing method in an image processing apparatus and a step of performing an analysis of the image data according to the image processing method instructed by the image processing technique instruction means, analyze the results of the image data analysis, the image data 1 or into a plurality of image processing regions, and away step to determine the adjustment indication of the image processing techniques per the image processing region, for each of the image processing region, are determined for the image processing region And a step of performing image processing by the image processing method according to a value of an adjustment index of the image processing method.
JP00427697A 1997-01-14 1997-01-14 Image processing apparatus and image processing method Expired - Fee Related JP3845927B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP00427697A JP3845927B2 (en) 1997-01-14 1997-01-14 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP00427697A JP3845927B2 (en) 1997-01-14 1997-01-14 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JPH10200752A JPH10200752A (en) 1998-07-31
JP3845927B2 true JP3845927B2 (en) 2006-11-15

Family

ID=11580026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP00427697A Expired - Fee Related JP3845927B2 (en) 1997-01-14 1997-01-14 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP3845927B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002230546A (en) 2001-01-30 2002-08-16 Fujitsu Ltd Image processing program, computer readable storage medium storing it, and image processing method and device
EP2225725A2 (en) * 2007-12-20 2010-09-08 Koninklijke Philips Electronics N.V. Segmentation of image data

Also Published As

Publication number Publication date
JPH10200752A (en) 1998-07-31

Similar Documents

Publication Publication Date Title
US7013025B2 (en) Image correction apparatus
US8681380B2 (en) Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US4689666A (en) Method for eliminating noise in regions of a color image exhibiting a specific color
US4792847A (en) Method for automatically setting signal processing conditions in image input/output system
US6137903A (en) Color transformation system based on target color image
JP3769487B2 (en) Blond Pixel Removal Method for Image Skin Color Detection
US20040125387A1 (en) Image processing apparatus, image processing method and program therefor
JP4123724B2 (en) Image processing program, computer-readable recording medium storing image processing program, image processing apparatus, and image processing method
EP1807805A1 (en) Method and apparatus for red-eye detection in an acquired digital image
JP2001014456A (en) Image processing device and program recording medium
JPH11150656A (en) Method and device for processing image and recording medium recording program for executing its processing
DE69929408T2 (en) Method and apparatus for image quality change
JP2005277981A (en) Target image selection for image processing
CN111526279A (en) Image processing apparatus, image processing method, and recording medium
US6181321B1 (en) Combined color cast removal and contrast enhancement for digital color images
US7903902B2 (en) Adaptive image improvement
CN113888534A (en) Image processing method, electronic device and readable storage medium
JPH11298736A (en) Image processing method, readable recording medium with image processing program recorded therein and image processor thereof
US7239756B2 (en) Method for enhancing the quality of an image
KR100735551B1 (en) Method and apparatus for filtering adaptively according to color domains
JP3845927B2 (en) Image processing apparatus and image processing method
US5774578A (en) Apparatus for and method of utilizing density histograms for correcting objective images
JP3557115B2 (en) Image filter determination method and apparatus, and recording medium recording program for executing the processing
JP3896618B2 (en) Image processing apparatus and image processing method
JP3505017B2 (en) Automatic method of contour enhancement or smoothing in image processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060814

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100901

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110901

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120901

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees