JP4169116B2 - Image processing method - Google Patents

Image processing method Download PDF

Info

Publication number
JP4169116B2
JP4169116B2 JP28446896A JP28446896A JP4169116B2 JP 4169116 B2 JP4169116 B2 JP 4169116B2 JP 28446896 A JP28446896 A JP 28446896A JP 28446896 A JP28446896 A JP 28446896A JP 4169116 B2 JP4169116 B2 JP 4169116B2
Authority
JP
Japan
Prior art keywords
image
pixel
edge
cut
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP28446896A
Other languages
Japanese (ja)
Other versions
JPH10124652A (en
Inventor
塚 秀 一 大
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP28446896A priority Critical patent/JP4169116B2/en
Publication of JPH10124652A publication Critical patent/JPH10124652A/en
Application granted granted Critical
Publication of JP4169116B2 publication Critical patent/JP4169116B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ある元画像に対応する画像に施された切り抜き処理と同様の切り抜き効果を元画像に得る画像処理方法、例えばパーソナルコンピューターなどの計算機で画像処理された、あるいは画像メディアに記録された、もしくは通信によって送受信された低解像度画像から、ここに施されている切り抜き変換と同様の効果を変換が施される前の低解像度画像の元となる高解像度画像に得るための画像処理方法に関する。
【0002】
【従来の技術】
現在、パーソナルコンピューター(以下、PCという)、ワークステーション(WS)などの計算機で画像処理を行ったり、ワードプロセッサー(WP)、特にデスクトップパブリッシング(DTP)機能をもつワードプロセッサーに画像を取り込み、文字や表や線と組み合わせて編集を行ったり、画像処理前後の画像や文字等が組み込まれた編集画像などを、MO(光磁気ディスク)、FD(フロッピーディスク)やHD(ハードディスク)などの画像メディア(画像記録媒体)に記録したり、あるいは通信によって送受信したり、または画像メディアから記録された画像を読み出したりすることが、画像を専門に取り扱う専業者や熟練者のみならず、一般の顧客にも簡単にできるようになってきている。
【0003】
しかしながら、写真や印刷物のグラビアなどの画像は、たとえモノクロ画像(主に白黒画像)であっても多階調画像であるし、カラー画像の場合は3色について多階調画像であるため、文字や表や線画像等の2値画像に比べ、1枚(1フレーム)当たりの情報量すなわち画像データ量が膨大となる。このため、コンピュータで画像処理をする時や、画像メディアに記録する時や、通信により画像を送受信する時には、解像度を落とした低解像度画像として画像データ量を少なくして扱い易くする必要がある。
【0004】
一方、高品質な画像を出力するためには、高解像度の画像が必要となる。しかしながら、高解像度の画像は、品質は良いが、情報量が多く、簡単に画像を扱うのには適していない。このため、画像の出力は、高品質画像とするためにはデータ量が多くなっても高解像度の画像で行い、コンピュータによる画像の処理、画像メディアへの記録および通信等はデータ量の少ない低解像度の画像で行うのが好ましい。
すなわち、高解像度の画像Aから解像度を落とすことによって得られた低解像度の画像Bにコンピューター等によって変換、例えば切り抜き、変形、色変換等の変換を行い、これらの変換を簡便に繰り返してその結果として所望の低解像度の変換画像Cを得た後、この所望の変換画像Cを得るのに低解像度の画像Bに施された変換と同様な変換を元の高解像度の画像Aに施して、所望の変換が施された高解像度の変換画像Dをプリント画像等として出力するのが良い。
【0005】
しかしながら、低解像度画像の全画素についてどのような変換が施されたかの変換情報を持つのは困難であるため、低解像度画像Bに施された変換の内容を関数、例えば切り抜き変換では、切り抜き変換を行うための画像特徴量やその変化量などの基準を特性値や特性曲線で持ち、これらの特性値や特性曲線を用いて高解像度画像Aに切り抜き変換を施すことも提案されている。ところが、このような方法は、高解像度画像Aを切り抜き変換処理する処理装置と低解像度画像Bを処理する処理装置が色々なアプリケーションを共通に持っていなければならないし、低解像度画像Bの切り抜き処理は全画素同様な基準で行われねばならない。しかし、共通のアプリケーションがなかったり、部分的に異なる基準による切り抜き処理がなされていた場合には、全く対処できないという問題があった。
【0006】
このため、一般的に対処しようとすると、変換後の低解像度画像Cはあっても、この変換画像Cを得るために低解像度画像Bに施された切り抜き変換処理の内容、とくに「何を基準にして切り抜きをしたか」に関する情報を知ることができない場合が多く、このような場合、変換後の低解像度画像Cと変換前の低解像度画像Bと元の高解像度画像Aとに基づいて低解像度画像Bから低解像度画像Cへの変換処理の内容を決定し、高解像度画像Aに同様の変換処理を施す必要が出てくる。
そこで、従来技術では、切り抜き低解像度画像Cの画素と低解像度画像Bの画素とを比較して、高解像度画像Aに対応する低解像度画像の画素に行われた切り抜き変換により低解像度画像Bから低解像度画像Cへの切り抜き変換の内容(基準)を予測し、予測された変換基準と同様の変換基準で高解像度画像Aに切り抜き処理を行っていた。
【0007】
【発明が解決しようとする課題】
ところが、低解像度画像は、本来高解像度画像が持っている情報が欠落しているため、上述した高解像度画像に対応する低解像度画像に行われた切り抜き変換から予測した切り抜き変換の内容(基準)を高解像度画像全体に同様な基準で切り抜き処理を施す方法では、適切な切り抜き画像が得られず、もしくはシャープな切り抜き画像が得られず、例えば、切り抜かれる画像と残る背景とのエッジにおいて、切り抜き画像と背景画像との関係は同一ではないので、両画像の全エッジ部分で同様な基準で切り抜くと、エッジ部の選択基準があいまいになり、エッジ部がギザギザになったり、画像の必要な部分を切り取ってしまったりして、本来切り抜き画像全体に同一の切り抜き変換結果が得られる必要があるにも係わらず、画像の形状によって異なる変換結果を示す場合があるという問題があった。
【0008】
本発明の目的は、上記従来技術の問題点を解消し、元画像に対応する画像に施された切り抜き処理と同様の効果を持つ切り抜き処理を元画像に施して、元画像に正確な切り抜きを行うことができる画像処理方法、例えば、低解像度画像に行われた切り抜き変換を、特性を損ねることなく、正確に高解像度画像に行うことができ、計算機(コンピュータ)での切り抜き処理を行う時、または切り抜き画像を画像メディアに記録する時、あるいは通信により送る時のパフォーマンスを維持し、高品質切り抜き画像を出力することができる画像処理方法を提供するにある。
【0009】
【課題を解決するための手段】
上記目的を達成するために、本発明は、画像データAと、画像データAに対応する画像データBと、前記画像データBに切抜き処理を施すことによって得られた切り抜き画像とを用いて、前記画像データAに切抜き処理を施し、前記画像データAにより表される画像Aの切抜き画像を求める画像処理方法であって、前記画像データBは、前記画像データAよりも解像度が低く、前記低解像度の画像Bに切抜き処理を行い、前記切り抜き画像Cを得るために、設定された前記切り抜き画像Cのエッジ部の画素に位置的に対応する前記画像Bの切抜き境界となる各画素について、切抜き前の画像Bにおける前記切り抜き画像Cのエッジ部の画素に位置的に対応する各画素の周辺画素であって、切抜き前の画像Bにおいて、前記切り抜き画像Cのエッジ部の画素に位置的に対応する前記画像Bの前記切抜き境界の内側画素と外側画素とをそれぞれ選定し、前記内側画素と外側画素とについて、複数の画像特徴量を求め、最も大きな値である画像特徴量を、前記画像Bを切抜き処理して前記切り抜き画像Cを得るに際し、前記画像Bにおける切抜きの基準として用いられたエッジ特徴量とし、前記エッジ特徴量を用いて、画像Bに対応する高解像度の前記画像データAで表される画像Aにおける切抜き境界となるエッジ画素を決定し、前記画像Aにおいて、決定されたエッジ画素をエッジとして前記画像Aから切り抜き、前記画像Dを得る切抜き処理を行うことを特徴とする画像処理方法を提供するものである。
【0010】
また、前記画像特徴量値は、前記画像Bの前記切抜き境界となる画素の位置に応じて重み付けが施されたものであるのが好ましい。
前記複数の画像特徴量は、明度、色相、彩度、および明度,色相、彩度の微分値、ならびに明度,色相、彩度の二次微分値であるのが好ましい。
前記複数の画像特徴量の算出を行うため、前記画像Bにおける前記切抜き境界となる各画素の周辺から、切抜き境界の内側にあって前記切抜き境界となる画素の近傍に位置する画素と、前記境界の内側にあって前記切抜き境界となる画素の近傍に位置する画素より内側に位置する画素と、切抜き境界の外側にあって前記切抜き境界となる画素の近傍に位置する画素と、前記切抜き境界の外側にあって前記切抜き境界となる画素の近傍に位置する画素より境界に関してより外側に位置する画素との4画素を選び出すのが好ましい。
【0011】
前記画像データAの切抜き処理は、前記画像Bにおける前記切抜き境界となる画素に位置的に対応する画像Aの画素について前記エッジ特徴量を算出し、このエッジ特徴量の変化量または変換量が所定値以上である画素を全て切抜き画像の境界となり得る画像候補として求め、求められたエッジ画素候補の中から切抜き画像の境界の連続性によってエッジ画素を決定し、決定されたエッジ画素を連結することにより行われるのが好ましい。
前記エッジ画素の決定は、重回帰式を用いて、複数のエッジ画素候補の中からエッジ画素が連続するように求めることにより行うのが好ましい。
【0012】
【発明の実施の形態】
本発明に係る画像処理方法を添付の図面に示す好適実施例に基づいて以下に詳細に説明する。
【0013】
本発明の画像処理方法は、画像データAと、この画像データAに対応する画像データB、例えば画像データAから解像度変換により解像度を落とした画像データBと、この画像データBに切り抜き処理を施すことによって得られた切り抜き画像Cとがある時、切り抜き画像Cを得るために画像データBに施された切り抜き処理と同様の切り抜き処理を画像データAに行うに際し、
画像データAの各画素に施す切り抜き処理の内容、すなわちどの画素をエッジ画素として切り抜くかを、画像データAおよびBならびに切り抜き画像Cから以下のようにして求め、画像データAに切り抜き処理を行うものである。なお、ここでは、画像データと画像とは一義的な対応があるものとする。すなわち、画像AやBを読み取ると画像データAやBがそれぞれ得られ、画像データAやBで記録すると画像AやBがそれぞれ得られるものとする。
【0014】
まず、第1の工程では、切り抜き画像Cのエッジ部の画素に位置的に対応する画像Bの注目画素、およびこの注目画素の近傍、例えば周辺画素から切り抜くためのエッジ画素を決めるのに用いた、もしくは切り抜き処理を施す基準として用いられたエッジ特徴量候補として考えられる画像特徴パラメータ(画像特徴量)を抽出する。例えば画像Bおよび画像Cのエッジ部およびその周辺画素から目視判断して可能性があると考えられる画像特徴パラメータをすべて抽出する。すなわち、第1工程は画像特徴パラメータ抽出工程である。
本発明に用いられる画像特徴パラメータとしては、特に制限的ではなく、通常画像処理で用いられる画像特徴量であればどのようなものでもよいが、例えば、色空間で求められる色度(E)や、人間の目の応答に対応した色空間で定義される明るさ(明度L;Lightness )、色相(H;Hue )および彩度(S;Saturation)の色知覚の3属性およびこれら色度、明度、色相、彩度の微分値、ならびに色度、明度、色相、彩度の2次微分値などを挙げることができる。画像特徴パラメータの抽出は、画像Bおよび切り抜かれた画像Cの明るさや色や絵柄からコンピュータや画像処理装置などによって自動抽出してもよいが、上述したように目視判断によって可能性のあるパラメータをすべて抽出するようにしてもよい。
【0015】
次に、第2の工程では、画像Bの注目画素(すなわち切り抜き画像Cのエッジ部の画素に位置的に対応する画像Bの画素)の周辺から、切り抜き画像Cの内側にある異なる位置の画素と切り抜き画像Cの外側にある異なる位置の画素とを複数画素選び出し、例えば画像Bにおいて切り抜き画像Cの内側のエッジ部の画素とエッジ部より内側の画素と、切り抜き画像Cの外側のエッジ部の画素とエッジ部より外側の画素との4画素を選び出し、これらの複数(4)画素のそれぞれについて、第1工程で得られた画像特徴パラメータの値を算出する。
次いで、これらの画像特徴パラメータ値を選びだされた複数の画素について切り抜き画像Cの内外に分けて比較し、その内外で最も大きい変化を示す、従って最も大きな変換量である画像特徴パラメータを切り抜きの基準として用いられたエッジ特徴量であると決定する。
すなわち、第2工程は、第1工程で求められた画像特徴パラメータの内から、画像を切り抜くための基準として用いられる画像特徴パラメータをエッジ特徴量としてを求めるエッジ特徴量決定工程である。
【0016】
最後に、第3の工程は、画像Bの注目画素または画像Cのエッジ部に位置的に対応する画像Aの画素のすべてについて、第2工程で得られたエッジ特徴量を計算する。エッジ特徴量が求められた画像Aの画素の内、隣接する画素においてエッジ特徴量の変化が大きいまたは急激である画素、すなわちエッジ特徴量の変換量が大きい画素をエッジ画素候補として選び出し、切り抜くためのエッジは連続しているという性質、すなわちエッジの連続性を使って、エッジ画素候補のなかからエッジ画素を決定する。そして、画像Aをエッジ画素で切り抜いて、画像Aに切り抜き処理を施す。すなわち、第3工程は、画像Aに切り抜き処理を施す切り抜き処理工程である。
こうして画像Aに所要の切り抜き処理を施した切り抜き画像Dを得ることができる。
【0017】
本発明においては、例えば、対応画像が解像度変換画像である時、低解像度画像の切り抜き変換前後の画像データから、高解像度画像の画素に行う切り抜き処理(変換)内容、すなわち切り抜く対象となる画素であるかどうか、もしくはエッジ画素に該当するかどうかを決定する際に、切り抜き低解像度画像のエッジ部およびその周辺画素から切り抜き処理を行う基準となりうる複数の画像特徴パラメータを抽出し、低解像度画像の変換前後の画像情報から切り抜き画像内外の画像特徴パラメータの値により、これらの画像特徴パラメータの内から切り抜き処理を行う基準となるエッジ特徴量を求めることで、高解像度の画像特徴に適した切り抜き処理(変換)を行うことが可能となる。こうして、高解像度画像に適切で滑らかな切り抜き処理を施すことができ、エッジ部に色や形状にギザギザな出入りがなく、シャープな切り抜き高解像度画像を得ることができる。
【0018】
ここで、図1に示すように、対応画像が解像度変換画像である場合を代表例とし、図1および図2を参照して、本発明の画像処理方法をさらに具体的に説明する。
図1において、参照符号Aは、元画像である高解像度画像を示し、参照符号Bは、高解像度画像Aから解像度変換によって得られた低解像度画像を示し、参照符号Cは、低解像度画像Bから切り抜き処理によって得られた低解像度画像を示し、参照符号Dは、低解像度画像Bに施した切り抜き処理と同じ効果の、即ち同じ意図で高解像度画像Aから切り抜かれた切り抜き高解像度画像を示す。切り抜き低解像度画像Cおよび切り抜き高解像度画像Dにおいて、太線は切り抜かれた画像のエッジ(境界線)を示し、細点線は、本来のエッジ(境界線)を示す。低解像度画像Bの太点線は切り抜かれた画像のエッジ(境界線)を示し、細点線は、本来のエッジ(境界線)を示す。
図2は、画像A,B,CおよびDを重ね合わせた画像を示すが、高解像度画像AおよびDは、参照符号P0で示す低解像度画像B(C)の注目画素のみ示され、他は図示が省略されている。太線は、切り抜き画像Cのエッジ(境界線)を示し、細曲線は、本来のエッジ(境界線)を示す。
【0019】
本発明の画像処理方法では、まず、第1の画像特徴パラメータ抽出工程において、図1および図2に示すように、切り抜き低解像度画像Cのエッジ部に位置的に対応する低解像度画像Bの注目画素P0を決め、この注目画素P0を中心にして、あるいはこの注目画素P0の1画素もしくは2画素内側または外側にある画素を中心にして、その周辺の画素について探索し、低解像度画像Bに切り抜きを行った時の特徴、例えば切り抜きの内容や意図の基になった画像の明るさや色やそれらの変化量などの画像特徴量を抽出する。ここで、抽出される画像特徴パラメータは、例えば、E1(明度)、E2(色度)、E3(明度の微分)およびE4(明度の2次微分)であるとする。
なお、画像特徴パラメータを抽出するために注目画素等を中心として探索する探索範囲Daは、特に限定されないが、切り抜き画像のエッジ前後の画像特徴量の変化または変換は急激であるので、注目画素から1または2画素離れた範囲であれば良い。
【0020】
次に、第2のエッジ特徴量決定工程においては、この注目画素P0の周辺の低解像度画像Bの画素から、切り抜き低解像度画像Cの内側にあるエッジ部の画素、図1および図2では参照符号P2で示す内側エッジ部画素と、この内側エッジ部画素P2より内側にある内側画素P1と、切り抜き低解像度画像Cの外側にあるエッジ部の外側エッジ部画素P3と、この外側エッジ部画素P3より外側にある外側画素P4との4画素を選び出す。すなわち、低解像度画像Bの注目画素P0近傍の画素を4つに分類する。
なお、このような4画素P1〜P4の選定方法は、特に制限的ではなく、探索範囲Da内においてであれば、適宜選択すればよい。
【0021】
次に、これらの4つの画素P1,P2,P3,P4のそれぞれについて、第1工程で抽出した画像特徴パラメータの値Ei(Pj)(i,j=1〜4)を算出する。なお、ここで、各画像特徴パラメータは、低解像度画像BにN×Mのフィルターをかけることにより計算できる。
次いで、抽出された画像特徴パラメータ値E1〜E4のそれぞれについて、4画素における画像特徴パラメータ値Ei(P1)〜Ei(P4)を画素点P1〜P4に応じて、例えばその位置に応じて重み付けを行った重み付け関数Fの値を計算する。
Ei=F(α×Ei(P1),β×Ei(P2),γ×Ei(P3),
δ×Ei(P4));(i=1〜4)
ここでα、β、γおよびδは重み付け係数であり、エッジに近い画素点P2,P3の値に対する重み付け係数β、γの方が、エッジから遠い画素点P1,P4の値に対する重み付け係数α、δより大きくするのが好ましい。
【0022】
本発明に用いられる重み付け関数Fは、エッジ内外またはエッジ遠近によってその変化または変換の差異を表すことができれば良く、画像特徴パラメータの特性に合わせて適切なものを選択すればよい。
例えば、明度E1や色度E2などの場合には、重み付け関数Fは、下記式で表される。
F=α×Ei(P1)+β×Ei(P2)−γ×Ei(P3)
−δ×Ei(P4)
例えば、明度の微分値E3などの場合には、重み付け関数Fは、下記式で表される。
F=max(β×E3(P2),γ×E3(P3))
−min(α×E3(P1),δ×E3(P4))
【0023】
こうして得られた画像特徴パラメータの重み付け関数値E1w,E2w,E3w,E4wを比較して、最も大きい値を持つ画像特徴パラメータを画像Bから切り抜き画像Cを得る際に画像のエッジ(境界)を決めた基準を示すエッジ特徴量であると決定する。ここで決定されたエッジ特徴量は、切り抜き画像内外で最も変化量の大きい最適な画像特徴パラメータである。
なお、このようなエッジ特徴量の決定には、図3に示すような画像特徴パラメータのスコアシートを用いるのが便利である。このように、各画素点P1〜P4における各画像パラメータE1〜E4をテーブル化でき、重み付け関数値E1w〜E4wを評価するのが容易となり、簡単に最大変化量を示す画像特徴パラメータをエッジ特徴量として決定することができる。
なお、図示例では、例えば、明度E1がエッジ特徴量として決定されたものとする。
【0024】
最後に、第3の切り抜き処理工程では、まず、低解像度画像Bの注目画素P0およびその近傍の画素に位置的に対応する高解像度画像Aの各画素に対して第2工程で得られたエッジ特徴量である明度E1の算出を行う。図示例では、参照符号P0で表される高解像度画像Aの全16画素(4×4画素)およびこれに低解像度画像Cの切り抜きエッジ(太線)を挟んで図中左側に隣接する16画素について明度E1の値を計算する。これらの32画素の内ある行または列方向に隣接する2〜3画素で明度E1の変化量あるいは変換量が所定値以上である画素を全て切り抜き画像のエッジとなり得るエッジ画素候補として選びだす。
次に、このようにして選びだされたエッジ画素候補の中から、切り抜き画像のエッジは連続しているという性質を使って、エッジ画素を決定する。なお、エッジ画素候補は、必ずしも連続していないし、複数定義される場合もある。この場合には、エッジ画素が連続するように、好ましくは滑らかに連続するようにエッジ画素を決定すればよい。また、この場合には、これらのエッジ画素候補を多項式などの数学関数で近似し、統計処理で数学関数のパラメータを求めて、連続するようにエッジ画素を決定する方式を採用することも可能である。例えば、数学関数を4次式に決め、4次式のパラメータを複数のエッジ画素候補の中から重回帰式などで最もマッチングするように求めることができる。
【0025】
こうして、低解像度画像Bの注目画素P0およびその近傍の画素における連続するエッジ画素を求めることができる。図2において、注目画素P0での高解像度画像Aのエッジ画素は斜線で塗られた画素として表される。本発明法によって、得られたエッジ画素は図2に示すように細実線で示す本来の切り抜き画像のエッジ上にあり、適切かつ正確であることが分かる。
この後、低解像度画像Bの注目画素を画素P0から切り抜き低解像度画像Cのエッジ部に沿って移し、順次上述した3工程を繰り返して、高解像度画像Aの全体に対して連続するエッジ画素を決定し、これらの連続するエッジ画素をエッジとして高解像度画像Aから切り抜き、切り抜き高解像度画像Dを得ることができる。
このようにして、切り抜き低解像度画像Cを得るために低解像度画像Bに施された切り抜き変換処理と同様の内容に基づく切り抜き変換処理を高解像度画像Aに施すことができ、切り抜き高解像度画像Dを得ることができる。
【0026】
なお、本発明においては、入力画像信号が、必要な画像特徴パラメータを表す色空間でない場合には、必要な色空間に変換して、画素の色度値(明度、色相、彩度)を求める必要がある。例えば、入力される画像信号がR(赤)G(緑)B(青)や、Y(イエロー)M(マゼンタ)C(シアン)やXYZ表色系で表されるX,Y,Zなどの3刺激値に対応した、いわゆる混色系の色空間である場合には、YIQ(輝度−色差)、YCC(YCrCb)表色系等の映像信号系や、HSI、HSV、HSL表色系等のカラーグラフィック(CG)表現系や、L * * * 表色系、L* * * 表色系などの均等色知覚色空間などの色知覚との対応性の良い、いわゆる顕色系の色空間に変換し、その色空間での色度値を求めるのが好ましい。例えば、ある画素のRGB画像信号値で表される色度値を明度と色相(彩度)とに分離する場合には、L* * * 色度値やYCC色度値等に変換するのが好ましい。
本発明の画像処理方法は、基本的には以上のように構成される。
【0027】
以上に説明した本発明の画像処理方法は、高解像度画像Aから解像度変換によって得られた低解像度画像Bと低解像度画像Cとの間に行われた切り抜き変換処理と同じ効果の切り抜き変換処理を元の高解像度画像Aに施すものであるが、低解像度画像BとCとの間の詳細な画素毎の切り抜き変換処理の内容、すなわち、切り抜きを行うためのエッジを決めるエッジ特徴量となる画像特徴量、例えば、色(明るさ、色相、彩度)の変換量などが判らない場合に特に効果的である。なお、本発明の画像処理方法においては、高解像度画像A、低解像度画像Bおよび低解像度画像Cまたはこれらの画像A、BおよびCの画像データのいずれも、画像を専門に扱う専業者や熟練者、あるいは一般の顧客(ユーザ)が有するものであっても良いし、これらによって処理されたものであっても良い。しかし、高解像度画像Aおよび低解像度画像Bまたはこれらの画像データは、画像を専門に扱う専業者や熟練者がホストコンピュータなどの大容量の画像データを処理可能な画像処理装置の記憶装置や記憶媒体に有するものであり、低解像度画像Cは、一般の顧客(ユーザ)が画像を専門に扱う専業者や熟練者から供給された低解像度画像Bからパーソナルコンピュータなどの小容量の画像データしか処理できない画像処理装置によって所望の画像処理を施すことによって得られたものである時、低解像度画像Bを供給した専業者や熟練者が、一般の顧客による低解像度画像Bから低解像度画像Cへの変換の画素毎の詳細な情報が判らなくても、低解像度画像Bと低解像度画像Cとから、同様の変換効果を高解像度画像Aに施した変換高解像度画像Dの出力を行う場合に最も好適に適用可能である。
【0028】
これは、画像を専門に扱う専業者や熟練者は、データ量が多くても、高解像度の画像を読み取る専用の画像読取装置や、高解像度の画像を処理できる専用の画像処理装置や、高解像度の画像を記録できる大容量の画像記録媒体あるいは画像記憶装置などを備えているため、高解像度、高品質な画像であっても出力が可能であるからである。また、このため、専業者には、高解像度画像Aから解像度を落として得られた低解像度画像Bに一般の顧客がコンピュータなどによって所望の変換を施した低解像度画像Cから、この変換と同じ効果を高解像度画像Aに施して、高解像度の変換画像DAをプリント画像等として出力するように求められることになるからである。
【0029】
ところで、1つの画像に対して、解像度の異なる複数の画像データを階層的に持つ試みもフォトCD(コンパクトディスク)などで行われている。フォトCDなどに階層的に入れられている解像度の異なる画像データは、例えば、最上階層に2000×3000画素の画像データが記録されていて、その下の階層には順次低解像度の画像データが記録されている。例えば、1000×1500画素、……500×750画素……等である。
【0030】
ここで、例えば、ディジタル写真、印刷画像などの分野において、高品質な画像(例えば、2000×3000画素以上の画素よりなる画像)を扱うには大量のメモリを搭載したパーソナルコンピュータでないと扱うのが難しい。高品質な画像に直接簡単な画像の色、階調の変更等の画像処理を行うのにも時間がかかり実用的ではない。CRTモニタの解像度の画像(700×500画素)等の低解像度の画像であれば、比較的軽快に画像処理が可能である。本発明の技術を使い、軽快に画像処理を行った低解像度の画像から高解像度の画像に対する処理内容を抽出し、同じ処理を行うことは高解像度の画像を扱う上で極めて有効であり、本発明の適用の範囲は広く、その効果は極めて大きいといえる。
【0031】
以上、本発明の画像処理方法について詳細に説明したが、本発明は上記の説明例および実施例には限定されず、本発明の要旨を逸脱しない範囲において、各種の改良や設計の変更を行ってもよいのはもちろんである。
【0032】
【発明の効果】
以上、詳述したように、本発明によれば、元画像に対応する画像に施された切り抜き変換処理と同様の切り抜き変換処理をその特性を損ねることなく元画像に施して、元画像に同様の効果を得ることができる。
特に、元画像が高解像度画像であり、その対応画像が低解像度画像である場合には、低解像度画像に行われた画像の変換を、特性を損ねることなく、高解像度画像に行うことができ、計算機(例えばパーソナルコンピュータ)での画像処理を行う時、または画像メディアに記録する時、あるいは通信により画像を送る時のパフォーマンスを維持し、これらの低解像度画像に施されている切り抜き変換と同様の効果を変換が施される前の低解像度画像の元となる高解像度画像に得ることができ、その結果、所望の変換処理が施された高品質画像を出力することができる。
【図面の簡単な説明】
【図1】本発明の画像処理方法の一例を説明する説明図である。
【図2】図1に示す画像処理方法を説明する拡大説明図である。
【図3】本発明の画像処理方法に用いられるスコアテーブルの1例である。
【符号の説明】
A 元の高解像度画像
B 高解像度画像Aから解像度変換で得られた低解像度画像
C 低解像度画像Bから切り抜き変換で得られた低解像度画像
D 高解像度画像Aから同じ切り抜き変換で得られた高解像度画像
P0 低解像度画像Bの注目画素
P1 低解像度画像Bにおける切り抜き画像Cの内側の画素
P2 低解像度画像Bにおける切り抜き画像Cの内側のエッジ部の画素
P3 低解像度画像Bにおける切り抜き画像Cの外側のエッジ部の画素
P4 低解像度画像Bにおける切り抜き画像Cの外側の画素
[0001]
BACKGROUND OF THE INVENTION
The present invention provides an image processing method for obtaining the same clipping effect as the clipping process applied to an image corresponding to a certain original image, for example, image processing by a computer such as a personal computer, or recording on image media The present invention also relates to an image processing method for obtaining, from a low-resolution image transmitted and received by communication, a high-resolution image that is the original of the low-resolution image before the conversion is performed, with the same effect as the clipping conversion performed here. .
[0002]
[Prior art]
Currently, images are processed by computers such as personal computers (hereinafter referred to as PCs) and workstations (WS), and images are imported into word processors (WP), especially word processors with desktop publishing (DTP) functions. Edit in combination with lines, or edit images that incorporate images before and after image processing, characters, etc., and image media (image recording) such as MO (magneto-optical disk), FD (floppy disk), and HD (hard disk) It is easy for not only professionals and specialists who specialize in image processing, but also general customers to read images recorded on media), send / receive by communication, or read images recorded from image media. It is becoming possible.
[0003]
However, an image such as a photograph or gravure of a printed material is a multi-tone image even if it is a monochrome image (mainly a black-and-white image), and a color image is a multi-tone image for three colors. Compared to binary images such as tables and line images, the amount of information per frame (one frame), that is, the amount of image data is enormous. For this reason, when performing image processing with a computer, recording on image media, or transmitting and receiving images by communication, it is necessary to reduce the amount of image data as a low-resolution image with a reduced resolution to facilitate handling.
[0004]
On the other hand, in order to output a high quality image, a high resolution image is required. However, a high-resolution image has good quality but has a large amount of information and is not suitable for handling an image easily. For this reason, image output is performed with a high-resolution image even if the amount of data is large in order to obtain a high-quality image. Image processing by a computer, recording on image media, communication, etc. are low in data amount. It is preferable to use a resolution image.
That is, conversion to a low-resolution image B obtained by dropping the resolution from the high-resolution image A is performed by a computer or the like, for example, clipping, deformation, color conversion, etc., and these conversions are simply repeated and the result is obtained. After obtaining the desired low-resolution converted image C, the original high-resolution image A is subjected to the same conversion as that performed on the low-resolution image B to obtain the desired converted image C. It is preferable to output a high-resolution converted image D subjected to desired conversion as a print image or the like.
[0005]
However, since it is difficult to have conversion information indicating what conversion has been performed on all pixels of the low-resolution image, the content of the conversion performed on the low-resolution image B is a function, for example, clipping conversion is used for clipping conversion. It has also been proposed that a characteristic value or characteristic curve has a reference such as an image feature amount or its change amount to be performed, and that the high-resolution image A is cut out using these characteristic value or characteristic curve. However, in such a method, the processing device that cuts and converts the high-resolution image A and the processing device that processes the low-resolution image B must have various applications in common. Must be done on the same basis for all pixels. However, if there is no common application, or if cut-out processing based on partially different standards is performed, there is a problem that it cannot be handled at all.
[0006]
Therefore, in general, if there is a low-resolution image C after conversion, the contents of the cut-out conversion processing applied to the low-resolution image B to obtain the converted image C, particularly “what In many cases, it is not possible to know the information about whether or not the image has been cut out. In such a case, the low resolution image C after conversion, the low resolution image B before conversion, and the original high resolution image A It is necessary to determine the content of the conversion process from the resolution image B to the low resolution image C and to perform the same conversion process on the high resolution image A.
Therefore, in the conventional technique, the pixels of the cut-out low-resolution image C and the pixels of the low-resolution image B are compared, and the low-resolution image B is extracted by the cut-out conversion performed on the pixels of the low-resolution image corresponding to the high-resolution image A. The content (reference) of the cut-out conversion to the low-resolution image C is predicted, and the high-resolution image A is cut out using the same conversion standard as the predicted conversion standard.
[0007]
[Problems to be solved by the invention]
However, since the low-resolution image lacks information originally possessed by the high-resolution image, the content of the clipping conversion predicted from the clipping conversion performed on the low-resolution image corresponding to the above-described high-resolution image (reference) In the method of cropping the entire high-resolution image according to the same standard, an appropriate cropped image cannot be obtained or a sharp cropped image cannot be obtained. For example, at the edge of the image to be cropped and the remaining background The relationship between the image and the background image is not the same, so if you cut out all the edges of both images with the same criteria, the selection criteria for the edges will be ambiguous, the edges will be jagged, or the part of the image you need However, depending on the shape of the image, it is necessary to obtain the same cropping conversion result for the entire cropped image. There is a problem that may exhibit different conversion result.
[0008]
The object of the present invention is to eliminate the above-mentioned problems of the prior art, and to apply a clipping process having the same effect as the clipping process applied to the image corresponding to the original image to accurately cut the original image. Image processing methods that can be performed, for example, clipping conversion performed on a low-resolution image can be performed accurately on a high-resolution image without impairing characteristics, and when performing a clipping process on a computer (computer), Another object of the present invention is to provide an image processing method capable of maintaining a performance when recording a cut-out image on an image medium or sending it by communication and outputting a high-quality cut-out image.
[0009]
[Means for Solving the Problems]
  In order to achieve the above object, the present invention provides image data A, image data B corresponding to the image data A, and a cutout image obtained by subjecting the image data B to a cutout process.CAnd a cut-out image of the image A represented by the image data A.DThe image data B has a lower resolution than the image data A, and the image B having the lower resolution is subjected to a clipping process.In order to obtain the cutout image C,SetCorrespondingly to the pixel of the edge part of the cut-out image CFor each pixel that becomes the cut-out boundary of the image B, in the image B before the cut-outCorrespondingly to the pixel of the edge part of the cut-out image CSurrounding pixels of each pixel,In the image B before clipping, the image B corresponding in position to the pixels of the edge portion of the clipping image CThe inner pixel and the outer pixel of the cutout boundary are respectively selected, and a plurality of image feature amounts are obtained for the inner pixel and the outer pixel, and the image feature amount that is the largest value is determined.When obtaining the cutout image C by cutting out the image B,Criteria for clipping in image BEdge feature value used asThe edge feature amount is used to determine an edge pixel that becomes a cut-out boundary in the image A represented by the image data A with high resolution corresponding to the image B,In the image A, the determined edge pixel is used as an edge to cut out the image A to obtain the image DAn image processing method characterized by performing a clipping process is provided.
[0010]
  Also, the aboveImage featuresofeachThe value is the image BBecomes the cut-out boundary ofPixelPosition ofIt is preferable that weighting is performed according to the above.
  The plurality ofImage featuresIs preferably lightness, hue, saturation, and lightness, hue, saturation differential values, and lightness, hue, saturation secondary differential values.
  The plurality ofImage feature calculationTo doFrom the periphery of each pixel that becomes the cutout boundary in the image B, a pixel that is located inside the cutout boundary and in the vicinity of the pixel that becomes the cutout boundary, and a pixel that is inside the boundary and becomes the cutout boundary A pixel located inside a pixel located in the vicinity, a pixel located outside the clipping boundary and in the vicinity of the pixel serving as the clipping boundary, and a vicinity of the pixel located outside the clipping boundary and serving as the clipping boundary Pixels located outside the boundary with respect to the pixels located atAnd 4 pixelsSelectIs preferred.
[0011]
  The cut-out process of the image data A is the image BPositionally corresponding to the pixel that becomes the cut-out boundary inThe edge feature amount is calculated for the pixel of image A, and the edge feature amount is calculated.Change orConversion amountIs greater than or equal to a predetermined valuePixelAll can be borders of cropped imagesObtained as an image candidate, and a clipped image is selected from the obtained edge pixel candidates.boundaryPreferably, the edge pixels are determined by the continuity of and the determined edge pixels are connected.
  The determination of the edge pixel is as follows:Use multiple regression formulas so that edge pixels are continuous among multiple edge pixel candidatesIt is preferable to carry out by obtaining.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
An image processing method according to the present invention will be described in detail below based on a preferred embodiment shown in the accompanying drawings.
[0013]
In the image processing method of the present invention, image data A, image data B corresponding to the image data A, for example, image data B in which the resolution is reduced by resolution conversion from the image data A, and the image data B are cut out. When there is a cutout image C obtained by this, when performing the same cutout process as the cutout process applied to the image data B to obtain the cutout image C,
The contents of the cropping process applied to each pixel of the image data A, that is, which pixel is clipped as an edge pixel is obtained from the image data A and B and the cropped image C as follows, and the image data A is subjected to the cropping process. It is. Here, it is assumed that the image data and the image have a unique correspondence. That is, it is assumed that image data A and B are obtained when images A and B are read, and that images A and B are obtained when recorded with image data A and B, respectively.
[0014]
First, in the first step, the target pixel of the image B corresponding to the pixel of the edge portion of the cut-out image C and the edge pixel for cutting out from the vicinity of the target pixel, for example, peripheral pixels are used. Alternatively, an image feature parameter (image feature amount) considered as an edge feature amount candidate used as a reference for performing the clipping process is extracted. For example, all image feature parameters considered to be possible by visual judgment from the edge portions of image B and image C and their peripheral pixels are extracted. That is, the first step is an image feature parameter extraction step.
The image feature parameter used in the present invention is not particularly limited and may be any image feature amount used in normal image processing. For example, chromaticity (E) required in a color space, , Brightness (lightness L; Lightness), hue (H; Hue) and saturation (S; Saturation) defined in a color space corresponding to the response of the human eye)ofThe three attributes of color perception and the differential values of chromaticity, lightness, hue, and saturation, and secondary differential values of chromaticity, lightness, hue, and saturation can be listed. Image feature parameters may be automatically extracted from the brightness, color, and pattern of image B and clipped image C by a computer, an image processing device, or the like. You may make it extract all.
[0015]
Next, in the second step, pixels at different positions inside the cut-out image C from the periphery of the target pixel of the image B (that is, the pixel of the image B corresponding to the pixel at the edge of the cut-out image C). And a plurality of pixels at different positions outside the cut-out image C are selected. For example, in the image B, pixels inside the cut-out image C, pixels inside the cut-out image C, and edges outside the cut-out image C are selected. Four pixels, that is, a pixel and a pixel outside the edge portion are selected, and the value of the image feature parameter obtained in the first step is calculated for each of the plurality of (4) pixels.
Next, these image feature parameter values are compared with each other for the selected pixels in the cut-out image C and compared, and the image feature parameter that shows the largest change in the inside and outside of the cut-out image C and therefore has the largest conversion amount is cut out. The edge feature value used as a reference is determined.
In other words, the second step is an edge feature amount determination step for obtaining, as the edge feature amount, an image feature parameter used as a reference for cutting out the image from among the image feature parameters obtained in the first step.
[0016]
Finally, in the third step, the edge feature amount obtained in the second step is calculated for all the pixels of the image A corresponding to the target pixel of the image B or the edge portion of the image C. In order to select and cut out, as an edge pixel candidate, a pixel whose edge feature value changes greatly or suddenly among adjacent pixels in the image A for which the edge feature value has been obtained, that is, a pixel whose edge feature value conversion amount is large. The edge pixel is determined from the edge pixel candidates using the property that the edges of the edge are continuous, that is, the edge continuity. Then, the image A is cut out at the edge pixels, and the image A is cut out. That is, the third step is a cut-out processing step for performing cut-out processing on the image A.
Thus, a cut-out image D obtained by subjecting the image A to a required cut-out process can be obtained.
[0017]
In the present invention, for example, when the corresponding image is a resolution-converted image, the content of clipping processing (conversion) performed on the pixels of the high-resolution image from the image data before and after the clipping conversion of the low-resolution image, that is, the pixel to be clipped. When deciding whether or not it falls under an edge pixel, a plurality of image feature parameters that can serve as a basis for clipping processing are extracted from the edge portion of the cut-out low-resolution image and its surrounding pixels, and the low-resolution image Crop processing suitable for high-resolution image features by obtaining the edge feature quantity that is the basis for cropping processing from the image feature parameters inside and outside the cropped image from the image information before and after conversion. (Conversion) can be performed. In this way, it is possible to perform an appropriate and smooth cut-out process on the high-resolution image, and to obtain a sharp cut-out high-resolution image without jagged entry and exit of the color and shape at the edge portion.
[0018]
Here, as shown in FIG. 1, the case where the corresponding image is a resolution-converted image is taken as a representative example, and the image processing method of the present invention will be described more specifically with reference to FIG. 1 and FIG.
In FIG. 1, reference symbol A indicates a high-resolution image that is an original image, reference symbol B indicates a low-resolution image obtained by resolution conversion from the high-resolution image A, and reference symbol C indicates a low-resolution image B. A low-resolution image obtained by the clipping process is indicated by reference numeral D, and a reference sign D indicates a high-resolution image cut out from the high-resolution image A with the same effect as the clipping process performed on the low-resolution image B, that is, with the same intention. . In the cut-out low-resolution image C and the cut-out high-resolution image D, the thick line indicates the edge (boundary line) of the clipped image, and the thin dotted line indicates the original edge (boundary line). A thick dotted line in the low-resolution image B indicates an edge (boundary line) of the cut-out image, and a thin dotted line indicates an original edge (boundary line).
FIG. 2 shows an image obtained by superimposing images A, B, C and D, but the high resolution images A and D are shown only the target pixel of the low resolution image B (C) indicated by the reference symbol P0, The illustration is omitted. The thick line indicates the edge (boundary line) of the cut-out image C, and the thin curve indicates the original edge (boundary line).
[0019]
In the image processing method of the present invention, first, in the first image feature parameter extraction step, as shown in FIGS. 1 and 2, attention is paid to the low-resolution image B corresponding to the edge portion of the cut-out low-resolution image C. A pixel P0 is determined, and the surrounding pixels are searched with the pixel of interest P0 as the center, or with one or two pixels inside or outside the pixel of interest P0 as the center, and the low-resolution image B is cut out For example, image features such as the brightness and color of the image based on the contents of the clipping and the intention and the amount of change thereof are extracted. Here, it is assumed that the extracted image feature parameters are, for example, E1 (lightness), E2 (chromaticity), E3 (lightness differentiation), and E4 (lightness secondary differentiation).
Note that the search range Da for searching around the target pixel or the like for extracting the image feature parameter is not particularly limited. However, since the change or conversion of the image feature amount before and after the edge of the clipped image is abrupt, the search range Da starts from the target pixel. A range that is one or two pixels away may be used.
[0020]
Next, in the second edge feature amount determination step, pixels in the edge portion inside the cut-out low-resolution image C from the pixels in the low-resolution image B around the pixel of interest P0, see in FIGS. 1 and 2 An inner edge pixel denoted by reference numeral P2, an inner pixel P1 inside the inner edge pixel P2, an outer edge pixel P3 of the edge outside the cut-out low-resolution image C, and the outer edge pixel P3 Four pixels with the outer pixel P4 located outside are selected. That is, the pixels near the target pixel P0 of the low resolution image B are classified into four.
Note that the selection method of the four pixels P1 to P4 is not particularly limited, and may be selected as appropriate as long as it is within the search range Da.
[0021]
Next, the image feature parameter values Ei (Pj) (i, j = 1 to 4) extracted in the first step are calculated for each of the four pixels P1, P2, P3, and P4. Here, each image feature parameter can be calculated by applying an N × M filter to the low-resolution image B.
Next, for each of the extracted image feature parameter values E1 to E4, the image feature parameter values Ei (P1) to Ei (P4) in four pixels are weighted according to the pixel points P1 to P4, for example, according to their positions. The value of the performed weighting function F is calculated.
Ei = F (α × Ei (P1), β × Ei (P2), γ × Ei (P3),
δ × Ei (P4)); (i = 1 to 4)
Here, α, β, γ and δ are weighting coefficients, and the weighting coefficients β and γ for the values of the pixel points P2 and P3 closer to the edge are the weighting coefficients α and γ for the values of the pixel points P1 and P4 farther from the edge. It is preferable to make it larger than δ.
[0022]
The weighting function F used in the present invention only needs to be able to represent the change or conversion difference depending on the inside / outside of the edge or the perspective of the edge, and an appropriate one may be selected in accordance with the characteristics of the image feature parameter.
For example, in the case of lightness E1 and chromaticity E2, the weighting function F is expressed by the following equation.
F = α × Ei (P1) + β × Ei (P2) −γ × Ei (P3)
−δ × Ei (P4)
For example, in the case of a lightness differential value E3 or the like, the weighting function F is expressed by the following equation.
F = max (β × E3 (P2), γ × E3 (P3))
−min (α × E3 (P1), δ × E3 (P4))
[0023]
The obtained image feature parameter weighting function values E1w, E2w, E3w, and E4w are compared, and the image feature parameter having the largest value is extracted from the image B to determine the edge (boundary) of the image. It is determined that the edge feature value indicates the reference. The edge feature amount determined here is an optimum image feature parameter having the largest change amount inside and outside the cut-out image.
Note that it is convenient to use an image feature parameter score sheet as shown in FIG. In this way, the image parameters E1 to E4 at the pixel points P1 to P4 can be tabulated, the weighting function values E1w to E4w can be easily evaluated, and the image feature parameter indicating the maximum change amount can be easily set as the edge feature amount. Can be determined as
In the illustrated example, for example, it is assumed that the brightness E1 is determined as the edge feature amount.
[0024]
Finally, in the third cropping process step, first, the edge obtained in the second step is applied to each pixel of the high resolution image A that corresponds to the target pixel P0 of the low resolution image B and the neighboring pixels. The brightness E1, which is a feature amount, is calculated. In the illustrated example, all 16 pixels (4 × 4 pixels) of the high-resolution image A represented by the reference symbol P0 and 16 pixels adjacent to the left side in the drawing with the cut-out edge (thick line) of the low-resolution image C sandwiched therebetween. The value of brightness E1 is calculated. Among these 32 pixels, two to three pixels adjacent to each other in the row or column direction, and all the pixels whose change amount or conversion amount of the brightness E1 is equal to or greater than a predetermined value are selected as edge pixel candidates that can be edges of the cut-out image.
Next, edge pixels are determined using the property that the edges of the cut-out image are continuous from the edge pixel candidates selected in this way. Note that the edge pixel candidates are not necessarily continuous, and a plurality of edge pixel candidates may be defined. In this case, the edge pixels may be determined so that the edge pixels are continuous, preferably smoothly. In this case, it is also possible to approximate these edge pixel candidates with a mathematical function such as a polynomial, obtain mathematical function parameters by statistical processing, and adopt a method of determining edge pixels so as to be continuous. is there. For example, it is possible to determine a mathematical function as a quaternary equation so that the parameters of the quaternary equation are most matched by a multiple regression equation among a plurality of edge pixel candidates.
[0025]
In this way, continuous edge pixels in the target pixel P0 of the low-resolution image B and the neighboring pixels can be obtained. In FIG. 2, the edge pixel of the high-resolution image A at the target pixel P0 is represented as a pixel painted with diagonal lines. According to the method of the present invention, it can be seen that the obtained edge pixel is on the edge of the original cut-out image indicated by a thin solid line as shown in FIG. 2, and is appropriate and accurate.
Thereafter, the target pixel of the low-resolution image B is cut out from the pixel P0 and moved along the edge portion of the low-resolution image C, and the above-described three steps are sequentially repeated to obtain continuous edge pixels for the entire high-resolution image A. The continuous high-resolution image A can be obtained by cutting out from the high-resolution image A using these continuous edge pixels as edges.
In this way, the cut-out conversion process based on the same content as the cut-out conversion process performed on the low-resolution image B in order to obtain the cut-out low-resolution image C can be performed on the high-resolution image A. Can be obtained.
[0026]
In the present invention, when the input image signal is not a color space representing a necessary image feature parameter, the input image signal is converted into a necessary color space to obtain a chromaticity value (lightness, hue, saturation) of the pixel. There is a need. For example, the input image signal may be R (red), G (green), B (blue), Y (yellow), M (magenta), C (cyan), or X, Y, Z expressed in the XYZ color system. In the case of a so-called mixed color space corresponding to tristimulus values, video signal systems such as YIQ (luminance-color difference), YCC (YCrCb) color system, HSI, HSV, HSL color system, etc. Color graphic (CG) expression system, L *a*b*Color system, L*u*v*It is preferable to convert the color space into a so-called color system having good correspondence with color perception such as a uniform color perception color space such as a color system, and obtain a chromaticity value in the color space. For example, when separating the chromaticity value represented by the RGB image signal value of a certain pixel into brightness and hue (saturation), L*a*b*It is preferable to convert to a chromaticity value, a YCC chromaticity value, or the like.
The image processing method of the present invention is basically configured as described above.
[0027]
The image processing method of the present invention described above performs the clipping conversion process having the same effect as the clipping conversion process performed between the low resolution image B and the low resolution image C obtained from the high resolution image A by resolution conversion. This is applied to the original high-resolution image A, but the details of the cut-out conversion processing for each pixel between the low-resolution images B and C, that is, the image that becomes the edge feature amount that determines the edge for performing the cut-out This is particularly effective when the amount of feature, for example, the conversion amount of color (brightness, hue, saturation) or the like is not known. In the image processing method of the present invention, the high-resolution image A, the low-resolution image B, the low-resolution image C, or the image data of these images A, B, and C are all specialists or professionals who specialize in images. Or a general customer (user) may have, or may be processed by these. However, the high-resolution image A and the low-resolution image B or their image data are stored in a storage device or storage of an image processing apparatus that can process large-capacity image data such as a host computer by a specialist or expert who specializes in image processing. The low-resolution image C, which is included in the medium, is processed only by small-capacity image data such as a personal computer from the low-resolution image B supplied by a general customer (user) who specializes in image processing or an expert. When it is obtained by performing desired image processing by an image processing apparatus that cannot perform, a specialist or an expert who has supplied the low resolution image B converts the low resolution image B to the low resolution image C by a general customer. Even if detailed information for each pixel of the conversion is not known, the conversion high resolution obtained by applying the same conversion effect to the high resolution image A from the low resolution image B and the low resolution image C. It is most suitably applicable to a case where the output of the image D.
[0028]
This is because a specialist or expert who specializes in image processing has a dedicated image reading device that reads a high-resolution image, a dedicated image processing device that can process a high-resolution image, This is because a large-capacity image recording medium or an image storage device capable of recording a resolution image can be output, so that even a high-resolution and high-quality image can be output. For this reason, it is the same as this conversion from the low-resolution image C obtained by applying a desired conversion by a general customer to the low-resolution image B obtained by reducing the resolution from the high-resolution image A. This is because it is required to apply the effect to the high resolution image A and output the high resolution converted image DA as a print image or the like.
[0029]
By the way, an attempt to hierarchically have a plurality of image data with different resolutions for one image is also made with a photo CD (compact disc) or the like. For example, image data of different resolutions that are hierarchically stored in a photo CD, for example, has image data of 2000 × 3000 pixels recorded in the uppermost layer, and low-resolution image data is sequentially recorded in the lower layer. Has been. For example, 1000 × 1500 pixels,... 500 × 750 pixels, etc.
[0030]
Here, for example, in the field of digital photographs, printed images, and the like, a high-quality image (for example, an image composed of 2000 × 3000 pixels or more) is handled only by a personal computer having a large amount of memory. difficult. It is time consuming and impractical to perform simple image processing such as color and gradation changes directly on a high-quality image. If the image has a low resolution such as a CRT monitor resolution image (700 × 500 pixels), image processing can be performed relatively easily. Extracting the processing content for a high resolution image from a low resolution image that has been lightly processed using the technology of the present invention and performing the same processing is extremely effective in handling the high resolution image. The scope of application of the invention is wide, and it can be said that the effect is extremely large.
[0031]
The image processing method of the present invention has been described in detail above. However, the present invention is not limited to the above-described examples and examples, and various improvements and design changes are made without departing from the scope of the present invention. Of course.
[0032]
【The invention's effect】
As described above in detail, according to the present invention, the same cutout conversion process as the cutout conversion process performed on the image corresponding to the original image is applied to the original image without impairing the characteristics thereof, and the same as the original image is performed. The effect of can be obtained.
In particular, when the original image is a high-resolution image and the corresponding image is a low-resolution image, the image conversion performed on the low-resolution image can be performed on the high-resolution image without degrading the characteristics. Maintains performance when performing image processing on a computer (for example, a personal computer), recording on image media, or sending images by communication, and is similar to the cropping conversion performed on these low-resolution images The above effect can be obtained in a high-resolution image that is a source of a low-resolution image before conversion, and as a result, a high-quality image that has been subjected to a desired conversion process can be output.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram illustrating an example of an image processing method according to the present invention.
FIG. 2 is an enlarged explanatory view for explaining the image processing method shown in FIG. 1;
FIG. 3 is an example of a score table used in the image processing method of the present invention.
[Explanation of symbols]
A Original high resolution image
B Low resolution image obtained by resolution conversion from high resolution image A
C Low resolution image obtained by clipping conversion from low resolution image B
D High-resolution image obtained from the same cropping transformation from high-resolution image A
Pixel of interest in P0 low resolution image B
P1 Pixel inside cut-out image C in low-resolution image B
P2 Pixels at the inner edge of the cutout image C in the low resolution image B
P3 Pixels at the outer edge of the cutout image C in the low resolution image B
P4 Pixels outside cut-out image C in low-resolution image B

Claims (6)

画像データAと、画像データAに対応する画像データBと、前記画像データBに切抜き処理を施すことによって得られた切り抜き画像とを用いて、前記画像データAに切抜き処理を施し、前記画像データAにより表される画像Aの切抜き画像を求める画像処理方法であって、
前記画像データBは、前記画像データAよりも解像度が低く、
前記低解像度の画像Bに切抜き処理を行い、前記切り抜き画像Cを得るために、設定された前記切り抜き画像Cのエッジ部の画素に位置的に対応する前記画像Bの切抜き境界となる各画素について、切抜き前の画像Bにおける前記切り抜き画像Cのエッジ部の画素に位置的に対応する各画素の周辺画素であって、切抜き前の画像Bにおいて、前記切り抜き画像Cのエッジ部の画素に位置的に対応する前記画像Bの前記切抜き境界の内側画素と外側画素とをそれぞれ選定し、
前記内側画素と外側画素とについて、複数の画像特徴量を求め、
最も大きな値である画像特徴量を、前記画像Bを切抜き処理して前記切り抜き画像Cを得るに際し、前記画像Bにおける切抜きの基準として用いられたエッジ特徴量とし
前記エッジ特徴量を用いて、画像Bに対応する高解像度の前記画像データAで表される画像Aにおける切抜き境界となるエッジ画素を決定し、
前記画像Aにおいて、決定されたエッジ画素をエッジとして前記画像Aから切り抜き、前記画像Dを得る切抜き処理を行うことを特徴とする画像処理方法。
Using the image data A, the image data B corresponding to the image data A, and the cut-out image C obtained by performing the cut-out process on the image data B, the image data A is cut-out, and the image data A An image processing method for obtaining a cut-out image D of an image A represented by data A,
The image data B has a lower resolution than the image data A,
The have rows cutout processing the low-resolution image B, and to obtain the cut-out image C, each pixel comprising a cutout border of the image B to be positionally corresponding to a pixel of an edge portion of the cutout image C which is set Is a peripheral pixel of each pixel positionally corresponding to the pixel of the edge portion of the cut-out image C in the image B before cutting, and is located at the pixel of the edge portion of the cut-out image C in the image B before cut-out Respectively select the inner and outer pixels of the cutout boundary of the image B correspondingly ,
A plurality of image feature amounts are obtained for the inner pixel and the outer pixel,
The image feature amount that is the largest value is the edge feature amount used as a reference for clipping in the image B when the image B is clipped to obtain the clipped image C.
Using the edge feature amount, determine an edge pixel serving as a cut-out boundary in the image A represented by the image data A with high resolution corresponding to the image B;
An image processing method , wherein the image A is cut out from the image A using the determined edge pixel as an edge, and the image D is obtained .
前記画像特徴量の各値は、前記画像Bの前記切抜き境界となる画素の位置に応じて重み付けが施されたものである請求項1に記載の画像処理方法。  The image processing method according to claim 1, wherein each value of the image feature amount is weighted according to a position of a pixel serving as the cut-out boundary of the image B. 前記複数の画像特徴量は、明度、色相、彩度、および明度,色相、彩度の微分値、ならびに明度,色相、彩度の二次微分値である請求項1または2に記載の画像処理方法。  3. The image processing according to claim 1, wherein the plurality of image feature amounts are brightness, hue, saturation, and a differential value of brightness, hue, and saturation, and a secondary differential value of brightness, hue, and saturation. Method. 前記複数の画像特徴量の算出を行うため、前記画像Bにおける前記切抜き境界となる各画素の周辺から、切抜き境界の内側にあって前記切抜き境界となる画素の近傍に位置する画素と、前記境界の内側にあって前記切抜き境界となる画素の近傍に位置する画素より内側に位置する画素と、切抜き境界の外側にあって前記切抜き境界となる画素の近傍に位置する画素と、前記切抜き境界の外側にあって前記切抜き境界となる画素の近傍に位置する画素より境界に関してより外側に位置する画素との4画素を選び出す請求項1乃至3のいずれかに記載の画像処理方法。  In order to perform the calculation of the plurality of image feature amounts, a pixel located in the vicinity of the pixel serving as the clipping boundary inside the clipping boundary from the periphery of each pixel serving as the clipping boundary in the image B, and the boundary A pixel located inside a pixel located in the vicinity of the pixel serving as the cutout boundary, a pixel located outside the cutout boundary and located in the vicinity of the pixel serving as the cutout boundary, and 4. The image processing method according to claim 1, wherein four pixels are selected from a pixel located outside and a pixel located outside the pixel that is located in the vicinity of the cut-out boundary. 前記画像データAの切抜き処理は、前記画像Bにおける前記切抜き境界となる画素に位置的に対応する画像Aの画素について前記エッジ特徴量を算出し、このエッジ特徴量の変化量または変換量が所定値以上である画素を全て切抜き画像の境界となり得る画像候補として求め、求められたエッジ画素候補の中から切抜き画像の境界の連続性によってエッジ画素を決定し、決定されたエッジ画素を連結することにより行われる請求項1乃至4のいずれかに記載の画像処理方法。  In the cut-out process of the image data A, the edge feature amount is calculated for the pixel of the image A corresponding to the pixel serving as the cut-out boundary in the image B, and the change amount or conversion amount of the edge feature amount is predetermined. Find all pixels that are greater than or equal to the value as image candidates that can be the boundary of the clipped image, determine edge pixels from the obtained edge pixel candidates based on the continuity of the boundary of the clipped image, and connect the determined edge pixels The image processing method according to claim 1, wherein the image processing method is performed by: 前記エッジ画素の決定は、重回帰式を用いて、複数のエッジ画素候補の中からエッジ画素が連続するように求めることにより行う請求項5に記載の画像処理方法。  The image processing method according to claim 5, wherein the edge pixel is determined by obtaining an edge pixel from a plurality of edge pixel candidates using a multiple regression equation.
JP28446896A 1996-10-25 1996-10-25 Image processing method Expired - Fee Related JP4169116B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28446896A JP4169116B2 (en) 1996-10-25 1996-10-25 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28446896A JP4169116B2 (en) 1996-10-25 1996-10-25 Image processing method

Publications (2)

Publication Number Publication Date
JPH10124652A JPH10124652A (en) 1998-05-15
JP4169116B2 true JP4169116B2 (en) 2008-10-22

Family

ID=17678927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28446896A Expired - Fee Related JP4169116B2 (en) 1996-10-25 1996-10-25 Image processing method

Country Status (1)

Country Link
JP (1) JP4169116B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101211416B (en) * 2006-12-26 2010-08-11 北京北大方正电子有限公司 Boundary creation method, system and production method during vector graph grating

Also Published As

Publication number Publication date
JPH10124652A (en) 1998-05-15

Similar Documents

Publication Publication Date Title
KR100524565B1 (en) Method and apparatus for processing image data, and storage medium
JP4065482B2 (en) Image data processing method, apparatus, storage medium, and program
US7310167B2 (en) Color converting device emphasizing a contrast of output color data corresponding to a black character
US6414690B1 (en) Gamut mapping using local area information
JP4368880B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and computer-readable recording medium
US6865290B2 (en) Method and apparatus for recognizing document image by use of color information
JP3492202B2 (en) Image processing method, apparatus and recording medium
EP1301024B1 (en) Image processing method and apparatus, storage medium and program
JP3607059B2 (en) Color feature extraction apparatus, color feature extraction method, and program storage medium
KR100668267B1 (en) Image processing apparatus, image processing method and computer-readable medium on which image processing program is recorded
JP2001175843A (en) Image processing method, image processor and storage medium
JP4169116B2 (en) Image processing method
JP2004120092A (en) Image processing apparatus, image processing system, image processing method, storage medium, and program
JP2001177731A (en) Image processing method, image processor and storage medium
JP2001211314A (en) Device and method for image processing
JP4186558B2 (en) Image processing method and apparatus
US20050254859A1 (en) Scanning apparatus and method having editing function, and multi functional peripheral using the scanning method
JP4001446B2 (en) Method, apparatus and computer-readable recording medium for specifying image background color
US6707953B1 (en) Image processing apparatus interpolating thin line included in input image data
JP2001186366A (en) Picture processing method, picture processor and recording medium
JP4571758B2 (en) Character recognition device, character recognition method, image processing device, image processing method, and computer-readable recording medium
JP2000295469A (en) Image forming device
JP6759914B2 (en) Image processing equipment, image forming equipment and programs
JP2000067240A (en) Area dividing method for color image, and program storage medium
EP0974931A1 (en) Method and apparatus for identifying a plurality of sub-images in an input image

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050927

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060425

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060623

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060705

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060728

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061211

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080729

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110815

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110815

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120815

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120815

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130815

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees