JP2000011188A - Method for processing image and device therefor - Google Patents
Method for processing image and device thereforInfo
- Publication number
- JP2000011188A JP2000011188A JP11112459A JP11245999A JP2000011188A JP 2000011188 A JP2000011188 A JP 2000011188A JP 11112459 A JP11112459 A JP 11112459A JP 11245999 A JP11245999 A JP 11245999A JP 2000011188 A JP2000011188 A JP 2000011188A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- pixels
- gradient
- image
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像処理方法およ
び装置に係り、特に詳細には、カラー画像又は被写体を
光電的に読み取ることにより得られたカラー画像信号に
対して、シャープネス強調や粒状抑制等の画像処理をす
るためにエッジ部抽出を行う画像処理方法および装置に
関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and apparatus, and more particularly, to sharpness enhancement and grain suppression for a color image or a color image signal obtained by photoelectrically reading an object. The present invention relates to an image processing method and apparatus for performing edge extraction for performing image processing such as.
【0002】[0002]
【従来の技術】ネガフィルム、リバーサルフィルムある
いはカラープリント等に記録されたカラー画像を、CC
D等の光電変換素子によって光電的に読み取って色の三
原色である赤(R)、緑(G)および青(B)毎の画像
信号を得、デジタル信号に変換し、この画像信号に対し
て種々の画像処理を施して、カラーペーパーなどの記録
材料あるいはCRTなどの表示手段上に再生するデジタ
ルカラー画像再生システムとしてデジタルフォトプリン
タが実用化されている。2. Description of the Related Art A color image recorded on a negative film, a reversal film, a color print, or the like is converted into a CC image.
An image signal is read photoelectrically by a photoelectric conversion element such as D to obtain image signals for each of the three primary colors red (R), green (G), and blue (B), and converted into digital signals. 2. Description of the Related Art A digital photo printer has been put into practical use as a digital color image reproduction system that performs various image processings and reproduces it on a recording material such as color paper or a display means such as a CRT.
【0003】このデジタルフォトプリンタによれば、カ
ラー画像が、露光不足あるいは露光過剰など、適切でな
い撮影条件下で撮影され、ネガフィルム、リバーサルフ
ィルムあるいはカラープリント等に記録されていても、
得られた原画像信号に画像処理を施すことにより、所望
の色および階調を有するカラー画像として再生すること
ができる。また、ネガフィルム、リバーサルフィルムあ
るいはカラープリント等に記録されたカラー画像を、所
望により、異なった色および階調を有するカラー画像と
して再生することもできる。According to this digital photo printer, even if a color image is photographed under inappropriate photographing conditions such as underexposure or overexposure and recorded on a negative film, a reversal film or a color print,
By performing image processing on the obtained original image signal, it is possible to reproduce a color image having a desired color and gradation. In addition, a color image recorded on a negative film, a reversal film, a color print, or the like can be reproduced as a color image having different colors and gradations, if desired.
【0004】このような画像処理として、例えば、与え
られた画像を表す画像信号に対して画像処理を施して画
像の鮮鋭度を強調させる(シャープネス強調)方法や、
フィルムの粒状を抑制して画像のざらつきを少なくする
粒状抑制方法などがある。このシャープネス強調や粒状
抑制を行うに先立ってエッジ部あるいは粒状部を抽出す
る必要がある。エッジ部等の抽出を行う方法は、従来い
ろいろな方法が知られている。As such image processing, for example, a method of performing image processing on an image signal representing a given image to enhance the sharpness of the image (sharpness enhancement),
There is a graininess suppression method for suppressing graininess of a film to reduce image roughness. Prior to performing the sharpness enhancement and the graininess suppression, it is necessary to extract an edge portion or a grainy portion. Conventionally, various methods are known for extracting an edge portion and the like.
【0005】エッジ部抽出方法として、例えば、テンプ
レート整合(マッチング)による方法が知られている。
これは、判定すべき注目画素の周辺画素の画素値の関数
分布について、ある形状、例えば3×3のマトリックス
から成るテンプレートを用意し、与えられた画像がどの
テンプレートに最も近いかを判定するものである。今、
注目画素とその周辺画素の画素値をxj (j=1,・・
・,n)とし、これに対してk個のテンプレートが用意
されており、i番目のテンプレートの値をwj i (j=
1,・・・,n)とする。このときi=1,・・・,k
について次の式で表される積和pi を計算する。 pi =Σj wj i ・xj (Σはj=1,・・・,nに
ついての和) このうち最大のpi を与えるものを合致するテンプレー
トとする。As an edge extraction method, for example,
A method based on rate matching (matching) is known.
This is a function of the pixel values of the surrounding pixels of the target pixel to be determined.
For distribution, some shape, for example, 3 × 3 matrix
Prepare a template consisting of
It is to determine whether it is closest to the template. now,
Let x be the pixel value of the pixel of interest and its surrounding pixelsj(J = 1, ...
・, N), and k templates are prepared
And the value of the i-th template is wj i(J =
1,..., N). At this time, i = 1,..., K
For the sum of products piIs calculated. pi= Σjwj i・ Xj (Σ is j = 1, ..., n
The largest of these piA template that matches what gives
And
【0006】例えば、図11(a)に示すような、注目
画素とその周りの8個の周辺画素からなる画像に対し
て、図10に示すような8個のテンプレートa1〜a8
が与えられているとする。各テンプレートa1〜a8に
は、矢印b1〜b8で示すエッジの方向が対応している
とする。このようなテンプレートで表されるオペレータ
(演算子)はソーベル(Sobel)演算子と呼ばれてい
る。このとき上記積和p1〜p8を計算する。まずテン
プレートa1について計算すると次のようになる。 p1=1×1+2×2+1×3+0×9+0×10+0
×4+(−1)×8+(−2)×7+(−1)×5=−
19For example, as shown in FIG. 11A, for an image composed of a target pixel and eight peripheral pixels around it, eight templates a1 to a8 as shown in FIG.
Is given. It is assumed that the directions of edges indicated by arrows b1 to b8 correspond to the templates a1 to a8. The operator (operator) represented by such a template is called a Sobel operator. At this time, the product sums p1 to p8 are calculated. First, the calculation for the template a1 is as follows. p1 = 1 × 1 + 2 × 2 + 1 × 3 + 0 × 9 + 0 × 10 + 0
× 4 + (-1) × 8 + (-2) × 7 + (− 1) × 5 = −
19
【0007】同様に他のテンプレートa2〜a8につい
ても積和p2〜p8を計算する。 p2=−8, p3=11, p4=20, p5=19, p6=8, p7=−11, p8=−20.Similarly, the product sums p2 to p8 are calculated for the other templates a2 to a8. p2 = -8, p3 = 11, p4 = 20, p5 = 19, p6 = 8, p7 = -11, p8 = -20.
【0008】その結果、p4が最大であり、図11
(b)に示すように、テンプレートa4の矢印b4の示
す右上から左下に向かう方向が、注目画素10のエッジ
の方向(濃度勾配すなわちグラディエントの方向)とな
り、積和p4の値20がグラディエントの強度となる。
こうして、注目画素のグラディエント(ベクトル量)が
算出される。次に、このグラディエントの方向と90°
の方向の、注目画素10の隣接画素1および5につい
て、それぞれの画素を中心とする3×3の画像に対し上
記テンプレートa1〜a8を用いて同様の計算をし、各
隣接画素1および5のグラディエントの方向を算出す
る。そして、この2つの隣接画素1、5のうち少なくと
も1つの方向が注目画素10の方向と45°以内であれ
ば、注目画素10は、エッジ部である、すなわち連結性
を有すると判定するのである。As a result, p4 is maximum, and FIG.
As shown in (b), the direction from the upper right to the lower left indicated by the arrow b4 of the template a4 is the direction of the edge (density gradient, that is, the direction of the gradient) of the pixel of interest 10, and the value 20 of the product sum p4 is the gradient intensity. Becomes
Thus, the gradient (vector amount) of the target pixel is calculated. Next, the direction of this gradient and 90 °
The same calculation is performed on the 3 × 3 image centered on each pixel with respect to the adjacent pixels 1 and 5 of the pixel of interest 10 in the direction of Calculate the direction of the gradient. If at least one of the two adjacent pixels 1 and 5 is within 45 ° of the direction of the target pixel 10, the target pixel 10 is determined to be an edge, that is, to have connectivity. .
【0009】[0009]
【発明が解決しようとする課題】しかしながら、前記従
来のエッジ部抽出方法では、ある程度エッジ部の抽出は
できるものの、場合によっては粒状部をエッジ部として
検出してしまい、仕上がり画像の品質が低下するという
問題があった。例えば、図9(a)に示すように、本来
のエッジ部である白線の他に、粒状部がエッジ部である
と判定され、白い粒子が多数残ってしまう場合があっ
た。However, although the conventional edge part extraction method can extract the edge part to some extent, in some cases, the granular part is detected as the edge part, and the quality of the finished image deteriorates. There was a problem. For example, as shown in FIG. 9A, in addition to a white line which is an original edge portion, a granular portion is determined to be an edge portion, and many white particles may remain.
【0010】本発明は、前記従来の問題に鑑みてなされ
たものであり、従来よりエッジ部の抽出精度を高め、エ
ッジ部抽出を正確に行い、画像品質を向上させることの
できる画像処理方法および装置を提供することを課題と
する。SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned conventional problems, and an image processing method and an image processing method capable of improving the extraction accuracy of an edge portion, extracting an edge portion more accurately, and improving the image quality than before. It is an object to provide a device.
【0011】[0011]
【課題を解決するための手段】前記課題を解決するため
に、本発明は、カラー画像信号に対して所定の画像処理
を行う画像処理方法であって、画像処理対象である前記
カラー画像信号によって構成される画像の注目画素とそ
の周辺画素の画素値より、該注目画素とその周辺画素
の、エッジの方向と強度を表すグラディエントを算出し
て記憶し、該記憶されたグラディエントの方向より、前
記注目画素とその周辺画素の連結性を算出するととも
に、各R,G,Bチャンネル毎に、前記注目画素のグラ
ディエントを算出することにより、該注目画素の各RG
B毎の方向性を算出し、前記連結性および各RGB毎の
方向性から、前記注目画素が、エッジ部であるか否かを
判定することによって、エッジ部抽出を行うことを特徴
とする画像処理方法を提供するものである。According to an aspect of the present invention, there is provided an image processing method for performing a predetermined image processing on a color image signal, the method comprising the steps of: From the pixel value of the pixel of interest and its surrounding pixels of the composed image, a gradient representing the direction and intensity of the edge of the pixel of interest and its surrounding pixels is calculated and stored, and the gradient is stored from the direction of the stored gradient. By calculating the connectivity between the target pixel and its surrounding pixels, and calculating the gradient of the target pixel for each of the R, G, and B channels, each RG of the target pixel is calculated.
B. calculating an orientation for each B, and determining whether or not the pixel of interest is an edge from the connectivity and the orientation for each RGB, thereby extracting an edge portion. It provides a processing method.
【0012】ここで、前記注目画素とその周辺画素の連
結性を算出するにあたり、該注目画素のグラディエント
の方向と、該注目画素の近傍画素のグラディエントの方
向を比較し、該近傍画素のうちの所定数の画素の方向が
所定条件に一致した場合に連結性ありとするのが好まし
い。また、前記近傍画素のうちの所定数の画素の方向が
所定条件に一致した場合とは、前記近傍画素の方向の5
0%以上が、前記注目画素の方向と45°以内である場
合であるのが好ましい。あるいは、前記近傍画素のうち
の所定数の画素の方向が所定条件に一致した場合とは、
前記近傍画素の方向の60%以上、70%以上、80%
以上または90%以上が、前記注目画素の方向と45°
以内、または30°以内である場合であるのが好まし
い。また、前記近傍画素は、前記注目画素を中心とし、
該注目画素のグラディエントの方向と直交する方向によ
り多く存在する1×3画素、1×5画素、3×5画素、
3×7画素および5×9画素のいずれか1つから中心画
素を除いた画素であるのが好ましい。また、前記近傍画
素の取り方、ならびに前記所定条件に方向が一致した前
記画素の所定数および前記所定数の画素の方向が一致し
た前記所定条件を含む画素の連結性の判定条件は、原稿
種、原稿サイズ、プリント倍率、カメラ種および露光条
件の少なくとも1つに応じて決定されるのが好ましい。
さらに、前記注目画素とその周辺画素の連結性を算出す
るにあたり、該注目画素のグラディエントの方向と、9
0°の方向をなす両側の隣接画素のグラディエントの方
向が、前記注目画素のグラディエントの方向となす角
が、ともに45°以内である場合に連結性ありとするこ
とが好ましい。In calculating the connectivity between the target pixel and its peripheral pixels, the gradient direction of the target pixel is compared with the gradient direction of the neighboring pixels of the target pixel. It is preferable that the connection is established when the directions of the predetermined number of pixels match the predetermined condition. In addition, the case where the direction of a predetermined number of pixels among the neighboring pixels matches the predetermined condition means that 5 directions of the direction of the neighboring pixels are satisfied.
It is preferable that 0% or more is within 45 ° of the direction of the target pixel. Alternatively, the case where the directions of a predetermined number of pixels among the neighboring pixels match predetermined conditions,
60% or more, 70% or more, 80% of the direction of the neighboring pixels
Or 90% or more is 45 ° from the direction of the pixel of interest.
Or within 30 °. Further, the neighboring pixels are centered on the pixel of interest,
1 × 3 pixels, 1 × 5 pixels, 3 × 5 pixels, which are more present in the direction orthogonal to the direction of the gradient of the pixel of interest,
The pixel is preferably a pixel obtained by removing a central pixel from one of 3 × 7 pixels and 5 × 9 pixels. The method of taking the neighboring pixels and the condition for determining the connectivity of pixels including the predetermined number of pixels whose direction matches the predetermined condition and the predetermined condition where the directions of the predetermined number of pixels match are determined by the document type. , The document size, the print magnification, the camera type, and the exposure condition.
Further, in calculating the connectivity between the pixel of interest and its surrounding pixels, the direction of the gradient of the pixel of interest and 9
It is preferable that there is connectivity when the angle of the gradient direction of the adjacent pixels on both sides forming the direction of 0 ° with the direction of the gradient of the pixel of interest is within 45 °.
【0013】また、前記課題を解決するために、本発明
は、カラー画像信号に対して所定の画像処理を行う画像
処理装置であって、画像処理対象である前記カラー画像
信号によって構成される画像の注目画素とその周辺画素
の画素値より、該注目画素とその周辺画素の、エッジの
方向と強度を表すグラディエントを算出する手段と、該
算出されたグラディエントを記憶する手段と、該記憶さ
れたグラディエントの方向より、前記注目画素とその周
辺画素の連結性を算出する手段と、各R,G,Bチャン
ネル毎に、前記注目画素のグラディエントを算出するこ
とにより、該注目画素の各RGB毎の方向性を算出する
手段と、前記連結性および各RGB毎の方向性から、前
記注目画素がエッジ部であるか否かを判定する手段と、
を備えたことによりエッジ部抽出を行うことを特徴とす
る画像処理装置を提供するものである。According to another aspect of the present invention, there is provided an image processing apparatus for performing a predetermined image processing on a color image signal, the image processing apparatus comprising: Means for calculating a gradient representing the direction and intensity of the edge of the pixel of interest and its surrounding pixels from the pixel values of the pixel of interest and its surrounding pixels, means for storing the calculated gradient, and Means for calculating the connectivity of the pixel of interest and its surrounding pixels from the direction of the gradient, and calculating the gradient of the pixel of interest for each of the R, G, and B channels, thereby providing Means for calculating directionality, means for determining whether or not the pixel of interest is an edge portion from the connectivity and the directionality for each of RGB,
The image processing apparatus according to the present invention is characterized in that edge portions are extracted by providing the image processing apparatus.
【0014】ここで、前記注目画素とその周辺画素の連
結性を算出する手段は、該注目画素のグラディエントの
方向と、該注目画素の近傍画素のグラディエントの方向
を比較し、該近傍画素のうちの所定数の画素の方向が所
定条件に一致した場合に連結性ありとするのが好まし
い。また、前記近傍画素のうちの所定数の画素の方向が
所定条件に一致した場合とは、前記近傍画素の方向の5
0%以上が前記注目画素の方向と45°以内である場合
であるのが好ましい。あるいは、前記近傍画素のうちの
所定数の画素の方向が、所定条件に一致した場合とは、
前記近傍画素の方向の60%以上、70%以上、80%
以上または90%以上が、前記注目画素の方向と45°
以内、または30°以内である場合であるのが好まし
い。また、前記近傍画素は、前記注目画素を中心とし、
該注目画素のグラディエントの方向と直交する方向によ
り延在する1×3画素、1×5画素、3×5画素、3×
7画素および5×9画素のいずれか1つから中心画素を
除いた画素であるのが好ましい。また、前記近傍画素の
取り方、ならびに前記所定条件に方向が一致した前記画
素の所定数および前記所定数の画素の方向が一致した前
記所定条件を含む画素の連結性の判定条件は、原稿種、
原稿サイズ、プリント倍率、カメラ種および露光条件の
少なくとも1つに応じて決定されるのが好ましい。さら
に、前記注目画素とその周辺画素の連結性を算出する手
段は、該注目画素のグラディエントの方向と、90°の
方向をなす両側の隣接画素のグラディエントの方向が、
前記注目画素のグラディエントの方向となす角が、とも
に45°以内である場合に連結性ありとすることが好ま
しい。Here, the means for calculating the connectivity between the pixel of interest and its surrounding pixels compares the direction of the gradient of the pixel of interest with the direction of the gradient of the neighboring pixels of the pixel of interest, and When the directions of the predetermined number of pixels satisfy the predetermined condition, it is preferable to determine that there is connectivity. In addition, the case where the direction of a predetermined number of pixels among the neighboring pixels matches the predetermined condition means that 5 directions of the direction of the neighboring pixels are satisfied.
Preferably, 0% or more is within 45 ° of the direction of the target pixel. Alternatively, the case where the directions of a predetermined number of pixels among the neighboring pixels match predetermined conditions,
60% or more, 70% or more, 80% of the direction of the neighboring pixels
Or 90% or more is 45 ° from the direction of the pixel of interest.
Or within 30 °. Further, the neighboring pixels are centered on the pixel of interest,
1 × 3 pixels, 1 × 5 pixels, 3 × 5 pixels, 3 ×, extending in a direction orthogonal to the gradient direction of the target pixel
The pixel is preferably a pixel obtained by removing a central pixel from any one of 7 pixels and 5 × 9 pixels. The method of taking the neighboring pixels and the condition for determining the connectivity of pixels including the predetermined number of pixels whose direction matches the predetermined condition and the predetermined condition where the directions of the predetermined number of pixels match are determined by the document type. ,
Preferably, it is determined according to at least one of the document size, print magnification, camera type, and exposure conditions. Further, the means for calculating the connectivity between the pixel of interest and its surrounding pixels includes: a direction of a gradient of the pixel of interest and a direction of a gradient of adjacent pixels on both sides forming a 90 ° direction;
It is preferable that the connection is made when the angle between the gradient direction of the target pixel and the gradient direction is within 45 °.
【0015】[0015]
【発明の実施の形態】以下、本発明に係る画像処理方法
および装置について、添付の図面に示される好適実施例
を基に、詳細に説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an image processing method and apparatus according to the present invention will be described in detail based on preferred embodiments shown in the accompanying drawings.
【0016】図1は、本発明の画像処理方法を実施する
画像処理装置を適用するデジタルフォトプリンタの一実
施形態を示すブロック図である。図1に示すデジタルフ
ォトプリンタ(以下、フォトプリンタという)10は、
フィルムFに撮影された画像を光電的に読み取るスキャ
ナ(画像読取装置)12と、このスキャナ12で読み取
られた画像データ(画像情報)のエッジ部抽出などの画
像処理やフォトプリンタ10全体の操作および制御等を
行う画像処理装置14と、この画像処理装置14から出
力された画像データに応じて変調した光ビームで感光材
料(印画紙)を画像露光し、現像処理して(仕上がり)
画像をプリントとして出力する画像記録装置16とを有
する。また、画像処理装置14には、様々な条件の入
力、設定、処理の選択や指示、色/濃度補正などの指示
等を入力するためのキーボード18aおよびマウス18
bを有する操作系18と、スキャナ12で読み取られた
画像、各種の操作指示、様々な条件の設定/登録画面等
を表示するモニタ20が接続される。FIG. 1 is a block diagram showing an embodiment of a digital photo printer to which an image processing apparatus for implementing the image processing method of the present invention is applied. A digital photo printer (hereinafter referred to as a photo printer) 10 shown in FIG.
A scanner (image reading device) 12 for photoelectrically reading an image captured on the film F, image processing such as edge extraction of image data (image information) read by the scanner 12, operation of the entire photo printer 10, and An image processing device 14 for performing control and the like, and a photosensitive material (photographic paper) is image-exposed with a light beam modulated according to the image data output from the image processing device 14, developed and processed (finished).
And an image recording device 16 for outputting an image as a print. The image processing apparatus 14 includes a keyboard 18a and a mouse 18 for inputting various conditions such as input, setting, selection and instruction of processing, and instructions such as color / density correction.
and an operation system 18 having an image b, a monitor 20 for displaying an image read by the scanner 12, various operation instructions, a setting / registration screen for various conditions, and the like.
【0017】スキャナ12は、フィルムF等に撮影され
た画像を1コマずつ光電的に読み取る装置で、光源22
と、可変絞り24と、フィルムFに入射する読取光をフ
ィルムFの面方向で均一にする拡散ボックス26と、フ
ィルムFのキャリア28と、結像レンズユニット30
と、R(赤)、G(緑)およびB(青)の各色画像濃度
の読取に対応する3ラインCCDセンサを有するイメー
ジセンサ32と、アンプ(増幅器)33と、A/D(ア
ナログ/デジタル)変換器34とを有する。The scanner 12 is a device for photoelectrically reading an image photographed on a film F or the like one frame at a time.
A variable aperture 24, a diffusion box 26 for making the reading light incident on the film F uniform in the surface direction of the film F, a carrier 28 of the film F, and an imaging lens unit 30
, An image sensor 32 having a three-line CCD sensor corresponding to reading of image densities of R (red), G (green), and B (blue), an amplifier (amplifier) 33, and an A / D (analog / digital). ) A converter 34.
【0018】フォトプリンタ10においては、スキャナ
12の本体に装着自在な専用のキャリア28が、新写真
システム(Advanced Photo System)や135サイズ
のネガ(あるいはリバーサル)フィルム等のフィルムF
の種類やサイズ、ストリップスやスライド等のフィルム
の形態等に応じて用意されており、キャリア28の交換
によって、各種のフィルムや処理に対応することができ
る。フィルムに撮影され、プリント作成に供される画像
(コマ)は、このキャリア28によって所定の読取位置
に搬送される。また、周知のように、新写真システムの
フィルムには、磁気記録媒体が形成され、カートリッジ
IDやフィルム取等が記録されており、また、撮影時や
現像時等に、撮影や現像日時、カメラや現像機の機種等
の各種のデータが記録可能である。新写真システムのフ
ィルム(カートリッジ)に対応するキャリア28には、
この磁気情報の読取手段が配置されており、フィルムを
読取位置に搬送する際に磁気情報を読み取り、これらの
各種の情報が画像処理装置14に送られる。In the photo printer 10, a dedicated carrier 28 which can be freely attached to the main body of the scanner 12 is provided with a film F such as a new photographic system (Advanced Photo System) or a 135 size negative (or reversal) film.
Are prepared in accordance with the type and size of the film, the form of the film such as strips and slides, and the like, and can be adapted to various films and processes by replacing the carrier 28. An image (frame) photographed on a film and provided for printing is conveyed by the carrier 28 to a predetermined reading position. Also, as is well known, a magnetic recording medium is formed on the film of the new photographic system, and a cartridge ID, a film picker, and the like are recorded. And various data such as the model of the developing machine can be recorded. The carrier 28 corresponding to the film (cartridge) of the new photo system includes:
The magnetic information reading means is arranged, reads the magnetic information when the film is transported to the reading position, and sends these various kinds of information to the image processing device 14.
【0019】このようなスキャナ12において、フィル
ムFに撮影された画像を読み取る際には、光源22から
射出され、可変絞り24および拡散ボックス26によっ
て光量調整された均一な読取光が、キャリア28によっ
て所定の読取位置に位置されたフィルムFに入射して、
透過することにより、フィルムFに撮影された画像を担
持する投影光をうる。なお、カラー画像信号の入力は、
このようにフィルムを透過した光を読み取るものには限
定されず、反射原稿でもよいし、あるいはデジタルカメ
ラによって撮影された画像を用いるものでもよい。When an image captured on the film F is read by the scanner 12, uniform reading light emitted from the light source 22 and adjusted in light amount by the variable aperture 24 and the diffusion box 26 is transmitted by the carrier 28. Incident on the film F located at the predetermined reading position,
By transmitting the light, projection light carrying an image photographed on the film F is obtained. The input of the color image signal is
The invention is not limited to a device that reads light transmitted through a film, but may be a reflection document or a device using an image captured by a digital camera.
【0020】図示例のキャリア28は、24枚取りの1
35サイズのフィルムや新写真システムのカートリッジ
等の、長尺なフィルムF(ストリップス)に対応するも
のであり、図2(a)に模式的に示されるように、所定
の読取位置にフィルムFを位置しつつ、イメージセンサ
32の、例えば、RGBの3ラインCCDセンサの延在
方向(主走査方向)と直交する副走査方向に、フィルム
Fの長手方向を一致させて搬送する、読取位置を副走査
方向に挟んで配置される搬送ローラ対28aおよび28
bと、フィルムFの投影光を所定のスリット状に規制す
る、読取位置に対応して位置する主走査方向に延在する
スリット28cを有するマスク28dとを有する。フィ
ルムFは、このキャリア28によって読取位置に位置さ
れて副走査方向に搬送されつつ、読取光を入射される。
これにより、結果的にフィルムFが主走査方向に延在す
るスリット28cによって2次元的にスリット走査さ
れ、フィルムFに撮影された各コマの画像が読み取られ
る。In the illustrated example, the carrier 28 is a 24
It corresponds to a long film F (strips) such as a 35-size film or a cartridge of a new photo system. As schematically shown in FIG. 2A, the film F is located at a predetermined reading position. While the image sensor 32 is conveyed in the sub-scanning direction orthogonal to the extending direction (main scanning direction) of, for example, an RGB three-line CCD sensor, the longitudinal direction of the film F being conveyed. Conveying roller pairs 28a and 28 interposed in the sub-scanning direction
b, and a mask 28d having a slit 28c that extends in the main scanning direction and that corresponds to the reading position and regulates the projection light of the film F into a predetermined slit shape. The film F is positioned at the reading position by the carrier 28, and is conveyed in the sub-scanning direction, and receives the reading light.
As a result, the film F is two-dimensionally slit-scanned by the slit 28c extending in the main scanning direction, and the image of each frame captured on the film F is read.
【0021】フィルムFの投影光は、結像レンズユニッ
ト30によってイメージセンサ32の受光面に結像され
る。図2(b)に示されるように、イメージセンサ32
は、R画像の読み取りを行うラインCCDセンサ32
R、G画像の読み取りを行うラインCCDセンサ32G
およびB画像の読み取りを行うラインCCDセンサ32
Bを有する、いわゆる3ラインのカラーCCDセンサ
で、各ラインCCDセンサは、前述のように主走査方向
に延在している。フィルムFの投影光は、このイメージ
センサ32によって、R、GおよびBの3原色に分解さ
れて光電的に読み取られる。イメージセンサ32から出
力されたR、GおよびBの各出力信号は、アンプ33で
増幅されて、A/D変換器34に送られ、A/D変換器
34において、それぞれ、例えば12bitsのRGB
デジタル画像データに変換された後、画像処理装置14
に出力される。The projection light of the film F is imaged on the light receiving surface of the image sensor 32 by the imaging lens unit 30. As shown in FIG. 2B, the image sensor 32
Is a line CCD sensor 32 for reading an R image
Line CCD sensor 32G that reads R and G images
CCD sensor 32 for reading image and B image
This is a so-called three-line color CCD sensor having B, and each line CCD sensor extends in the main scanning direction as described above. The projection light of the film F is separated into three primary colors of R, G and B by the image sensor 32 and read photoelectrically. The R, G, and B output signals output from the image sensor 32 are amplified by an amplifier 33 and sent to an A / D converter 34, where the A / D converter 34 has, for example, 12 bits of RGB, respectively.
After being converted into digital image data, the image processing device 14
Is output to
【0022】なお、スキャナ12においては、フィルム
Fに撮影された画像を読み取るに際し、低解像度で読み
取るプレスキャン(第1回目の画像読取)と、出力画像
の画像データを得るためのファインスキャン(第2回目
の画像読取)との2回の画像読取を行う。ここで、プレ
スキャンは、スキャナ12が対象とするフィルムFの全
ての画像を、イメージセンサ32が飽和することなく読
み取れるように、予め設定されたプレスキャン読取条件
で行われる。一方、ファインスキャンは、プレスキャン
データから、その画像(コマ)の最低濃度よりも若干低
い濃度でイメージセンサ32が飽和するように、各コマ
毎に設定されたファインスキャンの読取条件で行われ
る。なお、プレスキャンおよびファインスキャン出力画
像信号は、解像度および出力画像信号レベルが異なる以
外は、基本的に同様な画像データである。In the scanner 12, when reading an image photographed on the film F, a pre-scan (first image reading) for reading at a low resolution and a fine scan (first image reading) for obtaining image data of an output image are performed. (2nd image reading). Here, the pre-scan is performed under preset pre-scan reading conditions so that the image sensor 32 can read all images of the film F to be scanned by the scanner 12 without saturation. On the other hand, the fine scan is performed under the fine scan reading conditions set for each frame from the pre-scan data so that the image sensor 32 is saturated at a density slightly lower than the minimum density of the image (frame). The prescan and fine scan output image signals are basically the same image data except that the resolution and the output image signal level are different.
【0023】なお、フォトプリンタ10に用いられるス
キャナ12は、このようなスリット走査読取を行うもの
に限定されず、1コマのフィルム画像の全面を一度に読
み取る面状読取を行うものであってもよい。この場合に
は、例えばエリアCCDセンサなどのエリアセンサを用
い、光源22とフィルムFとの間にR、GおよびBの各
色フィルタの挿入手段を設け、光源22からの射出光の
光路に挿入して、色フィルタを透過した読取光をフィル
ムF全面に照射して、透過光をエリアCCDセンサに結
像させてフィルム全画像を読み取ることを、R、Gおよ
びBの各色フィルタを切り換えて順次行うことで、フィ
ルムFに撮影された画像を3原色に分解して読み取る。Note that the scanner 12 used in the photo printer 10 is not limited to the one that performs the slit scanning reading, and may be the one that performs the surface reading that reads the entire surface of the film image of one frame at a time. Good. In this case, for example, an area sensor such as an area CCD sensor is used, and means for inserting R, G, and B color filters are provided between the light source 22 and the film F, and inserted into the optical path of the light emitted from the light source 22. The reading light transmitted through the color filters is irradiated onto the entire surface of the film F, and the transmitted light is imaged on the area CCD sensor to read the entire image of the film by sequentially switching the R, G, and B color filters. Accordingly, the image photographed on the film F is separated into three primary colors and read.
【0024】前述したように、スキャナ12から出力さ
れるデジタル画像データ信号は、本発明の画像処理方法
を実施する画像処理装置14に出力される。図3に、こ
の画像処理装置(以下、処理装置という。)14のブロ
ック図を示す。ここで、処理装置14は、スキャナ補正
部36、LOG変換器38、プレスキャン(フレーム)
メモリ40、ファインスキャン(フレーム)メモリ4
2、プレスキャンデータ処理部44、本発明の特徴とす
るエッジ部抽出および各種画像処理を行うファインスキ
ャンデータ処理部46および条件設定部48を有する。
なお、図3は主に画像処理関連の部分を示すものであ
り、処理装置14には、これ以外にも、処理装置14を
含むフォトプリンタ10全体の制御や管理を行うCP
U、フォトプリンタ10の作動等に必要な情報を記録す
るメモリ等が配設され、また、操作系18やモニタ20
は、このCPU等(CPUバス)を介して各部分に接続
される。As described above, the digital image data signal output from the scanner 12 is output to the image processing device 14 that performs the image processing method of the present invention. FIG. 3 shows a block diagram of the image processing device (hereinafter, referred to as a processing device) 14. Here, the processing device 14 includes a scanner correction unit 36, a LOG converter 38, a pre-scan (frame)
Memory 40, fine scan (frame) memory 4
2. It has a pre-scan data processing section 44, a fine scan data processing section 46 for performing edge portion extraction and various image processing features of the present invention, and a condition setting section 48.
FIG. 3 mainly shows a portion related to image processing. The processing device 14 includes a CP that controls and manages the entire photo printer 10 including the processing device 14.
U, a memory for recording information necessary for operation of the photo printer 10 and the like are provided.
Are connected to each part via the CPU or the like (CPU bus).
【0025】スキャナ12から処理装置14に入力され
たR、GおよびBの画像信号、例えば12bitのデジ
タル画像データは、スキャナ補正部36に入力される。
スキャナ補正部36は、スキャナ12のイメージセンサ
32の3ラインCCDセンサ32R、32G、32Bに
起因する、RGBデジタル画像データの画素毎の感度ば
らつきや暗電流を補正するためにDCオフセット補正、
暗時補正、欠陥画素補正、シェーディング補正等の読取
画像データのデータ補正を行うものである。スキャナ補
正部36で画素毎の感度ばらつきや暗電流の補正処理等
が施されたデジタル画像信号は、LOG変換処理器に出
力される。LOG変換器38は、対数変換処理してデジ
タル画像データを階調変換してデジタル画像濃度データ
に変換するものであって、例えば、ルックアップテーブ
ル(LUT)を用いて、スキャナ補正部36で補正され
た、例えば12bitのデジタル画像データを変換し
て、10bit(0〜1023)のデジタル画像濃度デ
ータに変換する。The R, G, and B image signals input from the scanner 12 to the processing device 14, for example, 12-bit digital image data, are input to the scanner correction unit 36.
The scanner correction unit 36 performs DC offset correction to correct sensitivity variation and dark current of each pixel of RGB digital image data due to the three-line CCD sensors 32R, 32G, and 32B of the image sensor 32 of the scanner 12,
It performs data correction of the read image data such as darkness correction, defective pixel correction, and shading correction. The digital image signal that has been subjected to the correction processing of the sensitivity variation and dark current for each pixel by the scanner correction unit 36 is output to the LOG conversion processor. The LOG converter 38 converts the digital image data into gradation data by performing logarithmic conversion processing, and converts the digital image data into digital image density data. For example, the LOG converter 38 corrects the digital image data using the lookup table (LUT) by the scanner correction unit 36. For example, the converted 12-bit digital image data is converted into 10-bit (0 to 1023) digital image density data.
【0026】LOG変換器38で変換されたデジタル画
像濃度データは、プレスキャン画像データであればプレ
スキャンメモリ40に、ファインスキャン画像データで
あればファインスキャンメモリ42に、それぞれ記憶
(格納)される。プレスキャンメモリ40は、スキャナ
12によるフィルムFのプレスキャンによって得られ、
各種のデータ補正および対数変換処理が施されたフィル
ムFの1コマ全部の低解像度画像濃度データをRGBの
各色毎に格納または記憶するためのフレームメモリであ
る。プレスキャンメモリ40は、フィルムFの1コマの
RGB3色の画像濃度データを格納できる容量が少なく
とも必要であるが、複数コマ分の画像濃度データを格納
できる容量を持つものであってもよいし、1コマ分の容
量のメモリを多数備えるものであってもよい。プレスキ
ャンメモリ40に記憶されたプレスキャン画像データ
は、プレスキャンデータ処理部44に読みだされる。The digital image density data converted by the LOG converter 38 is stored (stored) in the pre-scan memory 40 if it is pre-scan image data and in the fine scan memory 42 if it is fine scan image data. . The pre-scan memory 40 is obtained by pre-scanning the film F by the scanner 12,
This is a frame memory for storing or storing the low-resolution image density data of the entire frame of the film F subjected to various data correction and logarithmic conversion processing for each of the RGB colors. The prescan memory 40 needs at least a capacity capable of storing image density data of one frame of the film F in three colors of RGB, but may have a capacity capable of storing image density data of a plurality of frames, It may have a large number of memories each having a capacity of one frame. The pre-scan image data stored in the pre-scan memory 40 is read by the pre-scan data processing unit 44.
【0027】一方、ファインスキャンメモリ42は、ス
キャナ12によるフィルムFのファインスキャンによっ
て得られ、各種のデータ補正および対数変換処理が施さ
れたフィルムFの1コマ全部の高解像度画像濃度データ
をRGBの各色毎に格納または記憶するためのフレーム
メモリである。ファインスキャンメモリ42は、少なく
ともフィルムFの2コマの画像のRGB3色の画像濃度
データを格納できる容量を持ち、1コマ分の画像濃度デ
ータを書き込んでいる間に、別の1コマ分の画像濃度デ
ータを読み出し、ファインスキャンデータ処理部46に
おいて本発明の特徴とするエッジ部抽出を行うための様
々な処理を同時に行うようにするのが好ましいが、本発
明はこれに限定されず、1コマ分の画像濃度データを格
納できる容量を持ち1コマづつ処理するためのものであ
ってもよい。また、1コマ分の容量のメモリを多数備
え、例えばトグルメモリとして利用できるものであって
もよい。ファインスキャンメモリ42に記憶されたファ
インスキャン画像データは、ファインスキャンデータ処
理部46に読みだされる。On the other hand, the fine scan memory 42 stores the high-resolution image density data of the entire frame of the film F obtained by the fine scan of the film F by the scanner 12 and subjected to various data correction and logarithmic conversion processing. This is a frame memory for storing or storing for each color. The fine scan memory 42 has a capacity to store at least image density data of three colors of RGB of two images of the film F, and while writing image density data of one frame, image density of another one frame is written. It is preferable that the data is read out and the fine scan data processing section 46 simultaneously performs various processes for extracting the edge portion, which is a feature of the present invention. However, the present invention is not limited to this, and the present invention is not limited to this. May have a capacity to store the image density data of each frame and process the image data frame by frame. Further, a memory having a large number of memories for one frame may be used, for example, a toggle memory. The fine scan image data stored in the fine scan memory 42 is read out by the fine scan data processing unit 46.
【0028】プレスキャンメモリ40に記憶されたプレ
スキャン画像データに、モニタ20に表示するのに必要
な種々の画像処理を施すプレスキャンデータ処理部44
は、画像処理部50と、画像データ変換部52とを有す
る。ここで、画像処理部50は、後述する条件設定部4
8が設定した画像処理条件に従って、スキャナ12によ
って読み取られ、プレスキャンメモリ40に記憶された
画像データに、所望の画質で、後述するモニタ20のC
RT表示画面にカラー画像が再生可能なように、ルック
アップテーブル(以下、LUTで代表させる)やマトリ
ックス(以下、MTXで代表させる)演算により、階調
補正、色変換、濃度変換等の所定の画像処理を施すため
のものである。画像データ変換部52は、画像処理部5
0によって処理された画像データを、モニタ20の解像
度に合わせるために必要に応じて間引いて、同様に、3
D(3次元)LUT等を用いて、モニタ20による表示
に対応する画像データに変換して、モニタ20に表示さ
せるためのものである。なお、画像処理部50における
処理条件は、後述する条件設定部48で設定される。A prescan data processing unit 44 that performs various image processes required for display on the monitor 20 on the prescan image data stored in the prescan memory 40
Has an image processing unit 50 and an image data conversion unit 52. Here, the image processing unit 50 includes a condition setting unit 4 described below.
The image data read by the scanner 12 and stored in the pre-scan memory 40 in accordance with the image processing conditions set by the scanner 8 in the desired image quality,
In order to reproduce a color image on the RT display screen, predetermined processing such as gradation correction, color conversion, density conversion, and the like is performed by a lookup table (hereinafter, represented by LUT) or matrix (hereinafter, represented by MTX) calculation. This is for performing image processing. The image data conversion unit 52 includes the image processing unit 5
0 is thinned out as necessary to match the resolution of the monitor 20, and
Using a D (three-dimensional) LUT or the like, the data is converted into image data corresponding to the display on the monitor 20 and displayed on the monitor 20. The processing conditions in the image processing unit 50 are set by a condition setting unit 48 described later.
【0029】一方、ファインスキャンメモリ42に記憶
されたファインスキャン画像データに、画像記録装置1
6からカラープリントとして出力するのに必要な種々の
画像処理および本発明のエッジ部抽出を行うファインス
キャンデータ処理部46は、画像処理部54と、画像デ
ータ変換部56とを有する。ここで、画像処理部54
は、後述する条件設定部48が設定した画像処理条件に
従って、スキャナ12によって読み取られ、ファインス
キャンメモリ42に記憶された画像データに、カラープ
リントとして所望の濃度、階調および色調で、カラーペ
ーパー上にカラー画像、または本発明が目的とするエッ
ジ部抽出後シャープネス強調や粒状抑制等が行われた高
品質な画像が再生可能なように、LUT,MTX演算
器、ローパスフィルタ、加減算器などにより、色バラン
ス調整、階調調整、色調整、濃度調整、彩度調整、電子
変倍やシャープネス強調(エッジ強調;鮮鋭化)などの
種々の画像処理を施すためのものであり、その詳細につ
いては後述する。On the other hand, the fine scan image data stored in the fine scan memory 42 is added to the image recording device 1.
The fine scan data processing unit 46 for performing various image processing necessary for outputting as a color print from the image processing unit 6 and extracting an edge portion of the present invention includes an image processing unit 54 and an image data conversion unit 56. Here, the image processing unit 54
The image data read by the scanner 12 and stored in the fine scan memory 42 according to the image processing conditions set by the condition setting unit 48 to be described later are added to the color paper with desired density, gradation and color tone as color prints. A LUT, an MTX calculator, a low-pass filter, an adder / subtractor, and the like are used to reproduce a color image or a high-quality image in which sharpness enhancement, graininess suppression, and the like have been performed after edge portion extraction, which is the object of the present invention. It is for performing various image processing such as color balance adjustment, gradation adjustment, color adjustment, density adjustment, saturation adjustment, electronic scaling, and sharpness enhancement (edge enhancement; sharpening). The details will be described later. I do.
【0030】画像データ変換部56は、画像処理部54
によって処理された画像データを、例えば3DLUT等
を用いて、画像記録装置16による画像記録に対応する
画像データ変換して、画像記録装置16に供給する。画
像記録装置16は、ファインスキャンデータ処理部46
から出力される画像データに基づいて、カラー画像が再
現された仕上がりプリントとして出力するためのもので
ある。The image data conversion unit 56 includes an image processing unit 54
Is converted into image data corresponding to image recording by the image recording device 16 using, for example, a 3DLUT and supplied to the image recording device 16. The image recording device 16 includes a fine scan data processing unit 46.
Is output as a finished print in which a color image is reproduced based on the image data output from the printer.
【0031】なお、画像処理部54における処理条件
は、条件設定部48で設定される。条件設定部48は、
ファインスキャンデータ処理部46における各種の処理
条件を設定する。この条件設定部48は、セットアップ
部58、キー補正部60およびパラメータ統合部62を
有する。セットアップ部58は、プレスキャン画像デー
タ等を用いて、ファインスキャンの読取条件を設定して
スキャナ12に供給し、また、プレスキャンデータ処理
部44およびファインスキャンデータ処理部46の画像
処理条件を作成(演算)し、パラメータ統合部62に供
給する。The processing conditions in the image processing section 54 are set in the condition setting section 48. The condition setting unit 48
Various processing conditions in the fine scan data processing unit 46 are set. The condition setting unit 48 includes a setup unit 58, a key correction unit 60, and a parameter integration unit 62. The setup unit 58 sets the fine scan reading conditions using the prescan image data and supplies the conditions to the scanner 12, and creates the image processing conditions for the prescan data processing unit 44 and the fine scan data processing unit 46. (Calculation) and supplies the result to the parameter integration unit 62.
【0032】具体的には、セットアップ部58は、プレ
スキャンメモリ40からプレスキャン画像データを読み
出し、プレスキャン画像データから、濃度ヒストグラム
の作成や、平均濃度、LATD(大面積透過濃度)、ハ
イライト(最低濃度)、シャドー(最高濃度)等の画像
特徴量の算出を行う。算出した画像特徴量から、その画
像の最低濃度よりも若干低濃度でイメージセンサ32
(ラインCCDセンサ32R、32G、32B)が飽和
するように、ファインスキャンの読取条件、例えば、光
源22の光量、可変絞り24の絞り値、イメージセンサ
32の(各ラインCCDセンサ32R、32G、32B
の)蓄積時間等を設定する。なお、ファインスキャンの
読取条件は、プレスキャンの読取条件に対して、イメー
ジセンサの出力レベルに対応する全ての要素を変更して
もよく、前記絞り値等のいずれか1つの要素のみを変更
するものでもよく、絞り値と蓄積時間等の複数の要素の
みを変更するものでもよい。さらに、セットアップ部5
8は、濃度ヒストグラムや画像特徴量と、必要に応じて
行われるオペレータによる指示等に応じて、前述の色バ
ランス調整や階調調整等の画像処理条件を設定する。More specifically, the setup section 58 reads out pre-scan image data from the pre-scan memory 40, creates a density histogram, average density, LATD (large area transmission density), and highlights from the pre-scan image data. Calculation of image feature amounts such as (lowest density) and shadow (highest density) is performed. Based on the calculated image feature amount, the image sensor 32 has a density slightly lower than the lowest density of the image.
In order to saturate the (line CCD sensors 32R, 32G, 32B), the reading conditions of the fine scan, for example, the light amount of the light source 22, the aperture value of the variable aperture 24, and the (each line CCD sensor 32R, 32G, 32B)
) Set the accumulation time. The fine scan reading condition may change all the elements corresponding to the output level of the image sensor with respect to the prescan reading condition, or change only one element such as the aperture value. Alternatively, only a plurality of factors such as the aperture value and the accumulation time may be changed. Furthermore, the setup unit 5
Reference numeral 8 sets image processing conditions such as the above-described color balance adjustment and gradation adjustment according to a density histogram, an image feature amount, and an instruction from an operator performed as necessary.
【0033】キー補正部60は、キーボード18aや操
作系18に設けられたキー(図示せず)によって設定さ
れた濃度(明るさ)、色、コントラスト、シャープネ
ス、彩度等の調整量やマウス18bで入力された各種の
指示等に応じて、画像処理条件の調整量(例えば、LU
Tの補正量等)を算出し、パラメータを設定し、パラメ
ータ統合部62に供給するものである。パラメータ統合
部62は、セットアップ部58が設定した画像処理条件
を受け取り、供給された画像処理条件を、プレスキャン
データ処理部44の画像処理部50およびファインスキ
ャンデータ処理部46の画像処理部54に設定し、さら
に、キー補正部60で算出された調整量に応じて、各部
分に設定した画像処理条件を補正(調整)し、あるいは
画像処理条件を再設定する。The key correction unit 60 includes an adjustment amount such as density (brightness), color, contrast, sharpness, and saturation set by a key (not shown) provided on the keyboard 18a and the operation system 18, and a mouse 18b. The amount of adjustment of image processing conditions (for example, LU
A correction amount of T) is calculated, parameters are set, and the parameters are supplied to the parameter integration unit 62. The parameter integration unit 62 receives the image processing conditions set by the setup unit 58, and transmits the supplied image processing conditions to the image processing unit 50 of the pre-scan data processing unit 44 and the image processing unit 54 of the fine scan data processing unit 46. After setting, the image processing condition set for each part is corrected (adjusted) or the image processing condition is reset according to the adjustment amount calculated by the key correction unit 60.
【0034】続いて、本発明の特徴とする、エッジ部抽
出を行うファインスキャンデータ処理部46の画像処理
部54について詳細に説明する。図4は、画像処理部5
4の一実施例の概略を示すブロック図である。図4に示
すように、画像処理部54は、画像データの濃度、色お
よび階調を変換する色濃度階調変換手段64、画像デー
タの彩度を変換する彩度変換手段66、画像データの画
素数を変換するデジタル倍率変換(電子変倍)手段6
8、エッジ部抽出を行うエッジ部抽出手段70およびシ
ャープネス強調や粒状抑制あるいは画像データの濃度ダ
イナミックレンジの変換等の各種画像処理を必要に応じ
て行う画像処理ブロック72を備えている。Next, the image processing unit 54 of the fine scan data processing unit 46 for extracting an edge portion, which is a feature of the present invention, will be described in detail. FIG. 4 shows the image processing unit 5
FIG. 4 is a block diagram schematically showing an example of the fourth embodiment. As shown in FIG. 4, the image processing unit 54 includes a color density gradation conversion unit 64 that converts the density, color, and gradation of the image data, a saturation conversion unit 66 that converts the saturation of the image data, Digital magnification conversion (electronic scaling) means 6 for converting the number of pixels
8. An edge part extracting means 70 for extracting an edge part, and an image processing block 72 for performing various image processing such as sharpness enhancement, graininess suppression, and conversion of image data density dynamic range as necessary.
【0035】画像処理部54において、色濃度階調変換
手段64は、LUT等に従って、画像データから濃度デ
ータ、色データおよび階調データに変換するものであ
る。また、彩度変換手段66は、色濃度階調変換手段6
4によって得られた画像データの彩度データをMTX演
算等に従って変換するものである。また、電子変倍手段
68は、画像記録装置16においてカラーペーパに出力
するカラー画像のサイズに応じて、かつ出力画素密度に
合わせて、彩度変換手段66によって彩度変換された画
像データを補間したり、間引いたりして、画像データの
画素データ数を増減するものである。エッジ部抽出手段
70は、注目画素がエッジ部であるか粒状部であるかを
判別し、エッジ部を抽出するものであり、エッジ部抽出
が行われた画像データは、画像処理ブロック72に入力
される。この画像処理ブロック72では、上で抽出され
たエッジ部に対してシャープネス強調を行ったり、粒状
部に対しては、粒状抑制を行う等、その他各種の画像処
理が行われる。In the image processing section 54, the color density gradation conversion means 64 converts the image data into density data, color data and gradation data according to an LUT or the like. Further, the saturation conversion means 66 includes a color density gradation conversion means 6.
4 is to convert the saturation data of the image data obtained in step 4 in accordance with MTX operation or the like. The electronic scaling unit 68 interpolates the image data subjected to the saturation conversion by the saturation conversion unit 66 according to the size of the color image output to the color paper in the image recording device 16 and according to the output pixel density. In this case, the number of pixel data of the image data is increased or decreased by thinning or thinning. The edge part extracting means 70 determines whether the pixel of interest is an edge part or a granular part, and extracts an edge part. The image data subjected to the edge part extraction is input to the image processing block 72. Is done. In the image processing block 72, various other image processes are performed, such as performing sharpness enhancement on the edge portion extracted above, and performing grain suppression on the granular portion.
【0036】図5は、エッジ部抽出手段70の一実施例
の概略を示すブロック図である。図5に示すように、エ
ッジ部抽出手段70は、色調変換手段74、輝度信号生
成手段76、グラディエントを算出するために用いられ
るテンプレート78、グラディエントを算出する手段8
0、算出されたグラディエントを記憶する手段81、注
目画素等の連結性を算出する手段82、RGB毎の方向
性を算出する手段84およびエッジ部を判定し抽出する
手段86とを備えている。FIG. 5 is a block diagram schematically showing an embodiment of the edge portion extracting means 70. As shown in FIG. 5, the edge part extracting means 70 includes a color tone converting means 74, a luminance signal generating means 76, a template 78 used for calculating a gradient, and a means 8 for calculating a gradient.
0, means 81 for storing the calculated gradient, means 82 for calculating the connectivity of the pixel of interest, etc., means 84 for calculating the directionality of each RGB, and means 86 for determining and extracting an edge portion.
【0037】色調変換手段74は、画像データの色調信
号レベルを変換して原画像信号とするためのものであ
る。輝度信号生成手段76は、色調変換手段74によっ
て色調変換された原画像信号のR、G、Bの色信号を輝
度信号に変換するものであり、人間の視覚に応じて、
R、G、Bの色信号に重み付けをして、輝度信号Yに変
換する。変換式として、例えば次式が例示される。 Y=0.3R+0.59G+0.11BThe tone conversion means 74 converts the tone signal level of the image data into an original image signal. The luminance signal generation unit 76 converts the R, G, and B color signals of the original image signal whose color tone has been converted by the color tone conversion unit 74 into a luminance signal.
The R, G, and B color signals are weighted and converted to a luminance signal Y. For example, the following expression is exemplified as the conversion expression. Y = 0.3R + 0.59G + 0.11B
【0038】テンプレート78は、注目画素およびその
周辺画素のエッジの方向および強度を表すグラディエン
ト(勾配、いわゆる微分に相当する)を求めるためのも
のであり、例えば3×3のマトリックスからなるテンプ
レートの場合、図10に示すようなソーベル演算子でも
よいし、特に限定されるものではない。これ以外に、例
えばプレヴィット(Prewitt)演算子、キルシュ(Kir
sch)演算子等がありいずれも注目画素における濃度勾配
の大きさおよび方向を算出するためのものである。な
お、これらの演算子となる、本発明に用いられるテンプ
レートを構成するマトリックスは、図10に示すような
3×3に限定されず、そのサイズや形状には特に限定が
なく、どのようなマトリックスであってもよい。本発明
のテンプレートのマトリックスとして、例えば5×5や
7×7や9×9等の正方マトリックスでも、3×5や3
×7や5×9等の正方でないマトリックスでも用いるこ
とができる。The template 78 is for obtaining a gradient (gradient, corresponding to a so-called differential) representing the direction and intensity of the edge of the target pixel and its peripheral pixels. For example, in the case of a template composed of a 3 × 3 matrix, , And a Sobel operator as shown in FIG. 10 and are not particularly limited. Other than this, for example, the Prewitt operator, Kirsch
sch) operator and the like for calculating the magnitude and direction of the density gradient at the target pixel. It should be noted that the matrix constituting the template used in the present invention, which is these operators, is not limited to 3 × 3 as shown in FIG. 10, and its size and shape are not particularly limited. It may be. As a matrix of the template of the present invention, for example, even a square matrix such as 5 × 5, 7 × 7, 9 × 9, etc.
Non-square matrices such as x7 and 5x9 can also be used.
【0039】グラディエント算出手段80は、輝度信号
生成手段76によって輝度信号に変換された画像データ
に対して、テンプレート78を用いて、上述したように
各注目画素およびその周辺画素のグラディエントを算出
する。例えば、注目画素を中心とする3×3画素の画像
データの場合、これらの画像データに対して、図10に
示す8方向をそれぞれ示す8種の3×3のテンプレート
を用いて積和を求め、得られた積和および積和が最大値
を示すテンプレートの示す方向をそれぞれその強度およ
び方向とする注目画素のグラディエントを算出する。同
様にして、その周辺画素についてもグラディエントを算
出する。次に、グラディエント記憶手段81は、グラデ
ィエント算出手段80によって算出された各注目画素お
よびその周辺画素のグラディエントの値を記憶する。連
結性算出手段82は、この記憶された各注目画素および
周辺画素のグラディエントから注目画素の連結性を算出
する。すなわち、連結性算出手段82は、注目画素のグ
ラディエントの方向と、この注目画素の近傍画素のグラ
ディエントの方向を比較し、連結性の判定条件に応じて
連結性の有無を判定し、連結性を算出する、具体的に
は、これらの近傍画素のうちの所定数の画素のグラディ
エントの方向が所定条件に一致した場合に連結性ありと
する。連結性の判定条件については、後述する。また、
RGB毎の方向性算出手段84では、各注目画素に対し
R、G、B毎にテンプレート78を用いて、そのRGB
毎のグラディエントを計算し方向性を算出する。The gradient calculating means 80 calculates the gradient of each pixel of interest and its surrounding pixels using the template 78 for the image data converted into the luminance signal by the luminance signal generating means 76 as described above. For example, in the case of image data of 3 × 3 pixels centering on the pixel of interest, a product sum is calculated for these image data using eight types of 3 × 3 templates respectively indicating eight directions shown in FIG. The gradient of the pixel of interest is calculated with the obtained product sum and the direction indicated by the template in which the product sum has the maximum value as the intensity and direction, respectively. Similarly, a gradient is calculated for the peripheral pixels. Next, the gradient storage unit 81 stores the value of the gradient of each pixel of interest and its surrounding pixels calculated by the gradient calculation unit 80. The connectivity calculating unit 82 calculates the connectivity of the target pixel from the stored gradients of the target pixel and the peripheral pixels. That is, the connectivity calculating means 82 compares the direction of the gradient of the pixel of interest with the direction of the gradient of the neighboring pixels of the pixel of interest, determines the presence or absence of the connectivity according to the determination condition of the connectivity, and determines the connectivity. To be calculated, specifically, when the direction of the gradient of a predetermined number of pixels among these neighboring pixels matches the predetermined condition, it is determined that there is connectivity. The condition for determining connectivity will be described later. Also,
The directivity calculation means 84 for each RGB uses the template 78 for each of R, G, and B for each pixel of interest, and
The gradient is calculated for each direction and the directionality is calculated.
【0040】エッジ部判定・抽出手段86は、連結性算
出手段82で算出された注目画素の連結性と、RGB毎
の方向性算出手段84で算出された方向性とからこの注
目画素がエッジ部であるか、否か、すなわち粒状部かを
判定することにより、エッジ部を抽出する。エッジ部の
判定、抽出が行われた画像データは、画像処理ブロック
72へ送られ、シャープネス強調または粒状抑制処理等
の画像処理(周波数処理)が行われる。The edge part judging / extracting means 86 determines the pixel of interest from the edge part based on the connectivity of the pixel of interest calculated by the connectivity calculating means 82 and the direction calculated by the direction calculating means 84 for each of RGB. , Or not , that is, whether it is a granular part or not , an edge part is extracted. The image data for which the edge portion has been determined and extracted is sent to the image processing block 72, where image processing (frequency processing) such as sharpness enhancement or graininess suppression processing is performed.
【0041】本発明に係る画像処理装置およびこれを用
いるデジタルフォトプリンタは、基本的に以上のように
構成される。以下、本発明の画像処理装置およびデジタ
ルフォトプリンタの作用ならびに本発明の画像処理方法
を説明する。The image processing apparatus according to the present invention and the digital photo printer using the same are basically configured as described above. Hereinafter, the operation of the image processing apparatus and the digital photo printer of the present invention and the image processing method of the present invention will be described.
【0042】オペレータがフィルムF(読取対象コマ)
に対応するキャリア28をスキャナ12に装填し、キャ
リア28の所定位置にフィルムFをセットし、仕上げ情
報や作成するプリントサイズ等の必要な指示を入力した
後に、プリントの作成開始を指示する。これにより、ス
キャナ12の可変絞り24の絞り値やイメージセンサ3
2(ラインCCDセンサ32R、32G、32B)の蓄
積時間がプレスキャンの読取条件に応じて設定される。
その後、キャリア28がフィルムFをプレスキャンに応
じた速度で副走査方向に搬送して、プレスキャンが開始
され、フィルムFがスリット走査されて投影光がイメー
ジセンサ32に結像して、フィルムFに撮影された画像
がR、G、Bに分解されて光電的に低解像度で読み取ら
れる。なお、ここでは、プレスキャンおよびファインス
キャンは、1コマずつ行ってもよく、全コマあるいは所
定の複数コマずつ、連続的にプレスキャンおよびファイ
ンスキャンを行ってもよい。以下の例では、説明を簡潔
にするために、1コマの画像読取を例に説明を行う。The operator operates the film F (frame to be read).
Is loaded into the scanner 12, the film F is set at a predetermined position of the carrier 28, necessary information such as finishing information and a print size to be created is input, and then a print creation start is instructed. Thereby, the aperture value of the variable aperture 24 of the scanner 12 and the image sensor 3
2 (the line CCD sensors 32R, 32G, and 32B) are set according to the prescan reading conditions.
Thereafter, the carrier 28 conveys the film F in the sub-scanning direction at a speed corresponding to the pre-scan, and the pre-scan is started, the film F is slit-scanned, the projection light forms an image on the image sensor 32, and the film F Is separated into R, G, and B and photoelectrically read at a low resolution. Here, the pre-scan and the fine scan may be performed one frame at a time, or the pre-scan and the fine scan may be performed continuously for all frames or for a predetermined plurality of frames. In the following example, one frame of image reading will be described as an example to simplify the description.
【0043】プレスキャンによるイメージセンサ32の
出力信号は、アンプ33で増幅されて、A/D変換器3
4に送られ、デジタル画像データとされた後に、本発明
の画像処理装置14に出力される。画像処理装置14に
入力されたデジタル画像データは、スキャナ補正部36
でイメージセンサ32の暗電流等の所定の補正を施した
後、LOG変換器38に送られ、プレスキャンに対応す
る濃度範囲で、例えば、濃度Dで4の濃度範囲を10b
itのデータに割りつけるように、LUTを用いて変換
され、プレスキャン画像データとされ、プレスキャン画
像データは、プレスキャンメモリ40に記憶される。The output signal of the image sensor 32 by the prescan is amplified by the amplifier 33 and
4 and converted into digital image data, which is then output to the image processing device 14 of the present invention. The digital image data input to the image processing device 14 is
After a predetermined correction such as a dark current of the image sensor 32 is performed in step (b), the correction value is sent to the LOG converter 38 and the density range corresponding to the pre-scan, for example, the density range of 4 with the density D is set to 10b.
The data is converted using the LUT so as to be assigned to the data of the it, and is converted into prescan image data. The prescan image data is stored in the prescan memory 40.
【0044】プレスキャンメモリ40にプレスキャン画
像データが記憶されると、条件設定部48のセットアッ
プ部58がこれを読み出し、濃度ヒストグラムの作成、
ハイライトやシャドー等の画像特徴量の算出等を行い、
ファインスキャンの読取条件を設定して、スキャナ12
に供給し、また、階調調整やグレイバランス調整等の各
種の画像処理条件を設定し、パラメータ統合部62に供
給する。画像処理条件を受け取ったパラメータ統合部6
2は、これを、プレスキャンデータ処理部44およびフ
ァインスキャンデータ処理部46の所定部分(ハードウ
エアおよびソフトウエア)に設定する。When the pre-scan image data is stored in the pre-scan memory 40, the setup unit 58 of the condition setting unit 48 reads it out, creates a density histogram,
Calculate image features such as highlights and shadows, etc.
Setting the scanning conditions for fine scan, the scanner 12
And various image processing conditions such as gradation adjustment and gray balance adjustment are set and supplied to the parameter integration unit 62. Parameter integration unit 6 receiving the image processing conditions
2 sets this in predetermined portions (hardware and software) of the pre-scan data processing unit 44 and the fine scan data processing unit 46.
【0045】検定を行う場合には、プレスキャン画像デ
ータがプレスキャンデータ処理部44によってプレスキ
ャンメモリ40から読みだされ、画像処理部50におい
て設定された画像処理条件で画像処理され、次いで、画
像データ変換部52で変換され、シュミレーション画像
としてモニタ20に表示される。オペレータは、モニタ
20の表示を見て、画像すなわち処理結果の確認(検
定)を行い、必要に応じてキーボード18aに設定され
た調整キー等を用いて色、濃度、階調等を調整する。こ
の調整の入力は、キー補正部60に送られ、キー補正部
60は調整入力に応じた画像処理条件の補正量を算出
し、これをパラメータ統合部62に送る。パラメータ統
合部62は、送られた補正量に応じて、画像処理部50
および54のLUTやMTX等を補正する。従って、こ
の補正すなわちオペレータによる調整入力に応じて、モ
ニタ20に表示される画像も変化する。When performing a test, prescan image data is read from the prescan memory 40 by the prescan data processing unit 44, image-processed under the image processing conditions set in the image processing unit 50, and The data is converted by the data converter 52 and displayed on the monitor 20 as a simulation image. The operator looks at the display on the monitor 20, confirms (verifies) the image, that is, the processing result, and adjusts the color, density, gradation, and the like using the adjustment keys and the like set on the keyboard 18a as necessary. The input of this adjustment is sent to the key correction unit 60, which calculates the correction amount of the image processing condition according to the adjustment input, and sends it to the parameter integration unit 62. The parameter integration unit 62 determines whether the image processing unit 50
And 54 LUT and MTX are corrected. Therefore, the image displayed on the monitor 20 also changes according to the correction, that is, the adjustment input by the operator.
【0046】オペレータは、このコマの画像が適正(検
定OK)であると判定すると、キーボード18a等を用
いてプリント開始を指示する。これにより、画像処理条
件が確定し、スキャナ12において可変絞り24の絞り
値等が設定されたファインスキャンの読取条件に応じて
設定されると共に、キャリア28がファインスキャンに
対応する速度でフィルムFを搬送し、ファインスキャン
が開始される。なお、検定を行わない場合には、パラメ
ータ統合部62によるファインスキャンデータ処理部4
6の画像処理部54への画像処理条件の設定を終了した
時点で画像処理条件が確定し、ファインスキャンが開始
される。ファインスキャンは、可変絞り24の絞り値等
の読取条件が異なる以外はプレスキャンと同様に行わ
れ、イメージセンサ32からの出力信号はアンプ33で
増幅されて、処理装置14のA/D変換器34でデジタ
ル濃度データとされ、スキャナ補正部36で所定の処理
を施され、LOG変換器38に送られる。LOG変換器
38において、ファインスキャンデジタル画像データは
プレスキャンよりも高い濃度分解能で処理され、例え
ば、濃度Dで2の濃度範囲を10bitのデータに割り
つけるようにLUTで変換され、ファインスキャン画像
データとされた後、ファインスキャンメモリ42に送ら
れる。When the operator determines that the image of the frame is proper (OK), the operator instructs the start of printing using the keyboard 18a or the like. Thus, the image processing conditions are determined, the aperture value of the variable aperture 24 is set in the scanner 12 in accordance with the reading conditions of the fine scan, and the carrier 28 moves the film F at a speed corresponding to the fine scan. It is conveyed and fine scan is started. When the test is not performed, the fine scan data processing unit 4 by the parameter integration unit 62
When the setting of the image processing condition in the image processing unit 54 of Step 6 is completed, the image processing condition is determined, and the fine scan is started. The fine scan is performed in the same manner as the pre-scan except that the reading conditions such as the aperture value of the variable aperture 24 are different. The output signal from the image sensor 32 is amplified by the amplifier 33, and the A / D converter of the processing device 14 The digital density data is converted into digital density data at 34, subjected to predetermined processing by a scanner correction unit 36, and sent to a LOG converter 38. In the LOG converter 38, the fine scan digital image data is processed with a higher density resolution than in the pre-scan. For example, the fine scan digital image data is converted by the LUT so as to allocate a density range of 2 in density D to 10-bit data. Is sent to the fine scan memory 42.
【0047】画像処理部54においては、色濃度階調変
換手段64により、ルックアップテーブルに従って、フ
ァインスキャン画像データの濃度データ、色データおよ
び階調データが変換され、彩度変換手段66によって、
マトリックス演算にしたがって、画像信号の彩度データ
が変換される。ついで、カラーペーパに出力するカラー
画像のサイズに応じて、電子変倍手段68により、画像
データ信号の画素デー数が増減された後、画像信号は、
エッジ部抽出手段70に入力される。In the image processing section 54, the density data, color data and gradation data of the fine scan image data are converted by the color density gradation conversion means 64 in accordance with the look-up table.
The chroma data of the image signal is converted according to the matrix operation. Then, after the number of pixel data of the image data signal is increased or decreased by the electronic scaling unit 68 according to the size of the color image output to the color paper, the image signal is
It is input to the edge part extracting means 70.
【0048】色調変換手段74によって色調変換された
原画像信号は、輝度信号生成手段76において輝度信号
Yに変換され、グラディエント算出手段80に入力され
る。グラディエント算出手段80では、テンプレート7
8を用いて注目画素およびその周辺画素の濃度勾配の大
きさおよび方向を表すベクトル量であるグラディエント
が算出される。The original image signal whose color tone has been converted by the color tone converting means 74 is converted into a luminance signal Y by a luminance signal generating means 76 and input to a gradient calculating means 80. In the gradient calculating means 80, the template 7
8 is used to calculate a gradient that is a vector quantity representing the magnitude and direction of the density gradient of the target pixel and its surrounding pixels.
【0049】例えば、図11(a)に示したような注目
画素と周辺画素からなる3×3画像データに対し、図1
0に示すような3×3のテンプレートa1〜a8を用い
て、前述したように積和演算を行い、最も大きな積和お
よび最大積和に対応するテンプレートからその強度およ
び方向を持つ注目画素のグラディエントを算出する。次
に、これらの周辺画素の中から注目画素のグラディエン
トの方向に90°の方向(直交する方向)の両側の2つ
の隣接画素を連結性の有無を判定するために用いる近傍
画素として選択し、これらの2つの隣接画素について、
その隣接画素を中心とした3×3の画像をとり、同様に
その隣接画素のグラディエントを算出する。このとき、
注目画素のグラディエントの方向が図6に矢印で示すよ
うな場合、○印で示すものが隣接画素となる。例えば、
3×3画像データに対し、その方向が図11(b)に矢
印で示す方向であったとすると、図中左上隅の画素値1
のものおよび図中右下隅の画素値5のものが2つの隣接
画素となる。For example, as shown in FIG. 11A, 3 × 3 image data including a target pixel and peripheral pixels is compared with FIG.
Using the 3 × 3 templates a1 to a8 as shown in FIG. 0, the product sum operation is performed as described above, and the gradient of the pixel of interest having the intensity and direction from the template corresponding to the largest product sum and the maximum product sum is obtained. Is calculated. Next, from these peripheral pixels, two adjacent pixels on both sides in a direction 90 ° (orthogonal direction) to the direction of the gradient of the pixel of interest are selected as neighboring pixels used to determine the presence or absence of connectivity, For these two adjacent pixels,
A 3 × 3 image centered on the adjacent pixel is taken, and the gradient of the adjacent pixel is calculated in the same manner. At this time,
In the case where the gradient direction of the target pixel is as shown by an arrow in FIG. 6, the one indicated by a circle is an adjacent pixel. For example,
Assuming that the direction of the 3 × 3 image data is the direction indicated by the arrow in FIG. 11B, the pixel value 1 at the upper left corner in FIG.
And the one with a pixel value of 5 in the lower right corner in the figure are two adjacent pixels.
【0050】グラディエント算出手段80は、これらの
隣接画素それぞれについてグラディエントを算出し、そ
の方向を求める。そして、こうして得られた注目画素お
よび周辺画素のグラディエントは、グラディエント記憶
手段81に記憶される。連結性算出手段82は、記憶さ
れた注目画素および周辺画素のグラディエントの方向か
ら、注目画素の連結性を判定する。2つの隣接画素のグ
ラディエントの方向が、いずれも注目画素のグラディエ
ントの方向と45°以内の方向をなすとき、当該注目画
素は連結性ありと判定される。The gradient calculating means 80 calculates a gradient for each of these adjacent pixels and finds the direction. The gradients of the target pixel and the peripheral pixels thus obtained are stored in the gradient storage unit 81. The connectivity calculating unit 82 determines the connectivity of the target pixel from the stored gradient directions of the target pixel and the peripheral pixels. When the directions of the gradients of two adjacent pixels are both within 45 ° of the direction of the gradient of the target pixel, the target pixel is determined to have connectivity.
【0051】一方、RGB毎の方向性算出手段(以下、
方向性算出手段という)84は、同一注目画素に関する
R、G、Bの3つの画像データについて、テンプレート
78を用いて同様にグラディエントを計算し、図7に示
すように、R、G、B毎の方向性を算出する。On the other hand, directivity calculating means for each of RGB (hereinafter, referred to as “direction calculating means”)
The directionality calculating means) 84 similarly calculates gradients for the three image data of R, G, and B for the same pixel of interest using the template 78, and as shown in FIG. Is calculated.
【0052】エッジ部判定・抽出手段86は、連結性算
出手段82および方向性算出手段84でそれぞれ算出さ
れた注目画素の連結性およびRGB毎の方向性から、エ
ッジ部の判定および抽出を行う。注目画素が連結性を有
し、かつRGB毎の方向性が45°以内の方向性を有す
る場合に、当該注目画素は、エッジ部であると判定さ
れ、エッジ部として残すこととされ、そうでない場合に
は捨てるものとされる。ここでRGB毎の方向性が45
°以内の方向性を有するとは、注目するチャンネル、例
えばGに注目するとき、図7に示すように、Rの方向も
Bの方向もGの方向に対し45°以内であることをい
う。The edge portion judging / extracting means 86 judges and extracts an edge portion from the connectivity of the pixel of interest calculated by the connectivity calculating means 82 and the directivity calculating means 84 and the directionality for each of RGB. When the pixel of interest has connectivity and the directionality of each RGB is within 45 °, the pixel of interest is determined to be an edge part, is left as an edge part, and is not so. In that case, it is discarded. Here, the directionality of each RGB is 45
Having a directivity within ° means that when focusing on a channel of interest, for example, G, both the directions of R and B are within 45 ° with respect to the direction of G, as shown in FIG.
【0053】こうしてエッジ部であると判定された注目
画素について、グラディエント算出手段80で算出され
た、そのグラディエントの方向をエッジの方向といい、
グラディエントの大きさをエッジの強度という。このエ
ッジの強度はエッジの傾きを表しており、強度の大きい
エッジは傾きの大きいクッキリしたエッジであると言え
る。従って、この強度を用いて、画像のシャープネス強
調や粒状抑制をする際の程度、すなわち強度を決めるゲ
インをコントロールすることができる。なお、エッジ部
であると判定されなかった注目画素については、グラデ
ィエントの強度は0とするものとする。例えばエッジ部
では画像データの高周波成分のゲインをグラディエント
の強度に応じて大きくして画像の鮮鋭度を強調し、エッ
ジ部を含まない平坦部(粒状部)では画像データの中周
波成分のゲインをグラディエントの強度に応じて小さく
して、画像の粒状によるザラツキなどを抑制することが
できる。For the pixel of interest determined to be an edge in this way, the direction of the gradient calculated by the gradient calculating means 80 is called the direction of the edge.
The size of the gradient is called edge strength. The edge strength indicates the slope of the edge, and an edge having a large strength can be said to be a sharp edge having a large slope. Therefore, using this intensity, it is possible to control the degree of sharpness enhancement and graininess suppression of an image, that is, the gain that determines the intensity. Note that the gradient intensity is set to 0 for a target pixel that is not determined to be an edge portion. For example, in the edge portion, the gain of the high frequency component of the image data is increased according to the gradient intensity to enhance the sharpness of the image, and in the flat portion (granular portion) not including the edge portion, the gain of the medium frequency component of the image data is increased. By reducing the intensity according to the intensity of the gradient, it is possible to suppress roughness or the like due to the granularity of the image.
【0054】より詳細には、所定グライディエント強度
までは、グライディエント強度に応じて1.0より小さ
い値から1.0より大きい値まで増大して、所定グライ
ディエント強度より大きい範囲では一定となる関数を中
周波成分のゲインとし、この中周波成分のゲインとほぼ
相似でこの中周波成分のゲインより大きい値をとる関数
を高周波成分のゲインとする中・高周波ゲイン制御のた
めのルックアップテーブル(LUT)を用意し、エッジ
部のシャープネス強調は、グラディエントの強度をエッ
ジの強度と考え、グラディエント強度に応じて中・高周
波成分のゲイン制御LUTによってゲイン強度を算出す
る。非エッジ部では、グラディエント強度を0と考え
て、同様にゲイン強度を算出する。こうして、注目画素
のグラディエント強度に応じたゲイン制御を行う。エッ
ジ部では、中・高周波成分とも強調することにより、シ
ャープネスを強調する。エッジ強度の大きい画素ほど強
いシャープネスをかけることになる。この時、シャープ
ネス強調に伴う粒状の荒れを抑制するために、中周波成
分のゲインは高周波成分のゲインよりも小さくする。非
エッジ部では、特に、この中周波成分のゲインを1.0
より小さくすることにより、粒状性の悪いフィルムにお
いても、効果的に粒状を抑制できる。同時に、シャープ
ネス感を落とさないために高周波成分のゲインは1.0
より大きくする。この時、エッジ部のゲインよりやや弱
いゲインをかけることにより、エッジ感のあるシャープ
ネス画像を得ることができる。さらに、注目画素のネガ
濃度を算出して、アンダー露光の場合には、粒状抑制を
より強くかけるようにしてもよい。More specifically, up to a predetermined gradient intensity, the value increases from a value smaller than 1.0 to a value larger than 1.0 according to the gradient intensity. A look for medium / high frequency gain control, where the function that becomes constant is the gain of the medium frequency component, and the function that is similar to the gain of this medium frequency component and takes a value larger than the gain of this medium frequency component is the gain of the high frequency component. An up-table (LUT) is prepared, and the sharpness enhancement of the edge portion considers the intensity of the gradient as the intensity of the edge, and calculates the gain intensity by the gain control LUT of the middle and high frequency components according to the gradient intensity. At the non-edge portion, the gradient intensity is considered to be 0, and the gain intensity is calculated similarly. Thus, gain control is performed according to the gradient intensity of the pixel of interest. At the edge portion, the sharpness is enhanced by enhancing both the middle and high frequency components. A pixel having a larger edge strength has a stronger sharpness. At this time, the gain of the medium frequency component is made smaller than the gain of the high frequency component in order to suppress granular roughness accompanying sharpness enhancement. In the non-edge portion, particularly, the gain of this medium frequency component is set to 1.0.
By making the film smaller, the graininess can be effectively suppressed even in a film having poor graininess. At the same time, the gain of the high-frequency component is set to 1.0 in order to maintain the sharpness.
Make it bigger. At this time, a sharpness image with a sense of edge can be obtained by applying a gain slightly weaker than the gain of the edge portion. Further, the negative density of the target pixel may be calculated, and in the case of underexposure, the granularity may be more strongly suppressed.
【0055】エッジ部の判定、抽出が行われた画像デー
タは、画像処理ブロック72に送られる。画像処理ブロ
ック72では、シャープネス強調や粒状抑制その他の画
像処理がおこなわれる。その後、画像処理済の画像デー
タは、画像データ変換部56に入力されて、画像出力用
画像データに変換された後、画像処理装置14から、画
像記録装置16に出力される。The image data whose edge has been determined and extracted is sent to the image processing block 72. In the image processing block 72, sharpness enhancement, graininess suppression, and other image processing are performed. Thereafter, the image data that has been subjected to the image processing is input to the image data conversion unit 56, converted into image output image data, and then output from the image processing device 14 to the image recording device 16.
【0056】画像記録装置16は、入力画像データに応
じて感光材料(印画紙)を露光して潜像を記録するプリ
ンタ(焼付装置)と、露光済の感光材料に所定の処理を
施してプリントとして出力するプロセサ(現像装置)と
を有する。プリンタでは、例えば、感光材料を仕上がり
プリントに応じた所定長に切断した後に、バックプリン
トを記録し、次いで、感光材料の分光感度特性に応じた
R露光、G露光およびB露光の3種の光ビームを処理装
置14から出力された画像データに応じて変調して主走
査方向に偏向するとともに、主走査方向と直交する副走
査方向に感光材料を搬送することにより、前記光ビーム
で感光材料を2次元的に走査露光して潜像を記録し、プ
ロセサに供給する。潜像が形成された感光材料を受け取
ったプロセサは、発色現像、漂白定着、水洗等の所定の
湿式現像処理を行い、乾燥して仕上がりプリントとし、
フィルム1本分等の所定単位に仕分けて集積する。The image recording device 16 is a printer (printing device) for exposing a photosensitive material (printing paper) in accordance with input image data to record a latent image, and a printer for performing a predetermined process on the exposed photosensitive material. And a processor (developing device) that outputs the result. In a printer, for example, after cutting a photosensitive material into a predetermined length corresponding to a finished print, a back print is recorded, and then three types of light, R exposure, G exposure, and B exposure, according to the spectral sensitivity characteristics of the photosensitive material. The light beam is modulated in accordance with the image data output from the processing device 14 and is deflected in the main scanning direction, and the photosensitive material is conveyed in the sub-scanning direction orthogonal to the main scanning direction. A latent image is recorded by two-dimensional scanning exposure and supplied to a processor. The processor that has received the photosensitive material on which the latent image has been formed performs a predetermined wet development process such as color development, bleach-fixing, and washing with water, and then dry to obtain a finished print.
The sheets are sorted into a predetermined unit such as one film and accumulated.
【0057】以上、本発明の画像処理装置およびデジタ
ルフォトプリンタの作用を本発明の画像処理方法を含め
て基本的に説明したが、以下に、特に、本発明の画像処
理方法について図8を参照して説明する。図8は、上述
したエッジ部抽出手段70において実施される本発明の
画像処理方法の各処理を示すフローチャートである。図
8において、step1で、注目画素のグラディエント
の方向および強度を計算する。step2で、注目画素
のグラディエントの方向と90°の方向の2つの隣接画
素のグラディエントを計算しその方向性をチェックす
る。step3で、2つの隣接画素と注目画素の方向を
比較し、いずれもが45°以内の方向性を有するときは
連結性を有するとする。step4で、RGB各チャン
ネル毎に注目画素のグラディエントを計算し、その方向
性をチェックする。最後にstep5で、前に求めた連
結性とRGB毎の方向性から注目画素がエッジ部である
か否かの判定を行う。The operation of the image processing apparatus and the digital photo printer according to the present invention has been basically described above, including the image processing method according to the present invention. The image processing method according to the present invention will be described below with reference to FIG. I will explain. FIG. 8 is a flowchart showing each processing of the image processing method of the present invention performed by the above-described edge part extracting means 70. In FIG. 8, in step 1, the gradient direction and intensity of the pixel of interest are calculated. In step 2, the gradient of two adjacent pixels in the direction of the gradient of the target pixel and the direction of 90 ° is calculated, and the directionality is checked. In step 3, the directions of two adjacent pixels and the pixel of interest are compared, and if both have a directionality within 45 °, it is determined that there is connectivity. In step 4, the gradient of the target pixel is calculated for each of the R, G, and B channels, and the direction is checked. Finally, in step 5, it is determined whether or not the pixel of interest is an edge based on the previously obtained connectivity and the directionality for each of RGB.
【0058】上記実施形態では、注目画素を中心とし、
周りの8個の画素を周辺画素とする3×3画素の画像デ
ータに対して、図10に示す8方向をそれぞれ示す8種
の3×3のテンプレートを用い、連結性の有無を判定す
るために用いる近傍画素の取り方として、周辺画素の中
から注目画素のグラディエントの方向に90°の方向の
両側の2つの隣接画素を選択し、連結性の判定条件、す
なわち連結性ありの判定条件として、これらの両側の隣
接画素のグラディエントの方向が注目画素のグラディエ
ントの方向となす角がともに45°以内であること、エ
ッジ部の判定条件、すなわちエッジ部であるとする条件
として連結性があり、RGB毎の方向性が45°以内の
方向性を有することを選択する場合を代表例として説明
しているが、本発明はこれに限定されず、注目画素およ
び周辺画素や連結性の有無を判定するための近傍画素は
どのような取り方をしてもよいし、注目画素および周辺
画素の取り方に対応していれば、テンプレートはどのよ
うなテンプレートを用いてもよいし、エッジ部の判定が
可能であれば、連結性の判定条件やエッジ部の判定条件
はどのように設定してもよい。In the above embodiment, the pixel of interest is the center,
In order to determine the presence / absence of connectivity with respect to image data of 3 × 3 pixels having eight surrounding pixels as peripheral pixels, using eight types of 3 × 3 templates respectively indicating eight directions shown in FIG. As a method of taking the neighboring pixels used in the above, two neighboring pixels on both sides in the direction of 90 ° in the direction of the gradient of the pixel of interest are selected from the peripheral pixels, and the connectivity determination condition, that is, the connectivity determination condition The angle between the direction of the gradient of the adjacent pixels on both sides thereof and the direction of the gradient of the pixel of interest is both within 45 °, the determination condition of the edge portion, that is, connectivity as a condition to be the edge portion, Although the case of selecting that the directionality for each RGB has a directionality within 45 ° has been described as a representative example, the present invention is not limited to this, and the pixel of interest and peripheral pixels and connectivity are not limited to this. Any template may be used for determining the presence / absence of neighboring pixels, and any template may be used as long as it corresponds to the method of taking the target pixel and surrounding pixels. As long as the determination of the portion is possible, the determination condition of the connectivity and the determination condition of the edge portion may be set in any manner.
【0059】例えば、本発明に用いられる注目画素とそ
の周辺画素としては、そのサイズや形状には特に制限が
なく、3×3画素の他、5×5、7×7、9×9等の正
方形画素でもよいし、3×5や3×7や5×9等の正方
形でない矩形画素でも、任意の形状の画素でもよい。従
って、周辺画素も、注目画素の周囲の8画素の他、14
画素、20画素、24画素など、もっと広い画素範囲に
わたって見るようにしてもよい。また、本発明に用いら
れるテンプレートも、そのサイズや形状や数には特に制
限がなく、3×3の正方マトリックスの他、用いられる
注目画素とその周辺画素に応じて5×5や7×7や9×
9等の正方マトリックスでも、3×5や3×7や5×9
等の正方でない矩形マトリックスでも、その他の形状の
テンプレートでもよい。テンプレートの数も、8方向を
示す8種類に限定されず、これ以上でも、これ以下でも
よい。For example, the size and shape of the pixel of interest and its surrounding pixels used in the present invention are not particularly limited, and may be 5 × 5, 7 × 7, 9 × 9, etc. in addition to 3 × 3 pixels. It may be a square pixel, a non-square rectangular pixel such as 3 × 5, 3 × 7, or 5 × 9, or a pixel of any shape. Therefore, the surrounding pixels are also 14 pixels in addition to the 8 pixels around the pixel of interest.
The image may be viewed over a wider pixel range such as pixels, 20 pixels, and 24 pixels. The size, shape, and number of the templates used in the present invention are not particularly limited. In addition to the 3 × 3 square matrix, 5 × 5 or 7 × 7 depending on the target pixel used and its surrounding pixels. And 9x
Even a square matrix such as 9 can be 3 × 5, 3 × 7 or 5 × 9
Or a non-square rectangular matrix, or a template of another shape. The number of templates is not limited to the eight types indicating eight directions, and may be more or less.
【0060】また、連結性の有無を判定するための近傍
画素の取り方としては、そのサイズや形状には特に制限
がなく、注目画素のグラディエントの方向に直交する両
側の2つの隣接画素の他、周辺の何画素かを同時に見る
ようにしてもよく、例えば、注目画素を中心とする、上
述した正方形画素や正方形でない矩形画素や任意の形状
の画素の注目画素を除く画素でもよいが、注目画素を中
心とし、この注目画素の(グラディエントの)方向と直
交する方向により多く存在する1×3画素、1×5画
素、3×5画素、3×7画素および、図12に示すよう
に5×9画素などの矩形画素から中心画素を除いた画素
とするのが好ましい。この理由は、画像のエッジは、あ
る長さを持つので、連結性を見るためには、エッジの長
さ方向、すなわち注目画素の方向に直交する方向に広く
取るのがよいからである。なお、注目画素のエッジの方
向が斜めの場合、これに直交する斜め方向に対して複数
の画素を取るが、それが複数列の場合、例えば、3×5
画素を取ると、斜めの5画素の並びの間に4画素の並び
が存在するが、近傍画素としては、これらを全て含めた
全23画素を取るのが好ましい。There are no particular restrictions on the manner in which neighboring pixels are determined for determining the presence or absence of connectivity. The size and shape of the neighboring pixels are not particularly limited, and two adjacent pixels on both sides orthogonal to the gradient direction of the target pixel may be used. It is also possible to view several peripheral pixels at the same time. For example, pixels other than the above-described square pixels, non-square rectangular pixels, and pixels of any shape except for the pixel of interest around the pixel of interest may be used. With the pixel as the center, there are 1 × 3 pixels, 1 × 5 pixels, 3 × 5 pixels, 3 × 7 pixels, and 5 × 5 pixels as shown in FIG. 12 which are more present in the direction orthogonal to the direction (gradient) of the target pixel. It is preferable that the pixel be a pixel obtained by removing a central pixel from a rectangular pixel such as a × 9 pixel. The reason for this is that the edge of the image has a certain length, and therefore, it is better to widen it in the length direction of the edge, that is, in the direction orthogonal to the direction of the pixel of interest, in order to check the connectivity. When the direction of the edge of the target pixel is oblique, a plurality of pixels are taken in an oblique direction orthogonal to the direction.
When pixels are taken, there is an arrangement of 4 pixels between the arrangement of 5 diagonal pixels, but it is preferable to take all 23 pixels including all of them as neighboring pixels.
【0061】また、本発明において、連結性ありとする
連結性の判定条件としては、注目画素のグラディエント
の方向と注目画素の近傍画素のグラディエントの方向を
比較し、近傍画素のうちの所定数の画素の方向が所定条
件に一致することであるが、近傍画素の方向の50%以
上が注目画素の方向と45°以内である場合であるのが
好ましい。すなわち、連結性の判定ための近傍画素中の
グディエントの方向性が注目画素と所定条件で一致する
所定数の画素の割合は、少なくとも50%であればよ
く、より好ましくは70%以上、さらに好ましくは80
%以上、最も好ましくは90%以上であり、もちろん1
00%でもよいが、後述するように、種々の条件に応じ
て変えることができる。また、近傍画素の方向性の所定
条件は、45°以内であるのがよく、より好ましくは3
0°以内であるのがよく、もちろん0°(完全一致)で
も、0°〜45°の範囲内のいずれの角度以内としても
よいが、連結性の抽出もれを無くして判定精度を上げる
ためには、ある幅をもつのが好ましい。この点でも、4
5°以内や30°以内が好ましい。この所定条件も、後
述する種々の条件に応じて変えることができる。もちろ
ん、上述したような、注目画素の両側の2つの隣接画素
などの連結性の判定ための近傍画素のグラディエントの
方向の全てが45°以内というは、極めて好ましい連結
性判定条件の1つである。Further, in the present invention, as a condition for judging that there is connectivity, the gradient direction of the target pixel is compared with the gradient direction of the neighboring pixels of the target pixel, and a predetermined number of neighboring pixels are determined. Although the direction of the pixel matches the predetermined condition, it is preferable that 50% or more of the directions of the neighboring pixels are within 45 ° of the direction of the target pixel. That is, the ratio of the predetermined number of pixels in which the directionality of the gradient in the neighboring pixels for determining the connectivity matches the target pixel under the predetermined condition should be at least 50%, more preferably 70% or more, and still more preferably. Is 80
% Or more, most preferably 90% or more, and of course 1%
Although it may be 00%, it can be changed according to various conditions as described later. Further, the predetermined condition of the direction of the neighboring pixels is preferably within 45 °, more preferably 3 °.
It is preferable that the angle be within 0 °, and of course, it may be 0 ° (perfect match) or within any angle within the range of 0 ° to 45 °. Preferably have a certain width. Also in this regard, 4
It is preferable to be within 5 ° or 30 °. This predetermined condition can be changed according to various conditions described later. Of course, as described above, one of the extremely preferable connectivity determination conditions is that all the gradient directions of neighboring pixels for determining connectivity such as two adjacent pixels on both sides of the target pixel are within 45 °. .
【0062】また、エッジ部であると判定するエッジ部
の判定条件の1つであるRGB毎の方向性の条件は、上
述の連結性判定のための近傍画素の方向性の所定条件と
全く同様に、0°〜45°の範囲内のいずれの角度以内
としてもよいが、上記実施形態の45°以内の方向性が
好ましく、より好ましくは、30°以内の方向性であ
る。この方向性の条件も、後述する種々の条件に応じて
変えることができる。さらに、連結性の判定のための近
傍画素の方向性の所定条件とエッジ部の判定のためのR
GB毎の方向性の条件は、上記実施形態では45°以内
と同一であるが、異なっていてもよい。The directional condition for each RGB, which is one of the conditions for determining an edge portion to be determined to be an edge portion, is exactly the same as the above-described predetermined condition for directionality of neighboring pixels for connectivity determination. Although the angle may be within any angle within the range of 0 ° to 45 °, the directionality within 45 ° of the above embodiment is preferable, and the directionality within 30 ° is more preferable. The condition of this directionality can also be changed according to various conditions described later. Further, a predetermined condition of the directivity of neighboring pixels for determining connectivity and R
The directional condition for each GB is the same as within 45 ° in the above embodiment, but may be different.
【0063】ここで、上述したように、テンプレートの
サイズ(形状)や数、近傍画素の取り方、連結性の判定
条件、すなわち近傍画素の方向性の所定条件および近傍
画素中の方向性の所定条件を満たす画素の割合、および
RGB毎の方向性の条件は、様々に変更可能であるが、
例えば、原稿種(高感度ネガフィルム、低感度ネガフィ
ルム、リバーサルフィルム、反射原稿、デジタルカメラ
によって撮影された画像等)、原稿サイズ(240(A
PS)、110、135、120および220(ブロー
ニー)等)、プリント倍率、プリントサイズ、カメラ種
および撮影時の露光条件(アンダ−、オーバー)など項
目に応じて変えてもよく、これらの項目の少なくとも1
つに応じて決定されるのが好ましい。なお、これらの項
目の少なくとも1つに応じた上記種々の条件の決定の仕
方も限定的ないことはもちろんである。ここで、これら
の項目のうち、例えば、プリント倍率および原稿種は、
近傍画素の取り方や、連結性の判定条件およびRGB毎
の方向性の条件などの条件に大きく影響するが、プリン
ト倍率が変わった場合には、主として近傍画素の取り方
を変え、これらの条件は変えない方が好ましく、原稿
種、例えば、フィルム感度が変わった場合には、主とし
てこれらの条件を変え、すなわち高感度フィルムでは低
感度フィルムより条件を厳しくし、近傍画素の取り方は
変えない方が好ましい。さらに、撮影時の露光条件で
は、アンダー露光の場合には主としてこれらの条件を甘
くし、近傍画素の取り方は変えない方が好ましい。Here, as described above, the size (shape) and number of the template, the method of taking neighboring pixels, the condition for determining connectivity, that is, the prescribed condition of directivity of neighboring pixels and the prescribed condition of directivity in neighboring pixels. The ratio of the pixels satisfying the condition and the condition of the directionality for each RGB can be variously changed.
For example, the document type (high-sensitivity negative film, low-sensitivity negative film, reversal film, reflection document, image captured by a digital camera, etc.), document size (240 (A
PS), 110, 135, 120 and 220 (Browney), print magnification, print size, camera type, and exposure conditions (under, over) during shooting. At least one
Preferably, it is determined according to the following. In addition, it goes without saying that the method of determining the various conditions according to at least one of these items is not limited. Here, among these items, for example, the print magnification and the document type are
This greatly affects conditions such as how to take neighboring pixels, conditions for determining connectivity, and conditions for directionality for each of RGB. However, when the print magnification changes, the way to take neighboring pixels changes mainly. It is preferable not to change the original type, for example, when the film speed changes, these conditions are mainly changed, that is, the conditions are stricter in the high-speed film than in the low-speed film, and the way of taking the neighboring pixels is not changed. Is more preferred. Furthermore, it is preferable that, under the exposure conditions at the time of photographing, in the case of under-exposure, these conditions are mainly reduced and the way of taking the neighboring pixels is not changed.
【0064】図9に、本実施形態の効果を従来と比較し
て示す。まず、図9(a)は、従来の場合で、RGB毎
の方向性の判定はせず、隣接画素についても、どちらか
一方が許容内(45°以内)として判定したものであ
る。この場合は、本来のエッジ部である白線の他に粒状
部を表す白い粒子が多数残っている。これに対し、
(b)は、RGB毎の方向性は見ないが、隣接画素の両
方とも許容内(45°以内)としたものである。これに
よれば、エッジ部の判定がより正確となり、かなり粒子
が減っている。また、(c)は、隣接画素については従
来と同じで、隣接画素のどちらか一方が許容内としたも
のであるが、これに加えてRGB毎の方向性を判定する
ようにしたものである。すなわち、注目チャンネル以外
の両方のチャンネルが許容内の方向性を持つとした場合
である。この場合も粒子がかなり除去されている。FIG. 9 shows the effect of this embodiment in comparison with the conventional one. First, FIG. 9A shows a conventional case in which the directionality of each of RGB is not determined, and one of adjacent pixels is determined to be within the allowable range (within 45 °). In this case, a large number of white particles representing granular portions remain in addition to the white line which is the original edge portion. In contrast,
In (b), the directionality of each RGB is not seen, but both of the adjacent pixels are within the allowable range (within 45 °). According to this, the determination of the edge portion becomes more accurate, and the number of particles is considerably reduced. (C) is the same as the conventional case for the adjacent pixels, in which one of the adjacent pixels is within the allowable range. In addition, the direction of each RGB is determined. . In other words, this is the case where both channels other than the channel of interest have an acceptable directionality. Again, considerable particles have been removed.
【0065】また、図9(d)は、上に説明した本実施
形態の場合で(b)と(c)を一緒にしたものである。
すなわち、隣接画素については、両方とも許容内とし、
かつRGB毎の方向性(注目チャンネル以外の両方のチ
ャンネルが許容内)も見る様にしたものである。この場
合は、より一層エッジ部判定が正確となり、粒子がほと
んど残っていない。さらに、(e)は、隣接画素の両方
が同じ方向、かつRGBについても注目チャンネル以外
の両方が同じ方向としたものである。これも効果は
(d)とほぼ同じである。FIG. 9D shows the case of the present embodiment described above in which (b) and (c) are combined.
That is, with respect to adjacent pixels, both are within tolerance,
In addition, the directionality of each RGB (both channels other than the channel of interest are within the allowable range) is also viewed. In this case, the edge portion determination becomes more accurate, and almost no particles remain. Further, (e) shows that both of the adjacent pixels have the same direction, and that of RGB also has the same direction except for the channel of interest. The effect is almost the same as that of FIG.
【0066】このように本実施形態によれば、隣接画素
の両方とも許容内とするとともにRGB毎の方向性をも
見るようにしたため、従来より精度よくエッジ部の抽出
をすることができるようになった。As described above, according to the present embodiment, both of the adjacent pixels are within the allowable range and the directionality of each RGB is viewed, so that the edge portion can be extracted with higher accuracy than in the related art. became.
【0067】以上、本発明の画像処理方法および装置に
ついて詳細に説明したが、本発明は以上の例には限定は
されず、本発明の要旨を逸脱しない範囲において、各種
の改良や変更を行ってもよいのはもちろんである。Although the image processing method and apparatus of the present invention have been described in detail above, the present invention is not limited to the above examples, and various improvements and modifications can be made without departing from the gist of the present invention. Of course, you may.
【0068】[0068]
【発明の効果】以上、説明した通り本発明によれば、従
来より精度よくエッジ部を抽出できるようになり、高品
質な出力画像を得ることができるようになった。As described above, according to the present invention, it is possible to extract an edge portion more accurately than in the past, and to obtain a high quality output image.
【図1】 本発明の画像処理方法を実施する画像処理装
置を適用するデジタルフォトプリンタの一実施例のブロ
ック図である。FIG. 1 is a block diagram of an embodiment of a digital photo printer to which an image processing apparatus that performs an image processing method of the present invention is applied.
【図2】 (a)は、図1に示されるデジタルフォトプ
リンタに装着されるキャリアの一実施例を説明するため
の概略斜視図であり、(b)は、図1に示されるデジタ
ルフォトプリンタのイメージセンサの一実施例の概念図
である。2A is a schematic perspective view for explaining one embodiment of a carrier mounted on the digital photo printer shown in FIG. 1, and FIG. 2B is a digital photo printer shown in FIG. 1 is a conceptual diagram of an embodiment of the image sensor of FIG.
【図3】 図1に示されるデジタルフォトプリンタの本
発明の画像処理方法を実施する画像処理装置の一実施例
のブロック図である。FIG. 3 is a block diagram of an embodiment of an image processing apparatus that performs the image processing method of the present invention for the digital photo printer shown in FIG.
【図4】 図3に示される画像処理装置のファインスキ
ャン画像データ処理部の画像処理部の一実施例のブロッ
ク図である。FIG. 4 is a block diagram of an embodiment of an image processing unit of a fine scan image data processing unit of the image processing apparatus shown in FIG.
【図5】 図4に示されるエッジ部抽出手段の概略を示
すブロック図である。FIG. 5 is a block diagram showing an outline of an edge portion extracting means shown in FIG. 4;
【図6】 (a)〜(d)は、いずれも注目画素とその
隣接画素を示す説明図である。FIGS. 6A to 6D are explanatory diagrams each showing a target pixel and its adjacent pixels.
【図7】 (a)〜(c)は、本実施形態におけるRG
B毎の方向性判定を示す説明図である。FIGS. 7A to 7C show RGs according to the present embodiment.
It is explanatory drawing which shows the directionality determination for every B.
【図8】 本実施形態におけるエッジ部抽出方法の概略
を示すフローチャートである。FIG. 8 is a flowchart illustrating an outline of an edge part extracting method according to the present embodiment.
【図9】 本実施形態の効果を従来と比較して示す図面
代用写真であり、(a)は従来、(b)〜(e)は本実
施形態である。FIGS. 9A and 9B are photographs instead of drawings showing the effects of the present embodiment in comparison with the conventional case, in which FIG. 9A is the conventional case and FIGS. 9B to 9E are the present embodiment.
【図10】 (a1)〜(a8)は、エッジ部抽出に用
いられるテンプレートの一例を示す説明図である。FIGS. 10 (a1) to (a8) are explanatory diagrams showing an example of a template used for edge portion extraction.
【図11】 (a)は、注目画素とその周辺画素からな
る3×3の画像の一例を示す説明図であり、(b)は、
(a)の注目画素のグラディエントの方向を示す説明図
である。FIG. 11A is an explanatory diagram illustrating an example of a 3 × 3 image including a target pixel and peripheral pixels thereof, and FIG.
FIG. 3A is an explanatory diagram illustrating a direction of a gradient of a pixel of interest in FIG.
【図12】 本発明において注目画素に対して連結性判
定のために選択される近傍画素の一例を示す説明図であ
る。FIG. 12 is an explanatory diagram illustrating an example of a neighboring pixel selected for connectivity determination with respect to a target pixel in the present invention.
10 デジタルフォトプリンタ 12 スキャナ 14 (画像)処理装置 16 画像記録装置 18 操作系 18a キーボード 18b マウス 20 モニタ 22 光源 24 可変絞り 26 拡散ボックス 28 キャリア 30 結像レンズユニット 32 イメージセンサ 32R、32G、32B ラインCCDセンサ 34 A/D変換器 36 スキャナ補正部 38 LOG変換器 40 プレスキャン(フレーム)メモリ 42 ファインスキャン(フレーム)メモリ 44 プレスキャンデータ処理部 46 ファインスキャンデータ処理部 48 条件設定部 50、54 画像データ変換部 58 セットアップ部 60 キー補正部 62 パラメータ統合部 64 色濃度階調変換手段 66 彩度変換手段 68 電子変倍(デジタル倍率変換)手段 70 エッジ部抽出手段 72 画像処理ブロック 74 色調変換手段 76 輝度信号生成手段 78 テンプレート 80 グラディエント算出手段 81 グラディエント記憶手段 82 連結性算出手段 84 (RGB毎の)方向性算出手段 86 エッジ部判定・抽出手段 DESCRIPTION OF SYMBOLS 10 Digital photo printer 12 Scanner 14 (Image) processing device 16 Image recording device 18 Operation system 18a Keyboard 18b Mouse 20 Monitor 22 Light source 24 Variable aperture 26 Diffusion box 28 Carrier 30 Imaging lens unit 32 Image sensor 32R, 32G, 32B Line CCD Sensor 34 A / D converter 36 Scanner correction unit 38 LOG converter 40 Prescan (frame) memory 42 Finescan (frame) memory 44 Prescan data processing unit 46 Fine scan data processing unit 48 Condition setting unit 50, 54 Image data Conversion unit 58 Setup unit 60 Key correction unit 62 Parameter integration unit 64 Color density gradation conversion means 66 Saturation conversion means 68 Electronic scaling (digital magnification conversion) means 70 Edge part extraction means 72 Processing block 74 the color tone conversion means 76 the luminance signal generating means 78 template 80 gradient calculating means 81 gradient storing means 82 connected with calculation means 84 (per RGB) direction calculation means 86 edge determination and extraction means
─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───
【手続補正書】[Procedure amendment]
【提出日】平成11年4月28日(1999.4.2
8)[Submission date] April 28, 1999 (1999.4.2
8)
【手続補正1】[Procedure amendment 1]
【補正対象書類名】図面[Document name to be amended] Drawing
【補正対象項目名】図9[Correction target item name] Fig. 9
【補正方法】変更[Correction method] Change
【補正内容】[Correction contents]
【図9】 FIG. 9
Claims (12)
行う画像処理方法であって、 画像処理対象である前記カラー画像信号によって構成さ
れる画像の注目画素とその周辺画素の画素値より、該注
目画素とその周辺画素の、エッジの方向と強度を表すグ
ラディエントを算出して記憶し、 該記憶されたグラディエントの方向より、前記注目画素
とその周辺画素の連結性を算出するとともに、 各R,G,Bチャンネル毎に、前記注目画素のグラディ
エントを算出することにより、該注目画素の各RGB毎
の方向性を算出し、 前記連結性および各RGB毎の方向性から、前記注目画
素が、エッジ部であるか否かを判定することによって、
エッジ部抽出を行うことを特徴とする画像処理方法。1. An image processing method for performing predetermined image processing on a color image signal, comprising: calculating a pixel value of a target pixel of an image formed by the color image signal to be processed and pixel values of peripheral pixels thereof A gradient representing the direction and intensity of the edge of the target pixel and its surrounding pixels is calculated and stored. From the stored direction of the gradient, the connectivity between the target pixel and its surrounding pixels is calculated, and each R is calculated. , G, and B channels, the gradient of the pixel of interest is calculated to calculate the directionality of the pixel of interest for each of RGB, and from the connectivity and the directionality of each of the RGB, the pixel of interest is By determining whether or not it is an edge portion,
An image processing method comprising extracting an edge portion.
出するにあたり、該注目画素のグラディエントの方向
と、該注目画素の近傍画素のグラディエントの方向を比
較し、該近傍画素のうちの所定数の画素の方向が所定条
件に一致した場合に連結性ありとすることを特徴とする
請求項1に記載の画像処理方法。2. Computing the connectivity between the target pixel and its peripheral pixels by comparing the direction of the gradient of the target pixel with the direction of the gradient of neighboring pixels of the target pixel. 2. The image processing method according to claim 1, wherein the connection is established when the directions of the number of pixels match predetermined conditions.
が所定条件に一致した場合とは、前記近傍画素の方向の
50%以上が前記注目画素の方向と45°以内である場
合であることを特徴とする請求項2に記載の画像処理方
法。3. The case where the directions of a predetermined number of pixels among the neighboring pixels match a predetermined condition is that 50% or more of the directions of the neighboring pixels are within 45 ° of the direction of the target pixel. 3. The image processing method according to claim 2, wherein:
し、該注目画素のグラディエントの方向と直交する方向
により多く存在する1×3画素、1×5画素、3×5画
素、3×7画素および5×9画素のいずれか1つから中
心画素を除いた画素であることを特徴とする請求項2ま
たは3に記載の画像処理方法。4. The 1 × 3 pixel, the 1 × 5 pixel, the 3 × 5 pixel, and the 3 × 7 pixel which are present in the direction perpendicular to the direction of the gradient of the pixel of interest with the pixel of interest as the center, The image processing method according to claim 2, wherein the pixel is a pixel obtained by removing a center pixel from one of a pixel and a 5 × 9 pixel.
条件に方向が一致した前記画素の所定数および前記所定
数の画素の方向が一致した前記所定条件を含む画素の連
結性の判定条件は、原稿種、原稿サイズ、プリント倍
率、カメラ種および露光条件の少なくとも1つに応じて
決定されることを特徴とする請求項2〜4のいずれかに
記載の画像処理方法。5. A method for taking the neighboring pixels, a predetermined number of the pixels whose directions match the predetermined conditions, and a condition for determining the connectivity of pixels including the predetermined conditions where the directions of the predetermined number of pixels match. 5. The image processing method according to claim 2, wherein the image processing method is determined according to at least one of a document type, a document size, a print magnification, a camera type, and exposure conditions.
出するにあたり、該注目画素のグラディエントの方向
と、90°の方向をなす両側の隣接画素のグラディエン
トの方向が、前記注目画素のグラディエントの方向とな
す角が、ともに45°以内である場合に連結性ありとす
ることを特徴とする請求項1に記載の画像処理方法。6. When calculating the connectivity between the target pixel and its surrounding pixels, the gradient direction of the target pixel and the gradient directions of adjacent pixels on both sides forming a 90 ° direction are determined by the gradient of the target pixel. 2. The image processing method according to claim 1, wherein the connection is established when the angles formed by the directions are within 45 degrees.
行う画像処理装置であって、 画像処理対象である前記カラー画像信号によって構成さ
れる画像の注目画素とその周辺画素の画素値より、該注
目画素とその周辺画素の、エッジの方向と強度を表すグ
ラディエントを算出する手段と、 該算出されたグラディエントを記憶する手段と、 該記憶されたグラディエントの方向より、前記注目画素
とその周辺画素の連結性を算出する手段と、 各R,G,Bチャンネル毎に、前記注目画素のグラディ
エントを算出することにより、該注目画素の各RGB毎
の方向性を算出する手段と、 前記連結性および各RGB毎の方向性から、前記注目画
素がエッジ部であるか否かを判定する手段と、を備えた
ことによりエッジ部抽出を行うことを特徴とする画像処
理装置。7. An image processing apparatus for performing predetermined image processing on a color image signal, comprising: determining a target pixel of an image formed by the color image signal to be processed and pixel values of peripheral pixels thereof Means for calculating a gradient representing the direction and intensity of an edge of the pixel of interest and its surrounding pixels; means for storing the calculated gradient; and, from the direction of the stored gradient, the pixel of interest and its surrounding pixels Means for calculating the connectivity of each of the R, G, and B channels, and means for calculating the gradient of the pixel of interest for each of the R, G, and B channels, thereby calculating the directionality of each of the RGB of the pixel of interest. Means for determining whether or not the pixel of interest is an edge portion from the directionality of each of the RGB, thereby performing edge portion extraction. Processing apparatus.
出する手段は、該注目画素のグラディエントの方向と、
該注目画素の近傍画素のグラディエントの方向を比較
し、該近傍画素のうちの所定数の画素の方向が所定条件
に一致した場合に連結性ありとすることを特徴とする請
求項7に記載の画像処理装置。8. The means for calculating the connectivity between the target pixel and its surrounding pixels includes: a direction of a gradient of the target pixel;
The method according to claim 7, wherein the directions of gradients of neighboring pixels of the target pixel are compared, and if the directions of a predetermined number of pixels among the neighboring pixels match a predetermined condition, it is determined that there is connectivity. Image processing device.
が所定条件に一致した場合とは、前記近傍画素の方向の
50%以上が前記注目画素の方向と45°以内である場
合であることを特徴とする請求項8に記載の画像処理装
置。9. The case where the direction of a predetermined number of pixels among the neighboring pixels matches a predetermined condition means that 50% or more of the directions of the neighboring pixels are within 45 ° of the direction of the pixel of interest. The image processing apparatus according to claim 8, wherein:
し、該注目画素のグラディエントの方向と直交する方向
により延在する1×3画素、1×5画素、3×5画素、
3×7画素および5×9画素のいずれか1つから中心画
素を除いた画素であることを特徴とする請求項8または
9に記載の画像処理装置。10. The 1 × 3 pixel, 1 × 5 pixel, 3 × 5 pixel, which extends in a direction orthogonal to the direction of the gradient of the pixel of interest with the pixel of interest as a center.
The image processing apparatus according to claim 8, wherein the pixel is a pixel obtained by removing a central pixel from one of 3 × 7 pixels and 5 × 9 pixels.
定条件に方向が一致した前記画素の所定数および前記所
定数の画素の方向が一致した前記所定条件を含む画素の
連結性の判定条件は、原稿種、原稿サイズ、プリント倍
率、カメラ種および露光条件の少なくとも1つに応じて
決定されることを特徴とする請求項8〜10のいずれか
に記載の画像処理装置。11. A method for obtaining the neighboring pixels, a predetermined number of the pixels whose directions match the predetermined conditions, and a condition for determining the connectivity of pixels including the predetermined conditions where the directions of the predetermined number of pixels match. The image processing apparatus according to claim 8, wherein the image processing apparatus is determined according to at least one of a document type, a document size, a print magnification, a camera type, and exposure conditions.
算出する手段は、該注目画素のグラディエントの方向
と、90°の方向をなす両側の隣接画素のグラディエン
トの方向が、前記注目画素のグラディエントの方向とな
す角が、ともに45°以内である場合に連結性ありとす
ることを特徴とする請求項7に記載の画像処理装置。12. The means for calculating the connectivity between the pixel of interest and its surrounding pixels comprises: 8. The image processing apparatus according to claim 7, wherein the connection is established when the angles formed by the directions of the gradients are both within 45 degrees.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11245999A JP3405266B2 (en) | 1998-04-20 | 1999-04-20 | Image processing method and apparatus |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12530198 | 1998-04-20 | ||
JP10-125301 | 1998-04-20 | ||
JP11245999A JP3405266B2 (en) | 1998-04-20 | 1999-04-20 | Image processing method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000011188A true JP2000011188A (en) | 2000-01-14 |
JP3405266B2 JP3405266B2 (en) | 2003-05-12 |
Family
ID=26451615
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11245999A Expired - Lifetime JP3405266B2 (en) | 1998-04-20 | 1999-04-20 | Image processing method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3405266B2 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001283219A (en) * | 2000-02-17 | 2001-10-12 | Xerox Corp | Template fitting method |
JP2002008030A (en) * | 2000-05-01 | 2002-01-11 | Xerox Corp | Processing method of antialias image |
US6750986B1 (en) | 2000-03-27 | 2004-06-15 | Destiny Technology Corporation | Color image processing method with thin-line detection and enhancement |
US6778296B1 (en) | 2000-03-27 | 2004-08-17 | Destiny Technology Corporation | Color imaging processing method with boundary detection and enhancement |
EP1261195A3 (en) * | 2001-05-24 | 2004-11-17 | Ricoh Company, Ltd. | Image processing method and apparatus and image forming apparatus for reducing moire fringes |
US6822751B1 (en) | 1999-12-10 | 2004-11-23 | Destiny Technology Corporation | Method and system for monochrome multi-beam printing with edge enhancement |
JP2009055591A (en) * | 2007-08-28 | 2009-03-12 | Samsung Electronics Co Ltd | Method and apparatus for detecting and removing pseudo-contour, method and apparatus for verifying whether pixel is contained in the contour, and method and apparatus for calculating simplicity |
US7711202B2 (en) | 2003-07-23 | 2010-05-04 | Marvell International Technology Ltd. | Image enhancement employing partial template matching |
JP2012511168A (en) * | 2008-12-05 | 2012-05-17 | マイクロニック マイデータ アーベー | Image resampling with gradients in microlithographic printing |
EP2709063A1 (en) | 2012-09-13 | 2014-03-19 | Omron Corporation | Image processing device, computer-readable recording medium, and image processing method |
US8923610B2 (en) | 2011-04-06 | 2014-12-30 | Fuji Xerox Co., Ltd. | Image processing apparatus, image processing method, and computer readable medium |
US9836823B2 (en) | 2013-07-30 | 2017-12-05 | Byd Company Limited | Method and device for enhancing edge of image and digital camera |
-
1999
- 1999-04-20 JP JP11245999A patent/JP3405266B2/en not_active Expired - Lifetime
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6822751B1 (en) | 1999-12-10 | 2004-11-23 | Destiny Technology Corporation | Method and system for monochrome multi-beam printing with edge enhancement |
JP2001283219A (en) * | 2000-02-17 | 2001-10-12 | Xerox Corp | Template fitting method |
US6750986B1 (en) | 2000-03-27 | 2004-06-15 | Destiny Technology Corporation | Color image processing method with thin-line detection and enhancement |
US6778296B1 (en) | 2000-03-27 | 2004-08-17 | Destiny Technology Corporation | Color imaging processing method with boundary detection and enhancement |
JP2002008030A (en) * | 2000-05-01 | 2002-01-11 | Xerox Corp | Processing method of antialias image |
JP4676642B2 (en) * | 2000-05-01 | 2011-04-27 | ゼロックス コーポレイション | Anti-aliased image processing device |
EP1261195A3 (en) * | 2001-05-24 | 2004-11-17 | Ricoh Company, Ltd. | Image processing method and apparatus and image forming apparatus for reducing moire fringes |
US7327495B2 (en) | 2001-05-24 | 2008-02-05 | Ricoh Company, Ltd. | Image processing method and apparatus and image forming apparatus for reducing moiré fringes in output image |
US7711202B2 (en) | 2003-07-23 | 2010-05-04 | Marvell International Technology Ltd. | Image enhancement employing partial template matching |
JP2009055591A (en) * | 2007-08-28 | 2009-03-12 | Samsung Electronics Co Ltd | Method and apparatus for detecting and removing pseudo-contour, method and apparatus for verifying whether pixel is contained in the contour, and method and apparatus for calculating simplicity |
JP2012511168A (en) * | 2008-12-05 | 2012-05-17 | マイクロニック マイデータ アーベー | Image resampling with gradients in microlithographic printing |
US8923610B2 (en) | 2011-04-06 | 2014-12-30 | Fuji Xerox Co., Ltd. | Image processing apparatus, image processing method, and computer readable medium |
EP2709063A1 (en) | 2012-09-13 | 2014-03-19 | Omron Corporation | Image processing device, computer-readable recording medium, and image processing method |
JP2014056507A (en) * | 2012-09-13 | 2014-03-27 | Omron Corp | Image processing device, image processing program, computer readable recording medium with the same recorded thereon, and image processing method |
US9836823B2 (en) | 2013-07-30 | 2017-12-05 | Byd Company Limited | Method and device for enhancing edge of image and digital camera |
KR101824978B1 (en) * | 2013-07-30 | 2018-03-22 | 비와이디 컴퍼니 리미티드 | Method and device for enhancing edge of image and digital camera |
Also Published As
Publication number | Publication date |
---|---|
JP3405266B2 (en) | 2003-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6697537B2 (en) | Image processing method and apparatus | |
JP3590265B2 (en) | Image processing method | |
US7447377B2 (en) | Image processing method and apparatus, and image processing program | |
US7173732B2 (en) | Image processing method | |
JP3584389B2 (en) | Image processing method and image processing apparatus | |
JP2001298619A (en) | Method and device for image processing | |
JP2001148780A (en) | Method for setting red-eye correction area and red-eye correction method | |
JP3405266B2 (en) | Image processing method and apparatus | |
JPH11266358A (en) | Image processing method | |
JP4064031B2 (en) | Image processing method | |
JPH11191871A (en) | Image processor | |
JPH11317863A (en) | Image processing unit | |
JP2000040154A (en) | Method and device for image processing | |
JP4049986B2 (en) | Output image area adjustment method | |
JP3576809B2 (en) | Image processing device | |
JP4482307B2 (en) | Image processing device | |
JP2003283849A (en) | Method for detecting and correcting red eye | |
JP2001223891A (en) | Picture processing method | |
JP4063971B2 (en) | Image processing method and apparatus | |
JPH1153535A (en) | Method and device for image reproduction | |
JPH11328388A (en) | Method and device for image reproduction | |
JPH11275365A (en) | Method for processing picture and its device | |
JP2000057336A (en) | Method and device for processing image | |
JPH11331600A (en) | Image processing method and device | |
JPH11243493A (en) | Image processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20030128 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080307 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090307 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090307 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100307 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100307 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110307 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110307 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120307 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120307 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130307 Year of fee payment: 10 |