JP3405266B2 - Image processing method and apparatus - Google Patents

Image processing method and apparatus

Info

Publication number
JP3405266B2
JP3405266B2 JP11245999A JP11245999A JP3405266B2 JP 3405266 B2 JP3405266 B2 JP 3405266B2 JP 11245999 A JP11245999 A JP 11245999A JP 11245999 A JP11245999 A JP 11245999A JP 3405266 B2 JP3405266 B2 JP 3405266B2
Authority
JP
Japan
Prior art keywords
pixel
pixels
image processing
image
gradient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP11245999A
Other languages
Japanese (ja)
Other versions
JP2000011188A (en
Inventor
正志 乗松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP11245999A priority Critical patent/JP3405266B2/en
Publication of JP2000011188A publication Critical patent/JP2000011188A/en
Application granted granted Critical
Publication of JP3405266B2 publication Critical patent/JP3405266B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理方法およ
び装置に係り、特に詳細には、カラー画像又は被写体を
光電的に読み取ることにより得られたカラー画像信号に
対して、シャープネス強調や粒状抑制等の画像処理をす
るためにエッジ部抽出を行う画像処理方法および装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and apparatus, and more particularly, to sharpness enhancement and graininess suppression for a color image signal obtained by photoelectrically reading a color image or a subject. The present invention relates to an image processing method and apparatus for extracting an edge portion for image processing such as.

【0002】[0002]

【従来の技術】ネガフィルム、リバーサルフィルムある
いはカラープリント等に記録されたカラー画像を、CC
D等の光電変換素子によって光電的に読み取って色の三
原色である赤(R)、緑(G)および青(B)毎の画像
信号を得、デジタル信号に変換し、この画像信号に対し
て種々の画像処理を施して、カラーペーパーなどの記録
材料あるいはCRTなどの表示手段上に再生するデジタ
ルカラー画像再生システムとしてデジタルフォトプリン
タが実用化されている。
2. Description of the Related Art Color images recorded on a negative film, a reversal film, a color print, etc.
An image signal for each of the three primary colors of red (R), green (G), and blue (B) is obtained by photoelectrically reading with a photoelectric conversion element such as D, converted into a digital signal, and this image signal is converted. 2. Description of the Related Art A digital photo printer has been put into practical use as a digital color image reproducing system for performing various kinds of image processing and reproducing on a recording material such as color paper or a display means such as a CRT.

【0003】このデジタルフォトプリンタによれば、カ
ラー画像が、露光不足あるいは露光過剰など、適切でな
い撮影条件下で撮影され、ネガフィルム、リバーサルフ
ィルムあるいはカラープリント等に記録されていても、
得られた原画像信号に画像処理を施すことにより、所望
の色および階調を有するカラー画像として再生すること
ができる。また、ネガフィルム、リバーサルフィルムあ
るいはカラープリント等に記録されたカラー画像を、所
望により、異なった色および階調を有するカラー画像と
して再生することもできる。
According to this digital photo printer, even if a color image is photographed under unsuitable photographing conditions such as underexposure or overexposure and recorded on a negative film, a reversal film, a color print or the like,
By subjecting the obtained original image signal to image processing, a color image having a desired color and gradation can be reproduced. Further, a color image recorded on a negative film, a reversal film, a color print or the like can be reproduced as a color image having different colors and gradations, if desired.

【0004】このような画像処理として、例えば、与え
られた画像を表す画像信号に対して画像処理を施して画
像の鮮鋭度を強調させる(シャープネス強調)方法や、
フィルムの粒状を抑制して画像のざらつきを少なくする
粒状抑制方法などがある。このシャープネス強調や粒状
抑制を行うに先立ってエッジ部あるいは粒状部を抽出す
る必要がある。エッジ部等の抽出を行う方法は、従来い
ろいろな方法が知られている。
As such image processing, for example, a method of performing image processing on an image signal representing a given image to emphasize the sharpness of the image (sharpness emphasis),
There is a graininess suppressing method for suppressing graininess of a film to reduce roughness of an image. It is necessary to extract the edge part or the granular part before performing the sharpness enhancement or the granular suppression. Various methods have been conventionally known as a method for extracting an edge portion or the like.

【0005】エッジ部抽出方法として、例えば、テンプ
レート整合(マッチング)による方法が知られている。
これは、判定すべき注目画素の周辺画素の画素値の関数
分布について、ある形状、例えば3×3のマトリックス
から成るテンプレートを用意し、与えられた画像がどの
テンプレートに最も近いかを判定するものである。今、
注目画素とその周辺画素の画素値をxj (j=1,・・
・,n)とし、これに対してk個のテンプレートが用意
されており、i番目のテンプレートの値をwj i (j=
1,・・・,n)とする。このときi=1,・・・,k
について次の式で表される積和pi を計算する。 pi =Σj j i ・xj (Σはj=1,・・・,nに
ついての和) このうち最大のpi を与えるものを合致するテンプレー
トとする。
As an edge extraction method, for example, a template
A method based on rate matching is known.
This is a function of the pixel values of the pixels around the pixel of interest to be determined.
For distribution, some shape, for example a 3x3 matrix
Prepare a template consisting of
It is to determine whether it is the closest to the template. now,
X is the pixel value of the pixel of interest and its surrounding pixelsj(J = 1, ...
, N), for which k templates are prepared
And the value of the i-th template is set to wj i(J =
1, ..., N). At this time, i = 1, ..., k
Sum p expressed byiTo calculate. pi= Σjwj i・ Xj  (Σ is j = 1, ..., n
Sum about) The largest of these piTemp play to match what gives
To

【0006】例えば、図11(a)に示すような、注目
画素とその周りの8個の周辺画素からなる画像に対し
て、図10に示すような8個のテンプレートa1〜a8
が与えられているとする。各テンプレートa1〜a8に
は、矢印b1〜b8で示すエッジの方向が対応している
とする。このようなテンプレートで表されるオペレータ
(演算子)はソーベル(Sobel)演算子と呼ばれてい
る。このとき上記積和p1〜p8を計算する。まずテン
プレートa1について計算すると次のようになる。 p1=1×1+2×2+1×3+0×9+0×10+0
×4+(−1)×8+(−2)×7+(−1)×5=−
19
For example, for an image composed of a pixel of interest and eight peripheral pixels around it as shown in FIG. 11A, eight templates a1 to a8 as shown in FIG.
Is given. It is assumed that the directions of edges indicated by arrows b1 to b8 correspond to the templates a1 to a8. An operator (operator) represented by such a template is called a Sobel operator. At this time, the product sums p1 to p8 are calculated. First, the calculation for the template a1 is as follows. p1 = 1 × 1 + 2 × 2 + 1 × 3 + 0 × 9 + 0 × 10 + 0
X4 + (-1) x8 + (-2) x7 + (-1) x5 =-
19

【0007】同様に他のテンプレートa2〜a8につい
ても積和p2〜p8を計算する。 p2=−8, p3=11, p4=20, p5=19, p6=8, p7=−11, p8=−20.
Similarly, the product sums p2 to p8 are calculated for the other templates a2 to a8. p2 = -8, p3 = 11, p4 = 20, p5 = 19, p6 = 8, p7 = -11, p8 = -20.

【0008】その結果、p4が最大であり、図11
(b)に示すように、テンプレートa4の矢印b4の示
す右上から左下に向かう方向が、注目画素10のエッジ
の方向(濃度勾配すなわちグラディエントの方向)とな
り、積和p4の値20がグラディエントの強度となる。
こうして、注目画素のグラディエント(ベクトル量)が
算出される。次に、このグラディエントの方向と90°
の方向の、注目画素10の隣接画素1および5につい
て、それぞれの画素を中心とする3×3の画像に対し上
記テンプレートa1〜a8を用いて同様の計算をし、各
隣接画素1および5のグラディエントの方向を算出す
る。そして、この2つの隣接画素1、5のうち少なくと
も1つの方向が注目画素10の方向と45°以内であれ
ば、注目画素10は、エッジ部である、すなわち連結性
を有すると判定するのである。
As a result, p4 is the maximum, and FIG.
As shown in (b), the direction from the upper right to the lower left indicated by the arrow b4 of the template a4 is the edge direction of the target pixel 10 (density gradient, that is, the gradient direction), and the value 20 of the sum of products p4 is the intensity of the gradient. Becomes
In this way, the gradient (vector amount) of the pixel of interest is calculated. Next, the direction of this gradient and 90 °
With respect to the adjacent pixels 1 and 5 of the target pixel 10 in the direction of, the same calculation is performed using the templates a1 to a8 with respect to the 3 × 3 image centered on each pixel, and the adjacent pixels 1 and 5 of the adjacent pixels 1 and 5 are calculated. Calculate the direction of the gradient. Then, if at least one direction of the two adjacent pixels 1 and 5 is within 45 ° with respect to the direction of the target pixel 10, it is determined that the target pixel 10 is an edge portion, that is, has connectivity. .

【0009】[0009]

【発明が解決しようとする課題】しかしながら、前記従
来のエッジ部抽出方法では、ある程度エッジ部の抽出は
できるものの、場合によっては粒状部をエッジ部として
検出してしまい、仕上がり画像の品質が低下するという
問題があった。例えば、図9(a)に示すように、本来
のエッジ部である白線の他に、粒状部がエッジ部である
と判定され、白い粒子が多数残ってしまう場合があっ
た。
However, although the above-mentioned conventional edge part extraction method can extract the edge part to some extent, the granular part is detected as the edge part in some cases, and the quality of the finished image is deteriorated. There was a problem. For example, as shown in FIG. 9A, in addition to the white line which is the original edge portion, it is determined that the granular portion is the edge portion, and many white particles may remain.

【0010】本発明は、前記従来の問題に鑑みてなされ
たものであり、従来よりエッジ部の抽出精度を高め、エ
ッジ部抽出を正確に行い、画像品質を向上させることの
できる画像処理方法および装置を提供することを課題と
する。
The present invention has been made in view of the above-mentioned conventional problems, and an image processing method capable of improving the extraction accuracy of the edge portion and performing the edge portion extraction more accurately than in the prior art and improving the image quality. An object is to provide a device.

【0011】[0011]

【課題を解決するための手段】前記課題を解決するため
本発明は、カラー画像信号に対して所定の画像処理
を行う画像処理方法であって、画像処理対象である前記
カラー画像信号によって構成される画像の注目画素とそ
の周辺画素の画素値より、該注目画素とその周辺画素
の、エッジの方向と強度を表すグラディエントを算出し
て記憶し、該記憶されたグラディエントの方向より、前
記注目画素とその周辺画素の連結性を算出するととも
に、各R,G,Bチャンネル毎に、前記注目画素のグラ
ディエントを算出することにより、該注目画素の各RG
B毎の方向性を算出し、前記連結性および各RGB毎の
方向性から、前記注目画素が、エッジ部であるか否かを
判定することによって、エッジ部抽出を行うことを特徴
とする画像処理方法を提供するものである。
In order to solve the above-mentioned problems , the present invention is an image processing method for performing predetermined image processing on a color image signal, the method comprising: From the pixel values of the pixel of interest and its peripheral pixels of the image to be constructed, a gradient representing the edge direction and intensity of the pixel of interest and its peripheral pixels is calculated and stored, and from the stored gradient direction, The RG of each pixel of interest is calculated by calculating the connectivity of the pixel of interest and its surrounding pixels and by calculating the gradient of the pixel of interest for each R, G, B channel.
An image characterized by performing edge part extraction by calculating the directionality of each B and determining whether or not the pixel of interest is an edge part from the connectivity and the directionality of each RGB. It provides a processing method.

【0012】ここで、前記注目画素とその周辺画素の連
結性を算出するにあたり、該注目画素のグラディエント
の方向と、該注目画素の近傍画素のグラディエントの方
向を比較し、該近傍画素のうちの所定数の画素の方向が
所定条件に一致した場合に連結性ありとするのが好まし
い。また、前記近傍画素のうちの所定数の画素の方向が
所定条件に一致した場合とは、前記近傍画素の方向の5
0%以上が、前記注目画素の方向と45°以内である場
合であるのが好ましい。あるいは、前記近傍画素のうち
の所定数の画素の方向が所定条件に一致した場合とは、
前記近傍画素の方向の60%以上、70%以上、80%
以上または90%以上が、前記注目画素の方向と45°
以内、または30°以内である場合であるのが好まし
い。また、前記近傍画素は、前記注目画素を中心とし、
該注目画素のグラディエントの方向と直交する方向によ
り多く存在する1×3画素、1×5画素、3×5画素、
3×7画素および5×9画素のいずれか1つから中心画
素を除いた画素であるのが好ましい。また、前記近傍画
素の取り方、ならびに前記所定条件に方向が一致した前
記画素の所定数および前記所定数の画素の方向が一致し
た前記所定条件を含む画素の連結性の判定条件は、原稿
種、原稿サイズ、プリント倍率、カメラ種および露光条
件の少なくとも1つに応じて決定されるのが好ましい。
さらに、前記注目画素とその周辺画素の連結性を算出す
るにあたり、該注目画素のグラディエントの方向と、9
0°の方向をなす両側の隣接画素のグラディエントの方
向が、前記注目画素のグラディエントの方向となす角
が、ともに45°以内である場合に連結性ありとするこ
とが好ましい。
Here, in calculating the connectivity between the target pixel and its peripheral pixels, the gradient direction of the target pixel is compared with the gradient direction of the neighboring pixel of the target pixel, and the When the directions of a predetermined number of pixels match a predetermined condition, it is preferable that the connection be made. Further, the case where the direction of a predetermined number of the neighboring pixels matches the predetermined condition means that the direction of the neighboring pixels is 5
It is preferable that 0% or more is within 45 ° with respect to the direction of the pixel of interest. Alternatively, when the directions of a predetermined number of pixels among the neighboring pixels match a predetermined condition,
60% or more, 70% or more, 80% in the direction of the neighboring pixels
Or more or 90% or more is 45 ° with the direction of the pixel of interest.
It is preferable that it is within 30 ° or within 30 °. Further, the neighboring pixels are centered on the target pixel,
1 × 3 pixels, 1 × 5 pixels, 3 × 5 pixels, which are more present in the direction orthogonal to the gradient direction of the pixel of interest,
It is preferably a pixel obtained by removing the central pixel from any one of the 3 × 7 pixels and the 5 × 9 pixels. In addition, the determination method of the neighboring pixels and the pixel connectivity determination condition including the predetermined number of pixels whose direction matches the predetermined condition and the predetermined condition where the direction of the predetermined number of pixels match are , The document size, the print magnification, the camera type, and the exposure conditions.
Furthermore, in calculating the connectivity between the pixel of interest and its peripheral pixels, the gradient direction of the pixel of interest and 9
It is preferable that the gradient directions of the adjacent pixels on both sides of the direction of 0 ° and the gradient direction of the pixel of interest are both connected within 45 °.

【0013】また、前記課題を解決するために、本発明
は、カラー画像信号に対して所定の画像処理を行う画像
処理装置であって、画像処理対象である前記カラー画像
信号によって構成される画像の注目画素とその周辺画素
の画素値より、該注目画素とその周辺画素の、エッジの
方向と強度を表すグラディエントを算出する手段と、該
算出されたグラディエントを記憶する手段と、該記憶さ
れたグラディエントの方向より、前記注目画素とその周
辺画素の連結性を算出する手段と、各R,G,Bチャン
ネル毎に、前記注目画素のグラディエントを算出するこ
とにより、該注目画素の各RGB毎の方向性を算出する
手段と、前記連結性および各RGB毎の方向性から、前
記注目画素がエッジ部であるか否かを判定する手段と、
を備えたことによりエッジ部抽出を行うことを特徴とす
る画像処理装置を提供するものである。
In order to solve the above-mentioned problems, the present invention is an image processing apparatus for performing a predetermined image processing on a color image signal, and an image formed by the color image signal to be image-processed. Means for calculating a gradient representing the edge direction and intensity of the target pixel and its peripheral pixels from the pixel values of the target pixel and its peripheral pixels, a means for storing the calculated gradient, and the stored A means for calculating the connectivity of the pixel of interest and its peripheral pixels from the direction of the gradient, and a gradient of the pixel of interest for each R, G, B channel to calculate the RGB of the pixel of interest. Means for calculating directionality, means for determining whether or not the pixel of interest is an edge portion based on the connectivity and the directionality of each of RGB.
The present invention provides an image processing device characterized by performing edge portion extraction by including the above.

【0014】ここで、前記注目画素とその周辺画素の連
結性を算出する手段は、該注目画素のグラディエントの
方向と、該注目画素の近傍画素のグラディエントの方向
を比較し、該近傍画素のうちの所定数の画素の方向が所
定条件に一致した場合に連結性ありとするのが好まし
い。また、前記近傍画素のうちの所定数の画素の方向が
所定条件に一致した場合とは、前記近傍画素の方向の5
0%以上が前記注目画素の方向と45°以内である場合
であるのが好ましい。あるいは、前記近傍画素のうちの
所定数の画素の方向が、所定条件に一致した場合とは、
前記近傍画素の方向の60%以上、70%以上、80%
以上または90%以上が、前記注目画素の方向と45°
以内、または30°以内である場合であるのが好まし
い。また、前記近傍画素は、前記注目画素を中心とし、
該注目画素のグラディエントの方向と直交する方向によ
り延在する1×3画素、1×5画素、3×5画素、3×
7画素および5×9画素のいずれか1つから中心画素を
除いた画素であるのが好ましい。また、前記近傍画素の
取り方、ならびに前記所定条件に方向が一致した前記画
素の所定数および前記所定数の画素の方向が一致した前
記所定条件を含む画素の連結性の判定条件は、原稿種、
原稿サイズ、プリント倍率、カメラ種および露光条件の
少なくとも1つに応じて決定されるのが好ましい。さら
に、前記注目画素とその周辺画素の連結性を算出する手
段は、該注目画素のグラディエントの方向と、90°の
方向をなす両側の隣接画素のグラディエントの方向が、
前記注目画素のグラディエントの方向となす角が、とも
に45°以内である場合に連結性ありとすることが好ま
しい。
Here, the means for calculating the connectivity between the target pixel and its peripheral pixels compares the gradient direction of the target pixel with the gradient direction of the neighboring pixels of the target pixel, and selects one of the neighboring pixels. When the directions of the predetermined number of pixels of (1) match the predetermined condition, it is preferable that the connection is made. Further, the case where the direction of a predetermined number of the neighboring pixels matches the predetermined condition means that the direction of the neighboring pixels is 5
It is preferable that 0% or more is within 45 ° with respect to the direction of the pixel of interest. Alternatively, when the direction of a predetermined number of the neighboring pixels matches the predetermined condition,
60% or more, 70% or more, 80% in the direction of the neighboring pixels
Or more or 90% or more is 45 ° with the direction of the pixel of interest.
It is preferable that it is within 30 ° or within 30 °. Further, the neighboring pixels are centered on the target pixel,
1 × 3 pixels, 1 × 5 pixels, 3 × 5 pixels, 3 × extending in a direction orthogonal to the gradient direction of the pixel of interest
It is preferably a pixel obtained by removing the central pixel from any one of 7 pixels and 5 × 9 pixels. In addition, the determination method of the neighboring pixels and the pixel connectivity determination condition including the predetermined number of pixels whose direction matches the predetermined condition and the predetermined condition where the direction of the predetermined number of pixels match are ,
It is preferably determined according to at least one of the document size, print magnification, camera type and exposure condition. Further, the means for calculating the connectivity between the target pixel and its peripheral pixels is such that the direction of the gradient of the target pixel and the direction of the gradient of adjacent pixels on both sides forming a 90 ° direction are
It is preferable that the pixel of interest has connectivity when both the angle with the gradient direction of the pixel of interest is within 45 °.

【0015】[0015]

【発明の実施の形態】以下、本発明に係る画像処理方法
および装置について、添付の図面に示される好適実施例
を基に、詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION The image processing method and apparatus according to the present invention will be described below in detail with reference to the preferred embodiments shown in the accompanying drawings.

【0016】図1は、本発明の画像処理方法を実施する
画像処理装置を適用するデジタルフォトプリンタの一実
施形態を示すブロック図である。図1に示すデジタルフ
ォトプリンタ(以下、フォトプリンタという)10は、
フィルムFに撮影された画像を光電的に読み取るスキャ
ナ(画像読取装置)12と、このスキャナ12で読み取
られた画像データ(画像情報)のエッジ部抽出などの画
像処理やフォトプリンタ10全体の操作および制御等を
行う画像処理装置14と、この画像処理装置14から出
力された画像データに応じて変調した光ビームで感光材
料(印画紙)を画像露光し、現像処理して(仕上がり)
画像をプリントとして出力する画像記録装置16とを有
する。また、画像処理装置14には、様々な条件の入
力、設定、処理の選択や指示、色/濃度補正などの指示
等を入力するためのキーボード18aおよびマウス18
bを有する操作系18と、スキャナ12で読み取られた
画像、各種の操作指示、様々な条件の設定/登録画面等
を表示するモニタ20が接続される。
FIG. 1 is a block diagram showing an embodiment of a digital photo printer to which an image processing apparatus for carrying out the image processing method of the present invention is applied. A digital photo printer (hereinafter referred to as a photo printer) 10 shown in FIG.
A scanner (image reading device) 12 that photoelectrically reads an image captured on the film F, image processing such as edge extraction of image data (image information) read by the scanner 12, operation of the entire photo printer 10, and An image processing device 14 that performs control and the like, and a photosensitive material (photographic paper) is image-exposed with a light beam modulated according to the image data output from the image processing device 14, and is subjected to development processing (finishing).
The image recording device 16 outputs an image as a print. Further, the image processing apparatus 14 is provided with a keyboard 18a and a mouse 18 for inputting various conditions, setting, selection and instruction of processing, instructions for color / density correction, and the like.
An operation system 18 having b is connected to a monitor 20 that displays an image read by the scanner 12, various operation instructions, a setting / registration screen for various conditions, and the like.

【0017】スキャナ12は、フィルムF等に撮影され
た画像を1コマずつ光電的に読み取る装置で、光源22
と、可変絞り24と、フィルムFに入射する読取光をフ
ィルムFの面方向で均一にする拡散ボックス26と、フ
ィルムFのキャリア28と、結像レンズユニット30
と、R(赤)、G(緑)およびB(青)の各色画像濃度
の読取に対応する3ラインCCDセンサを有するイメー
ジセンサ32と、アンプ(増幅器)33と、A/D(ア
ナログ/デジタル)変換器34とを有する。
The scanner 12 is a device for photoelectrically reading an image photographed on the film F or the like frame by frame.
A variable diaphragm 24, a diffusion box 26 for making the reading light incident on the film F uniform in the surface direction of the film F, a carrier 28 of the film F, and an imaging lens unit 30.
, An image sensor 32 having a 3-line CCD sensor corresponding to reading of image densities of R (red), G (green) and B (blue), an amplifier (amplifier) 33, and an A / D (analog / digital). ) And a converter 34.

【0018】フォトプリンタ10においては、スキャナ
12の本体に装着自在な専用のキャリア28が、新写真
システム(Advanced Photo System)や135サイズ
のネガ(あるいはリバーサル)フィルム等のフィルムF
の種類やサイズ、ストリップスやスライド等のフィルム
の形態等に応じて用意されており、キャリア28の交換
によって、各種のフィルムや処理に対応することができ
る。フィルムに撮影され、プリント作成に供される画像
(コマ)は、このキャリア28によって所定の読取位置
に搬送される。また、周知のように、新写真システムの
フィルムには、磁気記録媒体が形成され、カートリッジ
IDやフィルム取等が記録されており、また、撮影時や
現像時等に、撮影や現像日時、カメラや現像機の機種等
の各種のデータが記録可能である。新写真システムのフ
ィルム(カートリッジ)に対応するキャリア28には、
この磁気情報の読取手段が配置されており、フィルムを
読取位置に搬送する際に磁気情報を読み取り、これらの
各種の情報が画像処理装置14に送られる。
In the photo printer 10, a dedicated carrier 28 that can be attached to the main body of the scanner 12 is a film F such as a new photographic system (Advanced Photo System) or a 135 size negative (or reversal) film.
It is prepared according to the type and size of the film, the form of the film such as strips and slides, etc., and various films and processes can be handled by exchanging the carrier 28. An image (frame) photographed on a film and used for print production is conveyed to a predetermined reading position by the carrier 28. Further, as is well known, a film of the new photographic system is formed with a magnetic recording medium, and a cartridge ID, a film take-off, etc. are recorded therein. Further, at the time of shooting or developing, shooting date and time of development, camera It is possible to record various types of data such as the type of developing machine and developing machine. In the carrier 28 corresponding to the film (cartridge) of the new photographic system,
This magnetic information reading means is arranged, the magnetic information is read when the film is conveyed to the reading position, and these various kinds of information are sent to the image processing device 14.

【0019】このようなスキャナ12において、フィル
ムFに撮影された画像を読み取る際には、光源22から
射出され、可変絞り24および拡散ボックス26によっ
て光量調整された均一な読取光が、キャリア28によっ
て所定の読取位置に位置されたフィルムFに入射して、
透過することにより、フィルムFに撮影された画像を担
持する投影光をうる。なお、カラー画像信号の入力は、
このようにフィルムを透過した光を読み取るものには限
定されず、反射原稿でもよいし、あるいはデジタルカメ
ラによって撮影された画像を用いるものでもよい。
When reading an image photographed on the film F in the scanner 12 as described above, the carrier 28 emits uniform read light emitted from the light source 22 and adjusted in light quantity by the variable diaphragm 24 and the diffusion box 26. When incident on the film F located at a predetermined reading position,
By being transmitted, the projection light carrying the captured image on the film F is obtained. The color image signal input is
As described above, the invention is not limited to reading the light transmitted through the film, and may be a reflective original or an image captured by a digital camera.

【0020】図示例のキャリア28は、24枚取りの1
35サイズのフィルムや新写真システムのカートリッジ
等の、長尺なフィルムF(ストリップス)に対応するも
のであり、図2(a)に模式的に示されるように、所定
の読取位置にフィルムFを位置しつつ、イメージセンサ
32の、例えば、RGBの3ラインCCDセンサの延在
方向(主走査方向)と直交する副走査方向に、フィルム
Fの長手方向を一致させて搬送する、読取位置を副走査
方向に挟んで配置される搬送ローラ対28aおよび28
bと、フィルムFの投影光を所定のスリット状に規制す
る、読取位置に対応して位置する主走査方向に延在する
スリット28cを有するマスク28dとを有する。フィ
ルムFは、このキャリア28によって読取位置に位置さ
れて副走査方向に搬送されつつ、読取光を入射される。
これにより、結果的にフィルムFが主走査方向に延在す
るスリット28cによって2次元的にスリット走査さ
れ、フィルムFに撮影された各コマの画像が読み取られ
る。
The carrier 28 in the illustrated example is a 24-piece 1
It corresponds to a long film F (strips) such as a 35 size film or a cartridge of a new photographic system. As shown schematically in FIG. 2A, the film F is placed at a predetermined reading position. While the image sensor 32 is positioned, the reading position at which the longitudinal direction of the film F is conveyed in the sub-scanning direction orthogonal to the extending direction (main scanning direction) of the RGB 3-line CCD sensor, for example, is set. Conveying roller pairs 28a and 28 sandwiched in the sub-scanning direction
b, and a mask 28d having a slit 28c that extends in the main scanning direction and that corresponds to the reading position and that restricts the projection light of the film F into a predetermined slit shape. The film F is positioned at the reading position by the carrier 28 and is fed with the reading light while being conveyed in the sub-scanning direction.
As a result, the film F is two-dimensionally slit-scanned by the slit 28c extending in the main scanning direction, and the image of each frame photographed on the film F is read.

【0021】フィルムFの投影光は、結像レンズユニッ
ト30によってイメージセンサ32の受光面に結像され
る。図2(b)に示されるように、イメージセンサ32
は、R画像の読み取りを行うラインCCDセンサ32
R、G画像の読み取りを行うラインCCDセンサ32G
およびB画像の読み取りを行うラインCCDセンサ32
Bを有する、いわゆる3ラインのカラーCCDセンサ
で、各ラインCCDセンサは、前述のように主走査方向
に延在している。フィルムFの投影光は、このイメージ
センサ32によって、R、GおよびBの3原色に分解さ
れて光電的に読み取られる。イメージセンサ32から出
力されたR、GおよびBの各出力信号は、アンプ33で
増幅されて、A/D変換器34に送られ、A/D変換器
34において、それぞれ、例えば12bitsのRGB
デジタル画像データに変換された後、画像処理装置14
に出力される。
The projection light of the film F is imaged on the light receiving surface of the image sensor 32 by the imaging lens unit 30. As shown in FIG. 2B, the image sensor 32
Is a line CCD sensor 32 for reading the R image
Line CCD sensor 32G for reading R and G images
And line CCD sensor 32 for reading B image
In the so-called 3-line color CCD sensor having B, each line CCD sensor extends in the main scanning direction as described above. The projection light of the film F is separated into three primary colors of R, G and B by the image sensor 32 and photoelectrically read. The R, G, and B output signals output from the image sensor 32 are amplified by the amplifier 33 and sent to the A / D converter 34, and in the A / D converter 34, for example, RGB of 12 bits, respectively.
After being converted into digital image data, the image processing device 14
Is output to.

【0022】なお、スキャナ12においては、フィルム
Fに撮影された画像を読み取るに際し、低解像度で読み
取るプレスキャン(第1回目の画像読取)と、出力画像
の画像データを得るためのファインスキャン(第2回目
の画像読取)との2回の画像読取を行う。ここで、プレ
スキャンは、スキャナ12が対象とするフィルムFの全
ての画像を、イメージセンサ32が飽和することなく読
み取れるように、予め設定されたプレスキャン読取条件
で行われる。一方、ファインスキャンは、プレスキャン
データから、その画像(コマ)の最低濃度よりも若干低
い濃度でイメージセンサ32が飽和するように、各コマ
毎に設定されたファインスキャンの読取条件で行われ
る。なお、プレスキャンおよびファインスキャン出力画
像信号は、解像度および出力画像信号レベルが異なる以
外は、基本的に同様な画像データである。
In the scanner 12, when the image photographed on the film F is read, a prescan (first image reading) for reading at a low resolution and a fine scan (first image reading for obtaining image data of an output image) are performed. The second image reading) and the second image reading are performed. Here, the prescan is performed under prescan reading conditions set in advance so that the scanner 12 can read all the images of the target film F without saturation of the image sensor 32. On the other hand, the fine scan is performed from the prescan data under the fine scan reading condition set for each frame so that the image sensor 32 is saturated at a density slightly lower than the minimum density of the image (frame). The prescan and fine scan output image signals are basically similar image data except that the resolution and the output image signal level are different.

【0023】なお、フォトプリンタ10に用いられるス
キャナ12は、このようなスリット走査読取を行うもの
に限定されず、1コマのフィルム画像の全面を一度に読
み取る面状読取を行うものであってもよい。この場合に
は、例えばエリアCCDセンサなどのエリアセンサを用
い、光源22とフィルムFとの間にR、GおよびBの各
色フィルタの挿入手段を設け、光源22からの射出光の
光路に挿入して、色フィルタを透過した読取光をフィル
ムF全面に照射して、透過光をエリアCCDセンサに結
像させてフィルム全画像を読み取ることを、R、Gおよ
びBの各色フィルタを切り換えて順次行うことで、フィ
ルムFに撮影された画像を3原色に分解して読み取る。
It should be noted that the scanner 12 used in the photo printer 10 is not limited to such a slit scanning reading, and may be a plane reading for reading the entire surface of a film image of one frame at a time. Good. In this case, for example, an area sensor such as an area CCD sensor is used, insertion means for R, G, and B color filters is provided between the light source 22 and the film F, and is inserted in the optical path of the light emitted from the light source 22. Then, the reading light transmitted through the color filters is applied to the entire surface of the film F, the transmitted light is imaged on the area CCD sensor, and the entire film image is read by sequentially switching the R, G and B color filters. Thus, the image photographed on the film F is separated into the three primary colors and read.

【0024】前述したように、スキャナ12から出力さ
れるデジタル画像データ信号は、本発明の画像処理方法
を実施する画像処理装置14に出力される。図3に、こ
の画像処理装置(以下、処理装置という。)14のブロ
ック図を示す。ここで、処理装置14は、スキャナ補正
部36、LOG変換器38、プレスキャン(フレーム)
メモリ40、ファインスキャン(フレーム)メモリ4
2、プレスキャンデータ処理部44、本発明の特徴とす
るエッジ部抽出および各種画像処理を行うファインスキ
ャンデータ処理部46および条件設定部48を有する。
なお、図3は主に画像処理関連の部分を示すものであ
り、処理装置14には、これ以外にも、処理装置14を
含むフォトプリンタ10全体の制御や管理を行うCP
U、フォトプリンタ10の作動等に必要な情報を記録す
るメモリ等が配設され、また、操作系18やモニタ20
は、このCPU等(CPUバス)を介して各部分に接続
される。
As described above, the digital image data signal output from the scanner 12 is output to the image processing device 14 which carries out the image processing method of the present invention. FIG. 3 shows a block diagram of the image processing apparatus (hereinafter referred to as a processing apparatus) 14. Here, the processing device 14 includes a scanner correction unit 36, a LOG converter 38, and a prescan (frame).
Memory 40, fine scan (frame) memory 4
2. It has a prescan data processing unit 44, a fine scan data processing unit 46 and a condition setting unit 48 that perform edge portion extraction and various image processing that are features of the present invention.
Note that FIG. 3 mainly shows a portion related to image processing, and the processing device 14 is a CP that controls and manages the entire photo printer 10 including the processing device 14 in addition to this.
U, a memory for recording information necessary for the operation of the photo printer 10 and the like are provided, and the operation system 18 and the monitor 20 are also provided.
Is connected to each part via this CPU or the like (CPU bus).

【0025】スキャナ12から処理装置14に入力され
たR、GおよびBの画像信号、例えば12bitのデジ
タル画像データは、スキャナ補正部36に入力される。
スキャナ補正部36は、スキャナ12のイメージセンサ
32の3ラインCCDセンサ32R、32G、32Bに
起因する、RGBデジタル画像データの画素毎の感度ば
らつきや暗電流を補正するためにDCオフセット補正、
暗時補正、欠陥画素補正、シェーディング補正等の読取
画像データのデータ補正を行うものである。スキャナ補
正部36で画素毎の感度ばらつきや暗電流の補正処理等
が施されたデジタル画像信号は、LOG変換処理器に出
力される。LOG変換器38は、対数変換処理してデジ
タル画像データを階調変換してデジタル画像濃度データ
に変換するものであって、例えば、ルックアップテーブ
ル(LUT)を用いて、スキャナ補正部36で補正され
た、例えば12bitのデジタル画像データを変換し
て、10bit(0〜1023)のデジタル画像濃度デ
ータに変換する。
The R, G, and B image signals input from the scanner 12 to the processing device 14, for example, 12-bit digital image data are input to the scanner correction section 36.
The scanner correction unit 36 corrects the DC offset in order to correct the sensitivity variation and dark current for each pixel of the RGB digital image data due to the 3-line CCD sensors 32R, 32G and 32B of the image sensor 32 of the scanner 12.
Data correction of read image data such as dark correction, defective pixel correction, and shading correction is performed. The digital image signal that has been subjected to correction processing of sensitivity variations and dark current for each pixel in the scanner correction unit 36 is output to the LOG conversion processor. The LOG converter 38 performs logarithmic conversion processing, gradation conversion of digital image data, and conversion into digital image density data. For example, a look-up table (LUT) is used for correction by the scanner correction unit 36. The converted digital image data of, for example, 12 bits is converted into digital image density data of 10 bits (0 to 1023).

【0026】LOG変換器38で変換されたデジタル画
像濃度データは、プレスキャン画像データであればプレ
スキャンメモリ40に、ファインスキャン画像データで
あればファインスキャンメモリ42に、それぞれ記憶
(格納)される。プレスキャンメモリ40は、スキャナ
12によるフィルムFのプレスキャンによって得られ、
各種のデータ補正および対数変換処理が施されたフィル
ムFの1コマ全部の低解像度画像濃度データをRGBの
各色毎に格納または記憶するためのフレームメモリであ
る。プレスキャンメモリ40は、フィルムFの1コマの
RGB3色の画像濃度データを格納できる容量が少なく
とも必要であるが、複数コマ分の画像濃度データを格納
できる容量を持つものであってもよいし、1コマ分の容
量のメモリを多数備えるものであってもよい。プレスキ
ャンメモリ40に記憶されたプレスキャン画像データ
は、プレスキャンデータ処理部44に読みだされる。
The digital image density data converted by the LOG converter 38 is stored (stored) in the prescan memory 40 for the prescan image data and in the fine scan memory 42 for the fine scan image data, respectively. . The prescan memory 40 is obtained by prescanning the film F by the scanner 12,
It is a frame memory for storing or storing low resolution image density data of the entire one frame of the film F which has undergone various data correction and logarithmic conversion processing for each color of RGB. The pre-scan memory 40 needs at least a capacity to store image density data of RGB three colors of one frame of the film F, but may have a capacity to store image density data of a plurality of frames. A large number of memories each having a capacity for one frame may be provided. The prescan image data stored in the prescan memory 40 is read by the prescan data processing unit 44.

【0027】一方、ファインスキャンメモリ42は、ス
キャナ12によるフィルムFのファインスキャンによっ
て得られ、各種のデータ補正および対数変換処理が施さ
れたフィルムFの1コマ全部の高解像度画像濃度データ
をRGBの各色毎に格納または記憶するためのフレーム
メモリである。ファインスキャンメモリ42は、少なく
ともフィルムFの2コマの画像のRGB3色の画像濃度
データを格納できる容量を持ち、1コマ分の画像濃度デ
ータを書き込んでいる間に、別の1コマ分の画像濃度デ
ータを読み出し、ファインスキャンデータ処理部46に
おいて本発明の特徴とするエッジ部抽出を行うための様
々な処理を同時に行うようにするのが好ましいが、本発
明はこれに限定されず、1コマ分の画像濃度データを格
納できる容量を持ち1コマづつ処理するためのものであ
ってもよい。また、1コマ分の容量のメモリを多数備
え、例えばトグルメモリとして利用できるものであって
もよい。ファインスキャンメモリ42に記憶されたファ
インスキャン画像データは、ファインスキャンデータ処
理部46に読みだされる。
On the other hand, the fine scan memory 42 obtains high resolution image density data of one frame of the film F, which is obtained by fine scanning of the film F by the scanner 12 and has undergone various data correction and logarithmic conversion processing, in RGB format. A frame memory for storing or storing each color. The fine scan memory 42 has a capacity to store at least the image density data of three colors of RGB of the image of two frames of the film F, and while writing the image density data of one frame, the image density of another one frame is written. It is preferable that the data is read and various processes for performing the edge extraction, which is a feature of the present invention, are simultaneously performed in the fine scan data processing unit 46. However, the present invention is not limited to this and one frame It may have a capacity to store the image density data of 1) and process it frame by frame. Further, it may be a memory provided with a large number of memories each having a capacity for one frame and used as a toggle memory, for example. The fine scan image data stored in the fine scan memory 42 is read by the fine scan data processing unit 46.

【0028】プレスキャンメモリ40に記憶されたプレ
スキャン画像データに、モニタ20に表示するのに必要
な種々の画像処理を施すプレスキャンデータ処理部44
は、画像処理部50と、画像データ変換部52とを有す
る。ここで、画像処理部50は、後述する条件設定部4
8が設定した画像処理条件に従って、スキャナ12によ
って読み取られ、プレスキャンメモリ40に記憶された
画像データに、所望の画質で、後述するモニタ20のC
RT表示画面にカラー画像が再生可能なように、ルック
アップテーブル(以下、LUTで代表させる)やマトリ
ックス(以下、MTXで代表させる)演算により、階調
補正、色変換、濃度変換等の所定の画像処理を施すため
のものである。画像データ変換部52は、画像処理部5
0によって処理された画像データを、モニタ20の解像
度に合わせるために必要に応じて間引いて、同様に、3
D(3次元)LUT等を用いて、モニタ20による表示
に対応する画像データに変換して、モニタ20に表示さ
せるためのものである。なお、画像処理部50における
処理条件は、後述する条件設定部48で設定される。
A prescan data processing unit 44 for performing various image processing necessary for displaying on the monitor 20 on the prescan image data stored in the prescan memory 40.
Has an image processing unit 50 and an image data conversion unit 52. Here, the image processing unit 50 includes a condition setting unit 4 described later.
The image data read by the scanner 12 and stored in the pre-scan memory 40 in accordance with the image processing conditions set by C.
Predetermined gradation correction, color conversion, density conversion, etc. are calculated by a look-up table (hereinafter represented by LUT) or matrix (hereinafter represented by MTX) so that a color image can be reproduced on the RT display screen. It is for performing image processing. The image data conversion unit 52 includes the image processing unit 5
The image data processed by 0 is thinned out as necessary to match the resolution of the monitor 20, and similarly, 3
The data is converted into image data corresponding to the display on the monitor 20 by using a D (three-dimensional) LUT or the like and is displayed on the monitor 20. The processing conditions in the image processing unit 50 are set by the condition setting unit 48 described later.

【0029】一方、ファインスキャンメモリ42に記憶
されたファインスキャン画像データに、画像記録装置1
6からカラープリントとして出力するのに必要な種々の
画像処理および本発明のエッジ部抽出を行うファインス
キャンデータ処理部46は、画像処理部54と、画像デ
ータ変換部56とを有する。ここで、画像処理部54
は、後述する条件設定部48が設定した画像処理条件に
従って、スキャナ12によって読み取られ、ファインス
キャンメモリ42に記憶された画像データに、カラープ
リントとして所望の濃度、階調および色調で、カラーペ
ーパー上にカラー画像、または本発明が目的とするエッ
ジ部抽出後シャープネス強調や粒状抑制等が行われた高
品質な画像が再生可能なように、LUT,MTX演算
器、ローパスフィルタ、加減算器などにより、色バラン
ス調整、階調調整、色調整、濃度調整、彩度調整、電子
変倍やシャープネス強調(エッジ強調;鮮鋭化)などの
種々の画像処理を施すためのものであり、その詳細につ
いては後述する。
On the other hand, the fine scan image data stored in the fine scan memory 42 is added to the image recording device 1.
The fine scan data processing unit 46 that performs various image processing necessary for outputting as a color print from 6 and edge extraction of the present invention includes an image processing unit 54 and an image data conversion unit 56. Here, the image processing unit 54
Is the image data read by the scanner 12 and stored in the fine scan memory 42 according to the image processing conditions set by the condition setting unit 48, which will be described later, on the color paper with desired density, gradation and tone as a color print. In order to be able to reproduce a color image, or a high-quality image in which sharpness enhancement, grain suppression, etc. have been performed after the edge portion extraction which is the object of the present invention, by LUT, MTX calculator, low pass filter, adder / subtractor It is for performing various image processing such as color balance adjustment, gradation adjustment, color adjustment, density adjustment, saturation adjustment, electronic scaling, and sharpness enhancement (edge enhancement; sharpening). Details thereof will be described later. To do.

【0030】画像データ変換部56は、画像処理部54
によって処理された画像データを、例えば3DLUT等
を用いて、画像記録装置16による画像記録に対応する
画像データ変換して、画像記録装置16に供給する。画
像記録装置16は、ファインスキャンデータ処理部46
から出力される画像データに基づいて、カラー画像が再
現された仕上がりプリントとして出力するためのもので
ある。
The image data conversion unit 56 includes an image processing unit 54.
The image data processed by is converted into image data corresponding to image recording by the image recording device 16 using, for example, a 3DLUT, and is supplied to the image recording device 16. The image recording device 16 includes a fine scan data processing unit 46.
It is for outputting as a finished print in which a color image is reproduced based on the image data output from.

【0031】なお、画像処理部54における処理条件
は、条件設定部48で設定される。条件設定部48は、
ファインスキャンデータ処理部46における各種の処理
条件を設定する。この条件設定部48は、セットアップ
部58、キー補正部60およびパラメータ統合部62を
有する。セットアップ部58は、プレスキャン画像デー
タ等を用いて、ファインスキャンの読取条件を設定して
スキャナ12に供給し、また、プレスキャンデータ処理
部44およびファインスキャンデータ処理部46の画像
処理条件を作成(演算)し、パラメータ統合部62に供
給する。
The processing conditions in the image processing unit 54 are set in the condition setting unit 48. The condition setting unit 48
Various processing conditions in the fine scan data processing unit 46 are set. The condition setting unit 48 has a setup unit 58, a key correction unit 60, and a parameter integration unit 62. The setup unit 58 sets fine scan reading conditions by using the prescan image data and supplies them to the scanner 12, and also creates image processing conditions for the prescan data processing unit 44 and the fine scan data processing unit 46. (Calculation) and supply to the parameter integration unit 62.

【0032】具体的には、セットアップ部58は、プレ
スキャンメモリ40からプレスキャン画像データを読み
出し、プレスキャン画像データから、濃度ヒストグラム
の作成や、平均濃度、LATD(大面積透過濃度)、ハ
イライト(最低濃度)、シャドー(最高濃度)等の画像
特徴量の算出を行う。算出した画像特徴量から、その画
像の最低濃度よりも若干低濃度でイメージセンサ32
(ラインCCDセンサ32R、32G、32B)が飽和
するように、ファインスキャンの読取条件、例えば、光
源22の光量、可変絞り24の絞り値、イメージセンサ
32の(各ラインCCDセンサ32R、32G、32B
の)蓄積時間等を設定する。なお、ファインスキャンの
読取条件は、プレスキャンの読取条件に対して、イメー
ジセンサの出力レベルに対応する全ての要素を変更して
もよく、前記絞り値等のいずれか1つの要素のみを変更
するものでもよく、絞り値と蓄積時間等の複数の要素の
みを変更するものでもよい。さらに、セットアップ部5
8は、濃度ヒストグラムや画像特徴量と、必要に応じて
行われるオペレータによる指示等に応じて、前述の色バ
ランス調整や階調調整等の画像処理条件を設定する。
Specifically, the setup section 58 reads out the prescan image data from the prescan memory 40, creates a density histogram from the prescan image data, average density, LATD (large area transmission density), and highlight. Image feature quantities such as (lowest density) and shadow (highest density) are calculated. Based on the calculated image feature amount, the image sensor 32 is slightly lower in density than the minimum density of the image.
Fine scan reading conditions, for example, the light amount of the light source 22, the aperture value of the variable diaphragm 24, the (line CCD sensors 32R, 32G, 32B) of the image sensor 32 so that the (line CCD sensors 32R, 32G, 32B) are saturated.
Set the storage time etc. It should be noted that the fine scan reading conditions may be changed from all the elements corresponding to the output level of the image sensor with respect to the prescan reading conditions, and only one of the elements such as the aperture value is changed. Alternatively, only a plurality of elements such as the aperture value and the storage time may be changed. Furthermore, the setup section 5
Reference numeral 8 sets the image processing conditions such as the color balance adjustment and the gradation adjustment described above in accordance with the density histogram, the image feature amount, and an instruction or the like given by the operator as necessary.

【0033】キー補正部60は、キーボード18aや操
作系18に設けられたキー(図示せず)によって設定さ
れた濃度(明るさ)、色、コントラスト、シャープネ
ス、彩度等の調整量やマウス18bで入力された各種の
指示等に応じて、画像処理条件の調整量(例えば、LU
Tの補正量等)を算出し、パラメータを設定し、パラメ
ータ統合部62に供給するものである。パラメータ統合
部62は、セットアップ部58が設定した画像処理条件
を受け取り、供給された画像処理条件を、プレスキャン
データ処理部44の画像処理部50およびファインスキ
ャンデータ処理部46の画像処理部54に設定し、さら
に、キー補正部60で算出された調整量に応じて、各部
分に設定した画像処理条件を補正(調整)し、あるいは
画像処理条件を再設定する。
The key correction unit 60 is an adjustment amount of density (brightness), color, contrast, sharpness, saturation, etc. set by a key (not shown) provided on the keyboard 18a or the operation system 18, and the mouse 18b. Adjustment amount of the image processing condition (for example, LU
A correction amount of T, etc.) is calculated, parameters are set, and the parameters are supplied to the parameter integration unit 62. The parameter integration unit 62 receives the image processing conditions set by the setup unit 58, and supplies the supplied image processing conditions to the image processing unit 50 of the prescan data processing unit 44 and the image processing unit 54 of the fine scan data processing unit 46. The image processing condition is set, and the image processing condition set for each portion is corrected (adjusted) or the image processing condition is reset according to the adjustment amount calculated by the key correction unit 60.

【0034】続いて、本発明の特徴とする、エッジ部抽
出を行うファインスキャンデータ処理部46の画像処理
部54について詳細に説明する。図4は、画像処理部5
4の一実施例の概略を示すブロック図である。図4に示
すように、画像処理部54は、画像データの濃度、色お
よび階調を変換する色濃度階調変換手段64、画像デー
タの彩度を変換する彩度変換手段66、画像データの画
素数を変換するデジタル倍率変換(電子変倍)手段6
8、エッジ部抽出を行うエッジ部抽出手段70およびシ
ャープネス強調や粒状抑制あるいは画像データの濃度ダ
イナミックレンジの変換等の各種画像処理を必要に応じ
て行う画像処理ブロック72を備えている。
Next, the image processing unit 54 of the fine scan data processing unit 46 for extracting the edge portion, which is a feature of the present invention, will be described in detail. FIG. 4 shows the image processing unit 5.
4 is a block diagram showing the outline of an example of Embodiment 4. As shown in FIG. 4, the image processing unit 54 includes a color density gradation converting means 64 for converting the density, color and gradation of the image data, a saturation converting means 66 for converting the saturation of the image data, and an image data Digital magnification conversion (electronic scaling) means 6 for converting the number of pixels
8. An edge portion extracting means 70 for extracting an edge portion and an image processing block 72 for performing various image processing such as sharpness enhancement, grain suppression, and conversion of the density dynamic range of image data as required.

【0035】画像処理部54において、色濃度階調変換
手段64は、LUT等に従って、画像データから濃度デ
ータ、色データおよび階調データに変換するものであ
る。また、彩度変換手段66は、色濃度階調変換手段6
4によって得られた画像データの彩度データをMTX演
算等に従って変換するものである。また、電子変倍手段
68は、画像記録装置16においてカラーペーパに出力
するカラー画像のサイズに応じて、かつ出力画素密度に
合わせて、彩度変換手段66によって彩度変換された画
像データを補間したり、間引いたりして、画像データの
画素データ数を増減するものである。エッジ部抽出手段
70は、注目画素がエッジ部であるか粒状部であるかを
判別し、エッジ部を抽出するものであり、エッジ部抽出
が行われた画像データは、画像処理ブロック72に入力
される。この画像処理ブロック72では、上で抽出され
たエッジ部に対してシャープネス強調を行ったり、粒状
部に対しては、粒状抑制を行う等、その他各種の画像処
理が行われる。
In the image processing section 54, the color density gradation conversion means 64 converts image data into density data, color data and gradation data according to the LUT or the like. Further, the saturation conversion means 66 is the color density gradation conversion means 6
The color saturation data of the image data obtained in step 4 is converted according to the MTX operation or the like. Further, the electronic scaling unit 68 interpolates the image data subjected to the saturation conversion by the saturation conversion unit 66 according to the size of the color image output to the color paper in the image recording device 16 and according to the output pixel density. The number of pixel data of image data is increased or decreased by performing or thinning. The edge part extraction means 70 determines whether the target pixel is an edge part or a granular part and extracts the edge part. The image data subjected to the edge part extraction is input to the image processing block 72. To be done. In the image processing block 72, various other image processings such as sharpness enhancement for the edge portion extracted above and graininess suppression for the granular portion are performed.

【0036】図5は、エッジ部抽出手段70の一実施例
の概略を示すブロック図である。図5に示すように、エ
ッジ部抽出手段70は、色調変換手段74、輝度信号生
成手段76、グラディエントを算出するために用いられ
るテンプレート78、グラディエントを算出する手段8
0、算出されたグラディエントを記憶する手段81、注
目画素等の連結性を算出する手段82、RGB毎の方向
性を算出する手段84およびエッジ部を判定し抽出する
手段86とを備えている。
FIG. 5 is a block diagram showing the outline of an embodiment of the edge portion extracting means 70. As shown in FIG. 5, the edge portion extraction means 70 includes a color tone conversion means 74, a luminance signal generation means 76, a template 78 used for calculating a gradient, and a means 8 for calculating a gradient.
0, a means 81 for storing the calculated gradient, a means 82 for calculating the connectivity of the target pixel and the like, a means 84 for calculating the directivity for each RGB, and a means 86 for determining and extracting the edge portion.

【0037】色調変換手段74は、画像データの色調信
号レベルを変換して原画像信号とするためのものであ
る。輝度信号生成手段76は、色調変換手段74によっ
て色調変換された原画像信号のR、G、Bの色信号を輝
度信号に変換するものであり、人間の視覚に応じて、
R、G、Bの色信号に重み付けをして、輝度信号Yに変
換する。変換式として、例えば次式が例示される。 Y=0.3R+0.59G+0.11B
The color tone conversion means 74 is for converting the color tone signal level of the image data into an original image signal. The luminance signal generation means 76 converts the R, G, and B color signals of the original image signal whose color tone has been converted by the color tone conversion means 74 into luminance signals.
The color signals of R, G and B are weighted and converted into the luminance signal Y. As the conversion formula, for example, the following formula is exemplified. Y = 0.3R + 0.59G + 0.11B

【0038】テンプレート78は、注目画素およびその
周辺画素のエッジの方向および強度を表すグラディエン
ト(勾配、いわゆる微分に相当する)を求めるためのも
のであり、例えば3×3のマトリックスからなるテンプ
レートの場合、図10に示すようなソーベル演算子でも
よいし、特に限定されるものではない。これ以外に、例
えばプレヴィット(Prewitt)演算子、キルシュ(Kir
sch)演算子等がありいずれも注目画素における濃度勾配
の大きさおよび方向を算出するためのものである。な
お、これらの演算子となる、本発明に用いられるテンプ
レートを構成するマトリックスは、図10に示すような
3×3に限定されず、そのサイズや形状には特に限定が
なく、どのようなマトリックスであってもよい。本発明
のテンプレートのマトリックスとして、例えば5×5や
7×7や9×9等の正方マトリックスでも、3×5や3
×7や5×9等の正方でないマトリックスでも用いるこ
とができる。
The template 78 is for obtaining a gradient (corresponding to a gradient, so-called differentiation) representing the direction and intensity of the edge of the pixel of interest and its peripheral pixels. For example, in the case of a template consisting of a 3 × 3 matrix. The Sobel operator as shown in FIG. 10 may be used, and it is not particularly limited. Besides this, for example, the Prewitt operator, Kirsh (Kir)
sch) operator and the like, all of which are for calculating the magnitude and direction of the density gradient in the pixel of interest. The matrix forming the template used in the present invention, which serves as these operators, is not limited to 3 × 3 as shown in FIG. 10, and the size and shape thereof are not particularly limited. May be As the matrix of the template of the present invention, for example, a square matrix of 5 × 5, 7 × 7, 9 × 9, etc., is also used as 3 × 5 or 3
A non-square matrix such as × 7 or 5 × 9 can also be used.

【0039】グラディエント算出手段80は、輝度信号
生成手段76によって輝度信号に変換された画像データ
に対して、テンプレート78を用いて、上述したように
各注目画素およびその周辺画素のグラディエントを算出
する。例えば、注目画素を中心とする3×3画素の画像
データの場合、これらの画像データに対して、図10に
示す8方向をそれぞれ示す8種の3×3のテンプレート
を用いて積和を求め、得られた積和および積和が最大値
を示すテンプレートの示す方向をそれぞれその強度およ
び方向とする注目画素のグラディエントを算出する。同
様にして、その周辺画素についてもグラディエントを算
出する。次に、グラディエント記憶手段81は、グラデ
ィエント算出手段80によって算出された各注目画素お
よびその周辺画素のグラディエントの値を記憶する。連
結性算出手段82は、この記憶された各注目画素および
周辺画素のグラディエントから注目画素の連結性を算出
する。すなわち、連結性算出手段82は、注目画素のグ
ラディエントの方向と、この注目画素の近傍画素のグラ
ディエントの方向を比較し、連結性の判定条件に応じて
連結性の有無を判定し、連結性を算出する、具体的に
は、これらの近傍画素のうちの所定数の画素のグラディ
エントの方向が所定条件に一致した場合に連結性ありと
する。連結性の判定条件については、後述する。また、
RGB毎の方向性算出手段84では、各注目画素に対し
R、G、B毎にテンプレート78を用いて、そのRGB
毎のグラディエントを計算し方向性を算出する。
The gradient calculating means 80 calculates the gradient of each target pixel and its peripheral pixels using the template 78 for the image data converted into the luminance signal by the luminance signal generating means 76, as described above. For example, in the case of image data of 3 × 3 pixels centered on the pixel of interest, the sum of products is calculated for these image data by using 8 types of 3 × 3 templates respectively indicating the 8 directions shown in FIG. Then, the gradient of the pixel of interest whose intensity and direction are the directions indicated by the obtained sum of products and the template in which the sum of products is maximum is calculated. Similarly, the gradient is calculated for the peripheral pixels. Next, the gradient storage means 81 stores the values of the gradient of each pixel of interest and its surrounding pixels calculated by the gradient calculation means 80. The connectivity calculator 82 calculates the connectivity of the target pixel from the stored gradients of the target pixel and the peripheral pixels. That is, the connectivity calculating unit 82 compares the gradient direction of the pixel of interest with the gradient direction of the neighboring pixels of the pixel of interest, determines the presence or absence of connectivity according to the connectivity determination condition, and determines the connectivity. It is calculated, and more specifically, connectivity is determined when the gradient directions of a predetermined number of these neighboring pixels match a predetermined condition. The connectivity determination condition will be described later. Also,
The directionality calculating means 84 for each RGB uses the template 78 for each R, G, B for each pixel of interest,
The gradient is calculated for each and the directionality is calculated.

【0040】エッジ部判定・抽出手段86は、連結性算
出手段82で算出された注目画素の連結性と、RGB毎
の方向性算出手段84で算出された方向性とからこの注
目画素がエッジ部であるか、否か、すなわち粒状部かを
判定することにより、エッジ部を抽出する。エッジ部の
判定、抽出が行われた画像データは、画像処理ブロック
72へ送られ、シャープネス強調または粒状抑制処理等
の画像処理(周波数処理)が行われる。
The edge portion determining / extracting means 86 determines the edge portion of the pixel of interest based on the connectivity of the pixel of interest calculated by the connectivity calculating means 82 and the directivity calculated by the directionality calculating means 84 for each RGB. The edge portion is extracted by determining whether or not , that is, the granular portion. The image data for which the edge portion has been determined and extracted is sent to the image processing block 72, and image processing (frequency processing) such as sharpness enhancement or granularity suppression processing is performed.

【0041】本発明に係る画像処理装置およびこれを用
いるデジタルフォトプリンタは、基本的に以上のように
構成される。以下、本発明の画像処理装置およびデジタ
ルフォトプリンタの作用ならびに本発明の画像処理方法
を説明する。
The image processing apparatus and the digital photo printer using the same according to the present invention are basically constructed as described above. Hereinafter, the operation of the image processing apparatus and the digital photo printer of the present invention and the image processing method of the present invention will be described.

【0042】オペレータがフィルムF(読取対象コマ)
に対応するキャリア28をスキャナ12に装填し、キャ
リア28の所定位置にフィルムFをセットし、仕上げ情
報や作成するプリントサイズ等の必要な指示を入力した
後に、プリントの作成開始を指示する。これにより、ス
キャナ12の可変絞り24の絞り値やイメージセンサ3
2(ラインCCDセンサ32R、32G、32B)の蓄
積時間がプレスキャンの読取条件に応じて設定される。
その後、キャリア28がフィルムFをプレスキャンに応
じた速度で副走査方向に搬送して、プレスキャンが開始
され、フィルムFがスリット走査されて投影光がイメー
ジセンサ32に結像して、フィルムFに撮影された画像
がR、G、Bに分解されて光電的に低解像度で読み取ら
れる。なお、ここでは、プレスキャンおよびファインス
キャンは、1コマずつ行ってもよく、全コマあるいは所
定の複数コマずつ、連続的にプレスキャンおよびファイ
ンスキャンを行ってもよい。以下の例では、説明を簡潔
にするために、1コマの画像読取を例に説明を行う。
The operator operates the film F (frame to be read)
The carrier 28 corresponding to is loaded into the scanner 12, the film F is set at a predetermined position of the carrier 28, and after inputting necessary instructions such as finishing information and a print size to be produced, an instruction to start producing a print is given. Thereby, the aperture value of the variable aperture 24 of the scanner 12 and the image sensor 3
The accumulation time of 2 (line CCD sensors 32R, 32G, 32B) is set according to the prescan reading conditions.
After that, the carrier 28 conveys the film F in the sub-scanning direction at a speed according to the pre-scanning, the pre-scanning is started, the film F is slit-scanned, the projection light is imaged on the image sensor 32, and the film F is The image captured in R is separated into R, G, and B, and is photoelectrically read at a low resolution. Here, the prescan and the fine scan may be performed one frame at a time, or the prescan and the fine scan may be continuously performed on all the frames or a predetermined plurality of frames. In the following example, in order to simplify the description, the image reading of one frame will be described as an example.

【0043】プレスキャンによるイメージセンサ32の
出力信号は、アンプ33で増幅されて、A/D変換器3
4に送られ、デジタル画像データとされた後に、本発明
の画像処理装置14に出力される。画像処理装置14に
入力されたデジタル画像データは、スキャナ補正部36
でイメージセンサ32の暗電流等の所定の補正を施した
後、LOG変換器38に送られ、プレスキャンに対応す
る濃度範囲で、例えば、濃度Dで4の濃度範囲を10b
itのデータに割りつけるように、LUTを用いて変換
され、プレスキャン画像データとされ、プレスキャン画
像データは、プレスキャンメモリ40に記憶される。
The output signal of the image sensor 32 by the pre-scan is amplified by the amplifier 33, and the A / D converter 3
4, and after being converted into digital image data, is output to the image processing device 14 of the present invention. The digital image data input to the image processing device 14 is stored in the scanner correction unit 36.
After performing a predetermined correction of the dark current of the image sensor 32, the image sensor 32 is sent to the LOG converter 38, and the density range corresponding to the prescan, for example, the density range of 4 with the density D is 10b.
It is converted using the LUT so as to be allocated to the it data, and is converted into prescan image data, and the prescan image data is stored in the prescan memory 40.

【0044】プレスキャンメモリ40にプレスキャン画
像データが記憶されると、条件設定部48のセットアッ
プ部58がこれを読み出し、濃度ヒストグラムの作成、
ハイライトやシャドー等の画像特徴量の算出等を行い、
ファインスキャンの読取条件を設定して、スキャナ12
に供給し、また、階調調整やグレイバランス調整等の各
種の画像処理条件を設定し、パラメータ統合部62に供
給する。画像処理条件を受け取ったパラメータ統合部6
2は、これを、プレスキャンデータ処理部44およびフ
ァインスキャンデータ処理部46の所定部分(ハードウ
エアおよびソフトウエア)に設定する。
When the prescan image data is stored in the prescan memory 40, the setup section 58 of the condition setting section 48 reads it out and creates a density histogram,
Calculate image features such as highlights and shadows,
Set the scanning conditions for fine scan, and then scan the scanner 12
In addition, various image processing conditions such as gradation adjustment and gray balance adjustment are set and supplied to the parameter integration unit 62. Parameter integration unit 6 that received the image processing conditions
2 sets this in a predetermined portion (hardware and software) of the prescan data processing unit 44 and the fine scan data processing unit 46.

【0045】検定を行う場合には、プレスキャン画像デ
ータがプレスキャンデータ処理部44によってプレスキ
ャンメモリ40から読みだされ、画像処理部50におい
て設定された画像処理条件で画像処理され、次いで、画
像データ変換部52で変換され、シュミレーション画像
としてモニタ20に表示される。オペレータは、モニタ
20の表示を見て、画像すなわち処理結果の確認(検
定)を行い、必要に応じてキーボード18aに設定され
た調整キー等を用いて色、濃度、階調等を調整する。こ
の調整の入力は、キー補正部60に送られ、キー補正部
60は調整入力に応じた画像処理条件の補正量を算出
し、これをパラメータ統合部62に送る。パラメータ統
合部62は、送られた補正量に応じて、画像処理部50
および54のLUTやMTX等を補正する。従って、こ
の補正すなわちオペレータによる調整入力に応じて、モ
ニタ20に表示される画像も変化する。
When performing the verification, the prescan image data is read from the prescan memory 40 by the prescan data processing unit 44, image processed under the image processing conditions set in the image processing unit 50, and then the image is processed. The data is converted by the data conversion unit 52 and displayed on the monitor 20 as a simulation image. The operator confirms (verifies) the image, that is, the processing result, by looking at the display on the monitor 20, and adjusts the color, density, gradation and the like using the adjustment key or the like set on the keyboard 18a as necessary. The input of this adjustment is sent to the key correction unit 60, the key correction unit 60 calculates the correction amount of the image processing condition according to the adjustment input, and sends it to the parameter integration unit 62. The parameter integration unit 62 uses the image processing unit 50 according to the sent correction amount.
And LUT and MTX of 54 are corrected. Therefore, the image displayed on the monitor 20 also changes according to this correction, that is, the adjustment input by the operator.

【0046】オペレータは、このコマの画像が適正(検
定OK)であると判定すると、キーボード18a等を用
いてプリント開始を指示する。これにより、画像処理条
件が確定し、スキャナ12において可変絞り24の絞り
値等が設定されたファインスキャンの読取条件に応じて
設定されると共に、キャリア28がファインスキャンに
対応する速度でフィルムFを搬送し、ファインスキャン
が開始される。なお、検定を行わない場合には、パラメ
ータ統合部62によるファインスキャンデータ処理部4
6の画像処理部54への画像処理条件の設定を終了した
時点で画像処理条件が確定し、ファインスキャンが開始
される。ファインスキャンは、可変絞り24の絞り値等
の読取条件が異なる以外はプレスキャンと同様に行わ
れ、イメージセンサ32からの出力信号はアンプ33で
増幅されて、処理装置14のA/D変換器34でデジタ
ル濃度データとされ、スキャナ補正部36で所定の処理
を施され、LOG変換器38に送られる。LOG変換器
38において、ファインスキャンデジタル画像データは
プレスキャンよりも高い濃度分解能で処理され、例え
ば、濃度Dで2の濃度範囲を10bitのデータに割り
つけるようにLUTで変換され、ファインスキャン画像
データとされた後、ファインスキャンメモリ42に送ら
れる。
When the operator determines that the image of this frame is proper (verification is OK), the operator gives an instruction to start printing by using the keyboard 18a or the like. As a result, the image processing conditions are determined, the aperture value of the variable aperture 24 in the scanner 12 is set in accordance with the fine scanning reading conditions, and the carrier 28 moves the film F at a speed corresponding to the fine scanning. The paper is conveyed and the fine scan is started. When the verification is not performed, the fine scan data processing unit 4 by the parameter integration unit 62 is used.
When the setting of the image processing conditions to the image processing unit 54 of No. 6 is completed, the image processing conditions are determined and the fine scan is started. The fine scan is performed in the same manner as the pre-scan except that the reading conditions such as the aperture value of the variable aperture 24 are different. The output signal from the image sensor 32 is amplified by the amplifier 33, and the A / D converter of the processing device 14 is obtained. The data is converted into digital density data in 34, subjected to predetermined processing in the scanner correction section 36, and sent to the LOG converter 38. In the LOG converter 38, the fine scan digital image data is processed with a density resolution higher than that in the prescan, and is converted by the LUT so as to allocate the density range of 2 with the density D to 10 bit data, and the fine scan image data is obtained. Then, it is sent to the fine scan memory 42.

【0047】画像処理部54においては、色濃度階調変
換手段64により、ルックアップテーブルに従って、フ
ァインスキャン画像データの濃度データ、色データおよ
び階調データが変換され、彩度変換手段66によって、
マトリックス演算にしたがって、画像信号の彩度データ
が変換される。ついで、カラーペーパに出力するカラー
画像のサイズに応じて、電子変倍手段68により、画像
データ信号の画素デー数が増減された後、画像信号は、
エッジ部抽出手段70に入力される。
In the image processing section 54, the color density gradation converting means 64 converts the density data, color data and gradation data of the fine scan image data in accordance with the look-up table, and the saturation converting means 66.
The saturation data of the image signal is converted according to the matrix calculation. Then, according to the size of the color image to be output to the color paper, the electronic scaling unit 68 increases or decreases the pixel data number of the image data signal, and then the image signal is
It is input to the edge part extraction means 70.

【0048】色調変換手段74によって色調変換された
原画像信号は、輝度信号生成手段76において輝度信号
Yに変換され、グラディエント算出手段80に入力され
る。グラディエント算出手段80では、テンプレート7
8を用いて注目画素およびその周辺画素の濃度勾配の大
きさおよび方向を表すベクトル量であるグラディエント
が算出される。
The original image signal whose color tone has been converted by the color tone converting means 74 is converted into the luminance signal Y by the luminance signal generating means 76 and input to the gradient calculating means 80. In the gradient calculating means 80, the template 7
8 is used to calculate a gradient, which is a vector amount representing the magnitude and direction of the density gradient of the target pixel and its peripheral pixels.

【0049】例えば、図11(a)に示したような注目
画素と周辺画素からなる3×3画像データに対し、図1
0に示すような3×3のテンプレートa1〜a8を用い
て、前述したように積和演算を行い、最も大きな積和お
よび最大積和に対応するテンプレートからその強度およ
び方向を持つ注目画素のグラディエントを算出する。次
に、これらの周辺画素の中から注目画素のグラディエン
トの方向に90°の方向(直交する方向)の両側の2つ
の隣接画素を連結性の有無を判定するために用いる近傍
画素として選択し、これらの2つの隣接画素について、
その隣接画素を中心とした3×3の画像をとり、同様に
その隣接画素のグラディエントを算出する。このとき、
注目画素のグラディエントの方向が図6に矢印で示すよ
うな場合、○印で示すものが隣接画素となる。例えば、
3×3画像データに対し、その方向が図11(b)に矢
印で示す方向であったとすると、図中左上隅の画素値1
のものおよび図中右下隅の画素値5のものが2つの隣接
画素となる。
For example, for 3 × 3 image data composed of a target pixel and peripheral pixels as shown in FIG.
The 3 × 3 templates a1 to a8 shown in FIG. 0 are used to perform the product-sum operation as described above, and the gradient of the pixel of interest having the intensity and direction from the template corresponding to the largest product-sum and maximum product-sum is calculated. To calculate. Next, from these peripheral pixels, two adjacent pixels on both sides in the direction of 90 ° (direction orthogonal to) the gradient direction of the pixel of interest are selected as neighboring pixels used for determining the presence or absence of connectivity, For these two adjacent pixels,
A 3 × 3 image centered on the adjacent pixel is taken, and the gradient of the adjacent pixel is calculated in the same manner. At this time,
When the gradient direction of the pixel of interest is as indicated by an arrow in FIG. 6, the one indicated by a circle is the adjacent pixel. For example,
For 3 × 3 image data, if the direction is the direction indicated by the arrow in FIG. 11B, the pixel value 1 at the upper left corner in the figure is 1
And two pixels having a pixel value of 5 in the lower right corner in the figure are two adjacent pixels.

【0050】グラディエント算出手段80は、これらの
隣接画素それぞれについてグラディエントを算出し、そ
の方向を求める。そして、こうして得られた注目画素お
よび周辺画素のグラディエントは、グラディエント記憶
手段81に記憶される。連結性算出手段82は、記憶さ
れた注目画素および周辺画素のグラディエントの方向か
ら、注目画素の連結性を判定する。2つの隣接画素のグ
ラディエントの方向が、いずれも注目画素のグラディエ
ントの方向と45°以内の方向をなすとき、当該注目画
素は連結性ありと判定される。
The gradient calculating means 80 calculates the gradient of each of these adjacent pixels and obtains its direction. Then, the gradients of the target pixel and the peripheral pixels thus obtained are stored in the gradient storage unit 81. The connectivity calculator 82 determines the connectivity of the target pixel from the stored gradient directions of the target pixel and the peripheral pixels. When the gradient directions of the two adjacent pixels are both within 45 ° with the gradient direction of the pixel of interest, the pixel of interest is determined to have connectivity.

【0051】一方、RGB毎の方向性算出手段(以下、
方向性算出手段という)84は、同一注目画素に関する
R、G、Bの3つの画像データについて、テンプレート
78を用いて同様にグラディエントを計算し、図7に示
すように、R、G、B毎の方向性を算出する。
On the other hand, the directionality calculating means for each RGB (hereinafter,
The directionality calculating means) 84 similarly calculates the gradient for the three image data of R, G, B relating to the same target pixel using the template 78, and as shown in FIG. 7, for each R, G, B. Calculate the directionality of.

【0052】エッジ部判定・抽出手段86は、連結性算
出手段82および方向性算出手段84でそれぞれ算出さ
れた注目画素の連結性およびRGB毎の方向性から、エ
ッジ部の判定および抽出を行う。注目画素が連結性を有
し、かつRGB毎の方向性が45°以内の方向性を有す
る場合に、当該注目画素は、エッジ部であると判定さ
れ、エッジ部として残すこととされ、そうでない場合に
は捨てるものとされる。ここでRGB毎の方向性が45
°以内の方向性を有するとは、注目するチャンネル、例
えばGに注目するとき、図7に示すように、Rの方向も
Bの方向もGの方向に対し45°以内であることをい
う。
The edge portion determination / extraction means 86 determines and extracts the edge portion from the connectivity of the pixel of interest and the directionality of each RGB calculated by the connectivity calculation means 82 and the directionality calculation means 84, respectively. When the pixel of interest has connectivity and the directionality of each RGB has a directionality of 45 ° or less, the pixel of interest is determined to be an edge portion and is left as an edge portion, and is not so. In some cases, it will be discarded. Here, the directionality of each RGB is 45
Having directionality within ° means that, when attention is paid to a channel of interest, for example, G, both the R direction and the B direction are within 45 ° with respect to the G direction as shown in FIG. 7.

【0053】こうしてエッジ部であると判定された注目
画素について、グラディエント算出手段80で算出され
た、そのグラディエントの方向をエッジの方向といい、
グラディエントの大きさをエッジの強度という。このエ
ッジの強度はエッジの傾きを表しており、強度の大きい
エッジは傾きの大きいクッキリしたエッジであると言え
る。従って、この強度を用いて、画像のシャープネス強
調や粒状抑制をする際の程度、すなわち強度を決めるゲ
インをコントロールすることができる。なお、エッジ部
であると判定されなかった注目画素については、グラデ
ィエントの強度は0とするものとする。例えばエッジ部
では画像データの高周波成分のゲインをグラディエント
の強度に応じて大きくして画像の鮮鋭度を強調し、エッ
ジ部を含まない平坦部(粒状部)では画像データの中周
波成分のゲインをグラディエントの強度に応じて小さく
して、画像の粒状によるザラツキなどを抑制することが
できる。
The direction of the gradient calculated by the gradient calculating means 80 for the pixel of interest determined to be the edge portion in this way is called the edge direction,
The magnitude of the gradient is called the edge strength. The strength of this edge represents the inclination of the edge, and it can be said that an edge having a large strength is a sharp edge having a large inclination. Therefore, by using this strength, the degree of sharpness enhancement or graininess suppression of the image, that is, the gain that determines the strength can be controlled. The intensity of the gradient is set to 0 for the target pixel that is not determined to be the edge portion. For example, in the edge part, the gain of the high frequency component of the image data is increased according to the intensity of the gradient to emphasize the sharpness of the image, and in the flat part (granular part) not including the edge part, the gain of the middle frequency component of the image data is increased. The grain size can be reduced in accordance with the intensity of the gradient to suppress graininess of the image.

【0054】より詳細には、所定グライディエント強度
までは、グライディエント強度に応じて1.0より小さ
い値から1.0より大きい値まで増大して、所定グライ
ディエント強度より大きい範囲では一定となる関数を中
周波成分のゲインとし、この中周波成分のゲインとほぼ
相似でこの中周波成分のゲインより大きい値をとる関数
を高周波成分のゲインとする中・高周波ゲイン制御のた
めのルックアップテーブル(LUT)を用意し、エッジ
部のシャープネス強調は、グラディエントの強度をエッ
ジの強度と考え、グラディエント強度に応じて中・高周
波成分のゲイン制御LUTによってゲイン強度を算出す
る。非エッジ部では、グラディエント強度を0と考え
て、同様にゲイン強度を算出する。こうして、注目画素
のグラディエント強度に応じたゲイン制御を行う。エッ
ジ部では、中・高周波成分とも強調することにより、シ
ャープネスを強調する。エッジ強度の大きい画素ほど強
いシャープネスをかけることになる。この時、シャープ
ネス強調に伴う粒状の荒れを抑制するために、中周波成
分のゲインは高周波成分のゲインよりも小さくする。非
エッジ部では、特に、この中周波成分のゲインを1.0
より小さくすることにより、粒状性の悪いフィルムにお
いても、効果的に粒状を抑制できる。同時に、シャープ
ネス感を落とさないために高周波成分のゲインは1.0
より大きくする。この時、エッジ部のゲインよりやや弱
いゲインをかけることにより、エッジ感のあるシャープ
ネス画像を得ることができる。さらに、注目画素のネガ
濃度を算出して、アンダー露光の場合には、粒状抑制を
より強くかけるようにしてもよい。
More specifically, up to a predetermined gradient intensity, the value increases from a value smaller than 1.0 to a value larger than 1.0 in accordance with the gradient intensity, and within a range larger than the predetermined gradient intensity. A look for medium- and high-frequency gain control in which a function that becomes constant is the gain of the medium-frequency component, and a function that is similar to the gain of the medium-frequency component and has a value larger than the gain of the medium-frequency component is the gain of the high-frequency component. An up table (LUT) is prepared, and for the sharpness enhancement of the edge portion, the intensity of the gradient is considered to be the intensity of the edge, and the gain intensity is calculated by the gain control LUT for the medium / high frequency components according to the gradient intensity. In the non-edge portion, the gradient strength is considered to be 0, and the gain strength is calculated similarly. In this way, the gain control according to the gradient intensity of the pixel of interest is performed. At the edge part, the sharpness is emphasized by emphasizing the middle and high frequency components. Pixels with higher edge strength will have stronger sharpness. At this time, the gain of the medium frequency component is set to be smaller than the gain of the high frequency component in order to suppress the granular roughness caused by the sharpness enhancement. Especially in the non-edge part, the gain of this medium frequency component is 1.0
By making it smaller, graininess can be effectively suppressed even in a film having poor graininess. At the same time, the gain of the high frequency component is 1.0 in order to maintain the sharpness.
Make it bigger. At this time, a sharpness image with an edge feeling can be obtained by applying a gain slightly weaker than the gain of the edge portion. Further, the negative density of the pixel of interest may be calculated, and in the case of underexposure, grain suppression may be more strongly applied.

【0055】エッジ部の判定、抽出が行われた画像デー
タは、画像処理ブロック72に送られる。画像処理ブロ
ック72では、シャープネス強調や粒状抑制その他の画
像処理がおこなわれる。その後、画像処理済の画像デー
タは、画像データ変換部56に入力されて、画像出力用
画像データに変換された後、画像処理装置14から、画
像記録装置16に出力される。
The image data for which the edge portion has been determined and extracted is sent to the image processing block 72. The image processing block 72 performs image processing such as sharpness enhancement and grain suppression. After that, the image-processed image data is input to the image data conversion unit 56, converted into image output image data, and then output from the image processing device 14 to the image recording device 16.

【0056】画像記録装置16は、入力画像データに応
じて感光材料(印画紙)を露光して潜像を記録するプリ
ンタ(焼付装置)と、露光済の感光材料に所定の処理を
施してプリントとして出力するプロセサ(現像装置)と
を有する。プリンタでは、例えば、感光材料を仕上がり
プリントに応じた所定長に切断した後に、バックプリン
トを記録し、次いで、感光材料の分光感度特性に応じた
R露光、G露光およびB露光の3種の光ビームを処理装
置14から出力された画像データに応じて変調して主走
査方向に偏向するとともに、主走査方向と直交する副走
査方向に感光材料を搬送することにより、前記光ビーム
で感光材料を2次元的に走査露光して潜像を記録し、プ
ロセサに供給する。潜像が形成された感光材料を受け取
ったプロセサは、発色現像、漂白定着、水洗等の所定の
湿式現像処理を行い、乾燥して仕上がりプリントとし、
フィルム1本分等の所定単位に仕分けて集積する。
The image recording device 16 is a printer (printing device) for exposing a photosensitive material (photographic paper) to record a latent image according to input image data, and a predetermined process for printing the exposed photosensitive material for printing. And a processor (developing device) for outputting as. In a printer, for example, after cutting a photosensitive material into a predetermined length according to a finished print, a back print is recorded, and then three kinds of light of R exposure, G exposure, and B exposure according to the spectral sensitivity characteristics of the photosensitive material are recorded. The beam is modulated in accordance with the image data output from the processing device 14 to be deflected in the main scanning direction, and the photosensitive material is conveyed in the sub-scanning direction orthogonal to the main scanning direction. Two-dimensional scanning exposure is performed to record a latent image and the latent image is supplied to the processor. The processor receiving the light-sensitive material on which the latent image is formed is subjected to predetermined wet development processing such as color development, bleach-fixing, washing with water, and dried to obtain a finished print.
The film is sorted into a predetermined unit such as one film and collected.

【0057】以上、本発明の画像処理装置およびデジタ
ルフォトプリンタの作用を本発明の画像処理方法を含め
て基本的に説明したが、以下に、特に、本発明の画像処
理方法について図8を参照して説明する。図8は、上述
したエッジ部抽出手段70において実施される本発明の
画像処理方法の各処理を示すフローチャートである。図
8において、step1で、注目画素のグラディエント
の方向および強度を計算する。step2で、注目画素
のグラディエントの方向と90°の方向の2つの隣接画
素のグラディエントを計算しその方向性をチェックす
る。step3で、2つの隣接画素と注目画素の方向を
比較し、いずれもが45°以内の方向性を有するときは
連結性を有するとする。step4で、RGB各チャン
ネル毎に注目画素のグラディエントを計算し、その方向
性をチェックする。最後にstep5で、前に求めた連
結性とRGB毎の方向性から注目画素がエッジ部である
か否かの判定を行う。
The operation of the image processing apparatus and the digital photo printer of the present invention has been basically described above including the image processing method of the present invention. In particular, referring to FIG. 8 for the image processing method of the present invention, reference will be made below. And explain. FIG. 8 is a flowchart showing each processing of the image processing method of the present invention executed in the above-mentioned edge portion extracting means 70. In FIG. 8, in step 1, the gradient direction and intensity of the pixel of interest are calculated. In step 2, the gradients of the two adjacent pixels in the direction of the gradient of the pixel of interest and the direction of 90 ° are calculated and the directionality thereof is checked. In step 3, the directions of the two adjacent pixels and the target pixel are compared with each other, and if both have a directional property within 45 °, it is assumed that they have connectivity. In step 4, the gradient of the pixel of interest is calculated for each of the RGB channels and the directionality thereof is checked. Finally, in step 5, it is determined whether or not the pixel of interest is an edge portion based on the connectivity previously obtained and the directivity for each RGB.

【0058】上記実施形態では、注目画素を中心とし、
周りの8個の画素を周辺画素とする3×3画素の画像デ
ータに対して、図10に示す8方向をそれぞれ示す8種
の3×3のテンプレートを用い、連結性の有無を判定す
るために用いる近傍画素の取り方として、周辺画素の中
から注目画素のグラディエントの方向に90°の方向の
両側の2つの隣接画素を選択し、連結性の判定条件、す
なわち連結性ありの判定条件として、これらの両側の隣
接画素のグラディエントの方向が注目画素のグラディエ
ントの方向となす角がともに45°以内であること、エ
ッジ部の判定条件、すなわちエッジ部であるとする条件
として連結性があり、RGB毎の方向性が45°以内の
方向性を有することを選択する場合を代表例として説明
しているが、本発明はこれに限定されず、注目画素およ
び周辺画素や連結性の有無を判定するための近傍画素は
どのような取り方をしてもよいし、注目画素および周辺
画素の取り方に対応していれば、テンプレートはどのよ
うなテンプレートを用いてもよいし、エッジ部の判定が
可能であれば、連結性の判定条件やエッジ部の判定条件
はどのように設定してもよい。
In the above embodiment, the pixel of interest is centered,
To determine the presence / absence of connectivity by using 8 types of 3 × 3 templates each showing 8 directions shown in FIG. 10 for 3 × 3 pixel image data having 8 surrounding pixels as peripheral pixels. As the method of taking the neighboring pixels used for the above, two adjacent pixels on both sides in the direction of 90 ° in the gradient direction of the pixel of interest are selected from among the surrounding pixels, and as a determination condition of connectivity, that is, as a determination condition of connectivity, , The angles of the gradient directions of the adjacent pixels on both sides of the gradient direction of the pixel of interest are both within 45 °, and there is connectivity as a condition for determining an edge portion, that is, a condition for being an edge portion, The case where the directivity for each RGB is selected to have a directivity within 45 ° has been described as a representative example, but the present invention is not limited to this, and the target pixel and peripheral pixels and the connectivity are not limited. Any method may be used for the neighboring pixels for determining the presence / absence, and any template may be used as long as it corresponds to the method of taking the target pixel and peripheral pixels As long as the part can be determined, the connectivity determination condition and the edge part determination condition may be set in any manner.

【0059】例えば、本発明に用いられる注目画素とそ
の周辺画素としては、そのサイズや形状には特に制限が
なく、3×3画素の他、5×5、7×7、9×9等の正
方形画素でもよいし、3×5や3×7や5×9等の正方
形でない矩形画素でも、任意の形状の画素でもよい。従
って、周辺画素も、注目画素の周囲の8画素の他、14
画素、20画素、24画素など、もっと広い画素範囲に
わたって見るようにしてもよい。また、本発明に用いら
れるテンプレートも、そのサイズや形状や数には特に制
限がなく、3×3の正方マトリックスの他、用いられる
注目画素とその周辺画素に応じて5×5や7×7や9×
9等の正方マトリックスでも、3×5や3×7や5×9
等の正方でない矩形マトリックスでも、その他の形状の
テンプレートでもよい。テンプレートの数も、8方向を
示す8種類に限定されず、これ以上でも、これ以下でも
よい。
For example, the size and shape of the target pixel and its peripheral pixels used in the present invention are not particularly limited, and in addition to 3 × 3 pixels, 5 × 5, 7 × 7, 9 × 9, etc. It may be a square pixel, a non-square rectangular pixel such as 3 × 5, 3 × 7 or 5 × 9, or a pixel of any shape. Therefore, in addition to the 8 pixels around the pixel of interest,
You may make it look over a wider pixel range, such as a pixel, 20 pixels, and 24 pixels. The template used in the present invention is also not particularly limited in size, shape, or number, and in addition to a 3 × 3 square matrix, 5 × 5 or 7 × 7 depending on the target pixel used and its peripheral pixels. And 9x
Even with a square matrix such as 9, 3x5, 3x7, or 5x9
A non-square rectangular matrix such as, or a template having another shape may be used. The number of templates is not limited to eight types indicating eight directions, and may be more or less.

【0060】また、連結性の有無を判定するための近傍
画素の取り方としては、そのサイズや形状には特に制限
がなく、注目画素のグラディエントの方向に直交する両
側の2つの隣接画素の他、周辺の何画素かを同時に見る
ようにしてもよく、例えば、注目画素を中心とする、上
述した正方形画素や正方形でない矩形画素や任意の形状
の画素の注目画素を除く画素でもよいが、注目画素を中
心とし、この注目画素の(グラディエントの)方向と直
交する方向により多く存在する1×3画素、1×5画
素、3×5画素、3×7画素および、図12に示すよう
に5×9画素などの矩形画素から中心画素を除いた画素
とするのが好ましい。この理由は、画像のエッジは、あ
る長さを持つので、連結性を見るためには、エッジの長
さ方向、すなわち注目画素の方向に直交する方向に広く
取るのがよいからである。なお、注目画素のエッジの方
向が斜めの場合、これに直交する斜め方向に対して複数
の画素を取るが、それが複数列の場合、例えば、3×5
画素を取ると、斜めの5画素の並びの間に4画素の並び
が存在するが、近傍画素としては、これらを全て含めた
全23画素を取るのが好ましい。
There are no particular restrictions on the size or shape of the neighboring pixels for determining the presence or absence of connectivity, and two neighboring pixels on both sides orthogonal to the gradient direction of the pixel of interest can be used. , Some peripheral pixels may be viewed at the same time, and for example, the above-described square pixel, non-square rectangular pixel, or pixel of any shape excluding the pixel of interest centered on the pixel of interest may be used. The 1 × 3 pixels, the 1 × 5 pixels, the 3 × 5 pixels, the 3 × 7 pixels, which are more frequently present in the direction orthogonal to the (gradient) direction of this pixel of interest, as shown in FIG. It is preferable to use rectangular pixels such as × 9 pixels excluding the central pixel. The reason for this is that the edges of the image have a certain length, and in order to see the connectivity, it is good to take a wide width in the edge length direction, that is, in the direction orthogonal to the direction of the pixel of interest. It should be noted that when the edge direction of the target pixel is oblique, a plurality of pixels are taken in the oblique direction orthogonal to this, but when it is in a plurality of columns, for example, 3 × 5.
When pixels are taken, there is an array of 4 pixels between an array of 5 diagonal pixels, but it is preferable to take all 23 pixels including all of these as neighboring pixels.

【0061】また、本発明において、連結性ありとする
連結性の判定条件としては、注目画素のグラディエント
の方向と注目画素の近傍画素のグラディエントの方向を
比較し、近傍画素のうちの所定数の画素の方向が所定条
件に一致することであるが、近傍画素の方向の50%以
上が注目画素の方向と45°以内である場合であるのが
好ましい。すなわち、連結性の判定ための近傍画素中の
グディエントの方向性が注目画素と所定条件で一致する
所定数の画素の割合は、少なくとも50%であればよ
く、より好ましくは70%以上、さらに好ましくは80
%以上、最も好ましくは90%以上であり、もちろん1
00%でもよいが、後述するように、種々の条件に応じ
て変えることができる。また、近傍画素の方向性の所定
条件は、45°以内であるのがよく、より好ましくは3
0°以内であるのがよく、もちろん0°(完全一致)で
も、0°〜45°の範囲内のいずれの角度以内としても
よいが、連結性の抽出もれを無くして判定精度を上げる
ためには、ある幅をもつのが好ましい。この点でも、4
5°以内や30°以内が好ましい。この所定条件も、後
述する種々の条件に応じて変えることができる。もちろ
ん、上述したような、注目画素の両側の2つの隣接画素
などの連結性の判定ための近傍画素のグラディエントの
方向の全てが45°以内というは、極めて好ましい連結
性判定条件の1つである。
Further, in the present invention, as the condition for determining connectivity with connectivity, the gradient direction of the pixel of interest is compared with the gradient direction of neighboring pixels of the pixel of interest, and a predetermined number of neighboring pixels are selected. The direction of the pixel matches the predetermined condition, but it is preferable that 50% or more of the direction of the neighboring pixel is within 45 ° with the direction of the pixel of interest. That is, the proportion of the predetermined number of pixels in which the directionality of the gradient in the neighboring pixels for determining the connectivity matches the target pixel under the predetermined condition may be at least 50%, more preferably 70% or more, and further preferably Is 80
% Or higher, most preferably 90% or higher, of course 1
Although it may be 00%, it can be changed according to various conditions as described later. Further, the predetermined condition of the directionality of the neighboring pixels is preferably within 45 °, more preferably 3
It is better to be within 0 °, and of course, it may be within 0 ° (perfect match) or within any angle within the range of 0 ° to 45 °, but in order to eliminate the omission of connectivity and improve the determination accuracy. Preferably has a certain width. Also in this respect, 4
It is preferably within 5 ° or within 30 °. This predetermined condition can also be changed according to various conditions described later. Of course, one of the extremely preferable connectivity determination conditions is that all the gradient directions of neighboring pixels for determining connectivity of two adjacent pixels on both sides of the target pixel are within 45 ° as described above. .

【0062】また、エッジ部であると判定するエッジ部
の判定条件の1つであるRGB毎の方向性の条件は、上
述の連結性判定のための近傍画素の方向性の所定条件と
全く同様に、0°〜45°の範囲内のいずれの角度以内
としてもよいが、上記実施形態の45°以内の方向性が
好ましく、より好ましくは、30°以内の方向性であ
る。この方向性の条件も、後述する種々の条件に応じて
変えることができる。さらに、連結性の判定のための近
傍画素の方向性の所定条件とエッジ部の判定のためのR
GB毎の方向性の条件は、上記実施形態では45°以内
と同一であるが、異なっていてもよい。
The directionality condition for each RGB, which is one of the edge condition determination conditions for determining an edge part, is exactly the same as the above-described predetermined condition for the directionality of neighboring pixels for connectivity determination. The angle may be within any angle within the range of 0 ° to 45 °, but the directionality within 45 ° of the above embodiment is preferable, and the directionality within 30 ° is more preferable. This directional condition can also be changed according to various conditions described later. Furthermore, a predetermined condition for the directionality of neighboring pixels for determining connectivity and R for determining edge portions are used.
The directionality condition for each GB is the same as within 45 ° in the above embodiment, but may be different.

【0063】ここで、上述したように、テンプレートの
サイズ(形状)や数、近傍画素の取り方、連結性の判定
条件、すなわち近傍画素の方向性の所定条件および近傍
画素中の方向性の所定条件を満たす画素の割合、および
RGB毎の方向性の条件は、様々に変更可能であるが、
例えば、原稿種(高感度ネガフィルム、低感度ネガフィ
ルム、リバーサルフィルム、反射原稿、デジタルカメラ
によって撮影された画像等)、原稿サイズ(240(A
PS)、110、135、120および220(ブロー
ニー)等)、プリント倍率、プリントサイズ、カメラ種
および撮影時の露光条件(アンダ−、オーバー)など項
目に応じて変えてもよく、これらの項目の少なくとも1
つに応じて決定されるのが好ましい。なお、これらの項
目の少なくとも1つに応じた上記種々の条件の決定の仕
方も限定的ないことはもちろんである。ここで、これら
の項目のうち、例えば、プリント倍率および原稿種は、
近傍画素の取り方や、連結性の判定条件およびRGB毎
の方向性の条件などの条件に大きく影響するが、プリン
ト倍率が変わった場合には、主として近傍画素の取り方
を変え、これらの条件は変えない方が好ましく、原稿
種、例えば、フィルム感度が変わった場合には、主とし
てこれらの条件を変え、すなわち高感度フィルムでは低
感度フィルムより条件を厳しくし、近傍画素の取り方は
変えない方が好ましい。さらに、撮影時の露光条件で
は、アンダー露光の場合には主としてこれらの条件を甘
くし、近傍画素の取り方は変えない方が好ましい。
Here, as described above, the size (shape) and number of the template, the way of taking the neighboring pixels, the connectivity determination condition, that is, the predetermined condition of the neighboring pixels and the predetermined directionality of the neighboring pixels. The ratio of pixels satisfying the condition and the condition of the directivity for each RGB can be changed variously.
For example, the original type (high-sensitivity negative film, low-sensitivity negative film, reversal film, reflective original, images taken by a digital camera, etc.), original size (240 (A
PS), 110, 135, 120 and 220 (Brownie, etc.), print magnification, print size, camera type and exposure conditions (under, over) at the time of shooting, etc. At least 1
It is preferable to determine it according to one. It is needless to say that the method of determining the above various conditions according to at least one of these items is not limited. Here, among these items, for example, the print magnification and the document type are
Although it has a great influence on conditions such as how to take neighboring pixels and the conditions for determining connectivity and the directionality of each RGB, when the print magnification changes, the way to take neighboring pixels is mainly changed to meet these conditions. It is preferable not to change, and when the original type, for example, the film sensitivity is changed, these conditions are mainly changed, that is, the conditions for high-sensitivity film are stricter than those for low-sensitivity film, and the way of taking neighboring pixels is not changed. Is preferred. Furthermore, it is preferable that the exposure conditions at the time of photographing are mainly made weaker in the case of underexposure and the way of taking neighboring pixels is not changed.

【0064】図9に、本実施形態の効果を従来と比較し
て示す。まず、図9(a)は、従来の場合で、RGB毎
の方向性の判定はせず、隣接画素についても、どちらか
一方が許容内(45°以内)として判定したものであ
る。この場合は、本来のエッジ部である白線の他に粒状
部を表す白い粒子が多数残っている。これに対し、
(b)は、RGB毎の方向性は見ないが、隣接画素の両
方とも許容内(45°以内)としたものである。これに
よれば、エッジ部の判定がより正確となり、かなり粒子
が減っている。また、(c)は、隣接画素については従
来と同じで、隣接画素のどちらか一方が許容内としたも
のであるが、これに加えてRGB毎の方向性を判定する
ようにしたものである。すなわち、注目チャンネル以外
の両方のチャンネルが許容内の方向性を持つとした場合
である。この場合も粒子がかなり除去されている。
FIG. 9 shows the effect of this embodiment in comparison with the conventional one. First, FIG. 9A shows the case of the related art, in which the directionality of each RGB is not determined, and one of the adjacent pixels is determined to be within the allowable range (within 45 °). In this case, in addition to the white line that is the original edge portion, a large number of white particles that represent granular portions remain. In contrast,
In (b), the directivity for each RGB is not seen, but both adjacent pixels are within the allowable range (within 45 °). According to this, the determination of the edge portion becomes more accurate, and the number of particles is considerably reduced. Further, (c) is the same as the conventional one with respect to the adjacent pixel, and either one of the adjacent pixels is within the allowable range, but in addition to this, the directionality for each RGB is determined. . That is, this is the case where both channels other than the channel of interest have the allowable directionality. In this case too, the particles are largely removed.

【0065】また、図9(d)は、上に説明した本実施
形態の場合で(b)と(c)を一緒にしたものである。
すなわち、隣接画素については、両方とも許容内とし、
かつRGB毎の方向性(注目チャンネル以外の両方のチ
ャンネルが許容内)も見る様にしたものである。この場
合は、より一層エッジ部判定が正確となり、粒子がほと
んど残っていない。さらに、(e)は、隣接画素の両方
が同じ方向、かつRGBについても注目チャンネル以外
の両方が同じ方向としたものである。これも効果は
(d)とほぼ同じである。
Further, FIG. 9D shows a combination of (b) and (c) in the case of the present embodiment described above.
That is, for adjacent pixels, both are within the allowable range,
In addition, the directionality of each RGB (both channels other than the channel of interest are within tolerance) is also viewed. In this case, the edge determination is more accurate, and almost no particles remain. Further, in (e), both adjacent pixels have the same direction, and also with respect to RGB, both except the attention channel have the same direction. This also has the same effect as (d).

【0066】このように本実施形態によれば、隣接画素
の両方とも許容内とするとともにRGB毎の方向性をも
見るようにしたため、従来より精度よくエッジ部の抽出
をすることができるようになった。
As described above, according to the present embodiment, since both adjacent pixels are within the allowable range and the directionality of each RGB is also viewed, the edge portion can be extracted more accurately than before. became.

【0067】以上、本発明の画像処理方法および装置に
ついて詳細に説明したが、本発明は以上の例には限定は
されず、本発明の要旨を逸脱しない範囲において、各種
の改良や変更を行ってもよいのはもちろんである。
Although the image processing method and apparatus of the present invention have been described above in detail, the present invention is not limited to the above examples, and various improvements and changes can be made without departing from the gist of the present invention. Of course it is okay.

【0068】[0068]

【発明の効果】以上、説明した通り本発明によれば、従
来より精度よくエッジ部を抽出できるようになり、高品
質な出力画像を得ることができるようになった。
As described above, according to the present invention, it is possible to extract an edge portion more accurately than before, and it is possible to obtain a high quality output image.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の画像処理方法を実施する画像処理装
置を適用するデジタルフォトプリンタの一実施例のブロ
ック図である。
FIG. 1 is a block diagram of an embodiment of a digital photo printer to which an image processing apparatus that implements an image processing method of the present invention is applied.

【図2】 (a)は、図1に示されるデジタルフォトプ
リンタに装着されるキャリアの一実施例を説明するため
の概略斜視図であり、(b)は、図1に示されるデジタ
ルフォトプリンタのイメージセンサの一実施例の概念図
である。
2A is a schematic perspective view for explaining an embodiment of a carrier mounted on the digital photo printer shown in FIG. 1, and FIG. 2B is a digital photo printer shown in FIG. 2 is a conceptual diagram of an example of the image sensor of FIG.

【図3】 図1に示されるデジタルフォトプリンタの本
発明の画像処理方法を実施する画像処理装置の一実施例
のブロック図である。
FIG. 3 is a block diagram of an embodiment of an image processing apparatus for carrying out the image processing method of the present invention for the digital photo printer shown in FIG.

【図4】 図3に示される画像処理装置のファインスキ
ャン画像データ処理部の画像処理部の一実施例のブロッ
ク図である。
4 is a block diagram of an embodiment of an image processing unit of a fine scan image data processing unit of the image processing apparatus shown in FIG.

【図5】 図4に示されるエッジ部抽出手段の概略を示
すブロック図である。
FIG. 5 is a block diagram showing an outline of the edge part extraction means shown in FIG.

【図6】 (a)〜(d)は、いずれも注目画素とその
隣接画素を示す説明図である。
FIGS. 6A to 6D are explanatory diagrams showing the target pixel and its adjacent pixels.

【図7】 (a)〜(c)は、本実施形態におけるRG
B毎の方向性判定を示す説明図である。
7A to 7C are RGs in the present embodiment.
It is explanatory drawing which shows the directionality determination for every B.

【図8】 本実施形態におけるエッジ部抽出方法の概略
を示すフローチャートである。
FIG. 8 is a flowchart showing an outline of an edge extraction method according to this embodiment.

【図9】 本実施形態の効果を従来と比較して示す図面
代用写真であり、(a)は従来、(b)〜(e)は本実
施形態である。
FIG. 9 is a drawing-substituting photograph showing the effect of the present embodiment in comparison with the related art, where (a) is the related art and (b) to (e) are the present embodiment.

【図10】 (a1)〜(a8)は、エッジ部抽出に用
いられるテンプレートの一例を示す説明図である。
10 (a1) to (a8) are explanatory diagrams showing an example of a template used for edge portion extraction.

【図11】 (a)は、注目画素とその周辺画素からな
る3×3の画像の一例を示す説明図であり、(b)は、
(a)の注目画素のグラディエントの方向を示す説明図
である。
FIG. 11A is an explanatory diagram showing an example of a 3 × 3 image composed of a target pixel and its peripheral pixels, and FIG.
It is explanatory drawing which shows the gradient direction of the attention pixel of (a).

【図12】 本発明において注目画素に対して連結性判
定のために選択される近傍画素の一例を示す説明図であ
る。
FIG. 12 is an explanatory diagram showing an example of neighboring pixels selected for connectivity determination with respect to a pixel of interest in the present invention.

【符号の説明】[Explanation of symbols]

10 デジタルフォトプリンタ 12 スキャナ 14 (画像)処理装置 16 画像記録装置 18 操作系 18a キーボード 18b マウス 20 モニタ 22 光源 24 可変絞り 26 拡散ボックス 28 キャリア 30 結像レンズユニット 32 イメージセンサ 32R、32G、32B ラインCCDセンサ 34 A/D変換器 36 スキャナ補正部 38 LOG変換器 40 プレスキャン(フレーム)メモリ 42 ファインスキャン(フレーム)メモリ 44 プレスキャンデータ処理部 46 ファインスキャンデータ処理部 48 条件設定部 50、54 画像データ変換部 58 セットアップ部 60 キー補正部 62 パラメータ統合部 64 色濃度階調変換手段 66 彩度変換手段 68 電子変倍(デジタル倍率変換)手段 70 エッジ部抽出手段 72 画像処理ブロック 74 色調変換手段 76 輝度信号生成手段 78 テンプレート 80 グラディエント算出手段 81 グラディエント記憶手段 82 連結性算出手段 84 (RGB毎の)方向性算出手段 86 エッジ部判定・抽出手段 10 Digital Photo Printer 12 scanner 14 (Image) processing device 16 Image recording device 18 Operation system 18a keyboard 18b mouse 20 monitors 22 Light source 24 variable aperture 26 diffusion box 28 careers 30 Imaging lens unit 32 image sensor 32R, 32G, 32B line CCD sensor 34 A / D converter 36 Scanner correction unit 38 LOG converter 40 prescan (frame) memory 42 Fine scan (frame) memory 44 Prescan data processing unit 46 Fine scan data processing unit 48 Condition setting section 50, 54 Image data conversion unit 58 Setup Department 60 key correction section 62 Parameter integration unit 64 color density gradation conversion means 66 Saturation conversion means 68 Electronic scaling (digital magnification conversion) means 70 Edge Part Extraction Means 72 Image processing block 74 Color tone conversion means 76 Luminance signal generating means 78 templates 80 Gradient calculation means 81 Gradient storage means 82 Connectivity calculation means 84 Directional calculation means (for each RGB) 86 Edge determination / extraction means

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) H04N 1/40 - 1/409 H04N 1/46 G06T 9/20 G06T 7/60 ─────────────────────────────────────────────────── ─── Continuation of front page (58) Fields surveyed (Int.Cl. 7 , DB name) H04N 1/40-1/409 H04N 1/46 G06T 9/20 G06T 7/60

Claims (12)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】カラー画像信号に対して所定の画像処理を
行う画像処理方法であって、 画像処理対象である前記カラー画像信号によって構成さ
れる画像の注目画素とその周辺画素の画素値より、該注
目画素とその周辺画素の、エッジの方向と強度を表すグ
ラディエントを算出して記憶し、 該記憶されたグラディエントの方向より、前記注目画素
とその周辺画素の連結性を算出するとともに、 各R,G,Bチャンネル毎に、前記注目画素のグラディ
エントを算出することにより、該注目画素の各RGB毎
の方向性を算出し、 前記連結性および各RGB毎の方向性から、前記注目画
素が、エッジ部であるか否かを判定することによって、
エッジ部抽出を行うことを特徴とする画像処理方法。
1. An image processing method for performing a predetermined image processing on a color image signal, comprising: from a pixel value of a target pixel of an image formed by the color image signal which is an image processing target and pixel values of its peripheral pixels, Gradients representing the edge direction and intensity of the target pixel and its peripheral pixels are calculated and stored, and the connectivity between the target pixel and its peripheral pixels is calculated from the stored gradient direction, and each R , G, and B, the gradient of the pixel of interest is calculated to calculate the directionality of each RGB of the pixel of interest. From the connectivity and the directionality of each RGB, the pixel of interest is By determining whether it is an edge part,
An image processing method characterized by performing edge extraction.
【請求項2】前記注目画素とその周辺画素の連結性を算
出するにあたり、該注目画素のグラディエントの方向
と、該注目画素の近傍画素のグラディエントの方向を比
較し、該近傍画素のうちの所定数の画素の方向が所定条
件に一致した場合に連結性ありとすることを特徴とする
請求項1に記載の画像処理方法。
2. When calculating the connectivity between the pixel of interest and its peripheral pixels, a gradient direction of the pixel of interest is compared with a gradient direction of a pixel adjacent to the pixel of interest to determine a predetermined value of the neighboring pixels. The image processing method according to claim 1, wherein connectivity is established when the directions of several pixels match a predetermined condition.
【請求項3】前記近傍画素のうちの所定数の画素の方向
が所定条件に一致した場合とは、前記近傍画素の方向の
50%以上が前記注目画素の方向と45°以内である場
合であることを特徴とする請求項2に記載の画像処理方
法。
3. A case where the directions of a predetermined number of pixels among the neighboring pixels match a predetermined condition means that 50% or more of the directions of the neighboring pixels are within 45 ° with respect to the direction of the target pixel. The image processing method according to claim 2, wherein:
【請求項4】前記近傍画素は、前記注目画素を中心と
し、該注目画素のグラディエントの方向と直交する方向
により多く存在する1×3画素、1×5画素、3×5画
素、3×7画素および5×9画素のいずれか1つから中
心画素を除いた画素であることを特徴とする請求項2ま
たは3に記載の画像処理方法。
4. The neighboring pixels are 1 × 3 pixels, 1 × 5 pixels, 3 × 5 pixels, 3 × 7 which are present mainly in the target pixel and are present in a direction orthogonal to the gradient direction of the target pixel. The image processing method according to claim 2, wherein the image processing method is a pixel obtained by removing the central pixel from any one of the pixel and the 5 × 9 pixel.
【請求項5】前記近傍画素の取り方、ならびに前記所定
条件に方向が一致した前記画素の所定数および前記所定
数の画素の方向が一致した前記所定条件を含む画素の連
結性の判定条件は、原稿種、原稿サイズ、プリント倍
率、カメラ種および露光条件の少なくとも1つに応じて
決定されることを特徴とする請求項2〜4のいずれかに
記載の画像処理方法。
5. A condition for determining connectivity of pixels including a method of taking the neighboring pixels, a predetermined number of the pixels whose directions match the predetermined condition, and a pixel including the predetermined condition in which the directions of the predetermined number of pixels match. The image processing method according to any one of claims 2 to 4, wherein the image processing method is determined according to at least one of a document type, a document size, a print magnification, a camera type, and an exposure condition.
【請求項6】前記注目画素とその周辺画素の連結性を算
出するにあたり、該注目画素のグラディエントの方向
と、90°の方向をなす両側の隣接画素のグラディエン
トの方向が、前記注目画素のグラディエントの方向とな
す角が、ともに45°以内である場合に連結性ありとす
ることを特徴とする請求項1に記載の画像処理方法。
6. When calculating the connectivity between the target pixel and its peripheral pixels, the gradient direction of the target pixel is the direction of the gradient of the target pixel and the gradient direction of adjacent pixels on both sides forming a 90 ° direction. 2. The image processing method according to claim 1, wherein connectivity is established when both the angle formed with the direction and the angle formed with the direction are within 45 °.
【請求項7】カラー画像信号に対して所定の画像処理を
行う画像処理装置であって、 画像処理対象である前記カラー画像信号によって構成さ
れる画像の注目画素とその周辺画素の画素値より、該注
目画素とその周辺画素の、エッジの方向と強度を表すグ
ラディエントを算出する手段と、 該算出されたグラディエントを記憶する手段と、 該記憶されたグラディエントの方向より、前記注目画素
とその周辺画素の連結性を算出する手段と、 各R,G,Bチャンネル毎に、前記注目画素のグラディ
エントを算出することにより、該注目画素の各RGB毎
の方向性を算出する手段と、 前記連結性および各RGB毎の方向性から、前記注目画
素がエッジ部であるか否かを判定する手段と、を備えた
ことによりエッジ部抽出を行うことを特徴とする画像処
理装置。
7. An image processing apparatus for performing predetermined image processing on a color image signal, comprising: a pixel of interest of an image formed by the color image signal which is an image processing target and pixel values of its peripheral pixels, Means for calculating a gradient representing the edge direction and intensity of the target pixel and its peripheral pixels, means for storing the calculated gradient, and the target pixel and its peripheral pixels from the stored gradient direction And a means for calculating the directionality of each RGB of the pixel of interest by calculating the gradient of the pixel of interest for each R, G, B channel, and the connectivity and And a means for determining whether or not the pixel of interest is an edge portion based on the directionality of each RGB, thereby performing edge portion extraction. Processing apparatus.
【請求項8】前記注目画素とその周辺画素の連結性を算
出する手段は、該注目画素のグラディエントの方向と、
該注目画素の近傍画素のグラディエントの方向を比較
し、該近傍画素のうちの所定数の画素の方向が所定条件
に一致した場合に連結性ありとすることを特徴とする請
求項7に記載の画像処理装置。
8. The means for calculating the connectivity between the target pixel and its peripheral pixels includes a gradient direction of the target pixel,
The gradient directions of neighboring pixels of the pixel of interest are compared, and connectivity is established when the directions of a predetermined number of pixels of the neighboring pixels match a predetermined condition. Image processing device.
【請求項9】前記近傍画素のうちの所定数の画素の方向
が所定条件に一致した場合とは、前記近傍画素の方向の
50%以上が前記注目画素の方向と45°以内である場
合であることを特徴とする請求項8に記載の画像処理装
置。
9. The case where the directions of a predetermined number of the neighboring pixels match a predetermined condition means that 50% or more of the directions of the neighboring pixels are within 45 ° with the direction of the target pixel. The image processing apparatus according to claim 8, which is provided.
【請求項10】前記近傍画素は、前記注目画素を中心と
し、該注目画素のグラディエントの方向と直交する方向
により延在する1×3画素、1×5画素、3×5画素、
3×7画素および5×9画素のいずれか1つから中心画
素を除いた画素であることを特徴とする請求項8または
9に記載の画像処理装置。
10. The neighboring pixels are 1 × 3 pixels, 1 × 5 pixels, 3 × 5 pixels, which are centered on the target pixel and extend in a direction orthogonal to a gradient direction of the target pixel,
The image processing apparatus according to claim 8 or 9, wherein the pixel is a pixel obtained by removing a central pixel from any one of 3 × 7 pixels and 5 × 9 pixels.
【請求項11】前記近傍画素の取り方、ならびに前記所
定条件に方向が一致した前記画素の所定数および前記所
定数の画素の方向が一致した前記所定条件を含む画素の
連結性の判定条件は、原稿種、原稿サイズ、プリント倍
率、カメラ種および露光条件の少なくとも1つに応じて
決定されることを特徴とする請求項8〜10のいずれか
に記載の画像処理装置。
11. A condition for determining connectivity of pixels including a method of taking the neighboring pixels and a predetermined number of the pixels whose direction matches the predetermined condition and the predetermined condition in which the directions of the predetermined number of pixels match. The image processing apparatus according to claim 8, which is determined according to at least one of a document type, a document size, a print magnification, a camera type, and an exposure condition.
【請求項12】前記注目画素とその周辺画素の連結性を
算出する手段は、該注目画素のグラディエントの方向
と、90°の方向をなす両側の隣接画素のグラディエン
トの方向が、前記注目画素のグラディエントの方向とな
す角が、ともに45°以内である場合に連結性ありとす
ることを特徴とする請求項7に記載の画像処理装置。
12. The means for calculating the connectivity between the target pixel and its peripheral pixels has a gradient direction of the target pixel and a gradient direction of adjacent pixels on both sides forming a 90 ° direction as the target pixel. The image processing apparatus according to claim 7, wherein the image forming apparatus is connected when the angle formed with the gradient direction is within 45 °.
JP11245999A 1998-04-20 1999-04-20 Image processing method and apparatus Expired - Lifetime JP3405266B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11245999A JP3405266B2 (en) 1998-04-20 1999-04-20 Image processing method and apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP10-125301 1998-04-20
JP12530198 1998-04-20
JP11245999A JP3405266B2 (en) 1998-04-20 1999-04-20 Image processing method and apparatus

Publications (2)

Publication Number Publication Date
JP2000011188A JP2000011188A (en) 2000-01-14
JP3405266B2 true JP3405266B2 (en) 2003-05-12

Family

ID=26451615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11245999A Expired - Lifetime JP3405266B2 (en) 1998-04-20 1999-04-20 Image processing method and apparatus

Country Status (1)

Country Link
JP (1) JP3405266B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6822751B1 (en) 1999-12-10 2004-11-23 Destiny Technology Corporation Method and system for monochrome multi-beam printing with edge enhancement
US6678414B1 (en) * 2000-02-17 2004-01-13 Xerox Corporation Loose-gray-scale template matching
US6778296B1 (en) 2000-03-27 2004-08-17 Destiny Technology Corporation Color imaging processing method with boundary detection and enhancement
US6750986B1 (en) 2000-03-27 2004-06-15 Destiny Technology Corporation Color image processing method with thin-line detection and enhancement
US6944341B2 (en) * 2000-05-01 2005-09-13 Xerox Corporation Loose gray-scale template matching for image processing of anti-aliased lines
JP4129812B2 (en) 2001-05-24 2008-08-06 株式会社リコー Image processing method, apparatus, and image forming apparatus
US7245779B2 (en) 2003-07-23 2007-07-17 Marvell International Technology Ltd. Image enhancement employing partial template matching
KR101303667B1 (en) * 2007-08-28 2013-09-04 삼성전자주식회사 Method and apparatus for detecting and removing false contour and method and apparatus for confirming whether pixel is contour and method and apparatus for computing simplicity
KR101657218B1 (en) * 2008-12-05 2016-09-13 마이크로닉 마이데이타 에이비 Gradient assisted image resampling in micro-lithographic printing
JP5765026B2 (en) 2011-04-06 2015-08-19 富士ゼロックス株式会社 Image processing apparatus and program
JP6015267B2 (en) 2012-09-13 2016-10-26 オムロン株式会社 Image processing apparatus, image processing program, computer-readable recording medium recording the same, and image processing method
CN104346778B (en) * 2013-07-30 2017-08-22 比亚迪股份有限公司 The edge enhancing method and device and digital camera equipment of image

Also Published As

Publication number Publication date
JP2000011188A (en) 2000-01-14

Similar Documents

Publication Publication Date Title
US6415053B1 (en) Image processing method and apparatus
US7447377B2 (en) Image processing method and apparatus, and image processing program
US6480300B1 (en) Image processing apparatus, image processing method and recording medium on which software for executing the image processing is recorded
JP3584389B2 (en) Image processing method and image processing apparatus
JP2001298619A (en) Method and device for image processing
US20010041018A1 (en) Image processing method
JP3405266B2 (en) Image processing method and apparatus
JP2001148780A (en) Method for setting red-eye correction area and red-eye correction method
JP2003209683A (en) Image processing equipment and image processing method
JP3998369B2 (en) Image processing method and image processing apparatus
JPH11266358A (en) Image processing method
JP4064031B2 (en) Image processing method
JPH11191871A (en) Image processor
JP2000040154A (en) Method and device for image processing
JP4049986B2 (en) Output image area adjustment method
US20050129287A1 (en) Image processing method
JP2003283849A (en) Method for detecting and correcting red eye
JPH11261832A (en) Image processing method and image processor
JP2001223891A (en) Picture processing method
JP3939428B2 (en) Image processing method and apparatus
JPH11328388A (en) Method and device for image reproduction
JP4063971B2 (en) Image processing method and apparatus
JPH1153535A (en) Method and device for image reproduction
JP2000057336A (en) Method and device for processing image
JPH11353477A (en) Image processor, image processing method and recording medium recorded with software to execute the method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030128

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080307

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090307

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090307

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100307

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100307

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110307

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110307

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120307

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120307

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130307

Year of fee payment: 10