JPH09307768A - Image processor - Google Patents

Image processor

Info

Publication number
JPH09307768A
JPH09307768A JP8116444A JP11644496A JPH09307768A JP H09307768 A JPH09307768 A JP H09307768A JP 8116444 A JP8116444 A JP 8116444A JP 11644496 A JP11644496 A JP 11644496A JP H09307768 A JPH09307768 A JP H09307768A
Authority
JP
Japan
Prior art keywords
density
image
edge line
edge
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP8116444A
Other languages
Japanese (ja)
Inventor
Koji Maruyama
耕司 丸山
Yasuki Yamauchi
泰樹 山内
Hisae Gotou
寿江 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP8116444A priority Critical patent/JPH09307768A/en
Publication of JPH09307768A publication Critical patent/JPH09307768A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To obtain a solid image with apparently uniform density by applying density correction in response to the distance from an edge line up to a present line position to an image signal in an area in the vicinity of the edge line of the solid image. SOLUTION: After image information is once stored in an image information storage device 11, the information is given to an edge detection means 12 as required from the image information storage device 11. The edge detection means detects an edge line where areas of an image with different density are in contact. Then the image signal is given to a density correction means 13. The density correction means 13 corrects the density of an area in the vicinity of the edge line of one area in two areas whose density differs from each other and in contact with the edge line detected by the edge detection means 12 so as to be closer to the density of the other area when the line is closer to the edge line. The corrected image signal is fed to an image recorder 15, from which the signal is recorded on a recording medium.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は画像情報を担持する
画像信号の濃度を補正して所望の濃度分布を持つ画像と
するための画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for correcting the density of an image signal carrying image information to form an image having a desired density distribution.

【0002】[0002]

【従来の技術】レーザプリンタやインクジェットプリン
タなどの画像形成装置においては、画像情報の濃度階調
を多値の画像信号により表現し、多値化された画像信号
に従って単位面積内のトナーやインクの付着量を制御す
ることにより、濃度階調画像を形成する方法が広く採用
されている。
2. Description of the Related Art In an image forming apparatus such as a laser printer or an ink jet printer, a density gradation of image information is expressed by a multi-valued image signal, and toner or ink within a unit area is expressed according to the multi-valued image signal. A method of forming a density gradation image by controlling the adhesion amount is widely adopted.

【0003】ところで、これらの画像形成装置により形
成された画像を人間の目で観察すると、画像信号上は均
一な濃度分布の画像であるにも拘らず、人間の目には不
均一な濃度分布のように見えることがある。この現象
は、一般にマッハ現象あるいはマッハ効果と呼ばれ、文
献として、例えば、「視覚の心理物理学」(池田光男
著、森北出版刊行)などに詳しく紹介されている。
By the way, when an image formed by these image forming apparatuses is observed by human eyes, it is an image having a uniform density distribution on the image signal, but the human eyes have a non-uniform density distribution. May look like. This phenomenon is generally called the Mach phenomenon or Mach effect, and has been introduced in detail in the literature, for example, "Psychophysics of vision" (Mitsuo Ikeda, published by Morikita Publishing).

【0004】図15は、マッハ現象の説明図である。図
15(a)には、5段階の互いに濃度の異なるソリッド
画像(同一濃度分布の画素の集合)が示されている。こ
の画像は、画像信号上は全く均一な濃度分布の画像情報
を画像形成装置から出力されたものであり、この画像の
濃度分布を機械で測定してグラフとした場合は、5本の
水平な直線とそれを結ぶ4本の垂直な直線から成る階段
状のグラフが描かれるはずである。しかし、この画像を
人間が見た場合の見掛け上の濃度をグラフにすると、図
15(b)に示すように、人間の目には各ソリッド画像
の境目のエッジライン近傍の濃度が、低濃度側はより低
濃度のように、高濃度側はより高濃度のように見える。
このように、物理的に均一な濃度分布であっても人間の
目にはエッジライン近傍の濃度差が強調され不均一な濃
度分布のように見える。
FIG. 15 is an explanatory diagram of the Mach phenomenon. FIG. 15A shows a solid image having five different densities (a set of pixels having the same density distribution). This image is output from the image forming apparatus with image information having a completely uniform density distribution on the image signal. When the density distribution of this image is mechanically measured and made into a graph, five horizontal lines are displayed. A stair-step graph consisting of a straight line and four vertical straight lines connecting it should be drawn. However, when the apparent density of this image when viewed by a human is plotted, as shown in FIG. 15B, human eyes have a low density near the edge line at the boundary of each solid image. The side looks like a lower density and the high side looks like a higher density.
As described above, even if the density distribution is physically uniform, the density difference near the edge line is emphasized by the human eye, and it looks like a non-uniform density distribution.

【0005】[0005]

【発明が解決しようとする課題】このマッハ現象は、人
間が画像エッジを検出する際の視覚補正機能に基づく現
象であるが、ビジネスグラフなどのように互いに異なる
濃度の近接したソリッド画像により情報を伝達する画像
情報などの場合、本来均一な濃度に見えるべきソリッド
画像が見掛け上不均一な濃度に見えては不都合な場合が
ある。
This Mach phenomenon is a phenomenon based on a visual correction function when a person detects an image edge, but information is obtained by solid images having different densities, such as a business graph. In the case of image information to be transmitted, it may be inconvenient for a solid image, which originally should have uniform density, to have apparently uneven density.

【0006】本発明は、上記の事情に鑑み、ソリッド画
像のエッジライン近傍の濃度分布の見掛け上の不均一さ
を補正し、見掛け上均一な濃度のソリッド画像を形成す
ることのできる画像処理装置を提供することを目的とす
る。
In view of the above circumstances, the present invention can correct an apparent nonuniformity of the density distribution near the edge line of a solid image and form a solid image having an apparently uniform density. The purpose is to provide.

【0007】[0007]

【課題を解決するための手段】上記の目的を達成する本
発明の画像処理装置は、画像の情報を担持する画像信号
に基づいて、その画像上の、濃度が互いに異なる領域ど
うしが接するエッジラインを検出するエッジ検出手段
と、上記エッジ検出手段により検出されたエッジライン
で境を接する、濃度が互いに異なる2つの領域のうちの
少なくとも一方の第1の領域について、第1の領域のう
ちの上記エッジラインの近傍領域の濃度が、エッジライ
ンに近づくほど、上記2つの領域のうちの他方の第2の
領域の濃度に近づくように、エッジライン近傍領域の画
像信号を補正する濃度補正手段とを備えたことを特徴と
する。
According to an image processing apparatus of the present invention that achieves the above object, an edge line in which regions having different densities on an image are in contact with each other based on an image signal carrying image information. And at least one first area of the two areas having different densities, which border the edge line detected by the edge detection means and the edge line detected by the edge detection means. A density correction unit that corrects the image signal in the edge line vicinity area so that the density of the area near the edge line approaches the density of the other second area of the two areas as it approaches the edge line. It is characterized by having.

【0008】ここで、上記濃度補正手段は、上記2つの
領域に跨って連続的に濃度が変化するように上記画像信
号を補正するものであってもよく、また、上記濃度補正
手段が、上記エッジラインにおける濃度の不連続性が残
るように上記画像信号を補正するものであってもよい。
Here, the density correction means may correct the image signal so that the density continuously changes over the two regions, and the density correction means may perform the density correction. The image signal may be corrected so that the discontinuity of the density on the edge line remains.

【0009】[0009]

【発明の実施の形態】以下、本発明の実施形態について
説明する。図1は、本発明の画像処理装置の一実施形態
の概要図である。なお、以下の説明では、画像情報を担
持する画像信号の各画素の濃度を単に画像信号と呼ぶこ
ととする。本実施形態においては、濃度階調情報は8ビ
ットの画像信号として表現され、画像信号が0の時、画
素被覆率は0%(白)となり、画像信号が255の時、
画素被覆率は100%(黒)となる。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below. FIG. 1 is a schematic diagram of an embodiment of an image processing apparatus of the present invention. In the following description, the density of each pixel of the image signal carrying the image information will be simply referred to as the image signal. In the present embodiment, the density gradation information is expressed as an 8-bit image signal. When the image signal is 0, the pixel coverage is 0% (white), and when the image signal is 255,
The pixel coverage is 100% (black).

【0010】図1に示すように、画像情報が一旦画像情
報記憶装置11に格納された後、必要に応じ画像情報記
憶装置11からエッジ検出手段12に入力される。エッ
ジ検出手段12は、画像上の、濃度が互いに異なる領域
どうしが接するエッジラインを検出する。次いで、画像
信号は濃度補正手段13に入力される。濃度補正手段1
3では、先ず、エッジラインで囲まれた領域がソリッド
画像であるか否かの判定を行い、ソリッド画像であると
判定された領域について画像信号の補正が行われる。す
なわち、エッジ検出手段12により検出されたエッジラ
インで境を接する、濃度が互いに異なる2つの領域のう
ちの一方の領域について、その領域のうちの上記エッジ
ラインの近傍領域の濃度が、エッジラインに近づくほ
ど、他方の領域の濃度に近づくように、エッジライン近
傍領域の画像信号を補正する。画像信号の補正にあたっ
ては、変換テーブル記憶装置14内に記憶された、画像
信号と出力画像の濃度値との関係を表す変換テーブルを
用いて補正が加えられる。
As shown in FIG. 1, after the image information is once stored in the image information storage device 11, it is input from the image information storage device 11 to the edge detection means 12 as needed. The edge detection unit 12 detects an edge line where areas of different densities on the image are in contact with each other. Next, the image signal is input to the density correction unit 13. Density correction means 1
In 3, first, it is determined whether the area surrounded by the edge line is a solid image, and the image signal is corrected for the area determined to be the solid image. That is, with respect to one of the two regions having different densities that are bordered by the edge line detected by the edge detection means 12, the density of the region in the vicinity of the edge line in the region becomes the edge line. The image signal in the area near the edge line is corrected such that the closer it is, the closer the density is to the other area. When correcting the image signal, the correction is performed using the conversion table stored in the conversion table storage device 14 and representing the relationship between the image signal and the density value of the output image.

【0011】濃度補正手段13により補正された画像信
号は画像記録装置15に送られ、記録媒体上に記録され
る。本実施形態では、電子写真方式による400dpi
(dpi:1インチ当たりのドット数)の解像度を持つ
画像記録装置が用いられたが、電子写真方式以外の、熱
転写方式、銀塩写真方式、インクジェット方式などの画
像記録装置を用いてもよく、また、本実施形態とは異な
る解像度を持つ画像記録装置を用いても本実施形態と同
様の効果を得ることができる。
The image signal corrected by the density correcting means 13 is sent to the image recording device 15 and recorded on the recording medium. In this embodiment, 400 dpi by electrophotography is used.
Although an image recording device having a resolution of (dpi: the number of dots per inch) was used, an image recording device such as a thermal transfer system, a silver salt photographic system, or an inkjet system other than the electrophotographic system may be used. Further, even if an image recording apparatus having a resolution different from that of this embodiment is used, the same effect as that of this embodiment can be obtained.

【0012】エッジ検出手段12におけるエッジライン
の検出の方法としては、例えば、文献「画像解析ハンド
ブック」(高木幹雄、下田陽久監修;東京大学出版会)
のp.550に開示されているラブラシアン・オペレー
タ法などの公知の方法が用いられる。エッジラインを検
出した後、後段の処理をしやすくするために、同文献の
p.579に説明されているような方法によりエッジラ
インを構成する画素(以下、エッジ画素と呼ぶ)の順序
付けを行う。
As a method of detecting an edge line in the edge detecting means 12, for example, the document "Image Analysis Handbook" (supervised by Mikio Takagi and Yohisa Shimoda; The University of Tokyo Press)
P. A known method such as the Labrian operator method disclosed in 550 is used. After the edge line is detected, in order to facilitate the subsequent processing, p. Pixels forming an edge line (hereinafter referred to as edge pixels) are ordered by the method described in 579.

【0013】図2は、エッジ画素の順序付けの説明図で
ある。図2には、画像情報記憶装置11(図1参照)か
ら読み出された画像信号の各画素が、2次元的に、すな
わち矢印x軸方向に複数個ずつ並んだ点20上に配列さ
れ、これらの点20の列が矢印y軸方向に複数列配列さ
れて表示されている。このように配列された各画素の点
20を順に走査してエッジ開始点を見付け出す。エッジ
開始点とは、その点がまだ追跡済みマークの付されてい
ない点であることをいい、画像情報記憶装置11内に各
画素の濃度情報と共に記憶されている。例えば、点21
a(斜線部)がまだ追跡済みマークの付されていない点
であることがわかると、その点21aをエッジ開始点と
して記憶する(画像情報記憶装置11に記憶された画像
情報の該当個所に追跡済みマークを付す)。次に、エッ
ジ開始点21aの上下左右4方向及び斜め4方向の隣接
8画素に注目し、エッジ画素21aに続く次のエッジ画
素を追跡する。このような追跡操作を次々に進めること
により、矢印で示すようにエッジ開始点21aから始ま
り最終エッジ画素21oを経てエッジ開始点21aに戻
る環状のエッジライン22を構成する各エッジ画素21
a,21b,21c,21d,・・・,21oに順序付
けをすることができる。
FIG. 2 is an explanatory diagram of the ordering of the edge pixels. In FIG. 2, each pixel of the image signal read from the image information storage device 11 (see FIG. 1) is arranged two-dimensionally, that is, on a plurality of points 20 arranged in the arrow x-axis direction, A plurality of columns of these points 20 are arranged and displayed in the arrow y-axis direction. The points 20 of each pixel arranged in this manner are sequentially scanned to find an edge start point. The edge start point means a point to which the traced mark is not yet attached, and is stored in the image information storage device 11 together with the density information of each pixel. For example, point 21
If it is found that a (hatched portion) is a point to which a traced mark has not been added yet, the point 21a is stored as an edge start point (tracked to the corresponding part of the image information stored in the image information storage device 11). Marked already). Next, paying attention to eight pixels adjacent to the edge start point 21a in four directions in the vertical and horizontal directions and in four diagonal directions, the next edge pixel following the edge pixel 21a is traced. By advancing such a tracking operation one after another, each edge pixel 21 forming the annular edge line 22 starting from the edge start point 21a and returning to the edge start point 21a from the edge start point 21a as shown by the arrow.
A, 21b, 21c, 21d, ..., 21o can be ordered.

【0014】以上の順序付け処理と同時に、エッジライ
ン22の総延長距離を計算する。この計算は、エッジラ
イン22を構成する隣り合うエッジ画素間の、x軸方向
またはy軸方向の間隔を1単位距離としこの単位距離を
積算することにより行われる。例えば、エッジ画素21
aとエッジ画素21bとの距離は2単位距離、エッジ画
素21bとエッジ画素21cとの距離は1単位距離とい
うように、エッジラインが斜め方向に走っている場合で
も斜め方向には測定せず、x軸方向またはy軸方向に向
かってのみ測定しそれを積算する。また、ここで、エッ
ジライン22を構成する画素の総数を記憶し、以下これ
をNとする。
Simultaneously with the above ordering process, the total extension distance of the edge line 22 is calculated. This calculation is performed by setting the interval between the adjacent edge pixels forming the edge line 22 in the x-axis direction or the y-axis direction as one unit distance and integrating the unit distances. For example, the edge pixel 21
The distance between a and the edge pixel 21b is 2 unit distance, and the distance between the edge pixel 21b and the edge pixel 21c is 1 unit distance. Even if the edge line runs diagonally, it is not measured diagonally, Measure only in the x-axis direction or the y-axis direction and integrate it. In addition, here, the total number of pixels forming the edge line 22 is stored, and hereinafter, this will be referred to as N.

【0015】エッジ検出手段12における処理が終わる
と、濃度補正手段13において画像信号の補正処理が行
われる。図3は、本実施形態の濃度補正手段における処
理手順を示す流れ図である。先ず、エッジ検出手段12
(図1参照)により検出されたエッジラインについて、
そのエッジラインで囲まれた領域がソリッド画像か否か
を判定する(ステップS301)。ソリッド画像か否か
は次のようにして判定する。すなわち、エッジラインで
囲まれた領域内の画素濃度が一定であり、かつその領域
の面積が100mm2 以上であり、しかもその領域の形
状係数S(後述)が0.5以上である場合に、その領域
はソリッド画像であると判定する。領域の面積を判定要
素としているのは、面積の小さい領域に補正処理を施し
ても補正の効果が少ないからであり、また、形状係数S
を判定要素としているのは、形状が複雑過ぎる場合はマ
ッハ現象の現れ方が穏やかなものとなり、補正を行う意
義が薄いからである。
When the processing in the edge detecting means 12 is completed, the density correcting means 13 corrects the image signal. FIG. 3 is a flow chart showing a processing procedure in the density correction means of this embodiment. First, the edge detection means 12
Regarding the edge line detected by (see FIG. 1),
It is determined whether the area surrounded by the edge line is a solid image (step S301). Whether or not it is a solid image is determined as follows. That is, when the pixel density in the area surrounded by the edge line is constant, the area of the area is 100 mm 2 or more, and the shape factor S (described later) of the area is 0.5 or more, The area is determined to be a solid image. The reason why the area of the region is used as the determination factor is that the effect of the correction is small even if the correction processing is applied to the region having a small area, and the shape factor S
Is used as a determination factor because the appearance of the Mach phenomenon becomes gentle when the shape is too complicated, and the significance of the correction is small.

【0016】形状係数Sは次のようにして求める。すな
わち、前述のエッジ検出手段12により得られたエッジ
ラインの総延長距離をLとし、エッジラインで囲まれた
領域(エッジ画素を含む)の画素数をAとした時、 S=4πA/L2 で定義される値を形状係数Sとする。本来、この形状係
数Sは、エッジラインで囲まれた領域が真円である時に
最大値1となり、エッジラインで囲まれた領域が複雑な
形状となればなるほど小さな値となるはずであるが、本
実施形態におけるエッジラインの総延長距離Lは、前述
のように隣り合うエッジ画素間の距離をx軸方向または
y軸方向に測定したものなので、つまり斜め方向に隣接
する画素は直接斜めに測定せずx軸方向及びy軸方向の
距離の和として測定しているので、エッジラインの真の
長さとは一致せず、形状係数Sは1よりも大きい値とな
ることがあり得る。しかし、エッジラインで囲まれた領
域が複雑な形状となるのに応じて形状係数Sの値は小さ
くなることは確実なので、本実施形態ではソリッド画像
か否かの判定の1要素として用いている。
The shape factor S is obtained as follows. That is, when the total extension distance of the edge line obtained by the edge detecting means 12 is L and the number of pixels in the area (including the edge pixels) surrounded by the edge line is A, S = 4πA / L 2 The value defined by is the shape factor S. Originally, the shape factor S should have a maximum value of 1 when the area surrounded by the edge lines is a perfect circle, and should have a smaller value as the area surrounded by the edge lines has a complicated shape. The total extension distance L of the edge line in the present embodiment is obtained by measuring the distance between the adjacent edge pixels in the x-axis direction or the y-axis direction as described above, that is, the pixels adjacent in the oblique direction are directly measured obliquely. Since it is measured as the sum of the distances in the x-axis direction and the y-axis direction, the true length of the edge line does not match, and the shape factor S may be a value larger than 1. However, since it is certain that the value of the shape coefficient S will decrease as the area surrounded by the edge line has a complicated shape, it is used as one element for determining whether or not the image is a solid image in the present embodiment. .

【0017】図3に戻って濃度補正手段の流れ図の説明
を続ける。ステップS301において当該領域がソリッ
ド画像ではないと判定された場合は、画像信号の濃度補
正処理(ステップS302以降の処理)を行わずに画像
信号を画像記録装置へ送出する。ステップS301にお
いて当該領域がソリッド画像であると判定された場合
は、ステップS302に進み、ステップS302からス
テップS306までのエッジラインの外側の画素の濃度
補正処理、及びステップS307からステップS310
までのエッジラインの内側の画素の濃度補正処理を行
う。なお、以下の説明においては、便宜上、エッジライ
ンを境として、画像信号の値の小さい方の側(すなわ
ち、画素の濃度の薄い方の側)をエッジラインの外側と
呼び、画像信号の値の大きい方の側(すなわち、画素の
濃度の濃い方の側)をエッジラインの内側と呼ぶ。
Returning to FIG. 3, the description of the flow chart of the density correction means will be continued. If it is determined in step S301 that the area is not a solid image, the image signal is sent to the image recording apparatus without performing the density correction processing of the image signal (processing after step S302). When it is determined in step S301 that the area is a solid image, the process proceeds to step S302, and the density correction processing of pixels outside the edge line from step S302 to step S306, and step S307 to step S310.
The density correction processing for the pixels inside the edge lines up to is performed. In the following description, for convenience, the side with the smaller image signal value (that is, the side with the lower pixel density) is referred to as the outer side of the edge line with the edge line as a boundary. The larger side (that is, the side with higher pixel density) is called the inside of the edge line.

【0018】エッジラインの外側の画素の濃度補正処理
では、ステップS302においてカウンタaを初期値1
にセットした後、第a番目の輪郭画素の抽出(ステップ
S303)及び第a番目の輪郭画素の濃度補正(ステッ
プS304)を実行し、ステップS303及びステップ
S304が1回実行される毎にカウンタaに1を加算し
(ステップS306)、ステップS305でカウンタa
が48を超えるまでステップS303の輪郭画素の抽出
及びステップS304の輪郭画素の濃度補正を繰り返し
実行する。輪郭画素の抽出及び輪郭画素の濃度補正の詳
細な手順については後述する。
In the density correction processing of pixels outside the edge line, the counter a is set to the initial value 1 in step S302.
After that, the extraction of the a-th contour pixel (step S303) and the density correction of the a-th contour pixel (step S304) are executed, and the counter a is executed every time the steps S303 and S304 are executed once. Is incremented by 1 (step S306), and the counter a is added in step S305.
Until the number exceeds 48, the extraction of the contour pixel in step S303 and the density correction of the contour pixel in step S304 are repeatedly executed. Detailed procedures of the contour pixel extraction and the contour pixel density correction will be described later.

【0019】次に、エッジラインの内側の画素の濃度補
正処理に移る。先ず、ステップS307においてカウン
タaを初期値0にセットした後、第a番目の輪郭画素の
抽出(ステップS308)及び第a番目の輪郭画素の濃
度補正(ステップS309)を実行し、ステップS30
8及びステップS309が1回実行される毎にカウンタ
aから1を減算し(ステップS310)、ステップS3
10でカウンタaが−48に達するまでステップS30
8の輪郭画素の抽出及びステップS309の輪郭画素の
濃度補正を繰り返し実行する。こうして、エッジライン
の外側の画素の処理及びエッジラインの内側の画素の処
理がそれぞれ48回ずつ実行される。
Next, the density correction processing of the pixels inside the edge line is started. First, after the counter a is set to the initial value 0 in step S307, extraction of the a-th contour pixel (step S308) and density correction of the a-th contour pixel (step S309) are executed, and then step S30.
8 and step S309 are executed once, 1 is subtracted from the counter a (step S310), and step S3
Step S30 until the counter a reaches −48 at 10
The extraction of the contour pixel of 8 and the density correction of the contour pixel of step S309 are repeatedly executed. Thus, the processing of pixels outside the edge line and the processing of pixels inside the edge line are each performed 48 times.

【0020】従って、本実施形態では、エッジラインに
跨る合計96画素分の幅を持つ領域が補正される。96
画素分の幅は、本実施形態では約6mmに相当する。以
下、この96画素分の幅を補正領域と呼ぶ。ソリッド画
像のエッジラインの外側及び内側の補正領域内の補正処
理が終わると補正された出力画像信号は後段の画像記録
装置15に送出される。
Therefore, in this embodiment, the area having a total width of 96 pixels across the edge line is corrected. 96
The width of a pixel corresponds to about 6 mm in this embodiment. Hereinafter, the width of 96 pixels will be referred to as a correction area. When the correction processing in the correction areas outside and inside the edge line of the solid image is completed, the corrected output image signal is sent to the image recording device 15 in the subsequent stage.

【0021】次に、ステップS303の輪郭画素抽出及
びステップS304の輪郭画素濃度補正の詳細な手順に
ついて図4及び図5を参照しながら説明する。図4は、
図3における輪郭画素抽出ステップS303及び輪郭画
素濃度補正ステップS304の詳細な手順を示す流れ図
である。先ず、準備として当該ソリッド画像のエッジラ
インの外側の画像信号の濃度dO 及びエッジラインの内
側の画像信号の濃度dI を記憶する。
Next, detailed procedures of the contour pixel extraction in step S303 and the contour pixel density correction in step S304 will be described with reference to FIGS. FIG.
7 is a flowchart showing a detailed procedure of a contour pixel extraction step S303 and a contour pixel density correction step S304 in FIG. First, as a preparation, the density dO of the image signal outside the edge line of the solid image and the density dI of the image signal inside the edge line are stored.

【0022】次に、当該ソリッド画像のエッジラインよ
りa画素分外側の輪郭線を構成する画素(第a輪郭画
素)を抽出し、これら第a輪郭画素の濃度補正処理(後
述)を実行する。図5は、本実施形態における輪郭画素
の説明図である。図5(a)には、図3のステップS3
01においてソリッド画像と判定されたソリッド画像の
例が示されており、図5(b)には、図5(a)の一部
拡大図が示されている。
Next, a pixel (a-th contour pixel) forming a contour line outside by a pixels from the edge line of the solid image is extracted, and a density correction process (to be described later) of the a-th contour pixel is executed. FIG. 5 is an explanatory diagram of contour pixels in the present embodiment. FIG. 5A shows step S3 of FIG.
An example of a solid image determined to be a solid image in 01 is shown, and FIG. 5B shows a partially enlarged view of FIG. 5A.

【0023】図5(b)には、ソリッド画像のエッジラ
イン22(白抜き折れ線)を構成するエッジ画素(第0
輪郭画素)が示されている。これらのエッジ画素の外側
を包むように、図3の輪郭画素抽出(ステップS30
3)により抽出された第1輪郭画素が示されており、さ
らにその外側を包むように第2輪郭画素、さらにその外
側を包むように第3輪郭画素が示されている。なお、第
4輪郭画素以降は図示省略されている。また、エッジ画
素(第0輪郭画素)の内側には第−1輪郭画素がエッジ
画素の輪郭に沿って並んで示されている。なお、第−2
輪郭画素以降は図示省略されている。
In FIG. 5B, edge pixels (0th pixel) forming the edge line 22 (white polygonal line) of the solid image are shown.
Contour pixels) are shown. The contour pixel extraction of FIG. 3 is performed so as to wrap the outside of these edge pixels (step S30).
The first contour pixel extracted by 3) is shown, the second contour pixel is shown so as to wrap the outside thereof, and the third contour pixel is shown so as to further wrap the outside thereof. The fourth contour pixel and the subsequent pixels are not shown. Inside the edge pixel (0th contour pixel), the -1st contour pixel is shown side by side along the contour of the edge pixel. The second
The contour pixels and the subsequent pixels are not shown.

【0024】図4に戻って、これらの各輪郭画素を抽出
する詳細な手順について説明を続ける。先ず、当該ソリ
ッド画像のエッジラインを構成するエッジ画素の順序を
示すカウンタnを初期値1にセットし、エッジ画素の外
側あるいは内側に隣接する輪郭画素を順序付けするため
のカウンタiを初期値1にセットする(ステップS40
1)。
Returning to FIG. 4, the detailed procedure for extracting each of these contour pixels will be continued. First, a counter n indicating the order of edge pixels forming an edge line of the solid image is set to an initial value 1, and a counter i for ordering contour pixels adjacent to the outside or inside of the edge pixel is set to an initial value 1. Set (step S40
1).

【0025】次に、前述のエッジ画素の順序付け処理
(図2参照)によって順序付けられた順番が第n番目で
ある第(a−1)輪郭画素に注目し(ステップS40
2)、次に、エッジ画素の上下左右の隣接4画素の上下
左右の各位置を指示するパラメータmを1にセットする
(ステップS403)。ここでは、当該エッジ画素の
下、左、上、右の各位置はパラメータm=1,2,3,
4にそれぞれ対応する。
Next, pay attention to the (a-1) th contour pixel whose order is the n-th ordered by the above-described edge pixel ordering process (see FIG. 2) (step S40).
2) Next, the parameter m indicating the vertical and horizontal positions of the four adjacent pixels above and below and to the left and right of the edge pixel is set to 1 (step S403). Here, the parameters m = 1, 2, 3, are located at the lower, left, upper and right positions of the edge pixel.
4 respectively.

【0026】次に、第m番目の位置のx座標及びy座標
を求め(ステップS404)、次に、そのx座標及びy
座標の画素濃度が先に記憶した濃度dO と等しいか否か
を判定する(ステップS405)。ステップS405に
おける判定の結果、濃度dOと等しい場合はステップS
406に進み、濃度dO と等しくない場合はステップS
410に進む。
Next, the x-coordinate and y-coordinate of the m-th position are obtained (step S404), and then the x-coordinate and y-coordinate are obtained.
It is determined whether the pixel density of the coordinates is equal to the previously stored density dO (step S405). If the result of determination in step S405 is equal to the density d0, step S405
Proceed to 406, and if the density is not equal to dO, step S
Proceed to 410.

【0027】ステップS406では、上記x座標及びy
座標の画素を1画素分外側の輪郭画素として新たに登録
し、次に、ステップS407に進んで画素濃度の補正処
理(後述)が行われる。次に、カウンタiに1を加算し
(ステップS408)、次に、パラメータmが4になっ
ているか否か、すなわち当該エッジ画素の下、左、上、
右の4つの隣接位置の処理が終了したか否かを判定する
(ステップS409)。ステップS409における判定
の結果、全ての隣接位置の処理が終了していればステッ
プS412に進み、全ての隣接位置の処理が終了してい
なければステップS410に進む。ステップS410で
は、パラメータmに1を加算し、すなわち次の隣接位置
の処理の準備を行い、次にステップS411に進む。ス
テップS411では、加算の結果、パラメータmが4を
超えたか否かを判定する。ステップS411における判
定の結果、パラメータmが4を超えていればステップS
412に進み、パラメータmが4またはそれ以下であれ
ばステップS404に戻りステップS405以降の処理
を繰り返す。
In step S406, the x coordinate and y
A pixel at the coordinate is newly registered as an outer contour pixel for one pixel, and then the process proceeds to step S407 to perform a pixel density correction process (described later). Next, 1 is added to the counter i (step S408), and next, whether or not the parameter m is 4, that is, the bottom, left, and top of the edge pixel,
It is determined whether or not the processing for the four adjacent positions on the right has been completed (step S409). If the result of determination in step S409 is that processing for all adjacent positions has been completed, processing advances to step S412, and if processing for all adjacent positions has not completed, processing advances to step S410. In step S410, 1 is added to the parameter m, that is, the processing for the next adjacent position is prepared, and then the process proceeds to step S411. In step S411, it is determined whether or not the parameter m exceeds 4 as a result of the addition. If the result of determination in step S411 is that the parameter m exceeds 4, then step S411
412, if the parameter m is 4 or less, the process returns to step S404 to repeat the processing from step S405.

【0028】ステップS412では、エッジ画素の順序
を示すカウンタnに1が加算され、次にステップS41
3では、カウンタnが前述のエッジ検出手段12により
得られたエッジラインの総画素数Nを超えたか否かを判
定する。ステップS413における判定の結果、カウン
タnが総画素数Nを超えていなければステップS402
に戻って順番が第n番目であるエッジ画素についての処
理を繰り返す。ステップS413における判定の結果、
カウンタnが総画素数Nを超えていれば、当該ソリッド
画像の全てのエッジ画素についての処理が終了している
ので、図3のステップS305に戻る。ステップS30
5では、前述のように、カウンタaが48を超えない限
りはステップS306においてカウンタaに1が加算さ
れ、加算されたaについての輪郭画素抽出(ステップS
303)及び輪郭画素濃度補正(ステップS304)、
すなわち、図4のステップS401からステップS41
3までの処理が繰り返し実行される。このようにして、
ステップS305における判定の結果、カウンタaが4
8を超えると、すなわち、エッジラインの外側の画素の
処理が終わると、次に、エッジラインの内側の画素の処
理に移行する(図3のステップS307)。
In step S412, 1 is added to the counter n indicating the order of edge pixels, and then step S41.
At 3, it is determined whether or not the counter n has exceeded the total number N of pixels of the edge line obtained by the edge detecting means 12. If the result of determination in step S413 is that the counter n does not exceed the total number of pixels N, step S402.
Then, the process is repeated for the edge pixel whose order is the nth. As a result of the determination in step S413,
If the counter n exceeds the total number N of pixels, the processing has been completed for all edge pixels of the solid image, and the process returns to step S305 in FIG. Step S30
In 5 as described above, as long as the counter a does not exceed 48, 1 is added to the counter a in step S306, and the contour pixel extraction for the added a is performed (step S
303) and contour pixel density correction (step S304),
That is, steps S401 to S41 in FIG.
The processes up to 3 are repeatedly executed. In this way,
As a result of the determination in step S305, the counter a is 4
When it exceeds 8, that is, when the processing of the pixels outside the edge line is completed, the process proceeds to the processing of the pixels inside the edge line (step S307 in FIG. 3).

【0029】図3のステップS307からステップS3
10までの処理は、ステップS302からステップS3
05までの処理とほぼ同様である。ただし、ステップS
307におけるカウンタaの初期値は0であり、ステッ
プS311においてカウンタaは1だけ減算され、ま
た、ステップS311においてはカウンタaが−48以
下である場合を終了判定条件としている。また、この場
合には、図4のステップS405における濃度比較に用
いられた濃度dO の代わりに、ソリッド画像内側の画素
の濃度dI が用いられる。
Steps S307 to S3 in FIG.
The processing from step S302 to step S3
It is almost the same as the processing up to 05. However, step S
The initial value of the counter a in 307 is 0, the counter a is decremented by 1 in step S311, and the end determination condition is that the counter a is −48 or less in step S311. Further, in this case, the density dI of the pixel inside the solid image is used instead of the density dO used for the density comparison in step S405 of FIG.

【0030】次に、図4のステップS407における画
素濃度の補正処理について説明する。この補正処理は補
正関数を用いて行われる。図6は、補正処理前の、エッ
ジラインの内側及び外側のソリッド画像領域の濃度分布
を示す図である。図6の横軸はエッジラインからの距離
を示しており、その単位は図3及び図4において輪郭線
の数をカウントするのに用いたカウンタaである。図6
の縦軸はエッジラインから距離aのところの画素の濃度
である。図6に示したように、エッジラインを境とし
て、内側の濃度DI のソリッド画像領域と外側の濃度D
O のソリッド画像領域とにより急峻な段差が形成されて
いる。
Next, the correction processing of the pixel density in step S407 of FIG. 4 will be described. This correction process is performed using a correction function. FIG. 6 is a diagram showing the density distribution of the solid image area inside and outside the edge line before the correction processing. The horizontal axis of FIG. 6 indicates the distance from the edge line, and the unit thereof is the counter a used to count the number of contour lines in FIGS. 3 and 4. FIG.
The vertical axis of is the density of the pixel at the distance a from the edge line. As shown in FIG. 6, a solid image area having an inner density DI and an outer density D with an edge line as a boundary.
A steep step is formed by the solid image area of O 2.

【0031】図7は、補正処理後の、エッジラインの内
側及び外側のソリッド画像領域の濃度分布を示す図であ
る。図7に示すように、内側のソリッド画像領域の濃度
DI が、エッジラインに跨る補正領域の区間内で右下が
りに低下し始めやがて外側のソリッド画像領域の濃度D
O に達する。この濃度分布をエッジラインからの距離の
関数(以下、補正関数という)として表わし、その補正
関数の形を適切に選んでエッジラインの両側の画素濃度
を補正することにより、前述のマッハ現象による見掛け
上の濃度の不均一性が打ち消され、見掛け上均一な濃度
のソリッド画像を得ることができる。しかし、画像情報
によってそれに適する補正関数の形が異なるので、いく
つかの補正関数を予め用意しておき、その中からそれぞ
れの画像情報に適した補正関数を選んで補正することが
望ましい。
FIG. 7 is a diagram showing the density distribution of the solid image area inside and outside the edge line after the correction processing. As shown in FIG. 7, the density DI of the inner solid image area begins to decrease to the right within the correction area spanning the edge line, and eventually the density D of the outer solid image area.
Reach O. This density distribution is expressed as a function of the distance from the edge line (hereinafter referred to as a correction function), the shape of the correction function is appropriately selected, and the pixel density on both sides of the edge line is corrected to obtain the apparent appearance due to the Mach phenomenon. The nonuniformity of the above density is canceled and a solid image having an apparently uniform density can be obtained. However, since the shape of the correction function suitable for it varies depending on the image information, it is desirable to prepare some correction functions in advance and select a correction function suitable for each image information from among them to perform correction.

【0032】図7に示した1次関数以外の補正関数の例
について説明する。図8は、2次多項式を用いた補正関
数の例である。図8に示すように、内側のソリッド画像
領域の濃度DI が補正領域において緩やかな曲線を描い
て低下し始めやがてエッジラインを変曲点として内側の
ソリッド画像領域の濃度DO に達する。このように、補
正関数として補正領域内における濃度分布がn次(n≧
1)の多項式で表される関数を用いてもよい。
An example of the correction function other than the linear function shown in FIG. 7 will be described. FIG. 8 is an example of a correction function using a quadratic polynomial. As shown in FIG. 8, the density DI of the inner solid image area begins to drop in the correction area by drawing a gentle curve, and eventually reaches the density DO of the inner solid image area with the edge line as an inflection point. In this way, the density distribution in the correction area as the correction function is the nth
You may use the function represented by the polynomial of 1).

【0033】図9は、エッジライン部において濃度分布
が不連続である補正関数の一例を示す図である。図9に
示すように、この補正関数はエッジライン両側の濃度の
段差の鮮鋭さを残すために、エッジラインにおける濃度
の不連続性が残るようにしたものであり、画像情報によ
ってはこのような補正関数を用いることが効果的な場合
がある。
FIG. 9 is a diagram showing an example of a correction function in which the density distribution is discontinuous in the edge line portion. As shown in FIG. 9, this correction function is such that the discontinuity of the density on the edge line remains in order to leave the sharpness of the level difference of the density on both sides of the edge line. It may be effective to use a correction function.

【0034】図10は、エッジライン部において濃度分
布が不連続であり、かつ補正領域がエッジラインに関し
て非対称である補正関数を示す図である。図10に示す
ように、補正領域がエッジラインに関して非対称である
補正関数を用いて、濃度の濃い側と濃度の薄い側の補正
の仕方を変えることにより、画像情報によっては、見掛
け上、より自然なソリッド画像に補正できる場合があ
る。
FIG. 10 is a diagram showing a correction function in which the density distribution is discontinuous in the edge line portion and the correction area is asymmetric with respect to the edge line. As shown in FIG. 10, a correction function in which the correction area is asymmetric with respect to the edge line is used to change the correction method on the dark side and the dark side, so that it may appear more natural depending on the image information. It may be possible to correct to a solid image.

【0035】なお、DI とDO の関係が図7〜図10と
左右逆である場合は、エッジラインに関して左右を反転
させた関数を用いればよい。ところで、一般に画像処理
装置における、装置内部の画像信号の濃度と実際に出力
される画像の濃度との間には以下に図示するような非線
形の関係があり、しかも、この両者の関係は装置毎に異
なるのが普通である。
If the relationship between DI and D0 is the opposite of that shown in FIGS. 7 to 10, a left-right inverted function of the edge line may be used. By the way, generally, in an image processing apparatus, there is a non-linear relationship between the density of an image signal inside the apparatus and the density of an image actually output, and the relationship between the two is different for each apparatus. It is usually different.

【0036】図11は、画像処理装置内部の画像信号の
濃度と実際に出力される画像の濃度との間の関係を示す
グラフである。通常は、画像処理装置から画像を出力す
る前に、図11に示すような非線形の関係を補正するた
め、及び画像処理装置間の機差を補正するために、画像
処理装置内に記憶された変換テーブルを用いて補正が行
われる。すなわち、図11に示すように、出力画像の最
大濃度Dmax に対して目標濃度DA で出力したい場合
は、画像信号の濃度の目標値dA に補正する。
FIG. 11 is a graph showing the relationship between the density of the image signal inside the image processing apparatus and the density of the image actually output. Usually, before the image is output from the image processing apparatus, it is stored in the image processing apparatus in order to correct the non-linear relationship as shown in FIG. 11 and to correct the machine difference between the image processing apparatuses. Correction is performed using the conversion table. That is, as shown in FIG. 11, when it is desired to output at the target density DA with respect to the maximum density Dmax of the output image, the density is corrected to the target value dA of the image signal.

【0037】本実施形態の画像処理装置では、この変換
テーブルは変換テーブル記憶装置14内に記憶されてい
る。そこで、本実施形態では、図7〜図10に示したよ
うな関数形の補正関数を用いてエッジラインを跨ぐ補正
領域内の画素濃度を補正し、次に、変換テーブル記憶装
置14に記憶されている上記の変換テーブルを用いて濃
度を補正して出力画像信号とする。
In the image processing apparatus of this embodiment, this conversion table is stored in the conversion table storage device 14. Therefore, in the present embodiment, the pixel density in the correction region across the edge line is corrected using the correction function having the functional form as shown in FIGS. 7 to 10, and then stored in the conversion table storage device 14. The density is corrected using the above conversion table to obtain an output image signal.

【0038】本実施形態では、図12に示すような画素
被覆率80%、60%、40%、及び20%の4つのソ
リッド画像が隣り合う画像について、各種の補正関数を
用いて補正した場合の出力画像の評価を行った。図12
は、画素被覆率80%、60%、40%、及び20%の
4つのソリッド画像が隣り合う画像の説明図である。
In the present embodiment, when four solid images having pixel coverages of 80%, 60%, 40%, and 20% as shown in FIG. 12 are adjacent to each other and are corrected using various correction functions. The output image of was evaluated. FIG.
FIG. 4 is an explanatory diagram of an image in which four solid images having a pixel coverage of 80%, 60%, 40%, and 20% are adjacent to each other.

【0039】図12に示す画像について、次の9種類の
補正関数による補正を施した後の出力画像と、補正を施
さない場合の出力画像とについて官能評価法により比較
評価した。補正関数としては、以下に示すA形、B形、
C形の3種類の基本形をさらにそれぞれ3種類に細分化
した合計9種類の補正関数を用いた。
With respect to the image shown in FIG. 12, an output image after being corrected by the following nine kinds of correction functions and an output image without being corrected were compared and evaluated by a sensory evaluation method. As the correction function, the following A type, B type,
A total of 9 types of correction functions were used by further subdividing the 3 types of C type into 3 types.

【0040】A形に属する補正関数は、図7に示すよう
な、エッジラインを中心とした補正領域において、濃度
分布がn次(n≧1)の連続関数で表わされる関数であ
って、以下のように、補正領域の幅(横軸方向の幅)が
それぞれ、 A−1:2mm、 A−2:5mm、 A−3:8mm、 であるものを指す。
The correction function belonging to type A is a function represented by a continuous function whose density distribution is n-th (n ≧ 1) in the correction area centered on the edge line as shown in FIG. As described above, the widths of the correction regions (widths in the horizontal axis direction) are A-1: 2 mm, A-2: 5 mm, and A-3: 8 mm, respectively.

【0041】B形に属する補正関数は、図9に示すよう
な、濃度分布がn次(n≧1)の関数であり、かつエッ
ジラインにおける濃度が不連続である関数であって、以
下のように、補正領域の幅(横軸方向の幅)がそれぞ
れ、 B−1:1mm、 B−2:2.5mm、 B−3:4mm であるものを指す。
The correction function belonging to type B is a function whose density distribution is n-th order (n ≧ 1) and whose density on the edge line is discontinuous, as shown in FIG. As described above, the widths (widths in the horizontal axis direction) of the correction areas are B-1: 1 mm, B-2: 2.5 mm, and B-3: 4 mm, respectively.

【0042】C形に属する補正関数は、図10に示すよ
うな、濃度分布がn次(n≧1)の関数であって、エッ
ジラインにおいて一部不連続であると同時にエッジライ
ン部に関して、関数形が非対称である関数であって、以
下のように、補正領域の幅(横軸方向の幅)がそれぞ
れ、 C−1:2mm、 C−2:5mm、 C−3:8mm であるものを指す。ただし、C形に属する関数の場合に
は、エッジラインを跨ぐ高濃度側と低濃度側とにおける
補正領域の幅の比を1:3とした。
As shown in FIG. 10, the correction function belonging to the C-shape has a density distribution of the n-th order (n ≧ 1) and is partially discontinuous in the edge line, and at the same time, in the edge line part, A function whose function form is asymmetric, and in which the width of the correction area (width in the horizontal axis direction) is C-1: 2 mm, C-2: 5 mm, C-3: 8 mm, respectively, as follows: Refers to. However, in the case of a function belonging to the C-shape, the ratio of the widths of the correction areas on the high density side and the low density side across the edge line is set to 1: 3.

【0043】出力された画像の官能評価方法としては、
20名の評価者が、補正前の画像及び補正後の画像につ
いてエッジライン近傍でのマッハ現象を目視により比較
し、その比較結果を次の評価指標で表した。すなわち、
補正後の画像の方が、 ◎:非常に好ましい、 ○:好ましい、 ▲:どちらともいえない、 △:好ましくない、 ×:見苦しい のいずれに該当するかにより評価した。評価結果を表1
に示す。
As a sensory evaluation method of the output image,
20 evaluators visually compared the Mach phenomenon in the vicinity of the edge line between the image before correction and the image after correction, and the comparison result was expressed by the following evaluation index. That is,
The image after correction was evaluated according to which one of ⊚: extremely preferable, ∘: preferable, ∘: neither can be said, Δ: not preferable, ×: unsightly. Table 1 shows the evaluation results.
Shown in

【0044】[0044]

【表1】 [Table 1]

【0045】なお、補正領域内での濃度勾配としては、
いずれの関数形の場合も、ソリッド画像内外の濃度差を
1.0とした時の、1mm当たりの濃度勾配を0.1と
した。評価の結果は表1に示すように、A形の関数の場
合は補正領域の幅は2mm以下がよいことがわかる。ま
た、補正領域を8mmより大きくした場合は、いずれの
関数の場合も評価は△または×のどちらかであった。な
お、補正関数として、n次(n≧2)の多項式を用いた
場合も、1次の時と同様の評価結果が得られた。
The density gradient in the correction area is as follows.
In any of the functional forms, the density gradient per 1 mm was 0.1 when the density difference inside and outside the solid image was 1.0. As a result of the evaluation, as shown in Table 1, it can be seen that the width of the correction region is preferably 2 mm or less in the case of the A-shaped function. Further, when the correction area was made larger than 8 mm, the evaluation was either Δ or X in any of the functions. Even when an n-th order (n ≧ 2) polynomial was used as the correction function, the same evaluation result as that in the case of the first order was obtained.

【0046】次に、濃度分布がエッジラインにおいて一
部不連続である、B形(図9参照)、C形(図10参
照)の関数形において、エッジラインで生じる一部不連
続部分の長さΔDを変化させた場合の評価結果を表2に
示す。図13は、エッジラインにおける濃度が不連続で
ある補正関数における不連続部分の長さΔDの説明図で
ある。
Next, in the functional forms of B type (see FIG. 9) and C type (see FIG. 10) in which the density distribution is partially discontinuous at the edge line, the length of the partially discontinuous portion occurring at the edge line. Table 2 shows the evaluation results when the height ΔD was changed. FIG. 13 is an explanatory diagram of the length ΔD of the discontinuous portion in the correction function in which the density on the edge line is discontinuous.

【0047】図13に示すように、補正前のソリッド画
像内側の濃度をDI 、補正前のソリッド画像外側の濃度
をDO 、補正後のエッジライン上に形成される不連続部
分の長さ(濃度差)をΔD(図13参照)とした時、Δ
D/|DI −DO |の値を0.3、0.5、及び0.7
に変化させて出力画像のマッハ現象に対する補正効果を
評価した結果を表2に示す。評価指標は表1と同様であ
る。
As shown in FIG. 13, the density inside the uncorrected solid image is DI, the density outside the uncorrected solid image is DO, and the length of the discontinuous portion formed on the corrected edge line (density) When the difference is ΔD (see FIG. 13), Δ
The values of D / | DI-DO | are 0.3, 0.5, and 0.7.
Table 2 shows the results of evaluation of the correction effect on the Mach phenomenon of the output image by changing to. The evaluation index is the same as in Table 1.

【0048】[0048]

【表2】 [Table 2]

【0049】表2から、ΔD/|DI −DO |の値が
0.5以下になると、補正が逆効果となる恐れがあるこ
とがわかる。従って、B形、C形の関数の場合は、上記
のΔD/|DI −DO |の値を0.5以上とすることが
望ましい。以上の結果より、補正関数として前記A形を
用いた場合には補正領域は2mm以下、補正関数として
前記B形、C形を用いた場合には、 ΔD/|DI −DO |≧0.5 が成立する補正関数が望ましいことがわかる。
It can be seen from Table 2 that the correction may have an adverse effect when the value of ΔD / │DI -DO │ becomes 0.5 or less. Therefore, in the case of B-type and C-type functions, it is desirable that the value of .DELTA.D / .vertline.DI-DO.vertline. Is 0.5 or more. From the above results, when the A type is used as the correction function, the correction area is 2 mm or less, and when the B type and C type are used as the correction function, ΔD / | DI −DO | ≧ 0.5. It can be seen that a correction function satisfying is desirable.

【0050】なお、上記の各実施形態においては、濃度
補正手段が、エッジライン両側の2つの領域双方を補正
する例について説明したが、必ずしもエッジライン両側
の2つの領域双方を補正しなければならないわけではな
く、取り扱う画像情報によっては、いずれか一方の領域
のみを補正し他方の領域は補正しないままにとどめても
よい。
In each of the above-described embodiments, the density correcting means corrects both of the two areas on both sides of the edge line, but it is necessary to correct both of the two areas on both sides of the edge line. However, depending on the image information to be handled, only one of the regions may be corrected and the other region may be left uncorrected.

【0051】ところで、以上説明した濃度補正処理を施
した画像情報を、電子写真方式の画像形成装置を用いて
画像形成すると、感光体上の静電潜像を現像する際の、
ソリッド画像のエッジ付近で生じる感光体表面に平行な
方向のフリンジ電場によるエッジ効果が軽減される。こ
のエッジ効果は電子写真方式の画像形成装置に特有の欠
陥であり、従来種々の防止方法が提案されているが、い
まだに完全な解決策がない。
By the way, when the image information subjected to the density correction processing described above is image-formed by using the electrophotographic image forming apparatus, when the electrostatic latent image on the photoconductor is developed,
The edge effect due to the fringe electric field in the direction parallel to the surface of the photoconductor that occurs near the edge of the solid image is reduced. This edge effect is a defect peculiar to an electrophotographic image forming apparatus, and various prevention methods have been proposed in the past, but there is still no complete solution.

【0052】図14は、電子写真方式の画像形成装置に
おけるエッジ効果の説明図である。図14(a)に示す
ように、感光体上の静電潜像を現像する際の、感光体4
1と現像剤担持体42との間の空隙43には、矢印で示
されているような電気力線44が形成されている。この
時の感光体の表面電位を図14(a)と対応させて示し
たのが図14(b)である。図14(b)に示すよう
に、感光体の表面電位に大きな電位の段差があると、表
面電位曲線45の段差部45a付近の電気力線44aが
段差部45aに引き寄せられて傾斜した電場、いわゆる
フリンジ電場が形成される。そのため、このような電位
の段差に相当する静電潜像のエッジ近傍ではエッジの線
が崩れる、いわゆるエッジ効果が発生し、静電潜像の電
位に忠実な現像が得られない。
FIG. 14 is an explanatory diagram of the edge effect in the electrophotographic image forming apparatus. As shown in FIG. 14A, the photoconductor 4 is used when the electrostatic latent image on the photoconductor is developed.
A line of electric force 44 as indicated by an arrow is formed in the gap 43 between the developer carrier 1 and the developer carrier 42. FIG. 14B shows the surface potential of the photoconductor at this time in association with FIG. 14A. As shown in FIG. 14B, when there is a large potential step in the surface potential of the photoconductor, an electric field 44a near the step portion 45a of the surface potential curve 45 is attracted to the step portion 45a and inclined, A so-called fringe electric field is formed. Therefore, in the vicinity of the edge of the electrostatic latent image corresponding to such a level difference of the potential, a line of the edge is broken, so-called edge effect occurs, and development that is faithful to the potential of the electrostatic latent image cannot be obtained.

【0053】しかし、本発明の画像処理装置によれば、
前述の補正処理によって、エッジライン付近の急峻な濃
度変化がなだらかになるので、それに応じて、図14
(c)に示すように、現像時の感光体の表面電位曲線の
段差部45aにおける電位変化もなだらかになり、従っ
て、図14(d)に示すように、表面電位曲線45の段
差部45a付近におけるフリンジ電場の形成が緩和さ
れ、エッジ効果が軽減される。このように、本発明によ
るエッジライン近傍での濃度補正処理によりマッハ現象
の軽減が図られると共に、静電潜像現像時のフリンジ電
場によるエッジ効果の軽減を図ることができる。
However, according to the image processing apparatus of the present invention,
Due to the above-described correction process, a sharp change in density near the edge line becomes gentle.
As shown in (c), the potential change in the step portion 45a of the surface potential curve of the photosensitive member at the time of development also becomes gentle. Therefore, as shown in FIG. 14 (d), in the vicinity of the step portion 45a of the surface potential curve 45. The formation of the fringe electric field at is reduced, and the edge effect is reduced. As described above, the density correction processing in the vicinity of the edge line according to the present invention can reduce the Mach phenomenon, and can reduce the edge effect due to the fringe electric field at the time of electrostatic latent image development.

【0054】[0054]

【発明の効果】以上説明したように、本発明の画像処理
装置によれば、ソリッド画像のエッジライン近傍の領域
において、エッジラインからの距離に応じた濃度補正を
画像信号に加えることにより人間の視覚補正機能に基づ
くマッハ現象が打ち消され、見掛け上均一な濃度のソリ
ッド画像を得ることができる。
As described above, according to the image processing apparatus of the present invention, in the area near the edge line of the solid image, the density correction according to the distance from the edge line is added to the image signal to detect the human image. The Mach phenomenon based on the visual correction function is canceled, and a solid image with apparently uniform density can be obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の画像処理装置の一実施形態の概要図で
ある。
FIG. 1 is a schematic diagram of an embodiment of an image processing apparatus of the present invention.

【図2】エッジ画素の順序付けの説明図である。FIG. 2 is an explanatory diagram of ordering of edge pixels.

【図3】本実施形態の濃度補正手段における処理手順を
示す流れ図である。
FIG. 3 is a flowchart showing a processing procedure in the density correction means of the present embodiment.

【図4】図3における輪郭画素抽出のステップS303
及び輪郭画素濃度補正のステップS304の詳細な手順
を示す流れ図である。
FIG. 4 is a step S303 of extracting contour pixels in FIG.
9 is a flowchart showing a detailed procedure of step S304 of contour pixel density correction.

【図5】本実施形態における輪郭画素の説明図である。FIG. 5 is an explanatory diagram of contour pixels according to the present embodiment.

【図6】補正処理前の、エッジラインの内側及び外側の
ソリッド画像領域の濃度分布を示す図である。
FIG. 6 is a diagram showing a density distribution of a solid image area inside and outside an edge line before a correction process.

【図7】補正処理後の、エッジラインの内側及び外側の
ソリッド画像領域の濃度分布を示す図である。
FIG. 7 is a diagram showing the density distribution of the solid image area inside and outside the edge line after the correction processing.

【図8】2次多項式を用いた補正関数の例である。FIG. 8 is an example of a correction function using a quadratic polynomial.

【図9】エッジライン部において濃度分布が不連続であ
る補正関数の一例を示す図である。
FIG. 9 is a diagram showing an example of a correction function in which the density distribution is discontinuous in the edge line portion.

【図10】エッジライン部において濃度分布が不連続で
あり、かつ補正領域がエッジラインに関して非対称であ
る補正関数を示す図である。
FIG. 10 is a diagram showing a correction function in which the density distribution is discontinuous in the edge line portion and the correction region is asymmetric with respect to the edge line.

【図11】画像処理装置内部の画像信号の濃度と実際に
出力される画像の濃度との間の関係を示すグラフであ
る。
FIG. 11 is a graph showing the relationship between the density of the image signal inside the image processing apparatus and the density of the image actually output.

【図12】図12は、画素被覆率80%、60%、40
%、及び20%の4つのソリッド画像が隣り合う画像の
説明図である。
FIG. 12 shows pixel coverages of 80%, 60%, 40.
It is explanatory drawing of the image which four solid images of% and 20% adjoin.

【図13】エッジラインにおける濃度が不連続である補
正関数における不連続部分の長さΔDの説明図である。
FIG. 13 is an explanatory diagram of the length ΔD of the discontinuous portion in the correction function in which the density on the edge line is discontinuous.

【図14】電子写真方式の画像形成装置におけるエッジ
効果の説明図である。
FIG. 14 is an explanatory diagram of an edge effect in an electrophotographic image forming apparatus.

【図15】マッハ現象の説明図である。FIG. 15 is an explanatory diagram of a Mach phenomenon.

【符号の説明】[Explanation of symbols]

11 画像情報記憶装置 12 エッジ検出手段 13 濃度補正手段 14 変換テーブル記憶装置 15 画像記録装置 11 Image Information Storage Device 12 Edge Detection Unit 13 Density Correction Unit 14 Conversion Table Storage Device 15 Image Recording Device

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 画像の情報を担持する画像信号に基づい
て、該画像上の、濃度が互いに異なる領域どうしが接す
るエッジラインを検出するエッジ検出手段と、 前記エッジ検出手段により検出されたエッジラインで境
を接する、濃度が互いに異なる2つの領域のうちの少な
くとも一方の第1の領域について、該第1の領域のうち
の前記エッジラインの近傍領域の濃度が、該エッジライ
ンに近づくほど、前記2つの領域のうちの他方の第2の
領域の濃度に近づくように、該エッジライン近傍領域の
画像信号を補正する濃度補正手段とを備えたことを特徴
とする画像処理装置。
1. An edge detecting means for detecting an edge line where areas of different densities on the image are in contact with each other, based on an image signal carrying image information, and an edge line detected by the edge detecting means. For at least one first region of two regions having different densities which are adjacent to each other, the closer the concentration of the region near the edge line of the first region is to the edge line, An image processing apparatus comprising: a density correction unit that corrects an image signal in the edge line neighboring area so as to approach the density of the other second area of the two areas.
【請求項2】 前記濃度補正手段が、前記2つの領域に
跨って連続的に濃度が変化するように前記画像信号を補
正するものであることを特徴とする請求項1記載の画像
処理装置。
2. The image processing apparatus according to claim 1, wherein the density correction unit corrects the image signal so that the density continuously changes over the two regions.
【請求項3】 前記濃度補正手段が、前記エッジライン
における濃度の不連続性が残るように前記画像信号を補
正するものであることを特徴とする請求項1記載の画像
処理装置。
3. The image processing apparatus according to claim 1, wherein the density correction unit corrects the image signal so that the discontinuity of density on the edge line remains.
JP8116444A 1996-05-10 1996-05-10 Image processor Withdrawn JPH09307768A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8116444A JPH09307768A (en) 1996-05-10 1996-05-10 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8116444A JPH09307768A (en) 1996-05-10 1996-05-10 Image processor

Publications (1)

Publication Number Publication Date
JPH09307768A true JPH09307768A (en) 1997-11-28

Family

ID=14687272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8116444A Withdrawn JPH09307768A (en) 1996-05-10 1996-05-10 Image processor

Country Status (1)

Country Link
JP (1) JPH09307768A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012165456A (en) * 2012-04-27 2012-08-30 Brother Ind Ltd Image processing system
US8786894B2 (en) 2010-03-23 2014-07-22 Brother Kogyo Kabushiki Kaisha Image processing apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8786894B2 (en) 2010-03-23 2014-07-22 Brother Kogyo Kabushiki Kaisha Image processing apparatus
US9087290B2 (en) 2010-03-23 2015-07-21 Brother Kogyo Kabushiki Kaisha Image processing apparatus
JP2012165456A (en) * 2012-04-27 2012-08-30 Brother Ind Ltd Image processing system

Similar Documents

Publication Publication Date Title
US7333132B2 (en) Corrected image generating apparatus and corrected image generating program storage medium
US7515305B2 (en) Systems and methods for measuring uniformity in images
EP1919185B1 (en) Scanning apparatus and method having image correction function
JP4780374B2 (en) Image processing method and program for suppressing granular noise, and granular suppression processing module for implementing the method
US20070091334A1 (en) Method of calculating correction data for correcting display characteristic, program for calculating correction data for correcting display characteristic and apparatus for calculating correction data for correcting display characteristic
JP4003132B2 (en) Image data processing method, apparatus, program, and recording medium
US6724946B1 (en) Image processing method, apparatus and storage medium therefor
KR20090057826A (en) Scanning apparatus and imgae correction method having the same
JP2020140366A (en) Image diagnostic system, image diagnostic instrument, and image diagnostic method
JPH09307768A (en) Image processor
JP3516937B2 (en) Control method of image reading system and control program therefor
KR20190063401A (en) Image forming apparatus capable of undergoing remote image diagnosis, control method therefor, and storage medium storing control program therefor
CN102363394B (en) Image processing apparatus and image processing method
JPH0660181A (en) Image forming device
JP2004179768A (en) Image processing apparatus, and image forming apparatus
US7382906B2 (en) Method of determining the region of interest in images of skin prints
JP3594831B2 (en) Image correction apparatus and method, medium storing image correction control program
JP3096388B2 (en) Automatic image quality adjustment device for electronic copier
JP3868441B2 (en) Color image forming apparatus and color image forming method
JPS6319082A (en) Printing quality estimating method
JPH08190630A (en) Image processor
JP3006231B2 (en) Image shift measurement method
JP2002218247A (en) Image processing method
JPH0795344B2 (en) Image correction method
JP2021068159A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20030805