JPH065879B2 - Image processing device - Google Patents

Image processing device

Info

Publication number
JPH065879B2
JPH065879B2 JP59276487A JP27648784A JPH065879B2 JP H065879 B2 JPH065879 B2 JP H065879B2 JP 59276487 A JP59276487 A JP 59276487A JP 27648784 A JP27648784 A JP 27648784A JP H065879 B2 JPH065879 B2 JP H065879B2
Authority
JP
Japan
Prior art keywords
edge
image
signal
output
smoothing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP59276487A
Other languages
Japanese (ja)
Other versions
JPS61157169A (en
Inventor
有二 西垣
尚登 河村
克人 出井
良信 三田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP59276487A priority Critical patent/JPH065879B2/en
Priority to GB8531765A priority patent/GB2170373B/en
Priority to DE19853546135 priority patent/DE3546135A1/en
Publication of JPS61157169A publication Critical patent/JPS61157169A/en
Priority to US07/657,949 priority patent/US5231677A/en
Publication of JPH065879B2 publication Critical patent/JPH065879B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【発明の詳細な説明】 <技術分野> 本発明は画像を電気信号として扱うデジタル複写装置、
ファクシミリ装置等の画像処理装置に関する。
TECHNICAL FIELD The present invention relates to a digital copying apparatus that handles an image as an electric signal,
The present invention relates to an image processing device such as a facsimile device.

<従来技術> 一般にCCDセンサー等により画像をサンプリングし、
デジタル化したデータをレーザ・ビーム・プリンター等
のデジタル・プリンターから出力し画像を再現する、所
謂、デジタル複写装置はデジタル機器の発展により、従
来のアナログ複写装置に代わり広く普及しつつある。か
かるデジタル複写装置は中間調画像を再現するため、デ
イザ法や濃度パターン法により階調再現を行うのが普通
である。しかしながらかかる方法に於ては以下の2点の
大きな問題点があった。
<Prior Art> Generally, an image is sampled by a CCD sensor or the like,
A so-called digital copying apparatus that outputs digitalized data from a digital printer such as a laser beam printer to reproduce an image is becoming widely used instead of a conventional analog copying apparatus due to the development of digital equipment. Since such a digital copying apparatus reproduces a halftone image, it is common to perform gradation reproduction by a dither method or a density pattern method. However, this method has the following two major problems.

(1)原稿が網点画像の場合、複写された画像に原稿に
は無い周期的な縞模様が出る。
(1) When the original is a halftone dot image, a periodic striped pattern which is not present in the original appears in the copied image.

(2)原稿に線画・文字等が入っている場合には、デイ
ザ処理によりエッジが切れぎれになり画質が低下する。
(2) If the original contains line drawings, characters, etc., the edges are cut off by the dither processing, and the image quality is degraded.

(1)の現象はモアレ現象と呼ばれその発生原因は、 A)網点原稿と入力サンプリングによるモアレ B)網点原稿とデイザ閾値マトリックスによるモアレ 等が考えられる。A)の現象は、網点原稿の網点ピッチ
〔mm〕から決まる網点周波数f(=1/Po)〔PE
L/mm〕のn倍高周波nf〔PEL/mm〕と、入力セ
ンサー・ピッチP〔mm〕とから求まる入力サンプリン
グ周波数f(1/Ps)〔PEL/mm〕とから △f=|f−nf|〔PED/mm〕……(1) なるビート周波数が生じそれがモアレとなる。
The phenomenon of (1) is called a moire phenomenon, and its cause is considered to be A) a halftone original and moire due to input sampling B) a halftone original and moire due to a dither threshold matrix. The phenomenon of A) is that the halftone dot frequency f o (= 1 / P o ) [PE is determined by the halftone dot pitch P o [mm] of the halftone dot original.
L / mm] n times higher frequency nf o [PEL / mm] and the input sampling frequency f s (1 / P s ) [PEL / mm] obtained from the input sensor pitch P s [mm] Δf = | F s −nf o | [PED / mm] (1) A beat frequency is generated, which causes moire.

(B)の現象は、一般にデイザの閾値が、fattin
g型等のドット集中型で配列されている時、出力画像も
擬似的な網点構造をしており、これが入力網点原稿との
間にビートを生じモアレ現象を呈する。デイザ閾値の繰
り返し周期ピッチを記録紙上でP〔mm〕とすると空間
周波数ではf=1/P〔PEL/mm〕となり、ビー
ト周波数としては、、 △f=|f−f|〔PED/mm〕……(2) が最も顕著に現われる。
In the phenomenon of (B), the dither threshold is generally fattin.
When arranged in a dot-concentrated type such as g-type, the output image also has a pseudo halftone dot structure, which causes a beat between the input halftone dot original and a moire phenomenon. When the repetition cycle pitch of the dither threshold is P D [mm] on the recording paper, the spatial frequency is f D = 1 / P D [PEL / mm], and the beat frequency is Δf = | f o −f D | [PED / mm] (2) is most noticeable.

上記2つのモアレ現象で最も強く生じるのは(B)の方
である。これは(A)の現象では一般に網点原稿のn倍
高周波のnとしてn=3〜6位であり、センサーへ導く
光学系等の伝達関数(MTF)等が、その周波数でかな
り低下するため、モアレ縞のコントラストも低い。
The strongest occurrence of the above two moire phenomena is in (B). This is because, in the phenomenon of (A), generally, n is 3 to 6 as n at a frequency n times higher than that of a halftone dot original, and the transfer function (MTF) of the optical system or the like leading to the sensor is considerably lowered at that frequency. The contrast of moire fringes is also low.

かかる原因によって生じるモアレ現象は出力画像の品位
を著しく低下させる。このため昔から種々の対策・検討
がなされてきた。例えばランダム・デイザ法による方法
はモアレは除去出来るが砂目状の粒状性が出て、画質劣
化を生ず。J.Opt.Soc.Am.,Vol.6
6,No10,October 1976 P985に示
される、Paul G.Roetlingの提唱する
RIESは、2値化の前後で濃度の平均値を比較し、等
しくなる様に、閾値にフィード・バックをかけている
が、かかる方法は、ハード化が複雑で、且つモアレ除去
の効果が十分でない。
The moire phenomenon caused by such a cause significantly deteriorates the quality of the output image. For this reason, various measures and studies have been made since ancient times. For example, the method using the random dither method can remove moire, but it produces grain-like graininess and does not deteriorate image quality. J. Opt. Soc. Am. , Vol. 6
6, No10, October 1976 P985, Paul G. et al. A proposed by Roetling
RIES compares the average values of the densities before and after binarization and feeds back the threshold value so that they become equal. However, this method is complicated in hardware and has a sufficient moire removing effect. Not.

一方画像電子学会予縞83−3 P13“文字・写真混
在画像の網点化”高島他に見られる細網点化法は、網点
画像をボカシ(又は周辺画素までの平均化)により、デ
イザパターンで再網点化するためモアレは除去され、粒
状のノイズも少い。
On the other hand, the Institute of Image Electronics Engineers, Yohka 83-3 P13 "Dotization of mixed text / photo image" The fine dot method found in Takashima et al. Is a method of blurring a dot image (or averaging up to surrounding pixels) Moire is removed because the pattern is re-dotted, and there is little granular noise.

しかしボカシ(又は周辺画素との平均化)により解像度
の低下をまぬがれない。即ちモアレを除去しようとすれ
ば解像度が低下し、解像度を保とうとすればモアレは除
去されない。従って網点画像領域だけをあらかじめ抽出
し、その部分だけにかかる手法を適用する事が必須とな
る。このため所謂像域分離技術が必要となる。この像域
分離技術は、現状のレベルでは精度が高く、高速な手法
……特にハード・ウエア化に向いた方法……は得がたく
前記手法を実現しがたい。且つ仮に像域分離技術が得ら
れたとしても、かかる手法では画像内の高周波成分まで
平均化・平滑化されてしまい十分満足とは言えない。
However, blurring (or averaging with surrounding pixels) inevitably reduces the resolution. That is, if the moiré is removed, the resolution is lowered, and if the resolution is kept, the moiré is not removed. Therefore, it is indispensable to extract only the halftone image area in advance and apply the method to only that portion. Therefore, so-called image area separation technology is required. This image area separation technology is difficult to realize in the current level because it is difficult to obtain a method with high accuracy and high speed, especially a method suitable for hardware. Moreover, even if an image area separation technique were obtained, such a method would not be sufficiently satisfactory because even high frequency components in the image would be averaged and smoothed.

一方(2)の問題に関しては、原稿の文字・線画が、デ
イザ処理を施す事により細断化され、特にデッジ部が切
れぎれになるため印字品質が低下する。この現象はデイ
ザ・パターンが前述のFatting型等のドット集中
型に於て特に顕著である。
On the other hand, with respect to the problem (2), the character / line drawing of the document is shredded by performing the dither process, and the quality of the print is deteriorated especially because the dedge portion is cut off. This phenomenon is particularly remarkable when the dither pattern is the dot concentrated type such as the aforementioned Fatting type.

<目的> 本発明の目的は以上説明した2つの次点を除去し、高品
位に且つ高精細に画像を再現出来る画像処理装置を提供
することにある。即ち本発明に於ては、網点原稿時生じ
るモアレ現象を除去し、文字・線画に対しては切れぎれ
に細断化される事を防止、且つ画像部の高域成分の低下
を防ぐ事が出来たものである。又、更にはかかる手法を
簡単な回路構成で実現出来安価に提供しうる物である。
<Purpose> An object of the present invention is to provide an image processing apparatus which can eliminate the above-mentioned two secondary points and reproduce an image with high quality and high definition. That is, in the present invention, the moire phenomenon that occurs during halftone dot originals is removed, and it is possible to prevent the characters and line images from being shredded into small pieces, and to prevent the high frequency components in the image area from decreasing. Was made. Further, the method can be realized with a simple circuit configuration and can be provided at a low cost.

<実施例> (基本構成)第1図〜第6図 本実施例の画像処理装置の基本構成を第1図に示す。本
画像処理装置は、エッジ検出器a,エッジ強調器b,ス
ムージング器c,混合器dから構成される。エッジ検出
器aでは、後述の様に文字、線画、画像のエッジを検出
し、網点画像の網点はエッジとして検出しない空間周波
数特性を持たせている。エッジ強調器bでは、原画像ま
たは、原画像とエッジをある比率で混合したエッジ強調
画像信号を出力する。スムージング器cでは画像の平滑
化をおこなう。混合器dでは、エッジ検出器の信号に応
じて、エッジ強調画像と、スムージング画像との混合比
を変えて出力する。このようにして網点画像の網点は非
エッジ領域と判定し、スームジングをおこなうことによ
り平滑化しモアレを防止する。また、文字、線画、画像
のエッジはエッジ領域と判定し、エッジ強調することに
より、文字の網点化、画像の鮮鋭度の低下を防止する。
さらにエッジ領域と非エッジ領域とを連続的につないで
いるので境界でのテクスチャー変化が出ない。
<Embodiment> (Basic Structure) FIGS. 1 to 6 FIG. 1 shows the basic structure of an image processing apparatus according to this embodiment. The image processing apparatus includes an edge detector a, an edge enhancer b, a smoothing device c, and a mixer d. The edge detector a detects the edges of characters, line drawings, and images as described later, and the halftone dots of the halftone dot image have a spatial frequency characteristic that is not detected as an edge. The edge enhancer b outputs an original image or an edge-enhanced image signal in which the original image and edges are mixed at a certain ratio. The smoothing device c smoothes the image. The mixer d changes the mixing ratio of the edge-enhanced image and the smoothed image according to the signal from the edge detector and outputs the image. In this way, the halftone dots of the halftone dot image are determined to be non-edge regions, and smoothing is performed by smoothing to prevent moire. Further, the edges of characters, line drawings, and images are determined to be edge regions, and the edges are emphasized to prevent the characters from becoming halftone dots and to reduce the sharpness of the images.
Further, since the edge area and the non-edge area are continuously connected, the texture does not change at the boundary.

次に本実施例の原理について周波数特性から説明する。
先ず原稿の網点画像のスクリーン線数は、通常白黒で1
20線から150線、カラーで133線から175線で
ある。そしてモアレが生じやすいのはスクリーン角が0
度か45度のときである。またライン読取時の主走査方
向網点ピッチは、45度のときが最大で空間周波数が低
く、0度のときが最小で空間周波数は高い。スクリーン
角が0度と45度のときの空間周波数を求めると表1の
ようになる。
Next, the principle of this embodiment will be described from frequency characteristics.
First, the screen ruling of the halftone image of the original is usually black and white 1
20 to 150 lines, 133 to 175 lines in color. And the screen angle is 0 when moire is likely to occur.
It is at 45 degrees. The main scanning direction halftone dot pitch during line reading is maximum at 45 degrees and low in spatial frequency, and minimum at 0 degrees and high in spatial frequency. Table 1 shows the spatial frequencies when the screen angle is 0 degree and 45 degrees.

このような網点画像の周波数特性は第2図aのように基
本周波数とその高周波にピークをもつ。また文字画像、
連続調写真画像の周波数特性はそれぞれ、第2図b,c
のようになる。このような文字、写真、網点の混合画像
に対して、本実施例のエッジ検出器、エッジ強調器、ス
ムージング器の空間フィルターは次のような条件をみた
す周波数特性にする。
The frequency characteristic of such a halftone image has peaks at the fundamental frequency and its high frequency as shown in FIG. Also a character image,
The frequency characteristics of continuous-tone photographic images are shown in Figs. 2b and 2c, respectively.
become that way. For such a mixed image of characters, photographs, and halftone dots, the spatial filter of the edge detector, edge enhancer, and smoothing device of the present embodiment has frequency characteristics satisfying the following conditions.

条件1.エッジ検出器の空間フィルターのピーク周波数
は、網点画像の第1次高調波周波数より低周波にする。
Condition 1. The peak frequency of the spatial filter of the edge detector is lower than the first harmonic frequency of the halftone dot image.

条件2.エッジ強調器の空間フィルターのピーク周波数
は、エッジ検出器の空間フィルターのピーク周波数より
高周波にする。
Condition 2. The peak frequency of the spatial filter of the edge enhancer is higher than that of the spatial filter of the edge detector.

条件3.スムージング器の空間フィルターの周波数特性
は、網点画像の第1次高調波周波数で充分低下させる。
また出力のデイザーの周期に対応する周波数で充分低下
させる。
Condition 3. The frequency characteristic of the spatial filter of the smoothing device is sufficiently lowered at the first harmonic frequency of the halftone image.
Also, it is sufficiently reduced at the frequency corresponding to the output dither cycle.

エッジ検出のための空間フィルターには種々のものがあ
るが、ハード回路の規模に影響を与えるマトリックスサ
イズを一定にすると、1次微分フィルターの方が2次微
分フィルターより低周波にピークをもつ。ただし2次微
分フィルターは方向性をもたないが、1次微分フィルタ
ーは方向性があり、少なくとも2方向の傾きの2乗の和
の平方根、あるいはその近似式として、少なくとも2方
向の傾きの絶対値の和、あるいは少なくとも2方向の傾
きの絶対値の最大値などをとる必要がある。また、1次
微分の方が2次微分よりも点状ノイズに強い。以上のよ
うにエッジ検出器aの空間フィルターとしては1次微分
フィルターの方がよい。
Although there are various spatial filters for edge detection, if the matrix size that affects the scale of the hard circuit is fixed, the first derivative filter has a peak at a lower frequency than the second derivative filter. However, the second derivative filter has no directionality, but the first derivative filter has directionality, and the square root of the sum of the squares of the slopes of at least two directions, or an approximate expression thereof, is the absolute slope of at least two directions. It is necessary to take the sum of the values or the maximum absolute value of the inclination in at least two directions. Further, the first derivative is more resistant to point noise than the second derivative. As described above, the first-order differential filter is preferable as the spatial filter of the edge detector a.

又、エッジ強調器bの空間フィルターとしては、方向性
がなく、より高周波にピークをもつ2次微分フィルター
の方が1次微分フィルターよりも優れている。
Further, as the spatial filter of the edge enhancer b, the second order differential filter having no directivity and having a peak at a higher frequency is superior to the first order differential filter.

以上のような各種空間フィルターの周波数特性の関係を
簡単のため1次元の高速フーリエ変換(FFT)で計算
した結果を示す。例として入力系の読取りサンプリング
間隔が1/16mm、出力系が16dots/mmで4×4
のデイザーマトリックスを用いた場合について計算す
る。デイザーパターンの周期は空間周波数に直すと4
1/mmである。また1/16mmサンプリングの読取りで
はサンプリング定理により8 1/mmの周波数までしか
検出できない。
For the sake of simplicity, the results of the one-dimensional fast Fourier transform (FFT) calculation of the relationship of the frequency characteristics of the above various spatial filters will be shown. As an example, the reading sampling interval of the input system is 1/16 mm, and the output system is 16 dots / mm, 4 x 4
The calculation is performed using the dither matrix of. If the period of the dither pattern is converted to the spatial frequency, 4
It is 1 / mm. Also, in the case of reading with 1/16 mm sampling, only the frequency of 81 / mm can be detected by the sampling theorem.

マトリックスサイズが5×5の場合、2次微分フィルタ
ー(−1,0,2,0,−1)の1次元FFTを第3図
に、1次微分フィルター(−1,0,0,0,1)の1
次元FFTを第4図に、別の1次元微分フィルター(−
1,−1,0,1,1)の1次元FFTを第5図に示
す。
When the matrix size is 5 × 5, the one-dimensional FFT of the second derivative filter (-1, 0, 2, 0, -1) is shown in FIG. 3 and the first derivative filter (-1, 0, 0, 0, 1 of 1)
The dimensional FFT is shown in FIG. 4, and another one-dimensional differential filter (-
A one-dimensional FFT of (1, -1, 0, 1, 1) is shown in FIG.

それぞれピークの位置は4 1/mm,2 1/mm,2.
5 1/mmである。これを表1の網点画像の空間周波数
と比べると、1次微分フィルターでは表1のすべての線
数に対して条件1を満たしているが2次微分フィルター
では、120線、133線の45°で条件1を満足でき
ず、網点をエッジと検出してしてまう。2種類の1次微
分フィルターを比較すると、パルス幅を大きくした(−
1,−1,0,1,1)の方が優れている。なぜならパ
ルス幅を大きくした方が2番目のピークの強度が小さく
なり、またパルス幅を大きくした方がエッジ領域(この
領域にエッジ強調をかける)を幅広く検出できるからで
ある。エッジ検出を1次微分フィルター(−1,−1,
0,1,1)にし、エッジ強調を2次微分フィルター
(−1,0,2,0,−1)にすれば、それぞれのピー
ク周波数は2.5 1/mm、4 1/mmで条件2を満たし
ている。すなわちエッジ検出より幅広くエッジ強調をお
こなう領域を抽出し、エッジ強調ではエッジがシャープ
に出る空間フィルターを使用するのである。
The peak positions are 4 1 / mm, 2 1 / mm, 2.
It is 5 1 / mm. Comparing this with the spatial frequency of the halftone dot image in Table 1, Condition 1 is satisfied for all the number of lines in Table 1 in the first-order differential filter, but 45 in 120 lines and 133 lines in the second-order differential filter. Condition 1 is not satisfied at °, and halftone dots are detected as edges. When comparing two types of first-order differential filters, the pulse width was increased (-
1, -1,0,1,1) is superior. This is because the intensity of the second peak becomes smaller when the pulse width is increased, and the edge region (edge emphasis is applied to this region) can be detected broader when the pulse width is increased. Edge detection is performed by the first derivative filter (-1, -1,
0, 1, 1) and the edge enhancement is a second derivative filter (-1, 0, 2, 0, -1), the peak frequencies are 2.5 1 / mm and 4 1 / mm, respectively. Meet That is, a region in which edge enhancement is wider than edge detection is extracted, and a spatial filter that produces sharp edges is used in edge enhancement.

次に5×5のスムージングフィルター(1,1,1,
1,1)の1次元FFTを第6図に示す。120線45
°以上の網点画像の基本周波数、3.341 1/mm以上で
強度が小さくなっている。また4×4にデイザーマトリ
ックスのピッチ、4 1/mmで強度が充分小さくなって
いて条件3を満足している。
Next, a 5 × 5 smoothing filter (1, 1, 1,
A one-dimensional FFT of (1, 1) is shown in FIG. 120 line 45
The intensity becomes small at the fundamental frequency of the halftone dot image of ° or more and 3.341 1 / mm or more. Also, the condition 3 is satisfied because the strength is sufficiently small at 4 × 4, the pitch of the dither matrix, 41 / mm.

本実施例はエッジ検出器、エッジ強調器、スムージング
器に前述の条件1〜3のような周波数特性の空間フィル
ターを用いることにより、画像の平坦部と網点画像は非
エッジ領域と判定しスムージングで平均化し、文字、線
画、画像のエッジ部はエッジ領域と判定し、エッジ強調
する。またエッジ領域と非エッジ領域との境界は混合器
での混合比をエッジ検出器の信号に応じて変えることに
より連続的につなぐ。以上により網点画像でのモアレを
防止し、文字の網点化と画像の鮮鋭度の低下を防ぎ、エ
ッジ領域と非エッジ領域との不連続なテクスチャーの変
化を生じない。また空間フィルターのマトリックスサイ
ズも大きなものを必要としないので、ハード回路の規模
を小さくでき、LSI化にも有利である。
In this embodiment, the edge detector, the edge enhancer, and the smoothing device use the spatial filters having the frequency characteristics as in the above-mentioned conditions 1 to 3, so that the flat portion of the image and the halftone dot image are determined to be non-edge regions and smoothed. Are averaged, and the edge portion of the character, line drawing, and image is determined as an edge region, and the edge is emphasized. The boundary between the edge region and the non-edge region is continuously connected by changing the mixing ratio in the mixer according to the signal from the edge detector. As described above, moire in a halftone image is prevented, halftone dots are prevented, and the sharpness of the image is prevented from decreasing, and discontinuous texture changes between edge regions and non-edge regions do not occur. Further, since the spatial filter does not need to have a large matrix size, the scale of the hardware circuit can be reduced, which is also advantageous for LSI implementation.

第7図は本発明の実施例を示すブロック図で、S1は入
力画像信号、1は入力画像信号S1の1次微分値の絶対
値を検出する微分値検出部で第1図aに対応する。S2
は微分値検出部1の出力につながれた微分信号、2は微
分信号S2から制御信号S3とS4をつくる制御信号発
生器、S3は制御信号発生器2の出力で制御信号、S4
はやはり制御信号発生器2の出力で制御信号S3とは相
補性の制御信号、3は入力画像信号S1を平滑化する平
滑化処理部で第1図Cに対応する。S6は平滑化処理部
3によって平滑化された平滑化画像信号、4は平滑化画
像信号S6と制御信号S3との算術積をとる掛け算器、
S7は掛け算器4の出力、5は入力画像信号S1のエッ
ジ部を強調するエッジ強調部、S8はエッジ強調部5の
エッジ信号、S9は外部から与えられる定数、6はエッ
ジ信号S8と定数S9との算術積をとる掛け算器、S1
0は掛け算器6から出力されるエッジ信号、7はエッジ
信号S10と入力画像信号S1との算術和をとる加算器
で、エッジ強調部5、掛け算器6、加算器7で第1図の
エッジ強調器bを構成する。
FIG. 7 is a block diagram showing an embodiment of the present invention, S1 is an input image signal, 1 is a differential value detecting section for detecting the absolute value of the primary differential value of the input image signal S1, and corresponds to FIG. 1a. . S2
Is a differential signal connected to the output of the differential value detecting section 1, 2 is a control signal generator for generating control signals S3 and S4 from the differential signal S2, S3 is an output of the control signal generator 2, and a control signal S4
Is a control signal complementary to the control signal S3 at the output of the control signal generator 3, and 3 is a smoothing processing unit for smoothing the input image signal S1 and corresponds to FIG. 1C. S6 is a smoothed image signal smoothed by the smoothing processing unit 3, 4 is a multiplier that takes the arithmetic product of the smoothed image signal S6 and the control signal S3,
S7 is the output of the multiplier 4, 5 is an edge enhancing unit for enhancing the edge portion of the input image signal S1, S8 is an edge signal of the edge enhancing unit 5, S9 is a constant given from the outside, 6 is an edge signal S8 and a constant S9. Multiplier S1 that takes the arithmetic product of
0 is the edge signal output from the multiplier 6, 7 is an adder that takes the arithmetic sum of the edge signal S10 and the input image signal S1, and the edge emphasis unit 5, the multiplier 6 and the adder 7 are the edges of FIG. Construct the highlighter b.

S11は加算器7の出力であるところのエッジ強調画像
信号、8はエッジ強調画像信号S11と制御信号S4と
の算術積をとる掛け算器、S12は掛け算器8の出力、
9は出力S7と出力S12の算術和をとる加算器、S1
3は加算器9の出力で処理画像信号である。ここで掛け
算器4,8及び加算器9は第1図の混合器dを構成して
いる。
S11 is an edge-enhanced image signal that is the output of the adder 7, 8 is a multiplier that calculates the arithmetic product of the edge-enhanced image signal S11 and the control signal S4, and S12 is the output of the multiplier 8.
9 is an adder for taking the arithmetic sum of the outputs S7 and S12, S1
The output 3 of the adder 9 is a processed image signal. Here, the multipliers 4 and 8 and the adder 9 constitute the mixer d of FIG.

ここでエッジ強調器bに対応するエッジ強調部302に
おいては、エッジ量(エッジデイテクト)検出部5の出
力と前述した制御信号S9との乗算を掛け算器6で行
う。掛け算器6はROM等で構成でき、制御信号S9は
乗算係数そのものでなく、コード化された信号でもかま
わない事はいうまでもない。
In the edge enhancing unit 302 corresponding to the edge enhancing unit b, the multiplier 6 multiplies the output of the edge amount (edge detect) detecting unit 5 and the control signal S9 described above. It goes without saying that the multiplier 6 can be composed of a ROM or the like, and the control signal S9 may be a coded signal instead of the multiplication coefficient itself.

画像処理の注目する画素をAとした時に、加算器7によ
り、注目画素とエッジデイテクトのある係数倍された値
が加算され注目画素はエッジ強調される。混合部305
においては、エッジ強調部302の出力と平滑化処理3
の出力を適当な比率で混合する回路部で、前段の制御信
号発生部2に入力される微分値検出部1の出力に応じ、
S3,S4が出力される。後述する様にS3,S4は相
補性の制御信号であるが、必ずしも限定されない。S
3,S4は制御信号S5により、自由にその特性を選択
し設定する事ができる。掛け算器8においてエッジ強調
部出力はS4によって決められた乗算を行い、掛け算器
4において平滑化処理部処理はS3によって決定される
乗算を行い、掛け算器4,8の出力は加算器9によって
互いに加算され、これが画像処理出力となる。
When the pixel of interest in the image processing is A, the adder 7 adds the pixel of interest and a value multiplied by a coefficient having edge detection, and the pixel of interest is edge-emphasized. Mixing unit 305
In, the output of the edge enhancement unit 302 and the smoothing process 3
Is a circuit unit that mixes the outputs of the control signals in a proper ratio, according to the output of the differential value detecting unit 1 input to the control signal generating unit 2 in the previous stage.
S3 and S4 are output. As will be described later, S3 and S4 are complementary control signals, but they are not necessarily limited. S
The characteristics of 3 and S4 can be freely selected and set by the control signal S5. In the multiplier 8, the output of the edge enhancement unit performs the multiplication determined by S4, in the multiplier 4, the smoothing processing unit performs the multiplication determined by S3, and the outputs of the multipliers 4 and 8 are mutually added by the adder 9. They are added and this becomes the image processing output.

第7図のブロック図はまた式をもって表現することがで
きる。
The block diagram of FIG. 7 can also be expressed as an equation.

まず微分値検出部1及び制御信号発生器2は以下の式1
の如き演算を行う。
First, the differential value detection unit 1 and the control signal generator 2 have the following formula 1
Is calculated.

ここでIは入力画像データ、Eは制御信号S4である。
は制御信号S4を最大値1に規格化し、ガンマ変換す
る関数である。
Here, I is the input image data and E is the control signal S4.
Is a function for normalizing the control signal S4 to a maximum value of 1 and performing gamma conversion.

加算器7からは以下の如き出力が得られる。The following output is obtained from the adder 7.

Gは加算器7の出力、kは定数信号S9の定数であ
る。そして平滑化処理部3からは以下の如き出力が得ら
れる。
G is the output of the adder 7, and k 1 is the constant of the constant signal S9. Then, the following output is obtained from the smoothing processing unit 3.

Hは平滑化処理部3の出力である。依って、加算器9の
出力S13の値Outは以下の如き式2によって表わせ
る。
H is an output of the smoothing processing unit 3. Therefore, the value Out of the output S13 of the adder 9 can be expressed by the following equation 2.

上式に示す〔 〕内は画像信号Iとコンボリューショ
ンをとるカーネルである。カーネル*1〜*4は種々の
変形が考えられ、その一例を表2に示す。
The inside of [] shown in the above equation is a kernel that convolves with the image signal I. Various modifications can be considered for the kernels * 1 to * 4, and an example thereof is shown in Table 2.

第8図は制御信号発生部2のもつ関数の特性の例であ
る。
FIG. 8 shows an example of the characteristic of the function of the control signal generator 2.

E=f(x)において E=0 for 0x<0.2 E=1.67x−0.33 for 0.2x<0.8 E=1 for 0.8x1 である。ただし入出力信号とも0〜1に規格化して説明
する。
At E = f (x), E = 0 for 0x <0.2 E = 1.67x−0.33 for 0.2x <0.8 E = 1 for 0.8x1. However, the input / output signals will be standardized to 0 to 1 for description.

第9図および第10図は1次微分によるエッジ検出部1
(以降微分値検出部と呼ぶ)の動作を説明する図で、主
走査1次元にて示している。
FIG. 9 and FIG. 10 show the edge detector 1 by the first derivative.
It is a diagram for explaining the operation of (hereinafter referred to as a differential value detection unit), and is shown in one-dimensional main scanning.

すでに説明しているように微分値検出部1は一種の帯域
通過型フィルタとなっているので、第9図に示す高い周
波数成分をもつ網点画像のような入力画像信号S1はカ
ーネル(−1,−1,0,1,1)で主走査方向にたた
み込みを行うとその出力信号S2は0.1−0.2とい
った小さな値となる。
Since the differential value detecting unit 1 is a kind of band pass filter as already described, the input image signal S1 such as a halftone image having high frequency components shown in FIG. , -1, 0, 1, 1) is convolved in the main scanning direction, the output signal S2 becomes a small value such as 0.1-0.2.

一方、比較的低周波の入力画像信号の場合(例えば文字
の縦線等)には、第10図に示す如く、同様のたたみ込
みにより、出力信号S2は大きな値をとる。
On the other hand, in the case of an input image signal of relatively low frequency (for example, a vertical line of a character), the output signal S2 has a large value due to the same convolution as shown in FIG.

ここでガンマ交換を行う制御信号発生部2は第8図に示
すように微分信号S2が0.2より小の場合は制御信号
S3を1にし、制御信号S4を0にする。また微分信号
S2が0.8より大きい場合は制御信号S3を0にし、
制御信号S4を1にする。さらに微分信号S2が0.2
〜0.8の間においては第2図に示すように常に制御信
号S3と制御信号S4の和が1になるように微分信号S
2に応じて変化する。
Here, the control signal generator 2 for gamma exchange sets the control signal S3 to 1 and the control signal S4 to 0 when the differential signal S2 is smaller than 0.2 as shown in FIG. When the differential signal S2 is larger than 0.8, the control signal S3 is set to 0,
The control signal S4 is set to 1. Furthermore, the differential signal S2 is 0.2
Between 0.8 and 0.8, as shown in FIG. 2, the differential signal S is always set so that the sum of the control signal S3 and the control signal S4 becomes 1.
It changes according to 2.

一方入力画像信号S1は微分値検出部1の入力に接続さ
れていると共に平滑化処理部3とエッジ検出部5の入力
にも同時に接続されている。
On the other hand, the input image signal S1 is connected to the input of the differential value detecting unit 1 and also to the inputs of the smoothing processing unit 3 and the edge detecting unit 5 at the same time.

第11図は平滑化処理部3の動作を示しており、説明の
ために主走査方向の一次元の例を示している。この場合
カーネルは(1,1,1,1,1,)で内容がすべて1
であり5画素の平均を出力するよう構成されてるローパ
スフィルタになっており、入力画像信号S1は平滑化画
像信号S6のようになる。
FIG. 11 shows the operation of the smoothing processing unit 3, and shows a one-dimensional example in the main scanning direction for the sake of explanation. In this case, the kernel is (1,1,1,1,1,) and all contents are 1
And is a low-pass filter configured to output the average of 5 pixels, and the input image signal S1 becomes the smoothed image signal S6.

また第12図はエッジ強調部5の動作を示しており、や
はり説明のために主走査方向の一次元を示している。カ
ーネルは(−1,0,2,0,−1)であり良く知られ
た2次微分のエッジ検出特性を有し、出力S8は平坦部
で0、エッジ部で正・負のピークをもつ。
Further, FIG. 12 shows the operation of the edge emphasizing section 5, and again shows one dimension in the main scanning direction for the sake of explanation. The kernel is (-1,0,2,0, -1) and has the well-known second-order differential edge detection characteristic, and the output S8 has 0 at the flat portion and positive and negative peaks at the edge portion. .

さらにエッジ信号S8はかけ算器6により定数S9倍さ
れ、加算器7によって画像入力信号S1と加算され、エ
ッジ強調信号S11となる。尚、図示されていないが入
力画像信号S1に対してエッジ信号S10は少々遅れる
ので加算器7の入力であるエッジ信号S10と入力画像
信号S1とのタイミングをとるための遅延回路が実際に
は設けられる。
Further, the edge signal S8 is multiplied by a constant S9 by the multiplier 6, and added with the image input signal S1 by the adder 7 to become an edge emphasis signal S11. Although not shown, since the edge signal S10 is slightly delayed with respect to the input image signal S1, a delay circuit for timing the edge signal S10 input to the adder 7 and the input image signal S1 is actually provided. To be

ところで微分値検出部1の出力が大きい、即ちエッジ部
では制御信号S3は小さく、S4は大きい。逆に微分信
号S2が小さい場合はS3が大きくS4が小さい。また
第8図で述べたようにS3とS4は常にその和が1にな
るようにガンマ変換されている。従ってかけ算器4と8
の出力の和は微分信号S2が大のときエッジ強調信号S
11の成分が多く、S2が小のとき平滑化信号S6の成
分が多くなる様制御される。
By the way, the output of the differential value detecting unit 1 is large, that is, the control signal S3 is small and S4 is large at the edge portion. Conversely, when the differential signal S2 is small, S3 is large and S4 is small. Further, as described in FIG. 8, S3 and S4 are gamma-converted so that the sum is always 1. Therefore, the multipliers 4 and 8
The sum of the outputs is the edge emphasis signal S when the differential signal S2 is large.
There are many 11 components, and when S2 is small, the smoothing signal S6 is controlled to have many components.

第13図はこの様子を示しており、微分信号S2は入力
画像信号S1のうち周期の短い振動(網点周期に相当す
る)を除く部分でのエッジを検出していることを示して
いる。
FIG. 13 shows this state, and it is shown that the differential signal S2 detects an edge in a portion of the input image signal S1 excluding a short cycle vibration (corresponding to a halftone dot cycle).

制御信号S4は微分信号S2のガンマ変換したものであ
って第13図に示される信号S2の4つの山以外を0に
している。S3は当然1−S4である。さらに第13図
は平滑化信号S6とエッジ強調信号S11も示してい
る。第13図において処理信号S13はS6とS11を
S3とS4の比率で加えた網点部分を平滑化しエッジ部
のみ強調した信号である。
The control signal S4 is gamma-converted of the differential signal S2, and the signal S2 other than the four peaks shown in FIG. 13 is set to zero. Naturally, S3 is 1-S4. Further, FIG. 13 also shows the smoothing signal S6 and the edge emphasis signal S11. In FIG. 13, a processed signal S13 is a signal in which S6 and S11 are added at a ratio of S3 and S4 to smooth the halftone dot portion and emphasize only the edge portion.

次に第7図の各ブロックについて詳細に説明する。Next, each block in FIG. 7 will be described in detail.

(微分値検出部1) 第14図は微分値検出部1の詳細回路図である。(Differential Value Detection Unit 1) FIG. 14 is a detailed circuit diagram of the differential value detection unit 1.

微分値検出部1には第20図の5ラインバッファ301
の出力が入力される。
The 5-line buffer 301 shown in FIG.
The output of is input.

図において306は一次微分器であり、その出力306
−aは、データ部306−cと、正負を示すサイン部3
06−bとに分けられ、サイン部306−bは、セレク
タ308のセレクト信号に入力され、インバータ307
によって+,−反転したデータか306−cのデータの
いずれかをセレクトする事によってデータの絶対値30
8−aが得られる。同様にして1次微分器312の出力
の絶対値がセレクタ311より出力され、加算器309
により308−aと311−aが加算され、2方向の一
次微分値の和が加算器309より出力される。
In the figure, 306 is a primary differentiator whose output 306
-A is a data part 306-c and a sine part 3 indicating positive / negative.
06-b, the sign unit 306-b is input to the select signal of the selector 308, and the inverter 307
By selecting either +,-inverted data or 306-c data by
8-a is obtained. Similarly, the absolute value of the output of the primary differentiator 312 is output from the selector 311, and the adder 309 outputs the absolute value.
Thus, 308-a and 311-a are added, and the sum of the two-direction primary differential values is output from the adder 309.

次に第14図の1次微分器306,312を詳細に示し
たブロック図を第15図に示す。
Next, FIG. 15 is a block diagram showing in detail the first-order differentiators 306 and 312 shown in FIG.

まず、この1次微分回路の基本動作を説明するために第
15図中のブロックXについて説明する。
First, the block X in FIG. 15 will be described in order to explain the basic operation of the primary differentiating circuit.

まず、第15図中のすべてのシフトレジスタは図中に示
さない画像転送クロックに同期してシフトされる。説明
を簡単にするために乗算器243〜247のすべての乗
算係数を1とする。タイミングチャート第16図により
t−3におけるシフトレジスタ230の出力はSn,m
−1+Sn,m−2であり、t−2におけるシフトレジ
スタ231の出力はSn,m+Sn,m−1+Sn,m
−2であり、t−1におけるシフトレジスタ232の出
力はSn,m+1+Sn,m−1+Sn,m−2で、t
0における加算器260の出力はSn,m+2+Sn,
m+1+Sn,m+Sn,m−1+Sn,m−2であ
る。このようにして主走査方向5画素の加算値をブロッ
クXにて計算する。ここで、乗算器243−247の乗
算係数をa,b,c,d,eに設定することにより加算
器260の出力は、e・Sn,m+2+d・Sn,m+
1+c・Sn,m+b・Sn,m−1+a・Sn,m−
2となる。
First, all shift registers in FIG. 15 are shifted in synchronization with an image transfer clock not shown in the figure. For simplicity of explanation, all the multiplication coefficients of the multipliers 243 to 247 are set to 1. According to the timing chart of FIG. 16, the output of the shift register 230 at t-3 is Sn, m.
−1 + Sn, m−2, and the output of the shift register 231 at t−2 is Sn, m + Sn, m−1 + Sn, m.
-2, and the output of the shift register 232 at t-1 is Sn, m + 1 + Sn, m-1 + Sn, m-2, at t
The output of the adder 260 at 0 is Sn, m + 2 + Sn,
m + 1 + Sn, m + Sn, m-1 + Sn, m-2. In this way, the added value of 5 pixels in the main scanning direction is calculated in the block X. Here, by setting the multiplication coefficients of the multipliers 243-247 to a, b, c, d, and e, the output of the adder 260 is e · Sn, m + 2 + d · Sn, m +.
1 + c · Sn, m + b · Sn, m−1 + a · Sn, m−
It becomes 2.

同様にしてシフトレジスタ223以降の回路と、シフト
レジスタ233以降の回路が動作する事もわかる。
Similarly, it can be seen that the circuits after the shift register 223 and the circuits after the shift register 233 operate.

ところで、求める1次微分が式1の*1,*2の様な場
合に、注目画素がnライン目の場合に、n−2ラインと
n−1ラインのカーネルの要素は等しく、又n+1ライ
ンとn+2ラインのカーネルの要素も等しい。故に画像
データはn−2ライン目とn−1ライン目を加算化23
1で加算してから式1*1,*2の様な1次微分処理を
行う事によって回路規模を1/2に縮小できる。又、n
+1ライン目、n+2ライン目についても同様である。
この様にして加算器400において5ライン分のカーネ
メに応じた加算値を得る事ができる。
By the way, when the first-order differential to be obtained is expressed by * 1 and * 2 in the equation 1, when the pixel of interest is the n-th line, the kernel elements of the n-2 line and the n-1 line are the same, and the n + 1 line is And n + 2 line kernel elements are equal. Therefore, in the image data, the n-2 line and the n-1 line are added 23
The circuit scale can be reduced to ½ by adding 1 and then performing the first-order differential processing such as equations 1 * 1 and * 2. Also, n
The same applies to the + 1st line and the n + 2th line.
In this way, the adder 400 can obtain the added value corresponding to the car name for five lines.

又、238〜252に示すような乗算器はその乗算値が
1or−1or0の様に単純な場合には、第17図に示
すように、インバータ291とセレクタ292によって
簡単に構成でき図中SLによって1or−1の切換えを
行い、CLによって0にする事ができる。
In the case where the multipliers 238 to 252 have a simple multiplication value of 1or-1or0, as shown in FIG. 17, they can be easily configured by the inverter 291 and the selector 292. It can be switched to 1 or -1 and set to 0 by CL.

又式1のカーネル*1の1次微分を求めるには、乗算器
238〜242の乗算係数を1とし、乗算器243〜2
47の乗算係数を0とし、乗算器248〜252の乗算
係数を−1とする。
Further, in order to obtain the first derivative of the kernel * 1 in Expression 1, the multiplication coefficients of the multipliers 238 to 242 are set to 1 and the multipliers 243 to 2
The multiplication coefficient of 47 is 0, and the multiplication coefficients of the multipliers 248 to 252 are -1.

式1のカーネル*2の1次微分を求めるには、乗算器2
42,238,239,240,241の乗算係数を
1,1,0,−1,−1とし、乗算器243〜247の
乗算係数を1,1,0,−1,−1とし、乗算器248
〜252の乗算係数を1,1,0,−1,−1とする。
To obtain the first derivative of the kernel * 2 in Equation 1, the multiplier 2
42, 238, 239, 240, 241 have multiplication coefficients of 1, 1, 0, -1, -1, and multipliers 243 to 247 have multiplication coefficients of 1, 1, 0, -1, -1. 248
The multiplication coefficients of ˜252 are 1,1,0, −1, −1.

又、表2の*1,*2の様な1次微分を算出する回路構
成は第18図により実現できるが、第15図と動作原理
は同じであるので乗算器への係数の与え方は省略する。
Also, the circuit configuration for calculating the first derivative such as * 1 and * 2 in Table 2 can be realized by FIG. 18, but since the operating principle is the same as in FIG. 15, how to give the coefficient to the multiplier is Omit it.

(エッジ強調部5) 次にエッジ強調部5を示したのが第19図である。(Edge Enhancement Unit 5) Next, the edge enhancement unit 5 is shown in FIG.

第7図に示す入力画像信号S1は第20図に示すよう
に、イメージデータの連続する5ライン分のデータより
成り、5ラインバッファ301に入力された入力画像デ
ータは5ラインバッファにて、たくわえられた後に5ラ
イン分同時に、出力され図示していない画像転送クロッ
クに同期して、イメージデータの主走査方向に1画素づ
つ出力される。
As shown in FIG. 20, the input image signal S1 shown in FIG. 7 is composed of data for five consecutive lines of image data, and the input image data input to the 5-line buffer 301 is stored in the 5-line buffer. After being processed, the image data is simultaneously output for five lines and is output pixel by pixel in the main scanning direction of the image data in synchronization with an image transfer clock (not shown).

また第21図に示す様にイメージエリアの注目領域Sを
さらに拡大して注目する画素データをSn,mとした時
の周辺の画像データについて考える。第19図のエッジ
強調部5には、入力画像データS2にうちn−2ライン
目,n,n+2ライン目の3ライン分の画像データを入
力し、画像出力の注目画素をSn,mとする。
Further, as shown in FIG. 21, consider the peripheral image data when the attention area S of the image area is further expanded and the attention pixel data is Sn, m. Image data for 3 lines of the n-2th line, n, n + 2th line is input to the edge emphasis unit 5 of FIG. 19 among the input image data S2, and the target pixel of image output is set to Sn, m. .

図中201〜211は1ビットのシフトレジスタであ
る。画像データS1は、シフトレジスタ201〜20
3,204〜208,209〜211によって、図示し
ていない画像転送クロックに同期してシフトされる。こ
のタイミングチャートが第22図である。第22図にお
いて、あるタイミングTにおけるシフトレジスタの出力
を第19図中に( )で囲んで示す。
In the figure, 201 to 211 are 1-bit shift registers. The image data S1 is stored in the shift registers 201 to 20.
3, 204 to 208, 209 to 211 shift in synchronization with an image transfer clock (not shown). This timing chart is shown in FIG. In FIG. 22, the output of the shift register at a certain timing T is shown in () in FIG.

加算器213はシフトレジスタ203,204,20
8,211の出力データSn−2,m,Sn,m−2,
Sn,m+2,Sn+2,mを加算し、加算されたデー
タは乗算器214で−1倍される。注目画素Sn,mは
シフトレジスタ206から出力され、乗算器212で4
倍され、加算器215で加算されて加算器215から
は、前記式2、第7図に示されるようなエッジディテク
ト信号G・S11が出力される。
The adder 213 is the shift registers 203, 204, 20.
8, 211 output data Sn-2, m, Sn, m-2,
Sn, m + 2, Sn + 2, m are added, and the added data is multiplied by -1 in the multiplier 214. The pixel of interest Sn, m is output from the shift register 206, and is output to 4 by the multiplier 212.
The signals are multiplied and added by the adder 215, and the adder 215 outputs the edge detect signal G · S11 as shown in the above-mentioned equation 2 and FIG.

尚、n−2ライン目とn+2ライン目のカーネル要素は
同じなのでシフトレジスタ209〜211を省き、n−
2ライン目とn+2ライン目の出力を加算した後、シフ
トレジスタ201に入力しても良い。又、第18図の回
路を用いて乗算器にカーネル*4の値を入れることによ
りエッジ検出部5を構成できることも明らかである。
Since the kernel elements on the n-2th line and the n + 2th line are the same, the shift registers 209 to 211 are omitted and n-
The outputs of the second line and the (n + 2) th line may be added and then input to the shift register 201. It is also clear that the edge detection unit 5 can be constructed by inserting the value of kernel * 4 into the multiplier using the circuit of FIG.

(平滑化処理部3) 次に第7図平滑化処理部3のブロックの詳細を第23図
に示す。
(Smoothing Processing Unit 3) FIG. 23 shows details of the blocks of the smoothing processing unit 3 shown in FIG.

画像信号S1は夫々イメージの副走査方向に連続する5
ラインのデータより成り、加算器271により副走査5
画素の加算が行われる。このデータは1ビット遅延する
為のシフトレジスタ272に入力される。シフトレジス
タ272の出力データは加算器277〜280に入力さ
れる。加算器272ではシフトレジスタ272の出力と
その1画素前のデータが加算される。この加算結果は2
74のシフトレジスタにラッチされた後に278の加算
器で次の画素と加算される。以下同様にして時間T2の
時に加算器280からは第24図に示す如くS,m+
2+S,m+1+S,m+S,m−1+S,m
−2が出力される(S,j=S−2,j+S
1,j+S,j+S+1,j+S+2,j)。
The image signal S1 is continuous with 5 in the sub-scanning direction of the image.
It is composed of line data, and the sub-scan 5 is performed by the adder 271.
Pixel addition is performed. This data is input to the shift register 272 for delaying by 1 bit. The output data of the shift register 272 is input to the adders 277 to 280. The adder 272 adds the output of the shift register 272 and the data one pixel before. The result of this addition is 2
After being latched in the shift register 74, it is added to the next pixel by the adder 278. Similarly, at time T2, the adder 280 outputs S N , m + as shown in FIG.
2 + S N , m + 1 + S N , m + S N , m-1 + S N , m
-2 is output (S N , j = S N −2, j + S N
1, j + S N , j + S N +1, j + S N +2, j).

こうして注目画素をSn,mとする時に式2の*3に示
される画素合計が加算器280より出力され除算器28
1により合計画素数で、割って平滑化データが得られ
る。又、第25図に示すような重みづけをした平滑化を
する回路が第26図である。動作タイミング等は第23
図と同じであるが、第26図では乗算器351〜355
により各ラインに重みづけし、又各列にも乗算器356
〜360により重みづけすることによって第25図の如
き平滑化を行う。
In this way, when the pixel of interest is Sn, m, the pixel sum indicated by * 3 in Expression 2 is output from the adder 280 and the divider 28
The smoothed data is obtained by dividing by the total number of pixels by 1. FIG. 26 shows a circuit for smoothing with weighting as shown in FIG. Operation timing is 23rd
Same as the figure, but in FIG. 26, multipliers 351 to 355 are shown.
Each line is weighted by the
.About.360 are weighted to perform smoothing as shown in FIG.

この平滑化処理部では画像副走査方向にその加算値をす
べて加え合せてから画像主走査方向に加算しているので
回路規模が小さくできる。
In this smoothing processing unit, all the added values are added in the image sub-scanning direction and then added in the image main scanning direction, so that the circuit scale can be reduced.

(他の実施例) 本実施例においては微分値検出部、平滑化処理部、エッ
ジ強調部のカーネルを5×5としたが、モアレ除去の目
的とする線数によっては3×3でも良いし、5×5以上
必要となる場合もある。又目的に応じて微分値検出部、
平滑化処理部は夫々同じ大きさのカーネルを用いる必要
はない。更にカーネルは正方である必要はない。
(Other Embodiments) In this embodiment, the kernels of the differential value detecting unit, the smoothing processing unit, and the edge enhancing unit are set to 5 × 5, but may be 3 × 3 depending on the number of lines for the purpose of removing moire. In some cases, 5 × 5 or more may be required. Depending on the purpose, the differential value detector,
The smoothing processing units do not need to use kernels of the same size. Furthermore, the kernel does not have to be square.

また本実施例においては1組の5ラインバッファを設
け、エッジ検出と平滑化とエッジ強調を並列処理によっ
て行うよう説明したが必ずしも並列に行う必要はない。
Further, in the present embodiment, a set of 5 line buffers is provided and the edge detection, smoothing and edge enhancement are performed by parallel processing, but it is not always necessary to perform them in parallel.

又、本実施例においては平滑化処理部3の出力である平
滑化信号S6と加算器7の出力であるエッジ強調信号S
11をガンマ変換部2の出力に従った割合で加算した
が、エッジ強調信号S11のかわりに入力画像信号S1
を用いても良い。この場合、文字や線画に対して本実施
例より多少劣る面があるが装置が大幅に簡略化できる上
にモアレの抑制については本実施例と同じ効果が得られ
る利点がある。
In this embodiment, the smoothing signal S6 output from the smoothing processing unit 3 and the edge enhancement signal S output from the adder 7 are output.
11 is added at a ratio according to the output of the gamma conversion unit 2, but the input image signal S1 is used instead of the edge emphasis signal S11.
May be used. In this case, although there are some inferiorities to the characters and line drawings as compared with the present embodiment, there is an advantage that the apparatus can be greatly simplified and the same effect as the present embodiment can be obtained with respect to suppression of moire.

また第7図に示すところのエッジ強調部5と掛け算器6
と加算器7によって構成されるエッジ強調器はエッジ強
調部5のカーネル*4の中心部を定数S9によって可変
できるよう構成した場合は掛け算器6と加算器7は不要
となる。
Further, the edge enhancing section 5 and the multiplier 6 shown in FIG.
The edge enhancer configured by the adder 7 and the adder 7 does not require the multiplier 6 and the adder 7 when the center portion of the kernel * 4 of the edge enhancement unit 5 is configured to be variable by the constant S9.

更に本実施例において定数S9は外部から可変であると
したが、内部で固定であっても良い。
Further, although the constant S9 is variable from the outside in the present embodiment, it may be fixed internally.

又、本発明の実施例において、ガンマ変換を行う制御信
号発生器2の特性は第8図であるように説明したが、第
27図−a〜cにガンマ変換器2の特性の変形例を示
す。
Further, in the embodiment of the present invention, the characteristic of the control signal generator 2 for performing the gamma conversion is explained as shown in FIG. 8. However, modified examples of the characteristic of the gamma converter 2 are shown in FIGS. Show.

第27図においては、制御信号S4の特性のみを示して
いるが、制御信号S3は S3=1−S4 であらわさせる。
Although only the characteristic of the control signal S4 is shown in FIG. 27, the control signal S3 is represented by S3 = 1−S4.

第27図−aは S4=0 ただし 0 <S2<0.5 S4=1.0 ただし 0.5<S2<1.0 なる特性を有し、特にガンマ変換部の回路が簡単に構成
できるという特徴がある。
FIG. 27-a has the characteristics of S4 = 0, 0 <S2 <0.5, S4 = 1.0, 0.5 <S2 <1.0, and in particular, the circuit of the gamma conversion unit can be easily configured. There are features.

第27図−bは S4=−arctan(k・S2+k) なる特性を有し、特に平滑信号とエッジ強調信号とのつ
ながりがスムーズになるという特徴がある。
FIG. 27-b has a characteristic of S4 = -arctan (k · S2 + k), and is particularly characterized in that the connection between the smooth signal and the edge emphasis signal is smooth.

第27図−cは S4=0 ただし 0 <S2<0.25 S4=0.33 ただし 0.25<S2<0.5 S4=0.67 ただし 0.5 <S2<0.75 S4=1.0 ただし 0.75<S2<1.0 なる特性を有し、第8図に示す実施例に対し、比較的、
回路が簡単になり、かつ第27図−aに示したガンマ変
換部の特性を用いた場合より平滑化信号とエッジ強調信
号とのつながりがスムーズになるという特徴がある。
FIG. 27-c shows S4 = 0 where 0 <S2 <0.25 S4 = 0.33 where 0.25 <S2 <0.5 S4 = 0.67 where 0.5 <S2 <0.75 S4 = 1 However, it has a characteristic of 0.75 <S2 <1.0, which is relatively high compared to the embodiment shown in FIG.
The circuit is simple, and the connection between the smoothed signal and the edge emphasis signal is smoother than when the characteristics of the gamma conversion unit shown in FIG. 27-a are used.

さらに述べるなから、たとえば微分値検出部として良く
知られるプレウイットのエッジ検出やソーベルのエッジ
検出法などを用いても良い。またエッジ検出部としてラ
プラシアンを使用してもかまわない。さらに前記プレウ
イットのエッジ検出やソーベルのエッジ検出法あるいは
ラプラシアンとしては通常3x3の核を用いて空間フィ
ルター処理がなされるが、核の大きさが3x3以外に拡
張して用いても本発明の本質に影響を与えるものではな
い。
Since it will not be further described, for example, Prewitt's edge detection or Sobel's edge detection method, which is well known as a differential value detection unit, may be used. Further, Laplacian may be used as the edge detection unit. Further, as the above-mentioned Prewitt's edge detection, Sobel's edge detection method or Laplacian, spatial filter processing is usually performed using a kernel of 3x3, but even if the size of the kernel is expanded to other than 3x3, it is essential to the present invention. It does not affect.

<効果> 以上説明した様に本発明に依れば網点画像を再生する場
合にモアレの発生を防止できると同時に、文字や細線に
ついはエッジ強張により忠実に再現できる。
<Effect> As described above, according to the present invention, it is possible to prevent moire from occurring when a halftone image is reproduced, and at the same time, faithfully reproduce characters and thin lines by edge enhancement.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の実施例の基本概念を示す図、第2図は
各種画像のもつ周波数特性図、第3図、第4図、第5図
は各種微分フィルタの周波数特性図、第6図は平滑化フ
ィルタの周波数特性図、第7図は本実施例の画像処理ブ
ロック図、第8図は制御信号発生部2のガンマ変換特性
図、第9図、第10図は一次微分を行う微分値検出部1
の動作例を示す図、第11図は平滑化処理部3の動作例
を示す図、第12図はエッジ強調部5の動作例を示す
図、第13図は第7図各部の信号波形図、第14図はエ
ッジ検出部1の詳細回路図、第15図は1次微分器30
6,312の詳細ブロック図、第16図は1次微分器の
動作を示すタイミングチャート、第17図は絶対値の回
路図、第18図は1次微分器の他の例の詳細ブロック
図、第19図はエッジ強調部5の詳細ブロック図、第2
0図はバッファ回路図、第21図はイメージエリアを示
す図、第22図はエッジ強調部の動作を示す図、第23
図は平滑化処理部3の詳細ブロック図、第24図は平滑
化処理部の動作を示す図、第25図は他の平滑化処理の
為のカーネルを示す図、第26図は第25図の平滑化を
行う為のブロック図、第27図(a),(b),(c)は制御信
号発生部2の他のガンマ変換特性を示す図である。 図において、 aはエッジ検出器、bはエッジ強調器、cは平滑器、d
は混合器、1は微分値検出部、2は制御信号発生部、3
は平滑化処理部、4と6と8はかけ算器、5はエッジ強
調部、7と9は加算器を夫々示す。
FIG. 1 is a diagram showing a basic concept of an embodiment of the present invention, FIG. 2 is a frequency characteristic diagram of various images, FIGS. 3, 4, and 5 are frequency characteristic diagrams of various differential filters, and FIG. FIG. 7 is a frequency characteristic diagram of the smoothing filter, FIG. 7 is an image processing block diagram of the present embodiment, FIG. 8 is a gamma conversion characteristic diagram of the control signal generator 2, and FIGS. 9 and 10 are primary differentials. Differential value detector 1
FIG. 11 is a diagram showing an operation example of the smoothing processing unit 3, FIG. 12 is a diagram showing an operation example of the edge enhancing unit 5, and FIG. 13 is a signal waveform diagram of each unit in FIG. , FIG. 14 is a detailed circuit diagram of the edge detector 1, and FIG. 15 is a primary differentiator 30.
6, 312 are detailed block diagrams, FIG. 16 is a timing chart showing the operation of the primary differentiator, FIG. 17 is an absolute value circuit diagram, and FIG. 18 is a detailed block diagram of another example of the primary differentiator. FIG. 19 is a detailed block diagram of the edge enhancement unit 5, FIG.
FIG. 0 is a buffer circuit diagram, FIG. 21 is a diagram showing an image area, FIG. 22 is a diagram showing the operation of the edge enhancement unit, and FIG.
FIG. 24 is a detailed block diagram of the smoothing processing unit 3, FIG. 24 is a diagram showing the operation of the smoothing processing unit, FIG. 25 is a diagram showing a kernel for other smoothing processing, and FIG. 26 is FIG. 27 is a block diagram for performing the smoothing, and FIGS. 27 (a), (b), and (c) are diagrams showing other gamma conversion characteristics of the control signal generator 2. In the figure, a is an edge detector, b is an edge enhancer, c is a smoother, d
Is a mixer, 1 is a differential value detector, 2 is a control signal generator, 3
Is a smoothing processing unit, 4 and 6 and 8 are multipliers, 5 is an edge enhancement unit, and 7 and 9 are adders.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 三田 良信 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 (56)参考文献 特開 昭57−24166(JP,A) ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Yoshinobu Mita 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. (56) Reference JP-A-57-24166 (JP, A)

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】画像信号のエッジ部を検出するエッジ検出
手段、前記画像信号を平滑化する平滑化手段、前記画像
信号のエッジを強調するエッジ強調手段、前記エッジ検
出手段の検出出力により前記平滑化手段又は前記強調手
段の出力を混合若しくは選択して出力する手段を有し、
前記エッジ検出手段を構成する空間フィルタのピーク周
波数は網点画像の第1次高調波周波数より低周波に設定
したことを特徴とする画像処理装置。
1. An edge detecting means for detecting an edge portion of an image signal, a smoothing means for smoothing the image signal, an edge emphasizing means for emphasizing an edge of the image signal, and the smoothing by the detection output of the edge detecting means. The conversion means or means for mixing or selecting the outputs of the emphasizing means and outputting the same,
An image processing apparatus characterized in that a peak frequency of a spatial filter constituting the edge detecting means is set to a lower frequency than a first harmonic frequency of a halftone image.
JP59276487A 1984-12-28 1984-12-28 Image processing device Expired - Lifetime JPH065879B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP59276487A JPH065879B2 (en) 1984-12-28 1984-12-28 Image processing device
GB8531765A GB2170373B (en) 1984-12-28 1985-12-24 Image processing apparatus
DE19853546135 DE3546135A1 (en) 1984-12-28 1985-12-27 Method and device for image processing
US07/657,949 US5231677A (en) 1984-12-28 1991-02-21 Image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59276487A JPH065879B2 (en) 1984-12-28 1984-12-28 Image processing device

Publications (2)

Publication Number Publication Date
JPS61157169A JPS61157169A (en) 1986-07-16
JPH065879B2 true JPH065879B2 (en) 1994-01-19

Family

ID=17570135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59276487A Expired - Lifetime JPH065879B2 (en) 1984-12-28 1984-12-28 Image processing device

Country Status (1)

Country Link
JP (1) JPH065879B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7262884B2 (en) 2002-11-22 2007-08-28 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02219182A (en) * 1989-02-20 1990-08-31 Pfu Ltd Image processor
EP1126693B1 (en) 1999-10-29 2003-01-08 Ricoh Company, Ltd. Image processing method , image processing apparatus and recording medium
JP4431607B2 (en) 2007-11-08 2010-03-17 シャープ株式会社 Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7262884B2 (en) 2002-11-22 2007-08-28 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JPS61157169A (en) 1986-07-16

Similar Documents

Publication Publication Date Title
US5231677A (en) Image processing method and apparatus
EP0024902B1 (en) Apparatus and method for converting one-bit image data into gray scale image data
US6192152B1 (en) Image processing apparatus
JP2003230010A (en) Image processing apparatus and image processing method
JP2001251517A (en) Image processing method, image processor and image processing system
JPH065879B2 (en) Image processing device
JPH0521385B2 (en)
JPH065885B2 (en) Image processing device
JP3165225B2 (en) Image processing apparatus and image processing method
JPS62242473A (en) Pseudo halftone image processor
JPH0556068B2 (en)
JPH0521384B2 (en)
JPS61157163A (en) Picture processing device
JP2000216994A (en) Image processor
JPS61157160A (en) Picture processing device
JPS61157165A (en) Picture processing device
JPS61157166A (en) Picture processing device
JPS61157170A (en) Picture processing device
US7180636B2 (en) Image processor and method
JP2001119575A (en) Image processing unit
JPH0662230A (en) Image forming device
JP3146576B2 (en) Image processing device
JP2947823B2 (en) Image processing device
JPS6313578A (en) Multivaluing method
JP2635306B2 (en) Image processing device

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term