JPS61157160A - Picture processing device - Google Patents
Picture processing deviceInfo
- Publication number
- JPS61157160A JPS61157160A JP59276478A JP27647884A JPS61157160A JP S61157160 A JPS61157160 A JP S61157160A JP 59276478 A JP59276478 A JP 59276478A JP 27647884 A JP27647884 A JP 27647884A JP S61157160 A JPS61157160 A JP S61157160A
- Authority
- JP
- Japan
- Prior art keywords
- edge
- line
- output
- signal
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
【発明の詳細な説明】
く技術分野〉
本発明は画像を電気信号として扱うデジタル複写装置、
ファクシミリ装置等の画像処理装置に関する。[Detailed Description of the Invention] Technical Field> The present invention relates to a digital copying device that handles images as electrical signals;
The present invention relates to an image processing device such as a facsimile machine.
〈従来技術〉
一般にCODセンサー等により画像をサンプリングし、
デジタル化したデータをレーザ・ビーム・プリンター等
のデジタル・プリンターから出力し画像を再現する、所
謂、デジタル複写装置はデジタル機器の発展により、従
来のアナログ複写装置に代わり広く普及しつつある。<Prior art> Generally, images are sampled using a COD sensor, etc.
Due to the development of digital equipment, so-called digital copying devices, which reproduce images by outputting digitized data from a digital printer such as a laser beam printer, are becoming widespread in place of conventional analog copying devices.
かかるデジタル複写装置は中間調画像を再現するため、
ディザ法や濃度パターン法により階調再現を行うのが普
通である。しかしながらかかる方法に於ては以下の2点
の大きな問題点があった。Since such digital copying devices reproduce halftone images,
Gradation reproduction is usually performed using a dither method or a density pattern method. However, this method has the following two major problems.
(1)原稿が網点画像の場合、複写された画像に原稿に
は無い周期的な縞模様が出る。(1) If the original is a halftone image, a periodic striped pattern that is not present in the original appears in the copied image.
(2)原稿に線画・文字等が入っている場合には、ディ
ザ処理によりエツジが切れされになり画質が低下する。(2) If the original contains line drawings, characters, etc., the edges will be cut off by the dithering process and the image quality will deteriorate.
(1)の現象はモアレ現象と呼ばれその発生原因は。The phenomenon (1) is called the moiré phenomenon, and what causes it.
A)AI[1点原稿と入力サンプリングによるモアレ
B)網点原稿とディザ閾値マトリックスによるモアレ
等が考えられる。A)の現象は、網点原稿の網点ピッチ
PO(mm)から決まる網点周波数1 O(= 丁r)
(P E L / m m )のn倍高周波nfo
(PEL/mm)と、入力センサーやピンチPS(m
m)から求まる入力サンプリング周波数fS (=
)(PEL/mm)とから丁1
Δf=Ifs−nfol (PEL/mm)なるビ
ート周波数が生じそれがモアレとなる。A) AI [Moiré caused by a single-point original and input sampling B) Moiré caused by a halftone original and a dither threshold matrix, etc. can be considered. The phenomenon of A) is the halftone dot frequency 1 O (= ding r) determined from the halftone dot pitch PO (mm) of the halftone original.
(PEL/mm) n times higher frequency nfo
(PEL/mm) and input sensor or pinch PS (m
Input sampling frequency fS (=
) (PEL/mm), a beat frequency of 1 Δf=Ifs-nfol (PEL/mm) is generated, which becomes moiré.
(B)の現象は、一般にディザの閾値が、fattin
g型等のドツト集中型で配列されている時、出力画像も
擬似的な網点構造をしており、これが入力網点原稿との
間にビートを生じモアレ現象を呈する。ディザ閾値の縁
り返し周期ピッチを記録紙上でPp (mm)とすると
空間周波数ではfD = l/Po (PEL/mm)
となり、ビート周波数としては、
Δf= Ifo−fo l (PEL/mm)が最
も顕著に現われる。The phenomenon (B) generally occurs when the dither threshold is fattin
When the dots are arranged in a concentrated dot type such as G type, the output image also has a pseudo halftone dot structure, which causes a beat between the input halftone dot document and the moiré phenomenon. If the edge-back cycle pitch of the dither threshold is Pp (mm) on the recording paper, then the spatial frequency is fD = l/Po (PEL/mm).
As a beat frequency, Δf=Ifo-fol (PEL/mm) appears most prominently.
上記2つのモアレ現象で最も強く生じるのは(B)の方
である。これは(A)の現象では一般に網点原稿のn倍
高周一のnとしてn=3〜6位であり、センサーへ導く
光学系等の伝達関数(MTF)等が、その周波数でかな
り低下するため、モアレ縞のコントラストも低い。Of the two moiré phenomena mentioned above, the one that occurs most strongly is (B). In the phenomenon (A), this is generally n = 3 to 6, where n is n times higher than the halftone dot original, and the transfer function (MTF) of the optical system leading to the sensor drops considerably at that frequency. Therefore, the contrast of moire fringes is also low.
かかる原因によって生じるモアレ現象は出力画像の品位
を著しく低下させる。このため昔から種々の対策・検討
がなされてきた0例えばランダム・ディザ法による方法
はモアレは除去出来るが砂目状の粒状性が出て、画質劣
化を生ず。Moiré phenomena caused by such causes significantly degrade the quality of output images. For this reason, various countermeasures and studies have been carried out for a long time, such as the random dither method, which can remove moiré, but produces grainy graininess and deteriorates the image quality.
J、Opt、Soc、Am、、Vol、66゜Nol0
,0ctober 1976 P985に示さ
れる、Paul G、Roetlingの提唱するA
RIESは、2値化の前後で濃度の平均値を比較し1等
しくなる様に、閾値にフィード・バンクをかけているが
、かかる方法は、ハード化が複雑で、且っモアレ除去の
効果が十分でない。J, Opt, Soc, Am,, Vol, 66° Nol0
, 0ctober 1976 A proposed by Paul G. Roetling, shown in P985.
RIES compares the average value of the density before and after binarization and applies a feed bank to the threshold value so that it becomes equal to 1. However, this method requires complicated hardening and has a poor moiré removal effect. not enough.
一方画像電子学会予稿83−3 P13’“文字φ写
真混在画像の網点化′°高島他に見られる再網点化法は
、網点画像をポカシ(又は周辺画素での平均化)により
、ディザパターンで置網□ 点化するためモアレは
除去され、粒状性のノイズも少い。On the other hand, the re-halftone method found in Takashima et al. Proceedings of the Institute of Imaging Electronics Engineers 83-3 P13'"Hatting of text φ photo mixed image" The dither pattern is used to create dots, so moiré is removed and there is less grainy noise.
しかレボカシ(又は周辺画素との平均化)により解像度
の低下をまぬがれない、即ちモアレを除去しようとすれ
ば解像度が低下し、解像度を保とうとすればモアレは除
去されない、従って網点画像領域だけをあらかじめ抽出
し、その部分だけにかかる手法を適用する事が必須とな
る。このため所謂像域分離技術が必要となる。However, the resolution cannot be avoided due to reverberation (or averaging with surrounding pixels).In other words, if you try to remove the moire, the resolution will decrease, and if you try to maintain the resolution, the moire will not be removed.Therefore, only the halftone image area can be removed. It is essential to extract it in advance and apply the method only to that part. For this reason, a so-called image area separation technique is required.
この像域分離技術は、現状のレベルでは精度が高く、高
速な手法−一一一特にハード会ウェア化に向いた方法−
一一一は得がたく前記手法を実現しがたい、且つ仮に像
域分離技術が得られたとしても、かかる手法では画像内
の高周波成分まで平均化・平滑化されてしまい十分満足
とは言えない。This image area separation technology is a highly accurate and fast method at the current level - a method particularly suited for implementation in hardware.
However, even if image area separation technology were to be obtained, such a method would average and smooth even the high frequency components within the image, making it difficult to realize the above method. do not have.
一方(2)の問題に関しては、原稿の文字・線画が、デ
ィザ処理を施す事により細断化され、特にエツジ部が切
れされになるため印字品質が低下する。この現象はディ
ザ・パターンが前述のFat t i ng型等のドツ
ト集中型に於て特に顕著である。。On the other hand, regarding the problem (2), the characters and line drawings on the document are fragmented by dithering, and the edge portions in particular are cut off, resulting in a decrease in print quality. This phenomenon is particularly noticeable when the dither pattern is of a concentrated dot type, such as the aforementioned fat ting type. .
く目的〉
本発明の目的は以上説明した2つの欠点を除去し、高品
位に且つ高精細に画像を再現出来る画像処理装置を提供
することにある。即ち本発明に於ては、網点原稿時生じ
るモアレ現象を除去し、文字・線画に対しては切れされ
に細断化される事を防止し、且つ画像部の高域成分の低
下を防ぐ事が出来たものである。又、更にほかかる手法
を簡単な回路構成で実現出来安価に提供しうる物である
。Purpose> An object of the present invention is to eliminate the two drawbacks described above and to provide an image processing device that can reproduce images with high quality and high definition. That is, in the present invention, the moiré phenomenon that occurs in halftone originals is removed, characters and line drawings are prevented from being cut into pieces, and high-frequency components in image areas are prevented from deteriorating. It happened. Furthermore, this method can be realized with a simple circuit configuration and can be provided at low cost.
〈実施例〉
(基本構成)第1図〜第6図
本実施例の画像処理装置の基本構成を第1図に示す。本
画像処理装置は、エツジ検出器a。<Embodiment> (Basic Configuration) FIGS. 1 to 6 The basic configuration of the image processing apparatus of this embodiment is shown in FIG. This image processing device includes an edge detector a.
エツジ強調器す、スムージング器C9混合器dから構成
される。エツジ検出器aでは、後述の様に文字、線画1
画像のエツジを検出し、網点画像の網点はエツジとして
検出しない空間周波数特性を持たせている。エツジ強調
器すでは、原画像または、原画像とエツジをある比率で
混合したエツジ強調画像信号を出力する。スムージング
器Cでは画像の平滑化をおこなう、混合器dでは、エツ
ジ検出器の信号に応じて、エツジ強調画像と、スムージ
ング画像との混合比を変えて出力する。このようにして
網点画像の網点は非エツジ領域と判定し、スムージング
をおこなうことにより平均化しモアレを防止する。It consists of an edge enhancer, a smoother C, and a mixer d. Edge detector a uses characters and line drawings 1 as described below.
The edges of the image are detected, and the halftone dots of the halftone image have a spatial frequency characteristic that prevents them from being detected as edges. The edge enhancer outputs an original image or an edge-enhanced image signal obtained by mixing the original image and edges at a certain ratio. The smoother C smoothes the image, and the mixer d changes the mixing ratio of the edge-enhanced image and the smoothed image according to the signal from the edge detector and outputs the image. In this way, the halftone dots of the halftone dot image are determined to be non-edge areas, and smoothing is performed to average them and prevent moiré.
また、文字、線画、画像のエツジはエツジ領域と判定し
、エツジ強調することにより、文字の網点化、画像の鮮
鋭度の低下を防止する。さらにエツジ領域と非エツジ領
域とを連続的につないでいるので境界でのテクスチャー
変化が出ない。Furthermore, the edges of characters, line drawings, and images are determined to be edge areas, and the edges are emphasized to prevent halftone dotting of characters and reduction in sharpness of images. Furthermore, since the edge area and the non-edge area are continuously connected, no texture changes occur at the boundary.
次に本実施例の原理について周波数特性から説明する。Next, the principle of this embodiment will be explained from the perspective of frequency characteristics.
先ず原稿の網点画像のスクリーン線数は、通常白黒で1
20線から150線、カラーで133線から175線で
ある。モしてモアレが生じやすいのはスクリーン角が0
度か45度のときである。またライン読取時の主走査方
向網点ピッチは、45度のときが最大で空間周波数が低
く、0度のときが最小で空間周波数は高い、スクリーン
角が0度と45度のときの空間周波数を求めると表1の
ようになる。First of all, the number of screen lines for the halftone image of the original is usually 1 in black and white.
It ranges from 20 lines to 150 lines, and in color from 133 lines to 175 lines. Moiré is more likely to occur when the screen angle is 0.
This is when the temperature is about 45 degrees. In addition, the halftone dot pitch in the main scanning direction during line reading is maximum when the screen angle is 45 degrees, and the spatial frequency is low, and when it is 0 degrees, the minimum spatial frequency is high, and the spatial frequency is when the screen angle is 0 degrees and 45 degrees. The results obtained are as shown in Table 1.
表1
このような網点画像の周波数特性は第2図aのように基
本周波数とその高周波にピークをもつ、また文字画像、
連続調写真画像の周波数特性はそれぞれ、第2図す、c
のようになる。このような文字、写真、網点の混合画像
に対して1本実施例のエツジ検出器、エツジ強調器。Table 1 The frequency characteristics of such a halftone image have peaks at the fundamental frequency and its high frequencies, as shown in Figure 2a.
The frequency characteristics of continuous tone photographic images are shown in Figure 2, c.
become that way. An edge detector and an edge enhancer according to this embodiment are used for such mixed images of characters, photographs, and halftone dots.
スムージング器の空間フィルターは次のような条件をみ
たす周波数特性にする。The spatial filter of the smoother has a frequency characteristic that satisfies the following conditions.
条件1. エツジ検出器の空間フィルターのピーク周波
数は、網点画像の第1次高調波周波数より低周波にする
。Condition 1. The peak frequency of the spatial filter of the edge detector is set to be lower than the first harmonic frequency of the halftone image.
条件2. エツジ強調器の空間フルターのピーク周波数
は、エツジ検出器の空間フィルターのピーク周波数より
高周波にする。Condition 2. The peak frequency of the spatial filter of the edge enhancer is set to be higher than the peak frequency of the spatial filter of the edge detector.
条件3. スムージング器の空間フィルターの周波数特
性は、網点画像の第1次高調波周波数で充分低下させる
。また出力のディザ−の周期に対応する周波数で充分低
下させる。Condition 3. The frequency characteristics of the spatial filter of the smoother are sufficiently reduced at the first harmonic frequency of the halftone image. Also, the frequency is sufficiently lowered to correspond to the output dither period.
エツジ検出のための空間フィルターには種々のものがあ
るが、ハード回路の規模に影響を与えるマトリックスサ
イズを一定にすると、1次微分フィルターの方が2次微
分フィルターより低周波にピークをもつ。ただし2次微
分フィルターは方向性をもたないが、1次微分フィルタ
ーは方向性があり、少なくとも2方向の傾きの2乗の和
の平方根、あるいはその近似式として、少なくとも2方
向の傾きの絶対値の和、あるいは少なくとも2方向の傾
きの絶対値の最大値などをとる必要がある。また、1次
微分の方が2次微分よりも点状ノイズに強い0以上のよ
うにエツジ検出器aの空間フィルターとしては1次微分
フィルターの方がよい。There are various types of spatial filters for edge detection, but if the matrix size, which affects the scale of the hardware circuit, is held constant, a first-order differential filter has a peak at a lower frequency than a second-order differential filter. However, the second-order differential filter does not have directionality, but the first-order differential filter has directionality, and is expressed as the square root of the sum of the squares of the slopes in at least two directions, or as an approximate expression thereof, the absolute value of the slopes in at least two directions. It is necessary to take the sum of the values or the maximum value of the absolute values of the slopes in at least two directions. Furthermore, the first-order differential filter is better as a spatial filter for the edge detector a, as the first-order differential filter is more resistant to point noise than the second-order differential filter.
又、エツジ強調器すの空間フィルターとしては、方向性
がなく、より高周波にピークをもつ2次微分フィルター
の方が1次微分フィルターよりも優れている。Furthermore, as a spatial filter for an edge enhancer, a second-order differential filter, which has no directionality and has a peak at a higher frequency, is better than a first-order differential filter.
以上のような各種空間フィルターの周波数特性の関係を
簡単のため1次元の高速フーリエ変換(FFT)で計算
した結果を示す0例として入力系の読取りサンプリング
間隔がl/16m m 、出力系がl 6 d o t
s/mmで4×4のディザ−マトリックスを用いた場
合について計算する。ディザ−パターンの周期は空間周
波数に直すと4 1/mmである。また1X16mmサ
ンプリングの読取りではサンプリング定理により81/
mmの周波数までしか検出できない。To simplify the relationship between the frequency characteristics of various spatial filters, we show the results of calculations using one-dimensional fast Fourier transform (FFT).As an example, the reading sampling interval of the input system is 1/16 mm, and the output system is 1 6 dots
The calculation is performed using a 4×4 dither matrix in s/mm. The period of the dither pattern is 41/mm in terms of spatial frequency. Also, in reading with 1x16mm sampling, 81/
It can only detect frequencies up to mm.
マトリックスサイズが5X5の場合、2次微分フィルタ
ー(−1,0,2,0,−1)の1次元FFTを第3図
に、1次微分フィルター(−1,0,0,O,l)の1
次元FFTを第4図に、別の1次元微分フィルター(−
1゜−i、o、i、i)の1次元FFTを第5図に示す
。When the matrix size is 5X5, the one-dimensional FFT of the second-order differential filter (-1, 0, 2, 0, -1) is shown in Figure 3, and the first-order differential filter (-1, 0, 0, O, l) 1
The dimensional FFT is shown in Figure 4, and another one-dimensional differential filter (-
A one-dimensional FFT of 1°-i, o, i, i) is shown in FIG.
それぞれピークの位置は41/mm。The position of each peak is 41/mm.
2 1/mm、2.5 1/mmである。これを表1の
網点画像の空間周波数と比べると、1次微分フィルター
では表1のすべての°線数に対して条件lを満たしてい
るが2次微分フィルターでは、120!、133線の4
5°で条件1を満足できず、網点をエツジと検出してし
まう。2 1/mm, 2.5 1/mm. Comparing this with the spatial frequency of the halftone image in Table 1, the first-order differential filter satisfies the condition l for all degrees of line numbers in Table 1, but the second-order differential filter satisfies the spatial frequency of 120! , 133 line 4
Condition 1 cannot be satisfied at 5°, and halftone dots are detected as edges.
2種類の1次微分フィルターを比較すると。Comparing two types of first-order differential filters.
パルス幅を大きくした(−1,−1,0,1゜1)の方
が優れている。なぜならパルス幅を大きくした方が2番
目のピークの強度が小さくなり、またパルス幅を大きく
した方がエツジ領域(この領域にエツジ強調をかける)
を幅広く検出できるからである。エツジ検出を1次微分
フィルター(−1、−1,0,1,1)にし、エツジ強
調を2次微分フィルター(−1,0゜2.0.−1)に
すれば、それぞれのピーク周波数は2.5 17mm、
4 1/mmで条件2を満たしている。すなわちエツジ
検出により幅広くエツジ強調をおこなう曽域を抽出し、
エツジ強調ではエツジがシャープに出る空間フィルター
を使用するのである。It is better to increase the pulse width (-1, -1, 0, 1°1). This is because increasing the pulse width reduces the intensity of the second peak, and increasing the pulse width decreases the intensity of the second peak.
This is because a wide range of can be detected. If you use a first-order differential filter (-1,-1,0,1,1) for edge detection and a second-order differential filter (-1,0°2.0.-1) for edge emphasis, each peak frequency is 2.5 17mm,
4 1/mm satisfies condition 2. In other words, by edge detection, we extract a wide area where edges are emphasized,
Edge enhancement uses a spatial filter that sharpens edges.
次に5×5のスムージングフィルター(1゜1 、 L
、 l 、 1)の1次元FFTを第6図に示す、1
20線45@以上の網点画像の基本周波数、3.341
1/mm以上で強度が小さくなっている。また4X4
にディザ−マトリックスのピッチ、4 1/mmで強度
が充分小さくなっていて条件3を満足している。Next, apply a 5×5 smoothing filter (1°1, L
, l, 1) is shown in Figure 6.
Fundamental frequency of halftone image of 20 lines 45@ or more, 3.341
At 1/mm or more, the strength decreases. Also 4X4
When the pitch of the dither matrix is 41/mm, the strength is sufficiently small and satisfies condition 3.
本実施例はエツジ検出器、エツジ強調器、スムージング
器に前述の条件1〜3のような周波数特性の空間フィル
ターを用いることにより、画像の平坦部と網点画像は非
エツジ領域と判定しスムージングで平均化し、文字、線
画、画像のエツジ部はエツジ領域と判定し、エツジ強調
する。またエツジ領域と非エツジ領域との境界は混合器
での混合比をエツジ検出器の信号に応じて変えることに
より連続的につなぐ。以上により網点画像での、モアレ
を防止し1文字の網点化と画像の鮮鋭度の低下を防ぎ、
エツジ領域と非エツジ領域との不連続なテクスチャーの
変化を生じない。また空間フィルターのマトリックスサ
イズも大きなものを必要としないので、ハード回路の規
模を小さくでき、LSI化にも有利である。In this example, by using spatial filters with frequency characteristics such as the above-mentioned conditions 1 to 3 for the edge detector, edge enhancer, and smoother, flat parts of the image and halftone dot images are determined to be non-edge areas and smoothed. The edges of characters, line drawings, and images are determined to be edge areas, and the edges are emphasized. Further, the boundary between the edge region and the non-edge region is continuously connected by changing the mixing ratio in the mixer according to the signal from the edge detector. The above prevents moiré in halftone images, prevents one character from becoming halftone and reducing the sharpness of the image,
No discontinuous texture change occurs between edge areas and non-edge areas. Furthermore, since the matrix size of the spatial filter does not need to be large, the scale of the hardware circuit can be reduced, which is advantageous for LSI implementation.
第7図は本発明の実施例を示すブロック図で、Slは入
力画像信号、1は入力画像信号S1の1次微分値の絶対
値を検出する微分値検出部で第1図aに対応する。S2
は微分値検出部1の出力につながれた微分信号、2は微
分信号S2から制御信号S3と84をつくる制御信号発
生器、S3は制御信号発生器2の出力で制御信号、S4
はやはり制御信号発生器2の出力で制御信号S3とは相
補性の制御信号、3は入力画像信号S1を平滑化する平
滑化処理部で第1図Cに対応する。S6は平滑化処理部
3によって平滑化された平滑化画像信号、4は平滑化画
像信号S6と制御信号S3との算術積をとる掛は算器、
S7は掛は算器4の出力、5は入力画像信号Slのエツ
ジ部を強調するエツジ強調部、S8はエツジ強調部5の
エツジ信号、S9は外部から与えられる定数、6はエツ
ジ信号S8と定数S9との算術積をとる掛は算器、SI
Oは掛は算器6から出力されるエツジ信号、7はエツジ
信号SIOと入力画像信号S1との算術和をとる加算器
で、エツジ強調部5、掛は算器6.加算器7で第1図の
エツジ強、W器bt−構成する。FIG. 7 is a block diagram showing an embodiment of the present invention, where Sl is an input image signal and 1 is a differential value detection unit that detects the absolute value of the first differential value of the input image signal S1, which corresponds to FIG. 1a. . S2
is a differential signal connected to the output of the differential value detector 1, 2 is a control signal generator that generates control signals S3 and 84 from the differential signal S2, S3 is the output of the control signal generator 2 and is a control signal, S4
1 is also an output of the control signal generator 2 and is a control signal complementary to the control signal S3, and 3 is a smoothing processing section for smoothing the input image signal S1, which corresponds to FIG. 1C. S6 is a smoothed image signal smoothed by the smoothing processing unit 3; 4 is a multiplier for calculating the arithmetic product of the smoothed image signal S6 and the control signal S3;
S7 is the output of the multiplier 4, 5 is an edge emphasis unit that emphasizes the edge portion of the input image signal Sl, S8 is the edge signal of the edge emphasis unit 5, S9 is a constant given from the outside, and 6 is the edge signal S8. The multiplier that takes the arithmetic product with the constant S9 is a calculator, SI
0 is the edge signal output from the calculator 6; 7 is an adder that takes the arithmetic sum of the edge signal SIO and the input image signal S1; The adder 7 constitutes the edge strong and W unit bt- shown in FIG.
Sllは加算器7の出力であるところのエツジ強調画像
信号、8はエツジ強調画像信号S11と制御信号S4と
の算術積をとる掛は算器。Sll is an edge-enhanced image signal which is the output of the adder 7, and 8 is a multiplier for calculating the arithmetic product of the edge-enhanced image signal S11 and the control signal S4.
S12は掛は算器8の出力、9は出力S7と出力S12
の算術和をとる加算器、S13は加算器9の出力で処理
画像信号である。ここで掛は算器4,8及び加算器9は
第1図の混合器dを構成している。S12 is the output of the multiplier 8, 9 is the output S7 and the output S12
An adder S13 which takes the arithmetic sum of is the output of the adder 9 and is a processed image signal. Here, the multipliers 4 and 8 and the adder 9 constitute the mixer d in FIG.
ここでエツジ強調器すに対応するエツジ強調部302に
おいては、エツジ量(エツジディテクト)検出部5の出
力と前述した制御信号S9との乗算を掛は算器6で行う
、掛は算器6はROM等で構成でき、制御信号S9は乗
算係数そのものでなく、コード化された信号でもかまわ
ない事はいうまでもない。In the edge enhancement section 302 corresponding to the edge enhancement device, the output of the edge amount (edge detect) detection section 5 is multiplied by the aforementioned control signal S9 in a multiplier 6. It goes without saying that the control signal S9 may be a coded signal instead of the multiplication coefficient itself.
画像処理の注目する画素をAとした時に、加算器7によ
り、注目画素とエツジディテクトのある係数倍された値
が加算され注目画素はエツジ強調される。混合部305
においては、エツジ強調部302の出力と平滑化処理3
の出力を適当な比率で混合する回路部で、前段の制御信
号発生部2に入力される微分値検出部1の出力に応じ、
S3.S4が出力される。後述する様に33 、S4は
相補性の制御信号であるが、必ずしも限定されない、S
3,54は制御信号S5により、自由にその特性を選択
し設定する事ができる。掛は算器8においてエツジ強調
部出力はS4によって決められた乗算を行い、掛は算器
4において平滑化処理部出力はS3によって決定される
乗算を行い、掛は算器4,8の出力は加算器9によって
互いに加算され、これが画像処理出力となる。When the pixel of interest in image processing is A, an adder 7 adds the pixel of interest and a value multiplied by a certain coefficient of edge detection, and edges of the pixel of interest are emphasized. Mixing section 305
In the following, the output of the edge enhancement unit 302 and the smoothing process 3
A circuit unit that mixes the outputs of
S3. S4 is output. As described later, S4 is a complementary control signal, but is not necessarily limited to S4.
3 and 54 can freely select and set their characteristics using the control signal S5. The output of the edge emphasis section is multiplied by S4 in the multiplier 8, the output of the smoothing processing section is multiplied by S3 in the multiplier 4, and the output of the multipliers 4 and 8 is multiplied by the output of the multiplier 8. are added together by the adder 9, and this becomes the image processing output.
第7図のブロック図はまた次式をもって表現することが
できる。The block diagram of FIG. 7 can also be expressed by the following equation.
まず微分値検出部1及び制御信号発生器2は以下の式1
の如き演算を行う。First, the differential value detection section 1 and the control signal generator 2 are expressed by the following formula 1.
Perform calculations such as.
ここで工は入力画像データ、Eは制御信号S4である。Here, E is the input image data and E is the control signal S4.
5は制御信号S4を最大値1に規格化する規格化関数で
ある。5 is a normalization function that normalizes the control signal S4 to a maximum value of 1.
加算器7からは以下の如き出力が得られる。The following output is obtained from the adder 7.
Gは加算器7の出力、klは定数信号S9の定数である
。そして平滑化処理部3からは以下の如き出力が得られ
る。G is the output of the adder 7, and kl is a constant of the constant signal S9. Then, the following output is obtained from the smoothing processing section 3.
Hは平滑化処理部3の出力である。依って。H is the output of the smoothing processing section 3. Depends on it.
加算器9の出力S13の値Outは以下の如き式2によ
って表わせる。The value Out of the output S13 of the adder 9 can be expressed by the following equation 2.
上式に示す〔〕内は画像信号工とコンボリューションを
とるカーネルである。カーネル本1〜木4は種々の変形
が考えられ、その−例を表2に示す。The part in [ ] shown in the above equation is a kernel that performs convolution with the image signal processing. Various modifications can be considered for kernels 1 to 4, examples of which are shown in Table 2.
木l 本2
本3 本4
表2
第8図は制御信号発生部2のもつ関数fの特性の例であ
る。 jE=J’(X
) において IE=Ofo
r O<x<0.2
E = 1.67 x −0,33
for 0.2<x<0.8 1E=
1 for 0.8<x<1
である。ただし入出力信号ともO〜1に規格化 4
して説明する。Tree 1 Tree 2 Tree 3 Tree 4 Table 2 FIG. 8 shows an example of the characteristics of the function f of the control signal generating section 2. jE=J'(X
) in IE=Ofo
r O<x<0.2 E = 1.67 x -0,33 for 0.2<x<0.8 1E=
1 for 0.8<x<1. However, both input and output signals are standardized to O~1 4
and explain.
第9図及び第10図は1次微分によるエツジ (検
出部l(以降微分値検出部と呼ぶ)の動作を 1説
明する図で、主走査1次元にて示している。 ′す
でに説明しているように微分値検出部lは一種の帯域通
過型フィルタとなっているので、 −第9図に示す
高い周波数成分をもつ網点画像 ゛のような入力画
像信号S1はカーネル(−1゜−1,0,1,1)で主
走査方向にたたみ込み 1を行うとその出力信号S
2は0.1−0.2どいつ □た小さな値となる。Figures 9 and 10 are diagrams for explaining the operation of the edge (detection unit l (hereinafter referred to as differential value detection unit)) based on first-order differentiation, and are shown in one-dimensional main scanning. Since the differential value detection unit l is a kind of band-pass filter as shown in FIG. 1, 0, 1, 1) in the main scanning direction, the output signal S
2 is a small value of 0.1-0.2.
一方、比較的低周波の入力画像信号の場合(例えば文字
の縦線等)には、第10図に示す■く、同様のたたみ込
みにより、出力信号S2よ大きな値をとる。On the other hand, in the case of a relatively low-frequency input image signal (for example, a vertical line of a character), a similar convolution as shown in FIG. 10 takes a larger value than the output signal S2.
ここでガンマ変換を行う制御信号発生部2は68図に示
すように微分信号S2が0.2より小り場合は制御信号
S3を1にし、制御信号S4ヒ0にする。また微分信号
S2が0.8より大き1場合は制御信号S3を0にし、
制御信号S4ヒ1にする。さらに微分信号S2が0.2
〜0.8つ間においては第2図に示すように常に制御信
号S3と制御信号S4の和が1になるように微予信号S
2に応じて変化する。Here, the control signal generating section 2 that performs gamma conversion sets the control signal S3 to 1 and sets the control signal S4 to 0 if the differential signal S2 is smaller than 0.2, as shown in FIG. Also, if the differential signal S2 is greater than 0.8 and is 1, the control signal S3 is set to 0,
Set the control signal S4 to HI1. Furthermore, the differential signal S2 is 0.2
As shown in FIG.
2.
一方入力画像信9号S1は微分値検出部1の入りに接続
されていると共に平滑化処理部3とエツジ検出部5の入
力にも同時に接続されている。On the other hand, the input image signal 9 S1 is connected to the input of the differential value detection section 1, and is also connected to the input of the smoothing processing section 3 and the edge detection section 5 at the same time.
第11図は平滑化処理部3の動作を示してお」、説明の
ために主走査方向の一次元の例を示うている。この場合
カーネルは(1、1、1。FIG. 11 shows the operation of the smoothing processing section 3, and for explanation, a one-dimensional example in the main scanning direction is shown. In this case the kernel is (1, 1, 1.
L、l)で内容がすべてlであり5画素の平均と出力す
るよう構成されているローバスフィル夕になっており、
入力画像信号Slは平滑化画像信号S6のようになる。L, l), the content is all l, and it is a low bass filter configured to output the average of 5 pixels,
The input image signal Sl becomes a smoothed image signal S6.
また第12図はエツジ強調部5の動作を示しており、や
はり説明のために主走査方向の一次元を示している。カ
ーネルは(−1,0,2゜0、−1)であり良く知られ
た2次微分のエツジ検出特性を有し、出力S8は平坦部
で0、エツジ部で正・負のピークをもつ。Further, FIG. 12 shows the operation of the edge emphasizing section 5, and also shows one dimension in the main scanning direction for the sake of explanation. The kernel is (-1, 0, 2° 0, -1) and has the well-known second-order differential edge detection characteristic, and the output S8 is 0 at the flat part and has positive and negative peaks at the edge part. .
さらにエツジ信号S8はかけ算器6により定数89倍さ
れ、加算器7によって画像入力信号51と加算され、エ
ツジ強調信号Sllとなる。尚、図示されていないが入
力画像信号Stに対してエツジ信号S10は少々遅れる
ので加算器7の入力であるエツジ信号SIOと入力画像
信号Slとのタイミングをとるための遅延回路が実際に
は設けられる。Further, the edge signal S8 is multiplied by a constant 89 by a multiplier 6, and added to the image input signal 51 by an adder 7, thereby producing an edge emphasis signal Sll. Although not shown, since the edge signal S10 is slightly delayed with respect to the input image signal St, a delay circuit is actually provided to adjust the timing between the edge signal SIO, which is input to the adder 7, and the input image signal Sl. It will be done.
ところで微分値検出部lの出力が大きい、即ちエツジ部
では制御信号S3は小さく、S4は大きい、逆に微分信
号S2が小さい場合はS3が太きく34が小さい、また
第8図で述べたように33と34は常にその和が1にな
るようにガンマ変換されている。従ってかけ算器4と8
の出力の和は微分信号S2が大のときエツジ強調信号S
llの成分が多く、S2が小のとき平滑化信号S6の成
分が多くなる様制御される。By the way, when the output of the differential value detection section l is large, that is, at the edge portion, the control signal S3 is small and the control signal S4 is large. Conversely, when the differential signal S2 is small, S3 is thick and 34 is small, and as described in FIG. 33 and 34 are gamma-converted so that their sum always becomes 1. Therefore, multipliers 4 and 8
The sum of the outputs of is the edge emphasis signal S when the differential signal S2 is large.
When the component of ll is large and S2 is small, control is performed so that the component of the smoothed signal S6 is large.
第13図はこの様子を示しており、微分信号S2は入力
画像信号S1のうち周期の短い振動(網点周期に相当す
る)を除く部分でのエツジを検出していることを示して
いる。FIG. 13 shows this state, and shows that the differential signal S2 detects edges in a portion of the input image signal S1 excluding short-period vibrations (corresponding to the halftone dot period).
制御信号S4は微分信号S2のガンマ変換したものであ
って第13図に示される信号S2の4つの山以外をOに
している。33は当然1−34である。さらに第13図
は平滑化信号S6とエツジ強調信号S11も示している
。第13図において処理信号513はS6とSllをS
3とS4の比率で加えた網点部分を平滑化しエツジ部の
み強調した信号である。The control signal S4 is obtained by gamma-converting the differential signal S2, and all but the four peaks of the signal S2 shown in FIG. 13 are set to O. 33 is naturally 1-34. Furthermore, FIG. 13 also shows a smoothed signal S6 and an edge emphasis signal S11. In FIG. 13, the processed signal 513 changes S6 and Sll to S
This is a signal in which the halftone dots added at a ratio of 3 and S4 are smoothed and only the edge portions are emphasized.
次に第7図の各ブロックについて詳細に説明する。Next, each block in FIG. 7 will be explained in detail.
(Wi分値検出部1) 第14図は微分値検出部1の詳細回路図である。(Wi minute value detection unit 1) FIG. 14 is a detailed circuit diagram of the differential value detection section 1.
微分値検出部lには第20図の5ラインバツフア301
の出力が入力される。The differential value detection section l has a 5-line buffer 301 shown in FIG.
The output of is input.
図において306は一次微分器であり、その出力306
−aは、データ部306−cと、正負を示すサイン部3
06−bとに分けられ。In the figure, 306 is a first-order differentiator, and its output 306
-a is a data section 306-c and a sign section 3 indicating positive/negative.
06-b.
サイン部306−bは、セレクタ308のセレクト信号
に入力され、インバータ307によって+、−反転した
データか306−cのデータのいずれかをセレクトする
事によってデータの絶対値30g−aが得られる。同様
にして1次微分器312の出力の絶対値がセレクタ31
1より出力され、加算器309により308−aと31
1−aが加算され、2方向の一次微分値の和が加算器3
09より出力される。The sign section 306-b is inputted to the select signal of the selector 308, and by selecting either the +/- inverted data by the inverter 307 or the data of 306-c, the absolute value of the data 30g-a is obtained. Similarly, the absolute value of the output of the first-order differentiator 312 is determined by the selector 31.
1, and the adder 309 outputs 308-a and 31
1-a is added, and the sum of the first-order differential values in two directions is added to adder 3.
Output from 09.
次に第14図の1次微分器306,312を詳細に示し
たブロック図を第15図に示す。Next, a block diagram showing details of the first-order differentiators 306 and 312 shown in FIG. 14 is shown in FIG. 15.
まず、この1次微分回路の基本動作を説明するだめに第
15図中のブロックXについて説明する。First, in order to explain the basic operation of this first-order differential circuit, block X in FIG. 15 will be explained.
まず第15図中のすべてのシフトレジスタは図中に示さ
ない画像転送りロックに同期してシフトされる。説明を
簡単にするために乗算器243〜247のすべての乗算
係数を1とする。タイミングチャート第16図によりt
−3におけるシフトレジスタ230の出力はSn、m−
1+Sn、m−2であり、t−2におけるシフトレジス
タ231の出力はSn。First, all shift registers in FIG. 15 are shifted in synchronization with an image transfer lock not shown in the figure. To simplify the explanation, all multiplication coefficients of multipliers 243 to 247 are assumed to be 1. According to timing chart Figure 16, t
The output of the shift register 230 at -3 is Sn,m-
1+Sn, m-2, and the output of the shift register 231 at t-2 is Sn.
m+sn、m−1+Sn、m−2であり、を−1におけ
るシフトレジスタ232の出力はSn。m+sn, m-1+Sn, m-2, and the output of the shift register 232 at -1 is Sn.
m + 1 + S n 、 m、+ S n 、 m
−1+ S n 、 m −2で、10における加算
器260の出力はSn。m + 1 + S n , m, + S n , m
−1+S n , m −2 and the output of adder 260 at 10 is Sn.
m42+S n 、m+ 1+Sn 、m+s n 、
m−1+Sn、m−2である。このようにして主走査方
向5画素の加算値をブロックXにて計算する。ここで、
乗算器243〜247の乗算係数をa、b、c、d、e
に設定することにより加算器260の出力は、eaSn
、m42+d*Sn、m41+c*Sn、、m+b*S
n、m−1+ a * S n 、 m −2となる。m42+S n , m+1+S n , m+s n ,
m-1+Sn, m-2. In this way, the sum of five pixels in the main scanning direction is calculated in block X. here,
The multiplication coefficients of the multipliers 243 to 247 are a, b, c, d, e.
By setting eaSn, the output of adder 260 becomes eaSn
, m42+d*Sn, m41+c*Sn, , m+b*S
n, m-1+a*S n , m-2.
同様にしてシフトレジスタ223以降の回路と、シフト
レジスタ233以降の回路が動作する車もわかる。Similarly, cars in which the circuits after the shift register 223 and the circuits after the shift register 233 operate can be identified.
ところで、求める1次微分が式lの本1゜木2の様な場
合に、注目画素がnライン目の場合に、n−2ラインと
n−1ラインのカーネルの要素は等しく、又n+1ライ
ンとn+2ラインのカーネルの要素も等しい。故に画像
データはn−2ライン目とn−1ライン目を加算器23
1で加算してから式1本1.木2の様な1次微分処理を
行う事によって回路規模をl/2に縮小できる。又、n
+1ライン目、n+2ライン目についても同様である。By the way, when the first-order differential to be sought is like the book 1 degree tree 2 of formula l, and the pixel of interest is the n-th line, the kernel elements of the n-2 line and the n-1 line are equal, and the kernel elements of the n-2 line and the n-1 line are equal, and The elements of the kernel of line n+2 are also equal. Therefore, the image data is sent to the adder 23 for the n-2nd line and the n-1st line.
Add by 1 and then add 1 formula to 1. By performing first-order differential processing like Tree 2, the circuit scale can be reduced to 1/2. Also, n
The same applies to the +1st line and the n+2nd line.
この様にして加算器400において5ライン分のカーネ
ルに応じた加算値を得る事ができる。In this way, the adder 400 can obtain addition values corresponding to the kernels for five lines.
さらに詳細に述べれば、従来の回路構成においては第2
8図の一次微分を行なう場合、(n−2)番目の1ライ
ン分の加算回路と(n −1)番目の1ライン分の加算
回路を、それぞれ別に持ち、又、(n+1)番目の1ラ
イン分の加算回路と(n+2)番目の1ライン分の加算
回路が必要となる。More specifically, in the conventional circuit configuration, the second
When performing first-order differentiation in Figure 8, an addition circuit for the (n-2)th line and an addition circuit for the (n-1)th line are provided separately. An adder circuit for lines and an adder circuit for one (n+2)th line are required.
ブロック又は、1ライン分の加算回路の1例である。This is an example of an adder circuit for a block or one line.
第29図で図示される1次微分器は、従来の回路構成で
ある0本実施例では第30図のような構成をとる事によ
って、ブロックXを減少させ回路規模315程度にして
いる。The first-order differentiator shown in FIG. 29 has a conventional circuit configuration. In this embodiment, by adopting a configuration as shown in FIG. 30, the number of blocks X is reduced to a circuit scale of about 315.
一方、第29図に示す回路構成はブロックX内の乗算器
の係数設定次第で1次微分器のほかに、エツジディテク
ション回路、平滑回路として、そのまま流用できるが、
例えば式3のような平滑化を得るためには、第31図の
ように5ライン分のデータを加算した後に、1つだけの
ブロックXを用い、簡単な回路構成を用い平滑化出力を
得ることができる。On the other hand, depending on the coefficient settings of the multiplier in block X, the circuit configuration shown in FIG.
For example, in order to obtain smoothing as shown in Equation 3, after adding 5 lines of data as shown in Figure 31, use only one block X and use a simple circuit configuration to obtain a smoothed output. be able to.
又、第4の零3、表2の木3に示すようなエツジディテ
クションを得るには、第29図の回路をそのまま使う事
もできるが、第32図の様に構成できる。To obtain edge detection as shown in the fourth zero 3 and tree 3 in Table 2, the circuit shown in FIG. 29 can be used as is, but it can also be configured as shown in FIG. 32.
又、238〜252に示すような乗算器はその乗算値が
for−1orOの様に単純な場合には、第17図に示
すように、インバータ291とセレクタ292によって
簡単に構成でき図中SLによってfor−1の切換えを
行い、CLによってOにする事ができる。In addition, when the multipliers shown in 238 to 252 are as simple as for-1orO, they can be easily constructed with an inverter 291 and a selector 292 as shown in FIG. For-1 can be switched and set to O by CL.
又式1のカーネル木lの1次微分を求めるには1乗算器
238〜242の乗算係数を1とし、乗算器243〜2
47の乗算係数を0とし、乗算器248〜252の乗算
係数を−lとする。In addition, to obtain the first derivative of the kernel tree l in Equation 1, the multiplication coefficients of the 1 multipliers 238 to 242 are set to 1, and the multipliers 243 to 2 are
The multiplication coefficient of 47 is set to 0, and the multiplication coefficients of multipliers 248 to 252 are set to -l.
式1のカーネル木2の1次微分を求めるには、乗算器2
42,238,239,240゜241の乗算係数を1
.1,0.−1.−1とし、乗算器243〜247の乗
算係数を1゜1.0.−1.−1とし、乗算器248〜
252の乗算係数を1.1,0.−1.−1とする。To find the first derivative of kernel tree 2 in Equation 1, multiplier 2
The multiplication coefficient of 42,238,239,240°241 is 1
.. 1,0. -1. -1, and the multiplication coefficients of the multipliers 243 to 247 are set to 1°1.0. -1. -1, and the multiplier 248~
252 multiplication coefficient 1.1, 0. -1. -1.
又、表2の木1.*2の様な1次微分を算出する回路構
成は第18図により実現できるが、第15図と動作原理
は同じであるので乗算器への係数の与え方は省略する。Also, tree 1 in Table 2. The circuit configuration for calculating the first-order differential as shown in *2 can be realized as shown in FIG. 18, but since the operating principle is the same as in FIG. 15, the explanation of how to give coefficients to the multipliers will be omitted.
ある。be.
第7図に示す入力画像信号Slは第20図に示すように
、イメージデータの連続する5ライン分のデータより成
り、5ラインバツフア301に入力された入力画像デー
タは5ラインバツフアにて、たくわえられた後に5ライ
ン分同時に、出力され図示していない画像転送りロック
に同期して1.イメージデータの主走査方向に1画素づ
つ出力される。As shown in FIG. 20, the input image signal Sl shown in FIG. 7 consists of data for 5 consecutive lines of image data, and the input image data input to the 5-line buffer 301 is stored in the 5-line buffer. Later, 5 lines are simultaneously output and 1. synchronized with the image transfer lock (not shown). Image data is output pixel by pixel in the main scanning direction.
また第21図に示す様にイメージエリアの注目領域Sを
さらに拡大して注目する画素データカ画像データS1に
うちn−2ライン目、n。Further, as shown in FIG. 21, the region of interest S in the image area is further enlarged to include pixel data of interest, line n-2 of the image data S1.
n+2ライン目の3ライン分の画像データを入力し、画
像処理の注目画素をSn、mとする。Image data for three lines of the (n+2)th line is input, and the pixels of interest for image processing are set as Sn and m.
図中201〜211は1ビツトのシフトレジスタである
。画像データSLは、シフトレジスタ201〜203,
204〜208,209〜211によって、図示してい
ない画像転送りロックに同期してシフトされる。このタ
イミングチャートが第22図である。第22図において
、あるタイミングTにおけるシフトレジスタの出力を第
19図中に()で囲んで示す。In the figure, 201 to 211 are 1-bit shift registers. Image data SL is stored in shift registers 201 to 203,
204 to 208 and 209 to 211 are shifted in synchronization with an image transfer lock (not shown). This timing chart is shown in FIG. 22. In FIG. 22, the output of the shift register at a certain timing T is shown enclosed in parentheses in FIG.
加算器213はシフトレジスタ203,204.208
,211の出力データ5n−2、m、Sn、m−2、S
n、m+2、Sn+2+mを加算し、加算されたデータ
は乗算器214で一1倍される。注目画素Sn、mはシ
フトレジスタ206から出力され、乗算器212で4倍
され、加算器215で加算されて加算器215からは、
前記式2、第7図に示されるようなエツジディテクト信
号G−Sllが出力される。Adder 213 is shift register 203, 204, 208
, 211 output data 5n-2, m, Sn, m-2, S
n, m+2, and Sn+2+m are added, and the added data is multiplied by 11 in the multiplier 214. The pixel of interest Sn,m is output from the shift register 206, multiplied by 4 in the multiplier 212, and added in the adder 215.
An edge detect signal G-Sll as shown in Equation 2 and FIG. 7 is output.
尚、n−2ライン目とn+2ライン目のカーネル要素は
同じなのでシフトレジスタ209〜211を省き、n−
2ライン目とn+2ライン目の出力を加算した後、シフ
トレジスタ201に入力しても良い、又、第18図の回
路を用いて乗算器にカーネル木4の値を入れることによ
りエツジ強調部5を構成できることも明らかである。In addition, since the kernel elements of the n-2th line and the n+2th line are the same, shift registers 209 to 211 are omitted and the n-
After adding the outputs of the 2nd line and the n+2nd line, the output may be input to the shift register 201, or the value of the kernel tree 4 may be input to the multiplier using the circuit shown in FIG. It is also clear that it is possible to construct
(平滑化処理部3)
次に第7図平滑化処理部3のブロックの詳細を第23図
に示す。(Smoothing Processing Unit 3) Next, details of the block of the smoothing processing unit 3 shown in FIG. 7 are shown in FIG. 23.
画像信号Slは夫々イメージの副走査方向に連続する5
ラインのデータより成り、加算器271により副走査5
画素の加算が行われる。The image signals Sl are each continuous in the sub-scanning direction of the image.
It consists of line data, and is processed by an adder 271 for sub-scanning 5
Pixel addition is performed.
このデータは1ビツト遅延する為のシフトレジスタ27
2に入力される。シフトレジスタ272の出力データは
加算器277〜280に入力される。加算器272では
シフトレジスタ272の出力とその1画素前のデータが
加算される。この加算結果は274のシフトレジスタに
ラッチされた後に278の加算器で次の画素と加算され
る。以下同様にして時間T2の時に加算器280からは
第24図に示す如くSN1m+2+SN1m+1+SN
、m+sN。This data is delayed by 1 bit in the shift register 27.
2 is input. The output data of shift register 272 is input to adders 277-280. The adder 272 adds the output of the shift register 272 and the data of one pixel before it. The result of this addition is latched into the 274th shift register and then added to the next pixel by the 278th adder. Similarly, at time T2, the adder 280 outputs SN1m+2+SN1m+1+SN as shown in FIG.
, m+sN.
m−1+SN、m−2が出力される(SNIJ=Sn−
2、j+5n−1、j+sn 、j+Sn + i I
J ” S n + 21 J ) @こうして注目
画素をSn、mとする時に式2の本3に示される画素合
計が加算器280より出力され除算器281により合計
画素数で、割って平滑化データが得られる。又、第25
図に示すような重みづけをした平滑化をする回路が第2
6図である。動作タイミング等は第23図と同じである
が、第26図では乗算器351〜355により各ライン
に重みづけし、又各列にも乗算器356〜360により
重みづけすることによって第25図の如き平滑化を行う
。m-1+SN, m-2 are output (SNIJ=Sn-
2, j+5n-1, j+sn, j+Sn + i I
J ”S n + 21 J ) @Thus, when the pixel of interest is Sn, m, the pixel sum shown in Book 3 of Equation 2 is output from the adder 280 and divided by the total number of primes by the divider 281 to obtain smoothed data. is obtained. Also, the 25th
The second circuit performs weighted smoothing as shown in the figure.
This is Figure 6. The operation timing etc. are the same as in Fig. 23, but in Fig. 26, each line is weighted by multipliers 351 to 355, and each column is also weighted by multipliers 356 to 360, so that the same as in Fig. 25 is achieved. Perform smoothing like this.
この平滑化処理部では画像副走査方向にその加算値をす
べて加え合せてから画像主走査方向に加算しているので
回路規模が小さくできる。This smoothing processing section adds all the added values in the image sub-scanning direction and then adds them in the image main scanning direction, so the circuit scale can be reduced.
(他の実施例)
本実施例においては微分値検出部、平滑化処理部、エツ
ジ強調部のカーネルを5X5としたが、モアレ除去の目
的とする線数によっては3×3でも良いし、5×5以上
必要となる場合もある。又目的に応じて微分値検出部、
平滑化処理部は夫々同じ大きさのカーネルを用いる必要
はない、更にカーネルは正方である必要はない。(Other Embodiments) In this embodiment, the kernels of the differential value detection section, smoothing processing section, and edge enhancement section were set to 5×5, but depending on the number of lines aimed at removing moiré, it may be 3×3 or 5×5. ×5 or more may be required in some cases. Also, depending on the purpose, a differential value detection section,
The smoothing processing units do not need to use kernels of the same size, and furthermore, the kernels do not need to be square.
また本実施例においては1組の5ラインバツフアを設け
、エツジ検出と平滑化とエツジ強調を並列処理によって
行うよう説明したが必ずしも並列に行う必要はない。Further, in this embodiment, a set of 5-line buffers is provided and edge detection, smoothing, and edge enhancement are performed in parallel processing, but it is not necessarily necessary to perform them in parallel.
又、本実施例においては平滑化処理部3の出力である平
滑化信号S6と加算器7の出力であるエツジ強調信号9
S11をガンマ変換部2の出力に従った割合で加算した
が、エツジ強調信号Sllのかわりに入力画像信号S1
を用いても良い、この場合、文字や線画に対して本実施
例より多少劣る面があるが装置が大幅に簡略化できる上
にモアレの抑制については本実施例と同じ効果が得られ
る利点がある。Further, in this embodiment, the smoothed signal S6 which is the output of the smoothing processing section 3 and the edge emphasis signal 9 which is the output of the adder 7 are
S11 is added at a rate according to the output of the gamma converter 2, but the input image signal S1 is added instead of the edge emphasis signal Sll.
In this case, although it is somewhat inferior to this embodiment for characters and line drawings, it has the advantage that the device can be greatly simplified and the same effect as this embodiment can be obtained in terms of suppressing moiré. be.
また第7図に示すところのエツジ検出部5と掛は算器6
と加算器7によって構成されるエツジ強調部はエツジ強
調部5のカーネル木4の中心部を定数59によって可変
できるよう構成した場合は掛は算器6と加算器7は不要
となる。In addition, the edge detection section 5 and multiplication calculator 6 shown in FIG.
If the edge emphasizing unit constituted by the adder 7 and the edge emphasizing unit 5 is constructed so that the center of the kernel tree 4 of the edge emphasizing unit 5 can be varied by a constant 59, the multiplier 6 and the adder 7 are not necessary.
更に本実施例において定数59は外部から可変であると
したが、内部で固定であっても良い。Further, in this embodiment, the constant 59 is variable from the outside, but it may be fixed internally.
又、本発明の実施例において、ガンマ変換を行う制御信
号発生器2の特性は第8図であるように説明したが、第
27図−a−Cにガンマ変換器2の特性の変形例を示す
。Furthermore, in the embodiment of the present invention, the characteristics of the control signal generator 2 that performs gamma conversion have been described as shown in FIG. 8, but FIGS. 27-a-C show modified examples of the characteristics of the gamma converter 2. show.
第27図においては、制御信号S4の特性のみを示して
いるが、制御信号S3は
53=1−S4
であられさせる。In FIG. 27, only the characteristics of the control signal S4 are shown, but the control signal S3 is made to be 53=1-S4.
第27図−aは
54=0 ただし O<S2<0.5S 4 = 1
. Oただし 0.5 < 52 < 1.0なる特性
を有し、特にガンマ変換部の回路が簡単に構成できると
いう特徴がある。Figure 27-a is 54 = 0 where O<S2<0.5S 4 = 1
.. However, it has a characteristic of 0.5 < 52 < 1.0, and is particularly characterized in that the circuit of the gamma conversion section can be easily constructed.
第27図−すは
S4= −arct an (k @ S2+k)
なる特性を有し、特に平滑化信号とエツジ強調信号との
つながりがスムーズになるという特徴がある。Figure 27 - S4 = -arct an (k @ S2+k)
In particular, the connection between the smoothed signal and the edge emphasis signal is smooth.
第27図−Cは
54=0 ただし 0 <S2<0.25S
4 = 0.33 ただし 0.25 < 52 <
0.534 = 0.67 ただし 0.5 <
S2<0.75S 4 = 1.0 ただし 0.
75<92<1.0なる特性を有し、第8図に示す実施
例に対し、比較的、回路が簡単になり、かつ第27図−
aに示したガンマ変換部の特性を用いた場合より平滑化
信号とエツジ強調信号とのつながりがスムーズになると
いう特徴がある。Figure 27-C is 54=0 where 0 <S2<0.25S
4 = 0.33 but 0.25 < 52 <
0.534 = 0.67 However, 0.5 <
S2<0.75S4=1.0 However, 0.
75<92<1.0, the circuit is relatively simpler than the embodiment shown in FIG. 8, and the circuit shown in FIG.
A characteristic of this embodiment is that the connection between the smoothed signal and the edge-enhanced signal becomes smoother than when the characteristics of the gamma conversion section shown in a are used.
さらに述べるなら、たとえば微分値検出部として良く知
られるプレウィツトのエツジ検出やソーベルのエツジ検
出法などを用いても良い。More specifically, for example, Prewitt's edge detection or Sobel's edge detection method, which is well known as a differential value detection section, may be used.
またエツジ検出部としてラプラシアンを使用してもかま
わない、さらに前記プレウィツトのエツジ検出やソーベ
ルのエツジ検出法あるいはラプラシアンとしては通常3
x3の核を用いて空間フィルター処理がなされるが、核
の大きさが3x3以外に拡張して用いても本発明の本質
に影響を与えるものではない。Furthermore, the Laplacian may be used as the edge detection section, and the Prewitt edge detection method, the Sobel edge detection method, or the Laplacian is usually
Spatial filter processing is performed using a x3 kernel, but the essence of the present invention will not be affected even if the kernel size is expanded to a size other than 3x3.
く効果〉
以上の如く本発明に依ればたたみ込みを行うカーネルが
2行以上についてその要素が等しい時、等しいカーネル
の要素に対応する入力データを予め加算した後にたたみ
込みを行っているので、たたみ込みのための積和演算回
路の数を減少させることが可能となり回路規模を大幅に
縮少できる。Effects> As described above, according to the present invention, when the kernels that perform convolution have the same elements in two or more lines, the input data corresponding to the elements of the equal kernels are added in advance and then the convolution is performed. It is possible to reduce the number of product-sum operation circuits for convolution, and the circuit scale can be significantly reduced.
第1図は本発明の実施例の基本概念を示す図、第2図は
各種画像のもつ周波数特性図、第3図。
第4図、第5図は各種微分フィルタの周波数特性図、第
6図は平滑化フィルタの周波数特性図、第7図は本実施
例の画像処理ブロック図、第8図は制御信号発生部2の
ガンマ変換特性図、第9図、第10図は一次微分を行う
微分値検出部lの動作例を示す図、第11図は平滑化処
理部3の動作例を示す図、第12図はエツジ強調部5の
動作例を示す図、第13図は第7図番部の信号波形図、
第14図はエツジ検出部lの詳細回路図、第15図は1
次微分器306゜312の詳細ブロック図、第16図は
1次微分器の動作を示すタイミングチャート、第17図
は絶対値の回路図、第18図は1次微分器の他の例の詳
細ブロック図、第19図はエツジ検出部5の詳細ブロッ
ク図、第20図はバッファ回路図、第21図はイメージ
エリアを示す図、第22図はエツジ検出部の動作を示す
図。
第23図は平滑化処理部3の詳細ブロック図。
第24図は平滑化処理部の動作を示す図、第25図は他
の平滑化処理の為のカーネルを示す図、第26図は第2
5図の平滑化を行う為のブロック図、第27図<a)、
(b)、 (c)は制御信号発生部2の他のガンマ変
換特性を示す図、第28図は一次微分のカーネルを示す
図、第29図は従来のたたみ込み回路図、第30図〜第
32図は本実施例のたたみ込み回路図である。
図において、
aはエツジ検出器、bはエツジ強調器、Cは平滑器、d
は混合器、lは微分値検出部、2は制御信号発生部、3
は平滑化処理部、4と6と8はかけ算器、5はエツジ検
出部、7と9は加算器を夫々示す。FIG. 1 is a diagram showing the basic concept of an embodiment of the present invention, FIG. 2 is a frequency characteristic diagram of various images, and FIG. 3 is a diagram showing the basic concept of an embodiment of the present invention. 4 and 5 are frequency characteristic diagrams of various differential filters, FIG. 6 is a frequency characteristic diagram of a smoothing filter, FIG. 7 is an image processing block diagram of this embodiment, and FIG. 8 is a control signal generation unit 2. FIGS. 9 and 10 are diagrams showing an example of the operation of the differential value detection unit l that performs first-order differentiation, FIG. 11 is a diagram showing an example of the operation of the smoothing processing unit 3, and FIG. A diagram showing an example of the operation of the edge emphasizing section 5, FIG. 13 is a signal waveform diagram of the numbered part in FIG. 7,
Fig. 14 is a detailed circuit diagram of the edge detection section 1, and Fig. 15 is a detailed circuit diagram of the edge detection section 1.
Detailed block diagram of the first-order differentiator 306°312, FIG. 16 is a timing chart showing the operation of the first-order differentiator, FIG. 17 is an absolute value circuit diagram, and FIG. 18 is details of another example of the first-order differentiator. 19 is a detailed block diagram of the edge detection section 5, FIG. 20 is a buffer circuit diagram, FIG. 21 is a diagram showing an image area, and FIG. 22 is a diagram showing the operation of the edge detection section. FIG. 23 is a detailed block diagram of the smoothing processing section 3. Fig. 24 is a diagram showing the operation of the smoothing processing section, Fig. 25 is a diagram showing the kernel for other smoothing processing, and Fig. 26 is a diagram showing the operation of the smoothing processing section.
Block diagram for smoothing in Figure 5, Figure 27<a),
(b) and (c) are diagrams showing other gamma conversion characteristics of the control signal generation section 2, Figure 28 is a diagram showing a first-order differential kernel, Figure 29 is a conventional convolution circuit diagram, and Figures 30-30. FIG. 32 is a convolution circuit diagram of this embodiment. In the figure, a is an edge detector, b is an edge enhancer, C is a smoother, and d
is a mixer, l is a differential value detection section, 2 is a control signal generation section, 3
4, 6 and 8 are multipliers, 5 is an edge detection unit, and 7 and 9 are adders, respectively.
Claims (1)
により注目画素の出力画像データを得る画像処理装置に
おいて、前記たたみ込みを行うカーネルが2行以上につ
いてその要素が等しいとき、前記等しいカーネルの要素
に対応する入力画像データを予め加算した後にたたみ込
みを行うことを特徴とする画像処理装置。In an image processing device that obtains output image data of a pixel of interest by performing convolution on two-dimensional input image data, when the kernel that performs the convolution has equal elements for two or more lines, the elements of the equal kernel An image processing device characterized in that it performs convolution after adding input image data corresponding to in advance.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP59276478A JPS61157160A (en) | 1984-12-28 | 1984-12-28 | Picture processing device |
GB8531765A GB2170373B (en) | 1984-12-28 | 1985-12-24 | Image processing apparatus |
DE19853546135 DE3546135A1 (en) | 1984-12-28 | 1985-12-27 | Method and device for image processing |
US07/657,949 US5231677A (en) | 1984-12-28 | 1991-02-21 | Image processing method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP59276478A JPS61157160A (en) | 1984-12-28 | 1984-12-28 | Picture processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS61157160A true JPS61157160A (en) | 1986-07-16 |
Family
ID=17570009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP59276478A Pending JPS61157160A (en) | 1984-12-28 | 1984-12-28 | Picture processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS61157160A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100381530B1 (en) * | 1997-12-08 | 2003-04-26 | 인텔 코오퍼레이션 | A New Edge-Detection Based Noise Removal Algorithm |
US6999631B1 (en) | 1999-11-19 | 2006-02-14 | Fujitsu Limited | Image processing apparatus and method |
-
1984
- 1984-12-28 JP JP59276478A patent/JPS61157160A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100381530B1 (en) * | 1997-12-08 | 2003-04-26 | 인텔 코오퍼레이션 | A New Edge-Detection Based Noise Removal Algorithm |
US6999631B1 (en) | 1999-11-19 | 2006-02-14 | Fujitsu Limited | Image processing apparatus and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5231677A (en) | Image processing method and apparatus | |
US5200840A (en) | Image processing apparatus | |
EP1349113A2 (en) | Image processor and image processing method | |
JP2003230010A (en) | Image processing apparatus and image processing method | |
JP3309941B2 (en) | Noise detection circuit, noise elimination circuit and contour enhancement circuit | |
JP2555430B2 (en) | Image edge enhancement method | |
JP2002077623A (en) | Image processing apparatus | |
JPS61157164A (en) | Picture processing device | |
JPS61157160A (en) | Picture processing device | |
JPS61157169A (en) | Picture processing device | |
JPS61157163A (en) | Picture processing device | |
JPS61157161A (en) | Picture processing device | |
JPS61157165A (en) | Picture processing device | |
JP3106831B2 (en) | Video signal processing device | |
JPH0521384B2 (en) | ||
JP3165225B2 (en) | Image processing apparatus and image processing method | |
JPS61157162A (en) | Picture processing device | |
JPS61157170A (en) | Picture processing device | |
JPS61157166A (en) | Picture processing device | |
JP3990103B2 (en) | Image processing apparatus and image processing method | |
JPS6313578A (en) | Multivaluing method | |
JPS61157167A (en) | Picture processing device | |
US20020057464A1 (en) | Image processor and method | |
JP2938545B2 (en) | Image signal processing device | |
JP3146518B2 (en) | Image processing device |