JPH01168164A - Picture processing unit - Google Patents

Picture processing unit

Info

Publication number
JPH01168164A
JPH01168164A JP62325194A JP32519487A JPH01168164A JP H01168164 A JPH01168164 A JP H01168164A JP 62325194 A JP62325194 A JP 62325194A JP 32519487 A JP32519487 A JP 32519487A JP H01168164 A JPH01168164 A JP H01168164A
Authority
JP
Japan
Prior art keywords
image
value
circuit
edge
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP62325194A
Other languages
Japanese (ja)
Inventor
Hiroki Sugano
浩樹 菅野
Hitoshi Yoneda
米田 等
Hironobu Machida
町田 弘信
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP62325194A priority Critical patent/JPH01168164A/en
Priority to US07/277,605 priority patent/US5001767A/en
Priority to DE3856034T priority patent/DE3856034T2/en
Priority to KR1019880015882A priority patent/KR920005868B1/en
Priority to EP88119973A priority patent/EP0318950B1/en
Publication of JPH01168164A publication Critical patent/JPH01168164A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To satisfy the resolution of a character part and the gradation of a photograph part by calculating a specific characteristic quantity to identify a character picture and a photograph picture from picture information, comparing it with a reference value so as to identify whether the picture information is a binary picture or a non-binary picture. CONSTITUTION:The unit is provided with a difference calculation means 43 detecting a maximum value and a minimum value of a change point of information relating to picture density of picture information to calculate a difference between the maximum and minimum values, a distance calculation means 54 calculating the distance of the change points on the picture causing the maximum and minimum value of the picture information change as an object of calculation by the means 43 and a slope calculation means 44, and the slope of the other value with respect to one value is calculated based on the difference and the distance. Then the slope is compared with the reference value to identify whether the picture information is a binary picture or a non-binary picture. Thus, the resolution of a character including a contrast character part with low contrast such as a blur character is preserved and the gradation of a photograph part is satisfied to apply picture processing.

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は、文書画像に混在する文字画像等の二値化画像
および写真画像等の非二値化画惟、すなわち濃淡画像を
それぞれ文字の解像度および写真の階調度を同時に満足
するように画像処理する画像処理装置に関する。
[Detailed Description of the Invention] [Objective of the Invention] (Industrial Application Field) The present invention is directed to a non-binarized image such as a binary image such as a character image mixed in a document image and a non-binarized image such as a photographic image. The present invention relates to an image processing device that processes images so as to simultaneously satisfy the resolution of characters and the gradation of photographs.

(従来の技術) 文字だけでなく、文字に写真等のような濃淡画像が混在
した文占画像を画像処理し得る画像処理装置においては
、スキャナ等の読取り装置で読み取った文字や線図等の
ようにコントラストのある画像情報は固定同値によって
単純二値化を行ない、写真等の諧調を有する画像情報は
デイザ法等の疑似諧調化手段により二値化を行なってい
る。
(Prior Art) An image processing device capable of image processing not only characters but also literary images in which gray scale images such as photographs etc. are mixed with characters can process characters, line diagrams, etc. read by a reading device such as a scanner. Image information with contrast is simply binarized using fixed equivalence, and image information with gradations such as photographs is binarized using a pseudo gradation means such as a dither method.

更に詳しく、この画像処理装置では、読み取った画像情
報を固定意気位置により単純二値化処理すると、文字や
線画像の領域は解像度が保存されるため画質劣化は生じ
ないが、写真画像の領域では階調度が保存されないため
画質劣化が生じた画像になってしまい、また読み取った
画像情報を組織的デイザ法等で階調化処理すると、写真
画像の領域では階調度が保存されるため画質劣化は生じ
ないが、文字や線画像の領域では解像度が低下するため
画質が劣化した画像となってしまうのを防止するために
固定同値による単純二値化および疑似諧調化による二値
化の2種類の二値化手段を使用しているのである。
More specifically, in this image processing device, when the read image information is simply binarized using a fixed mental position, the resolution is preserved in the text and line image areas, so no image quality deterioration occurs, but in the photo image area, the image quality is not degraded. Because the gradation level is not preserved, the resulting image will have degraded image quality.Also, if the read image information is gradated using systematic dithering, etc., the gradation level will be preserved in the photographic image area, so the image quality will not deteriorate. However, in the area of characters and line images, the resolution decreases, so in order to prevent the image quality from deteriorating, two types of binarization are used: simple binarization using fixed equivalence and binarization using pseudo gradation. It uses a binarization method.

すなわち、読み取った画像情報に対して単一の二値化処
理では、文字画像と写真画像のように特徴が異なるそれ
ぞれの領域の画質を同時に満足することは不可能である
。これは、各種の画像処理にもあてはまり、例えば画像
の特徴に合った処理を行なわないと二値化画像の拡大お
よび縮小処理において画質が低下したり、あるいは符号
化処理においては画像の特徴に合った圧縮方式で処理を
行なわないと効率の悪いデータ圧縮となってしまう。従
って、画像情報を画像の特徴に応じた領域に分割し、各
領域に適応的な処理を行なうことが必須となっている。
That is, by performing a single binarization process on read image information, it is impossible to simultaneously satisfy the image quality of each region having different characteristics, such as a character image and a photographic image. This also applies to various types of image processing; for example, if processing is not performed that matches the characteristics of the image, the image quality may deteriorate when enlarging or reducing a binarized image, or when encoding processing does not match the characteristics of the image. If processing is not performed using a compression method that is unique, the data will be compressed inefficiently. Therefore, it is essential to divide image information into regions according to the characteristics of the image and to perform adaptive processing on each region.

ところで、従来、文字部の解像度と写真部の階調度を同
時に満足する方式として画像平面内の局所領域で画像8
1度の最大濃度差ΔlaXを求め(なお、こ画像濃度は
読取り手段で読み取った画像信号レベルを意味し、一般
に用いる「濃度」とは異なる。従って、以下、特に断わ
らない限り濃度をこの意味として使用する)、この最大
濃度差Δll1aXと判定閾値Thとを比較して、文字
および線画像の領域と写真画像の領域とに分割し、各画
像領域の特徴に応じて二値化処理を切り替える方式が提
案されている(例えば、特開昭58−3374>(発明
が解決しようとする問題点) 上述した従来の画像処理方式では、例えば鉛筆徨きのよ
うなかすれ文字部等である低コントラスト文字部は最大
濃度差が小さいため写真領域と判定され、文字部の解像
度が著しく損われるという問題がある。
By the way, conventionally, as a method that simultaneously satisfies the resolution of the character part and the gradation of the photograph part, the image 8 is created in a local area within the image plane.
Determine the maximum density difference ΔlaX of 1 degree. This method compares this maximum density difference Δll1aX with a determination threshold Th, divides the image into text and line image areas and photographic image areas, and switches the binarization process according to the characteristics of each image area. has been proposed (for example, JP-A-58-3374) (Problems to be Solved by the Invention) In the conventional image processing method described above, low-contrast characters such as blurred character parts such as pencil wandering, etc. Since the maximum density difference in the area is small, it is determined to be a photographic area, and there is a problem in that the resolution of the text area is significantly impaired.

更に詳しくは、第8図に示すように、原稿Pがコントラ
ストのある文字や線画像の領域Aと、濃度変化がなだら
かな写真画像の領域Bと、かすれ文字部等である低コン
トラスト文字部の領域Cとから構成されている場合、前
記原稿Pの各領域における画像情報の典型的な信号レベ
ルは第9図に示すようになる。今、画像濃度のダイナミ
ックレンジを8ビツト(0〜255.16進数ではO〜
ff) L、て、前記各画像領域A、B、Cに対してそ
れぞれ画像平面内の所定の範囲内、例えば4×4のマト
リックスからなる16画素の範囲内で最大濃度差へla
Xを求めると、へ領域における最大濃度差ΔDmax 
=dd 〜「f (hex ) 、3領域におケルΔD
max −10〜40 (hex ) 、C領域におけ
るΔ[)wax −10〜40 (MX )となる。
More specifically, as shown in FIG. 8, the document P has areas A of contrasting characters and line images, area B of photographic images with gentle density changes, and low-contrast character areas such as faded characters. In the case where the document P is composed of a region C, a typical signal level of image information in each region of the document P is as shown in FIG. Now, the dynamic range of image density is set to 8 bits (0 to 255.0 to 255 in hexadecimal).
ff) L, T, for each of the image areas A, B, and C, respectively, within a predetermined range within the image plane, for example, within a range of 16 pixels consisting of a 4 x 4 matrix, la to the maximum density difference.
When determining X, the maximum density difference ΔDmax in the region
= dd ~ "f (hex), Kel ΔD in 3 areas
max −10 to 40 (hex) and Δ[)wax −10 to 40 (MX) in the C region.

従って、文字部と写真部とを識別する判定閾値Thを8
0(heX)として、つぎに示す判定条件;ΔDmax
>Th・・・・・・文字部 △Dfflax≦Th・・・・・・写真部により各画像
領域を識別すると、A領域は文字部と識別され、B、C
領域は写真部と識別される。
Therefore, the determination threshold Th for distinguishing between text and photographic areas is set to 8.
Assuming 0 (heX), the following judgment condition; ΔDmax
>Th...Text area △Dfflax≦Th...When each image area is identified by the photo area, area A is identified as the text area, B, C
The region is identified as a photographic section.

この結果、A領域では固定閾値による単純二値化処理が
行なわれ、B、C領域ではデイザ処理が行なわれるため
、AおよびB領域はそれぞれ文字の解像度と写真の階調
度を満足するが、C領域では誤識別されて階調度を保存
した処理を行なうため、C領域では文字の解像度が著し
く損われる。また、CwA域を正確に識別するために、
判定閾値を30(hex)または10(heX)と小さ
い値に設定すると、逆に8領域が文字部として識別され
、階調度が保存されない写真画像となってしまう。すな
わち、従来の方式では、文字や線画像のA領域、写真画
像の8領域および低コントラスト文字部のC領域をそれ
ぞれ正確な画像領域に分割できないため、文字領域の解
像度と写真領域の階調度とを同時に満足するように各領
域毎に画像の特徴に応じた画像処理を適応的に行なうこ
とができないという問題がある。
As a result, simple binarization processing using a fixed threshold is performed in the A area, and dither processing is performed in the B and C areas. In the area C, character resolution is significantly impaired because the characters are erroneously identified and processing is performed to preserve the gradation level. In addition, in order to accurately identify the CwA region,
If the determination threshold value is set to a small value such as 30 (hex) or 10 (heX), 8 areas will be identified as text parts, resulting in a photographic image in which the gradation level will not be preserved. In other words, in the conventional method, it is not possible to divide the A area of text and line images, the 8 areas of the photo image, and the C area of the low contrast text area into accurate image areas, so the resolution of the text area and the gradation level of the photo area cannot be divided into accurate image areas. There is a problem in that it is not possible to adaptively perform image processing according to the image characteristics for each region so as to simultaneously satisfy the following.

本発明は、上記に鑑みてなされたもので、そのもくてと
するところは、文字部と写真部とが混在した画像情報を
文字部の解像度と写真部の階調度とを同時に満足するよ
うに画像領域毎に画像の特徴に応じた画像処理を適応的
に行なうことができる画像処理装置を提供することにあ
る。
The present invention has been made in view of the above, and its main purpose is to provide image information in which a text portion and a photo portion are mixed so as to simultaneously satisfy the resolution of the text portion and the gradation level of the photo portion. Another object of the present invention is to provide an image processing device that can adaptively perform image processing according to image characteristics for each image region.

[発明の構成] (問題点を解決するための手段) 上記問題点を解決するため、本発明の画像処理装置は、
画像情報の画像濃度に関連する情報の変化点の極大値お
よび極小値を検出し、前記極大値および極小値の差を算
出する差算出手段と、この差算出手段で算出対象となる
前記画像情報変化の極大値および極小値を発生する変化
点間の画像上の距離を算出する距離算出手段と、前記差
および前記距離において一方の値に対する他方の値の傾
斜値を算出する傾斜値算出手段と、この傾斜値算出手段
で算出した前記傾斜値を所定の基準値と比較し、前記画
像情報が二値画像であるか非二値画像であるかを識別す
る比較識別手段とを有することを要旨とする。
[Structure of the Invention] (Means for Solving the Problems) In order to solve the above problems, the image processing device of the present invention includes the following:
Difference calculating means for detecting local maximum values and local minimum values of changing points of information related to image density of image information and calculating a difference between the local maximum values and local minimum values, and the image information to be calculated by this difference calculating means. a distance calculation means for calculating a distance on an image between change points that generate a maximum value and a minimum value of change; and a slope value calculation means for calculating a slope value of one value with respect to the other value in the difference and the distance. , a comparison identification means for comparing the slope value calculated by the slope value calculation means with a predetermined reference value and identifying whether the image information is a binary image or a non-binary image. shall be.

(作用) 本発明の画像処理装置では、画像濃度に関連する情報の
変化点の極大値および極小値間の差および該極大値およ
び極小値を発生する変化点間の距離を算出し、この差お
よび距離において一方の値に対する他方の値の傾斜値を
算出し、この傾斜値を基準値と比較して画像情報が二値
画像であるか非二値画像であるかを識別している。
(Function) The image processing device of the present invention calculates the difference between the maximum value and minimum value of the change point of information related to image density and the distance between the change points that generate the maximum value and the minimum value, and calculates the difference between the change points that generate the maximum value and the minimum value. The slope value of one value with respect to the other value is calculated in the distance and distance, and this slope value is compared with a reference value to identify whether the image information is a binary image or a non-binary image.

(実施例) 以下、図面を用いて本発明の詳細な説明する。(Example) Hereinafter, the present invention will be explained in detail using the drawings.

第1図は本発明の一実施例に係る画像処理装置の全体構
成を示すブロック図である。同図に示す画像処理装置は
、図示しない読取り手段であるスキャナで読み取った1
画素当り8ビツトの画像信号11をラインバッファ1に
一時的に蓄え、このラインバッファ1に蓄えられた画像
信号を図示しないクロック信号に同期して識別回路2に
入力するとともに、遅延メモリ等からなる遅延回路10
を介し比較回路9に供給している。識別回路2は、画像
信号に対して画素単位の識別を行ない、識別結果である
識別信号12を選択回路8に制御信号として供給する。
FIG. 1 is a block diagram showing the overall configuration of an image processing apparatus according to an embodiment of the present invention. The image processing device shown in the same figure is a scanner that is a reading means (not shown).
An image signal 11 of 8 bits per pixel is temporarily stored in a line buffer 1, and the image signal stored in this line buffer 1 is inputted to an identification circuit 2 in synchronization with a clock signal (not shown), and is composed of a delay memory and the like. Delay circuit 10
The signal is supplied to the comparator circuit 9 via. The identification circuit 2 performs pixel-by-pixel identification on the image signal and supplies an identification signal 12, which is the identification result, to the selection circuit 8 as a control signal.

この選択回路8は第1の閾値発生回路5、第2の閾値発
生回路6からそれぞれ第1の閾値信号15a、第2の閾
値信号15bを入力され、前記識別信号12に基づいて
前記第1゜第2の閾値信号15a、15bから最適な閾
値信号を選択して選択閾値信号16として比較回路9に
出力する。比較回路9はこの選択閾値信号16と前記遅
延回路10を介した当該画素の画像信号17とを比較し
、当該画素の画像信号レベルが選択閾値信号16より大
きいとき「1」の出力画像信号18を出力し、当該画素
の画像信号レベルが選択閾値信@16以下のとき「0」
の出力画像信号18を出力する。
The selection circuit 8 receives a first threshold signal 15a and a second threshold signal 15b from the first threshold generation circuit 5 and the second threshold generation circuit 6, respectively, and selects the first threshold value based on the identification signal 12. The optimum threshold signal is selected from the second threshold signals 15a and 15b and outputted to the comparison circuit 9 as the selected threshold signal 16. The comparison circuit 9 compares this selection threshold signal 16 with the image signal 17 of the pixel through the delay circuit 10, and outputs an output image signal 18 of "1" when the image signal level of the pixel is higher than the selection threshold signal 16. is output, and “0” when the image signal level of the pixel is less than the selection threshold value @16.
An output image signal 18 is output.

次に、識別回路2を詳細に説明する前に、まず識別回路
2において参照するウィンドウ領域について第5図を参
照して説明する。第5図において、斜線で示す画素を識
別するのに破線で示す4×4の領域を参照する。更に破
線で示した4×4の領域を平滑化およびエツジ強調する
ために同図で示す8×の画素を参照する。
Next, before explaining the identification circuit 2 in detail, the window area referred to in the identification circuit 2 will first be explained with reference to FIG. In FIG. 5, the 4×4 area shown by broken lines is referred to to identify the pixels shown by diagonal lines. Further, in order to smooth the 4×4 area indicated by the broken line and emphasize edges, reference is made to the 8× pixels shown in the figure.

第2図は第1図の画像処理装置の詳細な回路ブロック図
である。同図において、識別回路2は画像信号が文字部
であるかまたは非文字部、すなわち写真部であるかを識
別する回路であり、ラインバッファ1からの画像信号は
平滑化回路40に供給され、画像のノイズ成分が除去さ
れる。平滑化回路40はノイズ成分を除去して第6図(
a )に示すように平滑化した画像信号をエツジ検出回
路51およびエツジ強調回路41に供給する。エツジ検
出回路51はラプラシアンフィルタを使用しており、平
滑化回路40から供給される平滑化画像信号のエツジ部
を抽出し、第6図(b )に示すようなエツジ画像信号
を出力する。このエツジ画像信号はエツジ位置検出回路
52およびエツジ強調回路41に供給される。エツジ位
置検出回路52はエツジ画像信号からエツジ位置を検出
し、エツジ位置信号をエツジ間距離算出回路54および
減算回路43に供給する。このエツジ間距離算出回路5
4はエツジ位置検出回路52からのエツジ位置信号に基
づいてエツジ間距離信号S (L)を出力する。このエ
ツジ間距離信号S(・L)は第6図(b)に示すエツジ
間距離しに相当し、除算回路44に供給される。
FIG. 2 is a detailed circuit block diagram of the image processing apparatus shown in FIG. 1. In the figure, an identification circuit 2 is a circuit that identifies whether an image signal is a text portion or a non-text portion, that is, a photo portion, and the image signal from the line buffer 1 is supplied to a smoothing circuit 40. Noise components of the image are removed. The smoothing circuit 40 removes noise components and performs the smoothing circuit 40 as shown in FIG.
As shown in a), the smoothed image signal is supplied to an edge detection circuit 51 and an edge emphasis circuit 41. The edge detection circuit 51 uses a Laplacian filter, extracts the edge portion of the smoothed image signal supplied from the smoothing circuit 40, and outputs an edge image signal as shown in FIG. 6(b). This edge image signal is supplied to an edge position detection circuit 52 and an edge emphasis circuit 41. The edge position detection circuit 52 detects the edge position from the edge image signal and supplies the edge position signal to the inter-edge distance calculation circuit 54 and the subtraction circuit 43. This inter-edge distance calculation circuit 5
4 outputs an inter-edge distance signal S (L) based on the edge position signal from the edge position detection circuit 52. This inter-edge distance signal S(·L) corresponds to the inter-edge distance signal shown in FIG. 6(b), and is supplied to the division circuit 44.

一方、エツジ強調回路41は平滑化回路40から供給さ
れた平滑化画像信号およびエツジ検出回路51から供給
されたエツジ画像信号に基づいてエツジ強調画像信号を
出力し、減算回路43に供給する。減算回路43は前記
エツジ位置検出回路52から供給されるエツジ位置信号
に基づきエツジ強調回路41のエツジ強調画像信号から
エツジ位置における画像情報の濃度差ΔDを算出し、こ
の濃度差ΔDを除算回路44に供給する。
On the other hand, the edge emphasis circuit 41 outputs an edge emphasis image signal based on the smoothed image signal supplied from the smoothing circuit 40 and the edge image signal supplied from the edge detection circuit 51, and supplies it to the subtraction circuit 43. The subtraction circuit 43 calculates the density difference ΔD of image information at the edge position from the edge emphasis image signal of the edge emphasis circuit 41 based on the edge position signal supplied from the edge position detection circuit 52, and divides this density difference ΔD into the division circuit 44. supply to.

除埠回路44は、次式に示すようにエツジ間距離算出回
路54からのエツジ間距離信@5(L)で減算回路43
からの濃度差△Dを割って、規格化した画像特徴同信号
F1すなわち傾斜値を算出する。
The barrier removal circuit 44 uses the edge distance signal @5(L) from the edge distance calculation circuit 54 as shown in the following equation to subtract circuit 43.
A normalized image feature signal F1, that is, a slope value, is calculated by dividing the density difference ΔD from .

F=△D/L・・・・・・(1) この除算回路44からの画像特徴同信号Fは、比較回路
45に供給され、図示しないレジスタ等に予め格納され
ている判定閾値Thと比較される。
F=△D/L (1) The image feature signal F from the division circuit 44 is supplied to a comparison circuit 45, and is compared with a determination threshold Th stored in advance in a register, etc., not shown. be done.

この比較の結果、比較回路45は次に示すように画像特
徴同信号Fが判定同値Thよりも大きいときには画像信
号が文字画素であると判定して「1」レベルの識別信号
12を出力し、また画像特徴同信号Fが判定閾値Th以
下のときには非文字画素、すなわち写真画素であると判
定してrOJレベルの識別信号12を出力する。
As a result of this comparison, the comparison circuit 45 determines that the image signal is a character pixel and outputs a "1" level identification signal 12 when the image feature equality signal F is larger than the determination equality value Th as shown below. Further, when the image characteristic signal F is less than the determination threshold Th, it is determined that the pixel is a non-character pixel, that is, a photographic pixel, and an identification signal 12 of the rOJ level is output.

F>Th   文字画素 F≦Th   非文字画素 次に、以上のように識別回路2によって文字画素である
かまたは写真画素であると識別された各画素の二値化処
理について説明する。
F>Th Character pixel F≦Th Non-character pixel Next, the binarization processing of each pixel identified as a character pixel or a photographic pixel by the identification circuit 2 as described above will be described.

ラインバッファ1から供給される画像信号は、最大値最
小値検出回路42に供給されているが、該最大値最小値
検出回路42は当該ウィンドウ4X4=16画素内の画
像濃度の中から最大画像濃度DIlla×および最小画
像濃度Q winを検出し、この最大画像濃度D ma
xおよび最小画像濃度[] 1nは動的閾値検出回路3
3に供給される。動的閾値算出回路33は最大値最小値
検出回路42で検出した当該ウィンドウ内の最大画素濃
度DIIa×および最小画像濃度D minから次式に
従って二値化閾値Bhを算出する。
The image signal supplied from the line buffer 1 is supplied to the maximum value/minimum value detection circuit 42, and the maximum/minimum value detection circuit 42 selects the maximum image density from among the image densities within the window 4X4=16 pixels. Detect DIlla× and minimum image density Q win, and set this maximum image density D ma
x and minimum image density [ ] 1n is dynamic threshold detection circuit 3
3. The dynamic threshold calculation circuit 33 calculates the binarization threshold Bh from the maximum pixel density DIIa× in the window detected by the maximum value minimum value detection circuit 42 and the minimum image density D min according to the following equation.

Bh = (Diax +Dwin )/2− (2)
この二値化閾値Bhは第1の閾値発生回路5に供給され
、第1の閾値発生回路5はこの二値閾値Bhに基づいて
第1の閾値信号15aを選択回路8に出力する。第2の
閾値発生回路6は、非文字部、すなわち写真部の二値化
閾値を発生するものであり、第7図に示すデイザ閾値に
基づいて第2の閾値信号15bを選択回路8に出力する
Bh = (Diax + Dwin)/2- (2)
This binary threshold Bh is supplied to the first threshold generation circuit 5, and the first threshold generation circuit 5 outputs the first threshold signal 15a to the selection circuit 8 based on this binary threshold Bh. The second threshold generation circuit 6 generates a binarization threshold for a non-text portion, that is, a photographic portion, and outputs a second threshold signal 15b to the selection circuit 8 based on the dither threshold shown in FIG. do.

選択回路8は、識別信号12を制御信号として前記第1
および第2の閾値信号15a、15bから次に示す条件
下で選択閾値信号16を決定する。
The selection circuit 8 uses the identification signal 12 as a control signal to select the first
A selection threshold signal 16 is determined from the second threshold signals 15a and 15b under the following conditions.

11      1及14(i116 1、識別信号12=”1” 第1の閾値信号15の時(
文字と識別時)   a(二値化閾値ah)2、識別信
号12=“On 第2の閾値信号15の時(写真と識別
時)   b(写真用閾値)選択回路8は、以上のよう
に決定される選択閾値信号16と遅延回路10を介して
供給される当該画素の画像信号17とを比較し、出力画
像信号18を出力し、これによりかすれ文字等の低いコ
ントラスト文字部等を含む文字の解像度を保存すると同
時に、写真部の階調度を満足した画像処理を行なうこと
ができるようになっている。
11 1 and 14 (i116 1, identification signal 12="1" When first threshold signal 15 (
a (binarization threshold ah) 2, identification signal 12 = "On", second threshold signal 15 (when distinguishing from a photograph) b (threshold for photograph) selection circuit 8 is configured as described above. The determined selection threshold signal 16 is compared with the image signal 17 of the pixel supplied via the delay circuit 10, and an output image signal 18 is output. It is now possible to perform image processing that satisfies the gradation level of the photographic area while preserving the resolution of the image.

次に、識別回路2の更に詳細な回路について説明する。Next, a more detailed circuit of the identification circuit 2 will be explained.

第3図は識別回路2の詳細な回路図であり、第4図はそ
のタイミング図である。第3図において平滑回路201
〜206は前記平滑化回路40を構成し、エツジ検出回
路211−214は前記エツジ検出回路51を構成する
。第4図において、CLKは読取りクロツタであり、D
INはラインバッファ1から平滑回路201〜206へ
画像データが入力されるタイミングを示す。また、ここ
で行なう平滑化は基準となる画素を中心として3×3の
ブロック内の画素を参照して行なう。
FIG. 3 is a detailed circuit diagram of the identification circuit 2, and FIG. 4 is its timing diagram. In FIG. 3, the smoothing circuit 201
206 constitute the smoothing circuit 40, and edge detection circuits 211-214 constitute the edge detection circuit 51. In FIG. 4, CLK is a reading block and D
IN indicates the timing at which image data is input from the line buffer 1 to the smoothing circuits 201 to 206. Further, the smoothing performed here is performed with reference to pixels in a 3×3 block centered on the reference pixel.

まず、第1クロックLJ−3)は第5図に示す(J−3
)列の(I−3)行から(1+4)行の8画素が平滑回
路201〜206に供給されるタイミングである。平滑
回路201には(1−3)行から(1−1)行の3画素
を入力する。平滑回路202には(1−2)行から(1
)行の3画素を入力する。他の平滑回路についても同様
に3画素ずつ入力する。続いて、第2クロツク、第3ク
ロツクで第5図に示す(J−2)、Ll−1)列の8画
素が入力すると、(J−2)行の(1−2)行から(1
+3)行について平滑化が行なわれる。
First, the first clock LJ-3) is shown in FIG.
This is the timing at which eight pixels from row (I-3) to row (1+4) of column ) are supplied to the smoothing circuits 201 to 206. Three pixels from rows (1-3) to (1-1) are input to the smoothing circuit 201. The smoothing circuit 202 has lines from (1-2) to (1
) input the 3 pixels of the row. Similarly, three pixels are input for each of the other smoothing circuits. Subsequently, when the 8 pixels in columns (J-2) and Ll-1) shown in FIG.
+3) Smoothing is performed on the rows.

すなわち、第3クロツクで平滑回路201ではLl−2
>列の(1−2)行の画素の平滑化が行なわれ、平滑回
路202では(J−2)列の(I−1)行の画素の平滑
化が行なわれる。平滑回路203〜206についても同
様である。以下同様に、第4クロツクで(J)列が入力
すると、(J−1)列の(1−2)行から(I+3)行
の平滑化が行なわれる。
That is, at the third clock, the smoothing circuit 201 outputs Ll-2.
The pixels in the (1-2) row of the column (1-2) are smoothed, and the smoothing circuit 202 smoothes the pixels in the (I-1) row of the (J-2) column. The same applies to the smoothing circuits 203 to 206. Similarly, when column (J) is input at the fourth clock, smoothing is performed for rows (1-2) to (I+3) of column (J-1).

SLIMは平滑回路201〜206で平滑化された画像
データがエツジ検出回路211〜214に供給されるタ
イミングである。ここでは、基準となる画素を中心とし
て3×3のブロック内の画素を参照してエツジ検出が行
なわれる。第4クロツクの(J−2)は第5図に示すL
J−2)列の(1−2)行から(1+3)行の平滑化さ
れた6画素の画像データがエツジ検出回路211〜21
4に供給されるタイミングである。エツジ検出回路21
1には(J−2)列の(I−2)行から(1)行の平滑
化された3画素の画像データを入力する。エツジ検出回
路212にはLl−2)列の(1−1>行から(I+1
)行の3画素の画像データを供給する。他のエツジ検出
回路についても同様に3画素ずつ入力する。続いて、第
5クロツク、第1クロツクで第5図に示す(J−1)列
、(J)列の6画素が入力すると、(’J−1)列の(
1−1>行から(I+2)行についてエツジ検出を行な
う。すなわち、エツジ検出回路211では(J−1)例
、(T−1)行の画素についてエツジ検出を行なう。エ
ツジ検出回路212ではLJ−1)列、(I)行の画素
についてエツジ検出を行なう。他のエツジ検出回路につ
いても同様である。以下同様に、第7クロツクで(J+
1>列が入力すると、LJ)列の(1−1)行から(1
+2)行のエツジ検出を行なう。
SLIM is the timing at which the image data smoothed by the smoothing circuits 201 to 206 is supplied to the edge detection circuits 211 to 214. Here, edge detection is performed with reference to pixels in a 3×3 block centered on a reference pixel. (J-2) of the fourth clock is L shown in Figure 5.
The smoothed 6-pixel image data from rows (1-2) to rows (1+3) of column J-2) is sent to edge detection circuits 211 to 21.
This is the timing when the signal is supplied to 4. Edge detection circuit 21
1, the smoothed three-pixel image data from row (I-2) to row (1) of column (J-2) is input. The edge detection circuit 212 has Ll-2) column (1-1> row to (I+1)
) provides image data for three pixels in a row. Similarly, three pixels are input to each of the other edge detection circuits. Subsequently, when the 6 pixels in columns (J-1) and (J) shown in FIG. 5 are input at the fifth and first clocks, ('J-1) column ('
Edge detection is performed for the (I+2) rows from the 1-1> row. That is, the edge detection circuit 211 performs edge detection for the pixels in the (T-1) row, for example (J-1). The edge detection circuit 212 performs edge detection for pixels in column LJ-1) and row (I). The same applies to other edge detection circuits. Similarly, at the 7th clock (J+
When 1> column is input, from row (1-1) of column LJ) to (1
+2) Detect row edges.

EDGlはエツジ検出回路51でエツジ検出された画像
データがエツジ位置検出回路52およびエツジ強調回路
41に供給されるタイミングである。第7クロツクのL
l−1>は第5図に示す(J−1)列、(1−1)行か
ら(1+2)行のエツジ検出された4画素の画像データ
がエツジ位置検出回路52およびエツジ強調回路41に
供給されるタイミングである。ここでエツジ強調回路4
1は第5図に示す(J−1)列の4画素について前記エ
ツジ検出回路51でエツジ検出された画像データから画
像のエツジ部の位置を求める。次に第8クロツクで(J
)列、(1−1>行から(I+2)行の4画素のデータ
が入力すると、(J)列の4画素についてエツジ部の位
置を検出する。第9クロツク以降も同様である。一方、
エツジ強調回路41では、第7クロツクで(J−1>列
、(1−1)行から(1+2)行の4画素のエツジ強調
を原画像からエツジ検出画像を減算することによって行
なう。次に、第8クロツクで(J)列、(r−1)行か
ら(1+2>行の4画素のデータが入力すると、LJ)
列の4画素についてエツジ強調を行なう。第9クロツク
以降も同様にしてエツジ強調を行なう。
EDGl is the timing at which image data whose edges have been detected by the edge detection circuit 51 is supplied to the edge position detection circuit 52 and the edge emphasis circuit 41. L of the 7th clock
1-1> is the image data of the four edge-detected pixels in column (J-1) and rows (1-1) to (1+2) shown in FIG. This is the timing of the supply. Here, edge emphasis circuit 4
1 determines the position of the edge portion of the image from the image data whose edges have been detected by the edge detection circuit 51 for the four pixels in column (J-1) shown in FIG. Then at the 8th clock (J
) column, when the data of 4 pixels from row (1-1> to row (I+2)) is input, the position of the edge part is detected for the 4 pixels of column (J).The same goes for the 9th clock onward.On the other hand,
In the edge enhancement circuit 41, at the seventh clock (J-1> column, edge enhancement of four pixels from row (1-1) to row (1+2) is performed by subtracting the edge detection image from the original image.Next, , when 4 pixel data from column (J) and row (r-1) to (1+2> rows) is input at the 8th clock, LJ)
Edge enhancement is performed for four pixels in a column. Edge enhancement is performed in the same manner from the 9th clock onwards.

EDG2はエツジ位置検出回路52で検出されたエツジ
位置信号およびエツジ強調回路41でエツジ強調された
画像データがエツジ間距離算出回路54および減算回路
43に供給されるタイミングである。第11クロツクの
(J)では第5図に示す(J−1)列の(1−1)行か
ら(J+2)列の(1+2>行の4×4のウィンドウ内
、すなわち第5図の破線内のエツジ位置信号およびエツ
ジ強調画像データが減算回路43に供給される。
EDG2 is the timing at which the edge position signal detected by the edge position detection circuit 52 and the image data edge emphasized by the edge emphasis circuit 41 are supplied to the inter-edge distance calculation circuit 54 and the subtraction circuit 43. At (J) of the 11th clock, it is within the 4×4 window from the (1-1) row of the (J-1) column to the (1+2> row of the (J+2) column shown in FIG. 5, that is, the broken line in FIG. 5. The edge position signal and edge-enhanced image data within are supplied to a subtraction circuit 43.

第12クロツクでは(J)列の(I−1)行から(J+
3)列の(T+2>行の4×4のウィンドウ内のエツジ
位置信号およびエツジ強調画像データが減算回路43に
供給される。第13クロツク以降も同様である。
At the 12th clock, from (I-1) row of (J) column to (J+
3) The edge position signal and edge-enhanced image data within the 4×4 window of column (T+2>row) are supplied to the subtraction circuit 43. The same applies to the 13th clock and subsequent clocks.

DIVはエツジ間距離算出回路54で算出されたエツジ
間距離りおよび減算回路43で検出された濃度差ΔDが
除算回路44に供給されるタイミングである。第12ク
ロツクの(J)で第5図に示すLJ)列(1)行、すな
わち図の斜線部分の画像特徴量信号Fを算出する。また
、FTRは除算回路44からの除算結果が比較回路45
に供給されるタイミングである。
DIV is the timing at which the inter-edge distance calculated by the inter-edge distance calculation circuit 54 and the density difference ΔD detected by the subtraction circuit 43 are supplied to the division circuit 44. At (J) of the 12th clock, the image feature amount signal F of column (1) of column LJ shown in FIG. 5, that is, the shaded area in the figure is calculated. Further, in the FTR, the division result from the division circuit 44 is sent to the comparison circuit 45.
This is the timing at which the signal is supplied.

なお、上記実施例においては、参照画像範囲を4×4の
所定範囲の画像領域として説明しているが、本発明はこ
れに限定されるものでなく、任意の範囲の画像領域を取
ることができる。更に、本実施例では、1画素率位での
識別の例を示したが、(NXN)のブロック単位での識
別を行なってもよい(但し、N≧2なる正の整数)。ま
た、動的閾値処理における二値化閾値Bhとしては前述
した閾値に限定されるものでなく、任意の値、例えば所
定範囲内の平均画像濃度[)aを使用することもできる
。更に、各々の値に対して正または負の許容値αを付加
し、例えば二値化閾値ahをah+αにしてもよい。デ
イザ閾値に対しても、ドツト分散型以外の同値配置、例
えばドツト集中型閾値配置に自由に設定してもよい。
In the above embodiment, the reference image range is described as a 4×4 predetermined image area, but the present invention is not limited to this, and it is possible to take an image area of any arbitrary range. can. Further, in this embodiment, an example of identification at a rate of one pixel has been shown, but identification may be performed in units of (NXN) blocks (provided that N≧2 is a positive integer). Further, the binarization threshold Bh in the dynamic threshold processing is not limited to the above-mentioned threshold, but any arbitrary value, for example, the average image density [)a within a predetermined range, can also be used. Furthermore, a positive or negative tolerance value α may be added to each value, for example, the binarization threshold ah may be set to ah+α. The dither threshold value may also be freely set to an equivalent arrangement other than the dot-dispersed type, for example, a dot-concentrated threshold value arrangement.

更に、本実施例では、画像情報から文字画像および写真
画像、すなわち二値画像および非二値画像を識別するた
めの特@量の値および判定閾値として読取り手段で読み
取った画像信号、すなわち画像情報の反射率に対応した
量を使用しているが、この量を画像濃度、すなわち反射
率の逆数の対数に変換した値、または人間の視覚特性を
考慮した変換信号をもとに識別してもよい。
Furthermore, in this embodiment, the image signal read by the reading means, that is, the image information, is used as a special quantity value and a determination threshold for identifying character images and photographic images, that is, binary images and non-binary images, from image information. However, it is also possible to identify the amount based on the image density, that is, the logarithm of the reciprocal of the reflectance, or a converted signal that takes into account human visual characteristics. good.

[発明の効果] 以上説明したように、本発明によれば、画像濃度に関連
する情報の変化点の極大値および極小値間の差および該
極大値および極小値を発生する変化点間の距離を算出し
、この差および距離において一方の値に対する他方の値
の傾斜値を算出し、この傾斜値を基準値と比較して画像
情報が二値画像であるか非二値画像であるかを識別して
いるので、従来写真領域と判定されて解像度が著しく損
われた例えば鉛筆書きのようなかすれ文字等の低コント
ラスト文字部でも、その解像度を保存しながら適確な画
像処理を行なうことができ、画質の向上および各種画像
処理における処理効率の向上を図ることができる。
[Effects of the Invention] As explained above, according to the present invention, the difference between the maximum value and the minimum value of the change point of information related to image density and the distance between the change points that generate the maximum value and the minimum value , calculate the slope value of one value with respect to the other value in this difference and distance, and compare this slope value with a reference value to determine whether the image information is a binary image or a non-binary image. Because this technology identifies low-contrast characters, such as blurred pencil writing, which would otherwise be judged as a photographic area and have significantly lost resolution, it is now possible to perform appropriate image processing while preserving the resolution. It is possible to improve image quality and processing efficiency in various image processing.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例に係る画像処理装置の構成図
、第2図は第1図の画像処理装置の詳細構成図、第3図
は第1図の画像処理装置に使用される識別回路の詳細な
ブロック図;第4図は第3図の回路のタイミング図、第
5図は前記識別回路で参照するウィンドウ領域を示す図
、第6図は原画像に対するエツジ位置検出画像に関する
図、第7図はデイザ閾値の一例を示す図、第8図は各画
像領域を示す図、第9図は各画像領域における画像信号
レベルを示す模式図である。 2・・・識別回路 5・・・第1の閾値発生回路 6・・・第2の同値発生回路 8・・・選択回路 9・・・比較回路 40・・・平滑化回路 41・・・エツジ強調回路 43・・・減算回路 44・・・除算回路 45・・・比較回路 51・・・エツジ検出回路 52・・・エツジ位置検出回路 54・・・エツジ間距離算出回路
FIG. 1 is a block diagram of an image processing apparatus according to an embodiment of the present invention, FIG. 2 is a detailed block diagram of the image processing apparatus of FIG. 1, and FIG. 3 is a block diagram of an image processing apparatus used in the image processing apparatus of FIG. A detailed block diagram of the identification circuit; FIG. 4 is a timing diagram of the circuit in FIG. 3, FIG. 5 is a diagram showing a window area referred to by the identification circuit, and FIG. 6 is a diagram regarding an edge position detection image for an original image. , FIG. 7 is a diagram showing an example of the dither threshold value, FIG. 8 is a diagram showing each image area, and FIG. 9 is a schematic diagram showing the image signal level in each image area. 2...Identification circuit 5...First threshold generation circuit 6...Second equivalent value generation circuit 8...Selection circuit 9...Comparison circuit 40...Smoothing circuit 41...Edge Emphasis circuit 43... Subtraction circuit 44... Division circuit 45... Comparison circuit 51... Edge detection circuit 52... Edge position detection circuit 54... Edge distance calculation circuit

Claims (3)

【特許請求の範囲】[Claims] (1)画像情報の画像濃度に関連する情報の変化点の極
大値および極小値を検出し、前記極大値および極小値の
差を算出する差算出手段と、この差算出手段で算出対象
となる前記画像情報変化の極大値および極小値を発生す
る変化点間の画像上の距離を算出する距離算出手段と、
前記差および前記距離において一方の値に対する他方の
値の傾斜値を算出する傾斜値算出手段と、この傾斜値算
出手段で算出した前記傾斜値を所定の基準値と比較し、
前記画像情報が二値画像であるか非二値画像であるかを
識別する比較識別手段とを有することを特徴とする画像
処理装置。
(1) A difference calculation means that detects the maximum value and minimum value of the change point of information related to the image density of image information and calculates the difference between the maximum value and the minimum value; distance calculating means for calculating the distance on the image between the change points that generate the local maximum value and the local minimum value of the image information change;
a slope value calculation means for calculating a slope value of one value with respect to the other value in the difference and the distance; and comparing the slope value calculated by the slope value calculation means with a predetermined reference value;
An image processing apparatus comprising: a comparison identification means for identifying whether the image information is a binary image or a non-binary image.
(2)前記差算出手段は、所定範囲内の画像情報を平滑
化する平滑化手段と、該平滑化手段からの平滑化画像信
号をエッジ強調するエッジ強調手段と、該エッジ強調手
段において所定範囲内で抽出されたエッジ部の画像信号
であるラプラシアン値が極大値および極小値を取る画素
に対応するエッジ強調化画像信号の最大濃度差を求める
手段とを有することを特徴とする特許請求の範囲第1項
記載の画像処理装置。
(2) The difference calculating means includes a smoothing means for smoothing image information within a predetermined range, an edge emphasizing means for emphasizing edges of the smoothed image signal from the smoothing means, and a predetermined range in the edge emphasizing means. and means for determining the maximum density difference of edge-enhanced image signals corresponding to pixels whose Laplacian value, which is an image signal of an edge portion extracted in the image signal, takes a maximum value and a minimum value. The image processing device according to item 1.
(3)前記距離算出手段は、所定範囲内の画像情報を平
滑化する平滑化手段と、該平滑化手段からの平滑化画像
信号をエッジ強調するエッジ強調手段と、該エッジ強調
手段において所定範囲内で抽出されるエッジ部の画像信
号であるラプラシアン値が極大値および極小値を取る画
素間の距離を求める手段とを有することを特徴とする特
許請求の範囲第1項記載の画像処理装置。
(3) The distance calculating means includes a smoothing means for smoothing image information within a predetermined range, an edge emphasizing means for emphasizing edges of the smoothed image signal from the smoothing means, and a predetermined range in the edge emphasizing means. 2. The image processing apparatus according to claim 1, further comprising means for determining a distance between pixels at which a Laplacian value, which is an image signal of an edge portion extracted in the image signal, takes a maximum value and a minimum value.
JP62325194A 1987-11-30 1987-12-24 Picture processing unit Pending JPH01168164A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP62325194A JPH01168164A (en) 1987-12-24 1987-12-24 Picture processing unit
US07/277,605 US5001767A (en) 1987-11-30 1988-11-29 Image processing device
DE3856034T DE3856034T2 (en) 1987-11-30 1988-11-30 Image processing device
KR1019880015882A KR920005868B1 (en) 1987-11-30 1988-11-30 Picture processing device
EP88119973A EP0318950B1 (en) 1987-11-30 1988-11-30 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62325194A JPH01168164A (en) 1987-12-24 1987-12-24 Picture processing unit

Publications (1)

Publication Number Publication Date
JPH01168164A true JPH01168164A (en) 1989-07-03

Family

ID=18174065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62325194A Pending JPH01168164A (en) 1987-11-30 1987-12-24 Picture processing unit

Country Status (1)

Country Link
JP (1) JPH01168164A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03208680A (en) * 1990-01-12 1991-09-11 Canon Inc Image forming apparatus
US6848209B2 (en) 2000-12-08 2005-02-01 Fuji Kogyo Co., Ltd. Reel seat for fishing rod and fishing rod incorporating the reel seat

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03208680A (en) * 1990-01-12 1991-09-11 Canon Inc Image forming apparatus
US6848209B2 (en) 2000-12-08 2005-02-01 Fuji Kogyo Co., Ltd. Reel seat for fishing rod and fishing rod incorporating the reel seat

Similar Documents

Publication Publication Date Title
JP2702928B2 (en) Image input device
US4941190A (en) Method and system for enhancement of a digitized image
JP3078844B2 (en) How to separate foreground information in a document from background information
KR920005868B1 (en) Picture processing device
KR890005006B1 (en) Image processing system & method
US4817174A (en) Image processing apparatus
JPH04356869A (en) Image processor
US7031543B2 (en) Grayscale image de-speckle algorithm
JPH02100575A (en) Picture processor
JPH03131173A (en) Picture processing system
JPH07262374A (en) Image processor
US20030031376A1 (en) Image enhancement method
JPH01168164A (en) Picture processing unit
US6014465A (en) Method for transforming a gray-level image into a black-and-white image
JPS63194477A (en) Background picture extracting method
JPH01169581A (en) Image processor
JPH01143564A (en) Picture processing unit
JP2581049B2 (en) Image area determination device
JPH01296854A (en) Picture processor
JP2853141B2 (en) Image area identification device
JPH02113669A (en) Picture processor
JP3161715B2 (en) Character area judgment device
JPH0554190A (en) Picture processor
JPH0334773A (en) Picture processing unit
JPH01175464A (en) Image processor