JP2002158872A - Image processing method, image processor and recording medium - Google Patents

Image processing method, image processor and recording medium

Info

Publication number
JP2002158872A
JP2002158872A JP2000352052A JP2000352052A JP2002158872A JP 2002158872 A JP2002158872 A JP 2002158872A JP 2000352052 A JP2000352052 A JP 2000352052A JP 2000352052 A JP2000352052 A JP 2000352052A JP 2002158872 A JP2002158872 A JP 2002158872A
Authority
JP
Japan
Prior art keywords
image
amount
frequency component
processing
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000352052A
Other languages
Japanese (ja)
Inventor
Koji Kobayashi
幸二 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2000352052A priority Critical patent/JP2002158872A/en
Publication of JP2002158872A publication Critical patent/JP2002158872A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To enhance the sharpness of a character on a white background, a character on dots and an image on a print sheet while suppressing moire, and to enhance granularity. SOLUTION: An image region separating section 4 distinguishes a character, a dot and others in an image signal read in from a scanner section 1. An edge amount calculating section 3 calculates the extent of edge of an input image as an edge amount and delivers a corresponding edge amount to an image type subjected to image region separation. An edge emphasizing section 2 emphasizes the edge depending on the edge amount of each image type and delivers an emphasized image to a printer section 5.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、デジタル画像信号
から特性の異なる複数の特徴量を算出し、該特徴量に応
じた適応処理を行う画像処理方法、画像処理装置および
画像処理プログラムを記録した記録媒体に関し、プリン
タやデジタル複写機、ファクシミリなどに好適な技術で
ある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention records an image processing method, an image processing apparatus, and an image processing program for calculating a plurality of feature values having different characteristics from a digital image signal and performing adaptive processing according to the feature values. This is a technique suitable for a recording medium, such as a printer, a digital copying machine, and a facsimile.

【0002】[0002]

【従来の技術】デジタル複写機等のスキャナで原稿を読
み取り、プリンタで原稿を出力する画像処理装置で取り
扱われる原稿は、文字原稿、銀塩写真(連続階調)原
稿、網点印刷原稿の3種類に大別される。また、これら
3種類の原稿が同一原稿内に混在する原稿(以下、混在
原稿)も上記した原稿と同様に取り扱われている。
2. Description of the Related Art An image processing apparatus that reads an original with a scanner such as a digital copying machine and outputs the original with a printer can handle three types of originals: a character original, a silver halide photograph (continuous tone) original, and a halftone print original. Broadly classified into types. Also, a document in which these three types of documents are mixed in the same document (hereinafter, mixed document) is handled in the same manner as the above-described document.

【0003】混在原稿は、混在している原稿の種類に要
求される画質評価が異なるため、一意に同様な画像処理
を行った場合には、全ての原稿種の画質を満足させるこ
とは非常に難しい。
[0003] Since mixed originals have different required image quality evaluations depending on the types of mixed originals, it is extremely difficult to satisfy the image quality of all types of originals if uniquely similar image processing is performed. difficult.

【0004】これをフィルタ処理を例に説明すると、デ
ジタル複写機においては、スキャナによるMTFの劣化
に対処するために、エッジ強調処理を行ったり、網点の
モアレを除去するために平滑化処理などの所謂フィルタ
処理が行われる。また、文字の画質を重視してエッジ強
調を強くすれば網点部でモアレが生じたり、網点部でモ
アレを抑制するように平滑化処理を強くすれば、文字の
ボケ、銀塩写真のシャープネス不足を招いたりする問題
が生じる。
[0004] This will be described taking filter processing as an example. In a digital copying machine, edge enhancement processing is performed in order to cope with MTF deterioration due to a scanner, and smoothing processing is performed in order to remove moire of halftone dots. Is performed. Also, if the edge emphasis is emphasized with emphasis on the character image quality, moiré may occur at the halftone dot portion, and if the smoothing processing is enhanced to suppress the moire at the halftone dot portion, the blur of the character and the silver halide photograph may be reduced. There is a problem that the sharpness is insufficient.

【0005】こうした問題を解決する手法が従来から種
々提案されている。例えば、特公平6−5885号公報
に記載された装置では、文字、絵柄の混在する原稿の局
所的な情報によってエッジ量算出を行ない、網点にレス
ポンスさせずに、文字エッジにレスポンスするようなエ
ッジ検出フィルタを用い、そのエッジ検出出力により平
滑化フィルタとエッジ強調フィルタの出力を混合してい
る。その結果、網点部には平滑化フィルタが施され、モ
アレを抑制している。
[0005] Various methods have been proposed for solving such problems. For example, in an apparatus described in Japanese Patent Publication No. 6-5885, an edge amount is calculated based on local information of a document in which characters and pictures are mixed, and a response is made to a character edge without responding to a halftone dot. The output of the smoothing filter and the output of the edge enhancement filter are mixed by the edge detection output using the edge detection filter. As a result, a smoothing filter is applied to the halftone dots to suppress moire.

【0006】上記した技術では、エッジ検出のフィルタ
サイズを網点画像の高調波周波数よりも低周波にするこ
とによって、網点画像に対して高いエッジ量を算出しな
いように構成している。この場合、低線数の網点につい
ても同様な処理を行おうとすると、非常に大きなサイズ
のエッジ検出用フィルタが必要になるため、コストアッ
プに繋がるハード量の増大を招くとともに、サイズの小
さな文字にレスポンスできなくなる(つまり、小サイズ
の文字のエッジ量が低くなり、エッジ強調されなくな
る)という問題がある。
In the above technique, the filter size for edge detection is set lower than the harmonic frequency of the halftone dot image so that a high edge amount is not calculated for the halftone dot image. In this case, if the same processing is to be performed on a halftone dot having a low screen ruling, an edge detection filter having a very large size is required. (That is, the edge amount of a small-sized character is reduced and the edge is not emphasized).

【0007】他の例として、特開平8−181865号
公報に記載された装置では、黒文字領域と網点領域をそ
れぞれ検出する手段を設け、各領域の検出結果に応じて
平滑化フィルタの適用の有無、エッジ強調の度合いを切
り替えている。
As another example, the apparatus described in Japanese Patent Application Laid-Open No. 8-181865 is provided with means for detecting a black character area and a halftone dot area, respectively, and applies a smoothing filter in accordance with the detection result of each area. The presence / absence and the degree of edge enhancement are switched.

【0008】一般的に、局所的な画像の特徴を基に画像
を識別する像域分離処理においては、誤判定は避けられ
ず、上記公報のように像域によって2値的に処理を切り
替えるような場合、例えば網点上の文字(通常網点と判
定)を文字部と誤判定した場合、そのフィルタ特性の違
いから、特に、平滑化処理の適用の有無が出力画像に与
える影響が極めて大きいことから、文字と判定された部
分のみが浮き上がるような違和感のある出力画像とな
り、著しい画質劣化を生じる。
In general, in image area separation processing for identifying an image based on the characteristics of a local image, erroneous determination is inevitable, and the processing is switched in a binary manner depending on the image area as described in the above publication. In such a case, for example, when a character on a halftone dot (determined as a normal halftone dot) is erroneously determined to be a character part, the influence of the application of the smoothing process on the output image is extremely large due to the difference in filter characteristics. As a result, an output image having a sense of incongruity in which only the portion determined to be a character is raised, resulting in remarkable image quality deterioration.

【0009】上記したような2値的な像域分離処理の問
題は、文字と判定された領域と絵柄と判定された領域の
フィルタ強度の相違を少なくすることにより解決するこ
とができる。
The problem of the binary image area separation processing as described above can be solved by reducing the difference in filter strength between the area determined as a character and the area determined as a picture.

【0010】[0010]

【発明が解決しようとする課題】しかし、デジタル複写
機等においては、通常、網点上の文字を含む網点領域に
対しては強い平滑化処理を行い、エッジ強調を行う場合
であっても弱いエッジ強調しか施さないために、白地上
の文字と比較して網点上の文字がボケる傾向にあった。
そこで、網点上の文字のボケを解消するために、網点領
域に対して強いエッジ強調を行うとモアレの発生という
問題が生じる。このように、モアレの抑制と網点上の文
字のボケ解消との両立を図ることが非常に難しい。
However, in a digital copying machine or the like, usually, a strong smoothing process is performed on a halftone dot region including a character on a halftone dot to perform edge emphasis. Since only weak edge enhancement is performed, characters on halftone dots tend to be blurred as compared with characters on a white background.
Therefore, when strong edge enhancement is performed on a halftone dot region in order to eliminate blurring of characters on the halftone dot, a problem of occurrence of moire occurs. Thus, it is very difficult to achieve both suppression of moiré and elimination of blurring of characters on halftone dots.

【0011】加えて、低濃度の太文字等を文字として判
定した場合、過度のエッジ強調がかかるために、文字縁
部分のみの濃度が高くなり、これが縁取りとして認識さ
れ、画質低下の原因となっていた。
In addition, when a low-density bold character or the like is determined as a character, excessive edge emphasis is applied, so that the density of only the character edge portion increases, and this is recognized as a border, which causes a decrease in image quality. I was

【0012】本発明は上記した問題点に鑑みてなされた
もので、本発明の目的は、画像から特性の異なる複数の
特徴量を算出し、画像種に対応した特徴量を用いて適応
処理を行うことにより、白地上の文字、網点上の文字お
よび印画紙画像の鮮鋭性を向上させると共にモアレを抑
制し、粒状性を向上させた画像処理方法、画像処理装置
および画像処理プログラムを記録した記録媒体を提供す
ることにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems. An object of the present invention is to calculate a plurality of feature values having different characteristics from an image, and perform adaptive processing using the feature value corresponding to the image type. By doing so, the image processing method, the image processing apparatus, and the image processing program which improved the sharpness of the characters on the white background, the characters on the halftone dots and the photographic paper image, suppressed the moiré, and improved the graininess were recorded. It is to provide a recording medium.

【0013】本発明の他の目的は、網点上の文字の鮮鋭
性を向上させかつモアレを抑制した画像処理方法、画像
処理装置および画像処理プログラムを記録した記録媒体
を提供することにある。
It is another object of the present invention to provide an image processing method, an image processing apparatus, and a recording medium on which an image processing program is recorded, in which the sharpness of characters on halftone dots is improved and moire is suppressed.

【0014】本発明のさらに他の目的は、像域分離処理
における誤識別などによる画質の劣化を抑制した画像処
理方法、画像処理装置および画像処理プログラムを記録
した記録媒体を提供することにある。
Still another object of the present invention is to provide an image processing method, an image processing apparatus, and a recording medium on which an image processing program is recorded, in which image quality deterioration due to erroneous identification in image area separation processing is suppressed.

【0015】本発明のさらに他の目的は、縁取りによる
画質の劣化を抑制した画像処理方法、画像処理装置およ
び画像処理プログラムを記録した記録媒体を提供するこ
とにある。
Still another object of the present invention is to provide an image processing method, an image processing apparatus, and a recording medium on which an image processing program is recorded, in which image quality deterioration due to bordering is suppressed.

【0016】[0016]

【課題を解決するための手段】本発明では、入力された
画像データを文字画像、網点画像、その他(連続階調画
像)の3種類に像域識別し、この像域識別処理と並行し
て画像データから異なる特性の空間フィルタを用いてエ
ッジ量を算出する。第1の空間フィルタは、高域の空間
周波数のレスポンスが高い2次微分フィルタで構成さ
れ、第2の空間フィルタは、低域の空間周波数のレスポ
ンスが高い1次微分フィルタで構成される。第1の空間
フィルタによって連続階調画像用のエッジ量を算出し、
第2の空間フィルタによって網点画像用のエッジ量を算
出する。文字画像用のエッジ量は連続階調画像用のエッ
ジ量と網点画像用のエッジ量とを混合することによって
算出する。像域識別結果に応じて何れかの画像種のエッ
ジ量を選択し、エッジ量に応じたエッジ強調処理を施し
てプリンタなどに出力する。
According to the present invention, the input image data is classified into three types of image areas, namely, a character image, a halftone image, and other (continuous tone image). The edge amount is calculated from the image data using a spatial filter having different characteristics. The first spatial filter is configured by a second-order differential filter having a high-frequency spatial frequency response, and the second spatial filter is configured by a first-order differential filter having a high-frequency spatial frequency response. The edge amount for the continuous tone image is calculated by the first spatial filter,
The edge amount for the halftone image is calculated by the second spatial filter. The edge amount for the character image is calculated by mixing the edge amount for the continuous tone image and the edge amount for the halftone image. An edge amount of any image type is selected according to the image area identification result, edge enhancement processing is performed according to the edge amount, and the result is output to a printer or the like.

【0017】本発明の第1の空間フィルタでは、高周波
成分のエッジ量を検出すると共に、低周波成分のエッジ
量の検出を抑えているので、高周波成分を有する連続階
調画像のエッジが強調され、これにより鮮鋭性が向上
し、また低周波成分のノイズが低減することにより粒状
性が向上する。
In the first spatial filter of the present invention, since the edge amount of the high frequency component is detected and the detection of the edge amount of the low frequency component is suppressed, the edge of the continuous tone image having the high frequency component is emphasized. Thus, sharpness is improved, and noise of low frequency components is reduced, so that graininess is improved.

【0018】本発明の第2の空間フィルタでは、比較的
低周波成分のエッジ量を検出しているので、網点成分の
周波数にレスポンスすることなくエッジ強調を行うこと
が可能となり、モアレなどの画質劣化を抑制できる。
In the second spatial filter of the present invention, since the edge amount of a relatively low frequency component is detected, it is possible to perform edge emphasis without responding to the frequency of a halftone dot component. Image quality degradation can be suppressed.

【0019】本発明では、文字画像用のエッジ量として
連続階調画像用のエッジ量と網点画像用のエッジ量とを
混合しているので、広い周波数成分を有する文字画像に
対して最適なエッジ強調を施すことができ、文字画像の
鮮鋭性が向上する。
In the present invention, since the edge amount for the continuous tone image and the edge amount for the halftone image are mixed as the edge amount for the character image, it is optimal for a character image having a wide frequency component. Edge enhancement can be performed, and the sharpness of a character image is improved.

【0020】[0020]

【発明の実施の形態】以下、本発明の一実施例を図面を
用いて具体的に説明する。なお、説明の重複を避けるた
め、添付図面中の複数の図面で同一部分または対応部分
に同一の参照番号を用いる。 (実施例1)図1は、本発明の実施例1に係る画像処理
装置の構成を示す図である。本実施例の画像処理装置
は、CCDなどのイメージセンサなどからなるスキャナ
部1と、エッジ量に応じた適応処理としてエッジ強調処
理を行うエッジ強調処理部2と、スキャナ部で読み取ら
れたデジタル画像データからエッジ量を算出するエッジ
量算出部3と、デジタル画像データの画像種を識別する
像域分離処理部4と、画像出力手段であるプリンタ部5
から構成されている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be specifically described below with reference to the drawings. In order to avoid repetition of the description, the same reference numerals are used for the same or corresponding parts in a plurality of drawings in the attached drawings. (Embodiment 1) FIG. 1 is a diagram showing a configuration of an image processing apparatus according to Embodiment 1 of the present invention. The image processing apparatus according to the present embodiment includes a scanner unit 1 including an image sensor such as a CCD, an edge enhancement processing unit 2 that performs edge enhancement processing as adaptive processing according to an edge amount, and a digital image read by the scanner unit. An edge amount calculation unit 3 for calculating an edge amount from data; an image area separation processing unit 4 for identifying an image type of digital image data; and a printer unit 5 as an image output unit
It is composed of

【0021】スキャナ部1は、文字、網点画像、写真画
像等の混在した原稿を光学的に読み取り、8bit(0
〜255)の画像データに光電変換した後、出力する。
画像データは、エッジ強調処理部2、エッジ量算出部
3、像域分離処理部4にそれぞれ入力される。
The scanner section 1 optically reads an original containing a mixture of characters, halftone images, photographic images, etc.
To 255), and then output.
The image data is input to the edge enhancement processing unit 2, the edge amount calculation unit 3, and the image area separation processing unit 4, respectively.

【0022】像域分離処理部4では、入力画像を文字画
像、網点画像(網点上の文字は網点として識別され
る)、それ以外(白地、印画紙などの連続階調画像)の
3種類に像域識別する。本実施例の像域分離処理部4で
は、公知の像域分離技術を用いる。従来から種々の像域
分離方法が提案されているが、ここでは、例えば電子情
報通信学会論文誌 ’92/1 Vol.J75−D−
II No.1 pp.39−47”文字/絵柄(網
点,写真)混在画像の像域分離方式”に記載された像域
分離方法を用いる。本実施例で使用される像域分離技術
は上記したものに限定されず、基本的に画像中から白地
上の文字領域、網点領域を識別するものであればよい。
The image area separation processing unit 4 converts the input image into a character image, a halftone image (characters on halftone dots are identified as halftone dots), and other (continuous tone images such as white background and photographic paper). Image areas are classified into three types. In the image area separation processing unit 4 of the present embodiment, a known image area separation technique is used. Conventionally, various image area separation methods have been proposed, but here, for example, IEICE Transactions '92 / 1 Vol. J75-D-
II No. 1 pp. Image area separation method described in 39-47 "Image area separation method for mixed image of characters / pictures (dots, photographs)". The image area separation technique used in the present embodiment is not limited to the above-described technique, and may be any technique that basically identifies a character area and a halftone area on a white background from an image.

【0023】エッジ量算出部3では、後述するように、
入力画像データのエッジの度合いをエッジ量(Edg
e)として算出する。算出されたエッジ量は、像域分離
処理部4の識別結果によって選択される。エッジ強調処
理部2では、エッジ量算出部3から出力されるEdge
信号に応じてスキャナ部1から入力された画像データを
適応的にエッジ強調処理を施し、プリンタ部5に出力す
る。プリンタ部5では入力された画像データを図示しな
い記録媒体上に印写する。上記した像域分離処理、エッ
ジ強調処理、エッジ量算出処理は、入力された画像デー
タの各画素について処理を実行する。後述する各実施例
も同様に入力された画像データの各画素について処理を
実行する。
In the edge amount calculation unit 3, as described later,
The degree of the edge of the input image data is determined by the edge amount (Edg
e) is calculated. The calculated edge amount is selected based on the identification result of the image area separation processing unit 4. In the edge enhancement processing unit 2, Edge output from the edge amount calculation unit 3 is output.
The image data input from the scanner unit 1 is adaptively subjected to edge enhancement according to the signal, and output to the printer unit 5. The printer unit 5 prints the input image data on a recording medium (not shown). The above-described image area separation processing, edge enhancement processing, and edge amount calculation processing execute processing for each pixel of input image data. In each embodiment described later, the process is similarly performed for each pixel of the input image data.

【0024】図2は、本実施例に係るエッジ強調処理部
2の構成を示す図である。エッジ強調処理部2に入力さ
れた画像データは、ラプラシアンフィルタ11によりエ
ッジ成分が抽出されて符号付の出力LAP信号9bit
(255〜−256)となる。
FIG. 2 is a diagram showing a configuration of the edge enhancement processing unit 2 according to the present embodiment. The edge data of the image data input to the edge enhancement processing unit 2 is extracted by a Laplacian filter 11 and a signed output LAP signal 9 bits is obtained.
(255-256).

【0025】図3は、ラプラシアンフィルタの一例を示
す。ラプラシアンフィルタは、注目画素を4倍し、4近
傍画素との差分をとってエッジ成分を抽出する。ラプラ
シアンフィルタは図3に示すものに限定されず、スキャ
ナ部1やプリンタ部5の特性等を考慮し、それぞれのシ
ステムに最適なフィルタ形状を実験などにより選択すれ
ばよい。
FIG. 3 shows an example of a Laplacian filter. The Laplacian filter extracts the edge component by multiplying the target pixel by four and calculating the difference from the four neighboring pixels. The Laplacian filter is not limited to the one shown in FIG. 3, and the optimum filter shape for each system may be selected by experiments or the like in consideration of the characteristics of the scanner unit 1 and the printer unit 5.

【0026】ラプラシアンフィルタ11の出力信号(L
AP)は、エッジ量算出部3から出力されたEdge信
号(ここでは8bitとする)と乗算器12で乗算され
た後、9bitに正規化され(つまり、Edge信号を
1以下の値とする)、再び符号付9bit信号である乗
算された値と、入力画像データの注目画素(8bit)
とを加算器13で加算することにより、注目画素をエッ
ジ強調し、エッジ強調された出力画像データ(8bi
t)となる。なお、出力画像データが255を超える値
のときは255に、0以下の値のときは0に置きかえら
れる。
The output signal of the Laplacian filter 11 (L
AP) is multiplied by the Edge signal (here, 8 bits) output from the edge amount calculation unit 3 by the multiplier 12 and then normalized to 9 bits (that is, the Edge signal is set to a value of 1 or less). , The multiplied value that is again a signed 9-bit signal, and the target pixel (8 bits) of the input image data.
Is added by the adder 13 to emphasize the edge of the pixel of interest, and output image data (8bi
t). When the output image data has a value exceeding 255, it is replaced with 255, and when the output image data has a value of 0 or less, it is replaced with 0.

【0027】図4は、本実施例に係るエッジ量算出部3
の構成を示す図である。入力画像データは、エッジ量算
出フィルタ21(1)およびエッジ量算出フィルタ24
(2)にそれぞれ入力される。
FIG. 4 shows an edge amount calculator 3 according to this embodiment.
FIG. 3 is a diagram showing the configuration of FIG. The input image data includes an edge amount calculation filter 21 (1) and an edge amount calculation filter 24.
Each is input to (2).

【0028】エッジ量算出フィルタ21(1)は、5×
5の画素ブロックサイズ(注目画素は中心画素となる)
に2次微分フィルタを用いてエッジ量を算出し、エッジ
量算出フィルタ24(2)は、5×5の画素ブロックサ
イズに1次微分フィルタを用いてエッジ量を算出する。
The edge amount calculation filter 21 (1) has a 5 ×
Pixel block size of 5 (the target pixel is the center pixel)
The edge amount is calculated using a second derivative filter, and the edge amount calculation filter 24 (2) calculates the edge amount using a first derivative filter for a 5 × 5 pixel block size.

【0029】図5は、エッジ量算出フィルタ21
(1)、エッジ量算出フィルタ24(2)の例を示す。
図5の(a)は、2次微分フィルタ(f1),(f2)
を示し、(b)は1次微分フィルタ(f1),(f2)
を示す。
FIG. 5 shows an edge amount calculation filter 21.
(1) shows an example of the edge amount calculation filter 24 (2).
FIG. 5A shows second-order differential filters (f1) and (f2).
(B) is a first-order differential filter (f1), (f2)
Is shown.

【0030】図6は、エッジ量算出フィルタ21(1)
とエッジ量算出フィルタ24(2)の空間周波数特性を
示す。図6では、エッジ量算出フィルタ21(1)は比
較的高周波領域でレスポンスが高く、エッジ量算出フィ
ルタ24(2)は比較的低周波領域でレスポンスが高い
ことを示している。なお、この図は、600dpiの入
力画像データに対して本実施例を適用した場合の図であ
る。
FIG. 6 shows an edge amount calculation filter 21 (1).
And the spatial frequency characteristics of the edge amount calculation filter 24 (2). FIG. 6 shows that the edge amount calculation filter 21 (1) has a high response in a relatively high frequency region, and the edge amount calculation filter 24 (2) has a high response in a relatively low frequency region. This diagram is a diagram in a case where the present embodiment is applied to input image data of 600 dpi.

【0031】エッジ量算出フィルタ21(1)は、図5
(a)に示す2種類の2次微分フィルタf1,f2によ
って構成され、入力画像データと横(x)方向エッジ検
出ののフィルタf1とのマスク演算(コンボリューショ
ン)と、入力画像データと縦(y)方向エッジ検出のフ
ィルタf2とのマスク演算(コンボリューション)を行
い、それぞれ符号付11bit(−1024〜102
3)信号を出力する。
The edge amount calculation filter 21 (1) is configured as shown in FIG.
(A) is composed of two types of secondary differential filters f1 and f2, and performs a mask operation (convolution) between the input image data and the filter f1 for detecting the edge in the horizontal (x) direction. y) Perform a mask operation (convolution) with the filter f2 for edge detection in the direction, and sign 11 bits (−1024 to 102), respectively.
3) Output a signal.

【0032】絶対値処理部22では、x方向のマスク演
算の絶対値化処理とy方向のマスク演算の絶対値化処理
を行い、それぞれ符号無し10bit信号(0〜102
3)を出力する。最大値選択部23では、絶対値処理部
22からの2つの出力の内、最大値を選択し、最大値を
1に規格化して出力(8ビット信号)する。
The absolute value processing section 22 performs an absolute value process of a mask operation in the x direction and an absolute value process of a mask operation in the y direction, and outputs an unsigned 10-bit signal (0 to 102).
3) is output. The maximum value selection unit 23 selects the maximum value from the two outputs from the absolute value processing unit 22, normalizes the maximum value to 1, and outputs (8-bit signal).

【0033】エッジ量算出フィルタ24(2)は、図5
(b)に示す2種類の1次微分フィルタf1,f2によ
って構成され、入力画像データとx方向のフィルタf1
とのマスク演算(コンボリューション)と、入力画像デ
ータとy方向のフィルタf2とのマスク演算(コンボリ
ューション)を行い、それぞれ符号付11bit(−1
024〜1023)信号を出力する。
The edge amount calculation filter 24 (2) is configured as shown in FIG.
(B) is composed of two types of primary differential filters f1 and f2, and includes input image data and an x-direction filter f1.
And a mask operation (convolution) between the input image data and the filter f2 in the y-direction are performed, and signed 11-bit (-1)
024 to 1023) output signals.

【0034】同様に、絶対値処理部25では、x方向の
マスク演算の絶対値化処理とy方向のマスク演算の絶対
値化処理を行い、それぞれ符号無し10bit信号(0
〜1023)を出力する。最大値選択部26では、絶対
値処理部25からの2つの出力の内、最大値を選択し、
最大値を1に規格化して出力(8ビット信号)する。
Similarly, the absolute value processing unit 25 performs an absolute value process of the mask operation in the x direction and an absolute value process of the mask operation in the y direction, and outputs an unsigned 10-bit signal (0
To 1023) are output. The maximum value selector 26 selects the maximum value from the two outputs from the absolute value processor 25,
The maximum value is normalized to 1 and output (8-bit signal).

【0035】なお、エッジ量算出用のフィルタ形状(係
数配列など)は上記した例に限定されず、またそのサイ
ズも画像処理装置の特性に合わせて選択すればよい。
Note that the filter shape (coefficient array and the like) for calculating the edge amount is not limited to the above example, and its size may be selected according to the characteristics of the image processing apparatus.

【0036】エッジ量算出フィルタ21(1)の出力値
を基に算出されたエッジ量は、連続階調画像用のエッジ
量(Edge_kai)として出力(8bit信号)さ
れ、エッジ量算出フィルタ24(2)の出力値を基に算
出されたエッジ量は、網点画像用のエッジ量(Edge
_ami)として出力(8bit信号)される。
The edge amount calculated based on the output value of the edge amount calculation filter 21 (1) is output (8-bit signal) as an edge amount (Edge_kai) for a continuous tone image, and the edge amount calculation filter 24 (2) ) Are calculated based on the edge amount (Edge) for the halftone dot image.
_Ami) (8-bit signal).

【0037】同時にEdge_kaiとEdge_am
iの出力値は演算器27に入力され、以下の演算が行わ
れる。
At the same time, Edge_kai and Edge_am
The output value of i is input to the calculator 27, and the following calculation is performed.

【0038】Edge_moji=(Edge_kai
+Edge_ami)/2 ここで、Edge_moji:文字画像用エッジ量 Edge_kai :連続階調画像用エッジ量 Edge_ami :網点画像用エッジ量 つまり、演算器27では、連続階調画像用のエッジ量
(Edge_kai)と網点画像用のエッジ量(Edg
e_ami)を混合することにより、文字画像用のエッ
ジ量Edge_moji(8bit信号)を出力する。
Edge_moji = (Edge_kai)
+ Edge_ami) / 2 Here, Edge_moji: edge amount for a character image Edge_kai: edge amount for a continuous tone image Edge_ami: edge amount for a halftone image That is, in the arithmetic unit 27, the edge amount for a continuous tone image (Edge_kai) Edge amount for dot image (Edg
By mixing e_ami), an edge amount Edge_moji (8-bit signal) for a character image is output.

【0039】これら3種類のエッジ量は、セレクタ28
に入力され、像域分離処理部4から出力された像域識別
信号によって選択される。像域識別信号が文字を表す場
合には文字画像用のエッジ量(Edge_moji)を
選択し、網点を表す場合には網点画像用のエッジ量(E
dge_ami)を選択し、銀塩写真等その他の場合に
は連続階調画像用のエッジ量(Edge_kai)を選
択して、Edge信号(8bit)として出力する。そ
して、このEdge信号は、前述したようにエッジ強調
処理部4の乗算器12に入力される。
The three types of edge amounts are determined by the selector 28
And is selected by the image area identification signal output from the image area separation processing section 4. When the image area identification signal represents a character, the edge amount (Edge_moji) for a character image is selected, and when the image region identification signal represents a halftone dot, the edge amount (E) for a halftone image is selected.
dge_ami), and in other cases such as silver halide photography, the edge amount (Edge_kai) for a continuous tone image is selected and output as an Edge signal (8 bits). Then, the Edge signal is input to the multiplier 12 of the edge enhancement processing unit 4 as described above.

【0040】本発明の実施例1は、上記したように動作
するが、前述したように、エッジ量算出フィルタ21
(1)では比較的高周波領域にレスポンスが高い。本実
施例では、このような特性のエッジ量算出フィルタ21
(1)を使用して連続階調画像などのエッジ量を検出し
ているので、高周波成分を有する領域に対しても高いエ
ッジ強調を行うことが可能となり、鮮鋭性が向上する。
また同時に、低周波成分の検出を比較的低く抑えること
によって、画像の低周波成分のノイズ(特に視覚的に人
間の目につき易い1[c/mm]程度のノイズ成分)の
影響を低く抑えることが可能となるため、出力画像の粒
状性が向上するという効果も得られる。
The first embodiment of the present invention operates as described above, but as described above, the edge amount calculation filter 21
In (1), the response is relatively high in a high frequency region. In the present embodiment, the edge amount calculation filter 21 having such characteristics
Since the edge amount of a continuous tone image or the like is detected using (1), it is possible to perform high edge enhancement even in a region having a high frequency component, and the sharpness is improved.
At the same time, by suppressing the detection of low-frequency components relatively low, the effect of noise of low-frequency components of an image (particularly, noise components of about 1 [c / mm], which are easily visually noticeable to human eyes) is suppressed. Therefore, the effect that the granularity of the output image is improved can be obtained.

【0041】また本実施例では、比較的低周波領域でレ
スポンスが高い特性のエッジ量算出フィルタ24(2)
を使用して網点画像のエッジ量を検出しているので、入
力画像データが有する網点成分の周波数等にレスポンス
せずにエッジ強調を行うことが可能となり、モアレ等の
画質劣化を抑制することができる。
In this embodiment, the edge amount calculation filter 24 (2) having a characteristic of high response in a relatively low frequency region.
Is used to detect the edge amount of the halftone image, so that it is possible to perform edge enhancement without responding to the frequency of the halftone component of the input image data, and to suppress the image quality deterioration such as moire. be able to.

【0042】さらに、本実施例では、高周波成分のエッ
ジ量の検出結果と低周波成分のエッジ量の検出結果を混
合することにより文字画像のエッジ量を検出しているの
で、広い周波数成分を有する文字画像についても最適な
エッジ強調を行うことが可能になり、文字画像の鮮鋭性
が向上すると共に、さまざまなサイズの文字(特に小文
字)に対しても最適なエッジ強調処理が可能となる。
Further, in this embodiment, the edge amount of the character image is detected by mixing the detection result of the edge amount of the high-frequency component and the detection result of the edge amount of the low-frequency component. Optimum edge emphasis can be performed on a character image, and the sharpness of the character image can be improved. Also, optimal edge emphasis processing can be performed on characters of various sizes (especially small letters).

【0043】このように、本実施例によれば、網点部の
モアレが抑制され、連続階調画像と文字画像の鮮鋭性が
向上し、また粒状性が向上する。
As described above, according to this embodiment, the moire at the halftone dot portion is suppressed, the sharpness of the continuous tone image and the character image is improved, and the graininess is improved.

【0044】本発明は上記した実施例に限定されず、種
々の変更が可能である。例えば、エッジ量の算出方法、
フィルタの形状とその値、エッジ量の選択方法に関して
は様々な形態を採ることができ、本発明はこれらの方法
に制約を受けるものではない。また、本実施例は、デジ
タル複写機を例に説明したが、スキャナ部を持たないプ
リンタ等にも適用可能であり、またコンピュータ上のソ
フトウェア処理によっても容易に実現することができ
る。また、本実施例では平滑化処理を備えていないが、
複写機等では一般的に平滑化処理が行われていることか
ら、本発明は平滑化処理の有無などで制約を受けるもの
ではない。さらに、本実施例は、エッジ強調を例に説明
したが、例えばエッジ量に応じて平滑化処理を制御する
場合にも同様な方法で実現可能である。
The present invention is not limited to the embodiments described above, and various modifications are possible. For example, a method for calculating an edge amount,
Various forms can be adopted for the shape of the filter, its value, and the method of selecting the edge amount, and the present invention is not limited to these methods. Further, although the present embodiment has been described by taking a digital copying machine as an example, the present embodiment can be applied to a printer having no scanner unit and the like, and can be easily realized by software processing on a computer. Further, although the present embodiment does not include the smoothing process,
Since a copying machine or the like generally performs a smoothing process, the present invention is not limited by the presence or absence of the smoothing process. Further, the present embodiment has been described by taking the edge emphasis as an example. However, for example, a case where the smoothing process is controlled in accordance with the edge amount can be realized by a similar method.

【0045】(実施例2)図7は、本発明の実施例2に
係る画像処理装置の構成を示す図である。スキャナ部1
は、文字、網点画像、写真画像等の混在した原稿を光学
的に読み取り8bit(0〜255)のデジタル画像デ
ータに光電変換をした後、出力する。
(Embodiment 2) FIG. 7 is a diagram showing a configuration of an image processing apparatus according to Embodiment 2 of the present invention. Scanner unit 1
, Optically reads a document in which characters, halftone images, photographic images, and the like are mixed, photoelectrically converts the data into 8-bit (0 to 255) digital image data, and outputs the digital image data.

【0046】画像データは、エッジ強調処理部31
(1)、エッジ強調処理部32(2)、エッジ量算出部
33(1)、エッジ量算出部34(2)、周波数成分検
出部35にそれぞれ入力される。エッジ強調処理部31
(1)、エッジ強調処理部32(2)でエッジ強調処理
された画像データは、周波数成分検出部35の出力信号
を基に混合器36で混合され、プリンタ部5に出力され
る。プリンタ部5では入力された画像データを図示しな
い記録媒体上に印写する。
The image data is sent to the edge enhancement processing unit 31.
(1), input to the edge enhancement processing unit 32 (2), the edge amount calculation unit 33 (1), the edge amount calculation unit 34 (2), and the frequency component detection unit 35, respectively. Edge enhancement processing unit 31
(1) The image data subjected to the edge enhancement processing by the edge enhancement processing unit 32 (2) is mixed by the mixer 36 based on the output signal of the frequency component detection unit 35, and is output to the printer unit 5. The printer unit 5 prints the input image data on a recording medium (not shown).

【0047】実施例2に係るエッジ強調処理部31
(1)とエッジ強調処理部32(2)の構成は、共に実
施例1の図2と同様である。実施例2で使用するラプラ
シアンフィルタ11は、エッジ強調処理部31(1)で
は、図8に示すラプラシアンフィルタ(以下、フィルタ
1)を使用し、エッジ強調処理部32(2)では、図3
に示すラプラシアンフィルタ(以下、フィルタ2)を使
用する。
Edge enhancement processing unit 31 according to the second embodiment
The configurations of (1) and the edge enhancement processing unit 32 (2) are the same as those in FIG. 2 of the first embodiment. The Laplacian filter 11 used in the second embodiment uses the Laplacian filter (hereinafter, filter 1) shown in FIG. 8 in the edge enhancement processing unit 31 (1), and uses the Laplacian filter shown in FIG.
Is used (hereinafter, filter 2).

【0048】図9は、上記したフィルタ1,2の空間周
波数特性である。フィルタ1は、高周波に強いレスポン
スを有し、フィルタ2は、比較的低周波側に強いレスポ
ンスを有する。
FIG. 9 shows the spatial frequency characteristics of the filters 1 and 2 described above. The filter 1 has a strong response to high frequencies, and the filter 2 has a strong response to relatively low frequencies.

【0049】エッジ量算出部33(1)は、エッジ強調
処理部31(1)のためのエッジ量を算出し、エッジ量
算出部34(2)は、エッジ強調処理部32(2)のた
めのエッジ量を算出する。
The edge amount calculator 33 (1) calculates the edge amount for the edge enhancement processor 31 (1), and the edge amount calculator 34 (2) calculates the edge amount for the edge enhancement processor 32 (2). Is calculated.

【0050】エッジ量算出部33(1)は、実施例1の
図4と同様に、エッジ量算出フィルタ21(1)と絶対
値処理部22と最大値選択部23から構成され、エッジ
量算出フィルタ21(1)では、図5(a)に示すエッ
ジ量算出フィルタ1(f1、f2)を使用して高周波成
分のエッジ量(Edge_high)を算出する。
The edge amount calculation unit 33 (1) comprises an edge amount calculation filter 21 (1), an absolute value processing unit 22, and a maximum value selection unit 23, as in FIG. 4 of the first embodiment. The filter 21 (1) calculates the edge amount (Edge_high) of the high-frequency component using the edge amount calculation filter 1 (f1, f2) shown in FIG.

【0051】エッジ量算出部34(2)は、実施例1の
図4と同様に、エッジ量算出フィルタ24(2)と絶対
値処理部25と最大値選択部26から構成され、エッジ
量算出フィルタ24(2)では、図5(b)に示すエッ
ジ量算出フィルタ2(f1、f2)を使用して低周波成
分のエッジ量(Edge_low)を算出する。エッジ
量算出部33(1)、34(2)におけるエッジ量の算
出については、図4の最大値選択部23、26までの処
理と同様であるので、その説明は省略する。
The edge amount calculating section 34 (2) comprises an edge amount calculating filter 24 (2), an absolute value processing section 25 and a maximum value selecting section 26, as in FIG. 4 of the first embodiment. The filter 24 (2) calculates the edge amount (Edge_low) of the low frequency component using the edge amount calculation filter 2 (f1, f2) shown in FIG. 5B. The calculation of the edge amount by the edge amount calculation units 33 (1) and 34 (2) is the same as the processing up to the maximum value selection units 23 and 26 in FIG.

【0052】図10は、周波数成分検出部35の構成を
示す図である。本実施例の周波数成分検出部は、エッジ
量算出フィルタを使用して、簡易的に入力画像データの
周波数成分を検出する。周波数成分検出部35(図1
0)を構成する構成要素21〜26は、実施例1の図4
の構成要素21〜26と同様であり、またエッジ量算出
フィルタ21(1)、24(2)も実施例1の図4と同
様のフィルタで構成されている。
FIG. 10 is a diagram showing the configuration of the frequency component detection unit 35. The frequency component detection unit of the present embodiment simply detects the frequency component of the input image data using the edge amount calculation filter. The frequency component detector 35 (FIG. 1)
0) are the same as those shown in FIG.
The edge amount calculation filters 21 (1) and 24 (2) are also configured with the same filters as those in FIG. 4 of the first embodiment.

【0053】エッジ量算出フィルタ21(1)の出力値
をもとに算出されたエッジ量は、入力画像データの高周
波成分F_highとして出力され、エッジ量算出フィ
ルタ24(2)の出力値をもとに算出されたエッジ量
は、入力画像データの低周波成分F_lowとして出力
され、それら出力値は演算器41に入力される。
The edge amount calculated based on the output value of the edge amount calculation filter 21 (1) is output as the high frequency component F_high of the input image data, and is calculated based on the output value of the edge amount calculation filter 24 (2). Are output as low-frequency components F_low of the input image data, and their output values are input to the calculator 41.

【0054】演算器41では以下の演算を行い、フィル
タ1混合係数F1,フィルタ2混合係数F2の信号(各
8bit)を出力する。
The arithmetic unit 41 performs the following operation, and outputs a signal (8 bits each) of the filter 1 mixing coefficient F1 and the filter 2 mixing coefficient F2.

【0055】F1=F_high/(F_high +
F_low) F2=F_low/(F_high + F_low) ここで、F1:フィルタ1混合係数 F2:フィルタ2混合係数 F_high:高周波成分信号 F_low :低周波成分信号 周波数成分検出部35で検出されたF1,F2の混合係
数は、エッジ強調処理部31(1)、32(2)からそ
れぞれ出力されるエッジ強調処理結果のFil1、Fi
l2信号と共に混合器36に入力される。
F1 = F_high / (F_high +
F2 = F_low / (F_high + F_low) where F1: filter 1 mixing coefficient F2: filter 2 mixing coefficient F_high: high-frequency component signal F_low: low-frequency component signal F1 and F2 detected by the frequency component detection unit 35 The mixing coefficients are Fil1, Fi of the edge enhancement processing results output from the edge enhancement processing units 31 (1), 32 (2), respectively.
The signal is input to the mixer 36 together with the l2 signal.

【0056】混合器36では以下の演算を行い、エッジ
強調出力Filを出力する。 Fil=(Fil1×F1/256 + Fil2×F
2/256)/2 このように、本実施例では、エッジ強調処理部31にお
いて主として高周波成分の強調を行うフィルタ1(図
8)の出力と、エッジ強調処理部32において主として
低周波成分の強調を行うフィルタ2(図3)の出力を、
高、低周波数成分を検出した係数F1,F2で混合して
いるので、入力画像の周波数特性に適応したエッジ強調
処理を行うことが可能となり、文字や印画紙等の画質を
向上させることができる。
The mixer 36 performs the following operation and outputs an edge enhancement output Fil. Fil = (Fil1 × F1 / 256 + Fil2 × F
2/256) / 2 As described above, in the present embodiment, the output of the filter 1 (FIG. 8) that mainly emphasizes high-frequency components in the edge enhancement processing unit 31 and the enhancement of mainly low-frequency components in the edge enhancement processing unit 32 are described. The output of filter 2 (FIG. 3) that performs
Since the high and low frequency components are mixed using the detected coefficients F1 and F2, it is possible to perform edge enhancement processing adapted to the frequency characteristics of the input image, and to improve the image quality of characters, photographic paper, and the like. .

【0057】また、本実施例の周波数成分検出部は、エ
ッジ量を算出する場合と同様に1次微分フィルタと2次
微分フィルタで構成していることから、比較的簡単に周
波数成分の検出が行えると共に、エッジ量算出フィルタ
と同様のフィルタを使用すれば共通化可能となり、ハー
ドウェア量を削減できる効果がある。さらに、周波数成
分検出に用いるフィルタの種類を増やすことによって周
波数の分解能を向上させることも容易に可能である。な
お、周波数成分の検出方法は上記した実施例に限定され
ず、例えばFFT(高速フーリエ変換)を使用する等の
方法でも実現可能である。本実施例においても実施例1
と同様にコンピュータ上のソフトウェア処理によっても
容易に実現することができ、また、平滑化処理を制御す
る場合にも同様な方法で実現可能である。
Since the frequency component detecting section of this embodiment is composed of a primary differential filter and a secondary differential filter as in the case of calculating the edge amount, the frequency component can be detected relatively easily. In addition to this, if a filter similar to the edge amount calculation filter is used, the filter can be shared, and the amount of hardware can be reduced. Further, it is possible to easily improve the resolution of the frequency by increasing the types of filters used for detecting the frequency component. Note that the method of detecting the frequency component is not limited to the above-described embodiment, and may be realized by a method using, for example, FFT (Fast Fourier Transform). Also in this embodiment, Embodiment 1
In the same manner as described above, it can be easily realized by software processing on a computer, and can be realized by a similar method when controlling the smoothing processing.

【0058】上記した実施例2では、周波数成分信号に
より、エッジ強調後の出力を混合する例を示したが、周
波数成分検出の代わりに文字の太さを検出し、太い文字
を検出したとき低周波成分を出力し、細い文字を検出し
たとき高周波成分を出力し、これら出力を基に実施例2
と同様に混合係数を算出し、混合係数で混合することに
より、文字の太さに応じたエッジ強調を行うように、実
施例2を変形することができる。なお、文字の太さを検
出する方法としては、例えば特開平7−203198号
公報に記載された判定方法などを用いればよい。
In the second embodiment, the output after edge emphasis is mixed with the frequency component signal. However, instead of detecting the frequency component, the thickness of the character is detected. The second embodiment outputs a high frequency component when a thin character is detected, and outputs a high frequency component based on the output.
By calculating the mixing coefficient in the same manner as in the case of and mixing with the mixing coefficient, the second embodiment can be modified so as to perform edge emphasis according to the thickness of the character. As a method for detecting the thickness of a character, for example, a determination method described in Japanese Patent Application Laid-Open No. 7-203198 may be used.

【0059】(実施例3)前述した実施例2の方法は、
文字、印画紙等の画像に対して、精度の高いエッジ強調
処理が行えるため、それら画像の鮮鋭性を向上させ画質
を向上させることが可能である。
(Embodiment 3) The method of Embodiment 2 described above
Since highly accurate edge enhancement processing can be performed on images such as characters and photographic paper, it is possible to improve the sharpness of those images and improve the image quality.

【0060】しかし、実施例2の方法を網点画像に適用
した場合には、網点上文字の鮮鋭性を向上させることが
できるものの、モアレが発生しまた粒状性が低下し、画
質の劣化を招くことがある。そこで、本実施例は、網点
画像に対しても画質の向上を図った、網点画像にも好適
な実施例に関わる。
However, when the method of Embodiment 2 is applied to a halftone image, although the sharpness of the character on the halftone dot can be improved, moire occurs and the graininess is reduced, and the image quality is degraded. May be invited. Therefore, the present embodiment relates to an embodiment which improves the image quality also for a halftone image and is suitable for a halftone image.

【0061】図11は、本発明の実施例3の画像処理装
置の構成を示す図である。図において、スキャナ部1、
プリンタ部5の動作は、前述した実施例1、2と同様で
ある。
FIG. 11 is a diagram showing the configuration of the image processing apparatus according to the third embodiment of the present invention. In the figure, a scanner unit 1,
The operation of the printer unit 5 is the same as in the first and second embodiments.

【0062】スキャナ部1から入力された画像データ
は、文字、印画紙用フィルタ処理部51、網点用フィル
タ処理部52、像域分離処理部4にそれぞれ入力され
る。文字、印画紙用フィルタ処理部51は、実施例2の
フィルタ処理部(図7中の構成要素31〜36)の構成
と同一である。
The image data input from the scanner unit 1 is input to the character / photographic paper filter processing unit 51, the halftone dot filter processing unit 52, and the image area separation processing unit 4, respectively. The character and photographic paper filter processing unit 51 has the same configuration as that of the filter processing unit (the components 31 to 36 in FIG. 7) of the second embodiment.

【0063】本実施例の像域分離処理部4は、入力画像
データが網点画像であるか否かを像域識別し、ami信
号を出力する。このami信号がオン(入力画像が網点
画像)の場合、セレクタ53は網点用フィルタ処理部5
2の出力を選択し、ami信号がオフの場合(入力画像
が網点画像でない)、文字、印画紙用フィルタ処理部5
1の出力を選択して、プリンタ部5に出力する。
The image area separation processing section 4 of this embodiment identifies an image area as to whether or not the input image data is a halftone image, and outputs an ami signal. When the ami signal is on (the input image is a halftone image), the selector 53
2 and the ami signal is off (the input image is not a halftone image), the character and photographic paper filter processing unit 5
1 is selected and output to the printer unit 5.

【0064】網点用フィルタ処理部52は、エッジ強調
処理部31(1)、エッジ強調処理部32(2)、エッ
ジ量算出部33(1)、エッジ量算出部34(2)、周
波数成分検出部35、混合器36から構成されている。
ここで、エッジ強調処理部31(1)、エッジ強調処理
部32(2)、エッジ量算出部33(1)、エッジ量算
出部34(2)、混合器36の構成、動作は、実施例2
と同様であり、また各種フィルタも実施例2と同一のも
のを使用する。
The dot filter processing unit 52 includes an edge enhancement processing unit 31 (1), an edge enhancement processing unit 32 (2), an edge amount calculation unit 33 (1), an edge amount calculation unit 34 (2), a frequency component It comprises a detection unit 35 and a mixer 36.
Here, the configurations and operations of the edge enhancement processing unit 31 (1), the edge enhancement processing unit 32 (2), the edge amount calculation unit 33 (1), the edge amount calculation unit 34 (2), and the mixer 36 are described in the embodiment. 2
And the same filters as in the second embodiment are used.

【0065】周波数成分検出部35の構成についても、
実施例2と同様に図10に示す構成要素(21〜26、
41)からなり、演算器41の動作(判定処理)を除い
て、実施例2の場合と同様である。
The structure of the frequency component detection unit 35 is also
As in the second embodiment, the components (21 to 26,
41), and is the same as the case of the second embodiment except for the operation (determination processing) of the arithmetic unit 41.

【0066】以下に、実施例3の演算器41で行われる
判定処理をC言語で標記する。 if( F_high > TH_moji1 && F_low > TH _moji2 ){ /* 網点上文字 */ F1 = F_high/(F_high + F_low) F2 = F_low /(F_high + F_low) } else if( F_low < TH_low_screen ) { /* 網点絵柄 */ F1 = 0; F2 = 255; } else { /* 低線数網点 */ F1 = 255; F2 = 0; } ここで、F1:フィルタ1混合係数 F2:フィルタ2混合係数 F_high:高周波成分信号 F_low :低周波成分信号 TH_moji1,TH_moji2,TH_low_screen :予め定められた定数。
Hereinafter, the determination process performed by the arithmetic unit 41 of the third embodiment will be described in C language. if (F_high> TH_moji1 &&F_low> TH_moji2)} / * Half-tone character * / F1 = F_high / (F_high_F_low_F_low / F_low / F_low / F_low / (F_low / F_low)) F1 = 0; F2 = 255;} else {/ * low frequency halftone dot * / F1 = 255; F2 = 0;} where F1: filter 1 mixing coefficient F2: filter 2 mixing coefficient F_high: High frequency component signal F_low: low frequency component signal TH_moji1, TH_moji2, TH_low_screen: a predetermined constant.

【0067】本実施例の演算器41では、低周波成分信
号F_low、高周波成分信号F_highを使用し
て、網点画像の領域を、網点上文字、網点絵柄、低線数
網点の3者に判定処理する。
The computing unit 41 of this embodiment uses the low-frequency component signal F_low and the high-frequency component signal F_high to divide the halftone image area into three of the halftone character, halftone picture, and low frequency halftone dot. Processing is performed by the user.

【0068】F_high,F_lowが予め設定され
たそれぞれの文字判別用閾値(TH_moji1,TH
_moji2)よりも大きい場合、網点上文字と判定
し、文字、印画紙画像の場合と同様のエッジ処理を行
う。
F_high and F_low are preset character discrimination thresholds (TH_moji1, TH_moji1,
If it is larger than _moji2), it is determined to be a halftone character, and the same edge processing as in the case of a character or photographic paper image is performed.

【0069】網点上の文字以外で、F_lowが低線数
網点判別用閾値TH_low_screenよりも低い
場合(低周波成分が非常に少ない場合)は、高線数網点
による絵柄画像と判定し、低周波成分のみのエッジ強調
を行う。つまり、網点画像の場合、網点周波数が最高周
波数になるので、画質の劣化を生じるような高周波成分
のエッジ強調は行わない。
If F_low is lower than the low frequency ruling halftone discriminating threshold value TH_low_screen (if the low frequency component is very small) other than the characters on the halftone dots, it is determined that the image is a pattern image based on high ruling halftone dots. Edge enhancement of only low frequency components is performed. That is, in the case of a halftone image, the halftone frequency becomes the highest frequency, so that the edge enhancement of the high frequency component that causes the deterioration of the image quality is not performed.

【0070】上記以外の場合(網点上文字以外でF_l
owがTH_low_screen以上)、低線数網点
と判定し、高周波成分のみを強調する。これは、低線数
網点において、低周波成分の強調を行うとモアレが発生
しやすいため、それを抑制するためである。
In cases other than the above (F_l for characters other than halftone
ow is greater than or equal to TH_low_screen), it is determined to be a low-frequency halftone dot, and only high-frequency components are emphasized. This is because moiré is likely to occur when low-frequency components are emphasized at a low screen frequency halftone dot, and this is to be suppressed.

【0071】このように、本実施例によれば、実施例2
の効果に加えて、網点画像に対して、網点上文字の鮮鋭
性を向上させるとともに、モアレの発生や粒状性の低下
などの画質劣化を防いで高画質な画像再生が可能とな
る。
As described above, according to the present embodiment, the second embodiment
In addition to the effects described above, the sharpness of characters on halftone dots can be improved with respect to halftone images, and image quality deterioration such as generation of moiré and reduction in graininess can be prevented, thereby enabling high-quality image reproduction.

【0072】また、像域分離処理において例えば、文字
画像に対して誤分離(識別エラー)が生じた場合でも、
本実施例の方法によれば、文字領域の処理と誤分離によ
る非文字領域の処理の差が少なくなり、分離結果が混在
しているような個所の画像品質の劣化を抑制することが
可能となる。なお、本実施例においても前述した各実施
例と同様にコンピュータ上のソフトウェア処理によって
も容易に実現することができ、また、平滑化処理への応
用なども可能である。
In the image area separation processing, for example, even if erroneous separation (identification error) occurs in a character image,
According to the method of the present embodiment, the difference between the processing of the character area and the processing of the non-character area due to erroneous separation is reduced, and it is possible to suppress the deterioration of the image quality at the place where the separation results are mixed. Become. Note that this embodiment can also be easily realized by software processing on a computer as in each of the above-described embodiments, and can also be applied to a smoothing process.

【0073】(実施例4)上記した実施例1〜3は適応
処理としてエッジ強調処理(空間フィルタ処理)に適用
した例であるが、本実施例は適応処理として墨生成や下
色除去に本発明を適用した例を示す。
(Embodiment 4) Embodiments 1 to 3 described above are examples in which edge enhancement processing (spatial filter processing) is applied as adaptive processing. This embodiment is applicable to black generation and under color removal as adaptive processing. An example in which the invention is applied will be described.

【0074】図12は、本実施例が適用される画像処理
装置の構成を示す図である。原稿を、スキャナ部1によ
り光学的に読み取り、8bit(0〜255)のデジタ
ル画像信号に光電変換した後、公知のシェーディング補
正が施される。スキャナ部1から出力された画像信号
は、スキャナγ補正処理部61に入力され、スキャナ部
1に読み取られたrgb(red,green,blu
e)信号を、LUT(look Up Table)等
で濃度信号のRGB信号に変換する。濃度信号に変換さ
れたRGB信号は、フィルタ処理部62に入力され前述
した実施例に示したような空間フィルタ処理が行われ
る。フィルタ処理後のRGB信号は、色補正処理部63
でCMY(Cyan,Magenta,Yellow)
信号に変換される。色補正処理は、さまざまな手法が考
えられるが、ここでは式(1)のような演算を行うもの
とする。
FIG. 12 is a diagram showing the configuration of an image processing apparatus to which this embodiment is applied. The document is optically read by the scanner unit 1 and photoelectrically converted into an 8-bit (0 to 255) digital image signal, and then a known shading correction is performed. The image signal output from the scanner unit 1 is input to the scanner γ correction processing unit 61, and rgb (red, green, and blue) read by the scanner unit 1.
e) The signal is converted into an RGB signal of a density signal using a look-up table (LUT) or the like. The RGB signals converted into the density signals are input to the filter processing unit 62 and subjected to the spatial filter processing as described in the above-described embodiment. The RGB signals after the filter processing are output to the color correction processing unit 63.
CMY (Cyan, Magenta, Yellow)
Converted to a signal. Although various methods can be considered for the color correction processing, it is assumed here that an operation such as Expression (1) is performed.

【0075】 C = α11×R + α12×G + α13×B + β1 M = α21×R + α22×G + α23×B + β2 Y = α31×R + α32×G + α33×B + β3 式(1) ここで、α11〜α33およびβ1〜β3は予め定めら
れた色補正係数で、出力されるCMYKも8bit(0
〜255)の信号とする。
C = α11 × R + α12 × G + α13 × B + β1 M = α21 × R + α22 × G + α23 × B + β2Y = α31 × R + α32 × G + α33 × B + β3 Equation ( 1) Here, α11 to α33 and β1 to β3 are predetermined color correction coefficients, and the output CMYK is also 8 bits (0
To 255).

【0076】次に、BG/UCR処理部64では、墨成
分であるK信号を生成(BG)すると共にCMY信号か
ら下色除去(UCR)を行う。K信号の生成およびCM
Y信号からの下色除去は、式(2)のように行う。 K = Min(C,M,Y) × β4 C’ = C − K × β5 M’ = M − K × β5 Y’ = Y − K × β5 式(2) ここで、Min(C,M,Y)は、CMY信号のうち最
小のものを表す。また、β4(<1),β5(<1)は
予め定められた係数で8bitの信号とする。
Next, the BG / UCR processing section 64 generates (BG) a K signal as a black component and performs undercolor removal (UCR) from the CMY signal. K signal generation and CM
The undercolor removal from the Y signal is performed as in equation (2). K = Min (C, M, Y) × β4 C ′ = C−K × β5 M ′ = M−K × β5 Y ′ = Y−K × β5 Equation (2) where Min (C, M, Y) ) Represents the smallest of the CMY signals. Β4 (<1) and β5 (<1) are 8-bit signals with predetermined coefficients.

【0077】次いで、プリンタγ補正処理部65では、
入力されたCMYKの濃度信号のそれぞれに対してプリ
ンタのγ特性に対応させるためにγ補正処理を行う。γ
補正は、LUTにより行う。
Next, the printer γ correction processing section 65
A gamma correction process is performed on each of the inputted CMYK density signals in order to correspond to the gamma characteristics of the printer. γ
The correction is performed using the LUT.

【0078】プリンタγ補正処理後のCMYKデータ
は、中間調処理部66において公知のディザ処理や誤差
拡散処理によって擬似中間調処理が行われた後、プリン
タ部5に出力される。以上のようにして一連の作像プロ
セスが行われ、紙などに画像が印写される。
The CMYK data after the printer γ correction processing is output to the printer section 5 after the halftone processing section 66 performs pseudo halftone processing by known dither processing and error diffusion processing. A series of image forming processes is performed as described above, and an image is printed on paper or the like.

【0079】図13は、本実施例に係るBG/UCR処
理部64の詳細な構成を示す図である。基本的にBG/
UCR処理は、前掲した式(2)の演算を行う。係数β
4、β5は、後述するようにエッジ量に応じて多段階に
制御される。色補正処理部63から出力されたCMY信
号は、BG処理部71に入力され、以下の式(3)の演
算によりグレー成分(K)信号が生成される。
FIG. 13 is a diagram showing a detailed configuration of the BG / UCR processing section 64 according to this embodiment. Basically BG /
The UCR process performs the operation of the above-described equation (2). Coefficient β
4 and β5 are controlled in multiple stages according to the edge amount as described later. The CMY signal output from the color correction processing unit 63 is input to the BG processing unit 71, and a gray component (K) signal is generated by the calculation of the following equation (3).

【0080】 K = Min(C,M,Y) 式(3) この処理と並行して、判定部72では画像信号Mを基
に、Judge信号を式(4)により生成し、エッジ量
算出部73に入力する。
K = Min (C, M, Y) Expression (3) In parallel with this processing, the determination unit 72 generates a Judge signal based on the image signal M by Expression (4), and calculates the edge amount calculation unit. Enter 73.

【0081】 ここで、TH1:予め定められた定数。[0081] Here, TH1: a predetermined constant.

【0082】図14は、本実施例に係るエッジ量算出部
73の構成を示す図である。エッジ量算出部73は、セ
レクタ81を除いて実施例2のエッジ量算出部33
(1)、エッジ量算出部34(2)の構成と同様であ
る。そして、エッジ量の算出は、基本的に実施例2と同
様であり、高周波成分のエッジ量Edge_high、
低周波成分のエッジ量Edge_lowが算出される。
FIG. 14 is a diagram showing a configuration of the edge amount calculating section 73 according to the present embodiment. The edge amount calculation unit 73 is the same as the edge amount calculation unit 33 of the second embodiment except for the selector 81.
(1) The configuration is the same as the configuration of the edge amount calculation unit 34 (2). The calculation of the edge amount is basically the same as in the second embodiment, and the edge amount Edge_high,
The edge amount Edge_low of the low frequency component is calculated.

【0083】セレクタ81には、高周波成分のエッジ量
Edge_highと低周波成分のエッジ量Edge_
lowが入力され、前述したJudge信号によってそ
の何れかが選択される。すなわち、Judge信号が1
(高濃度)の場合、セレクタ81はEdge_lowを
選択し、Judge信号が0(低濃度)の場合、Edg
e_highを選択し、Edge信号として係数算出部
74に出力する。
The selector 81 has an edge amount Edge_high of the high-frequency component and an edge amount Edge__ of the low-frequency component.
low is input, and one of them is selected by the aforementioned Judge signal. That is, when the Judge signal is 1
In the case of (high density), the selector 81 selects Edge_low, and when the Judge signal is 0 (low density), the selector 81 selects Edge_low.
e_high is selected and output to the coefficient calculation unit 74 as an Edge signal.

【0084】Edge信号は、係数演算部74に入力さ
れ、係数演算部74ではβ4、β5を以下のように算出
する。 if( Edge > TH2 ){ β4 = β4min+(1.0−β4min)×Edge/256; β5 = β5min+(1.0−β5min)×Edge/256; } else{ β4 = β4min; β5 = β5min; } 式(5) ここで、β4min、β5min、TH2:予め定めら
れた定数。
The Edge signal is input to a coefficient calculator 74, and the coefficient calculator 74 calculates β4 and β5 as follows. if (Edge> TH2) {β4 = β4min + (1.0-β4min) × Edge / 256; β5 = β5min + (1.0-β5min) × Edge / 256; {else} β4 = β4min; β5 = β5min; (5) Here, β4min, β5min, TH2: predetermined constants.

【0085】Edge信号が予め定められた閾値TH2
以下の場合は、β4、β5は予め設定されたそれらの最
小値β4min、β5minとなり、低墨率、低UCR
の画像となる。閾値TH2以上の高エッジ部の場合、E
dge信号に応じて高墨率、高UCRの出力画像とな
る。
When the Edge signal has a predetermined threshold value TH2
In the following cases, β4 and β5 are the preset minimum values β4min and β5min, and the low black ratio and low UCR
Image. In the case of a high edge portion equal to or greater than the threshold value TH2, E
The output image has a high black ratio and a high UCR according to the dge signal.

【0086】係数演算部74により出力されたβ4はB
G処理部71の出力であるK信号と乗算器75で乗算さ
れ、墨(K’)信号として出力される。また、K’信号
は乗算器76でβ5と乗算され、減算器77でCMY信
号から減算される。減算器77からの出力信号であるU
CR後のC’,M’,Y’信号は、次段のプリンタγ補
正処理部65に入力される。
Β4 output from coefficient calculating section 74 is B
The K signal output from the G processing unit 71 is multiplied by the multiplier 75 and output as a black (K ′) signal. Further, the K ′ signal is multiplied by β5 in the multiplier 76 and is subtracted from the CMY signal in the subtractor 77. U which is an output signal from the subtractor 77
The C ′, M ′, and Y ′ signals after the CR are input to the printer γ correction processing unit 65 in the next stage.

【0087】このように、本実施例ではエッジ量の高い
エッジ部においては、高墨の画像として、エッジ量の低
い平坦部では低墨の画像としている。エッジ量に応じて
墨量、UCR量を制御しているが、濃度の低い低コント
ラストの太文字等で、過度にエッジ部を高墨とすると縁
の部分のみ黒が目立ちいわゆる縁取りという画質劣化を
引き起こすが、本実施例のように低濃度部のエッジ部に
おいては、高周波成分により算出したエッジ量を使用す
ることによって、エッジ量自体が低周波成分のものを使
用した場合よりも鮮鋭化し、高墨となる部分を細くする
ことが可能となる。従って、実際に出力された画像上で
は、縁取りが目立つのを緩和することができる。
As described above, in the present embodiment, an image of high black is used in an edge portion having a high edge amount, and an image of low black is used in a flat portion having a low edge amount. The black amount and UCR amount are controlled in accordance with the edge amount. However, if the edge portion is excessively high in low-concentration, low-contrast, bold characters, black is noticeable only at the edges and the so-called bordering may deteriorate. However, by using the edge amount calculated from the high-frequency component at the edge portion of the low-density portion as in the present embodiment, the edge amount itself becomes sharper than when using the low-frequency component, and the edge amount becomes higher. It is possible to make the portion to be black thin. Therefore, it is possible to reduce the appearance of the border on the actually output image.

【0088】なお、本実施例では画像信号Mを使用して
エッジ量を切替えているが、明度等の信号を算出し、そ
の信号を使用してもよい。また、エッジ量を高周波成分
と低周波成分とに2値的に切替える代わりに、実施例2
のように画像信号Mに応じてエッジ量を混合するように
してもよい。上記した実施例では、墨生成(BG)、下
色除去(UCR)処理部の例を示したが、本発明はγ補
正処理(例えば低濃度のエッジ部ではγ特性を緩やかに
する)や中間調処理等への適用も可能である。
In this embodiment, the edge amount is switched using the image signal M. However, a signal such as lightness may be calculated and the signal may be used. Instead of binaryly switching the edge amount between a high-frequency component and a low-frequency component, the second embodiment
As described above, the edge amounts may be mixed according to the image signal M. In the above-described embodiment, the example of the black generation (BG) and under color removal (UCR) processing units has been described. However, the present invention provides a gamma correction process (for example, a gamma characteristic is moderated in a low density edge portion) or an intermediate process. Application to tone processing and the like is also possible.

【0089】上記したように、本発明は専用のハードウ
ェアによって実施してもよいことは当然であるが、汎用
のコンピュータシステムを利用し、ソフトウェアで実施
してもよい。ソフトウェアで実施する場合には、本発明
の画像処理機能(エッジ量算出、エッジ強調処理、像域
分離などの処理)や処理手順を実現するプログラムが記
録媒体などに記録されていて、該記録媒体などからプロ
グラムがコンピュータシステムに読み込まれてCPUに
よって実行されることにより、本発明の画像処理機能が
実施される。画像データは、例えばスキャナなどから読
み込んだ原稿画像データや予めハードディスクなどに用
意された画像データであり、あるいはネットワークを介
して取り込んだ画像データである。また、処理結果は、
プリンタに出力され、あるいはハードディスクに書き出
される。またはネットワークを介して外部装置(プリン
タなど)に出力される。
As described above, the present invention may be implemented by dedicated hardware, but may be implemented by software using a general-purpose computer system. When implemented by software, a program for realizing the image processing function (processing such as edge amount calculation, edge enhancement processing, and image area separation) and processing procedure of the present invention is recorded on a recording medium or the like. The image processing function of the present invention is implemented when the program is read into the computer system from, for example, and executed by the CPU. The image data is, for example, document image data read from a scanner or the like, image data prepared in a hard disk or the like in advance, or image data captured via a network. The processing result is
Output to printer or write to hard disk. Alternatively, it is output to an external device (such as a printer) via a network.

【0090】[0090]

【発明の効果】以上、説明したように、本発明によれ
ば、以下のような効果が得られる。 (1)画像種に対応した周波数成分のエッジ量を用いて
適応処理を行っているので、白地上文字、網点上文字、
印画紙などの連続階調画像の鮮鋭性が向上すると共に、
モアレが抑制され、粒状性が向上し、高画質な画像再生
を行うことができる。 (2)画像の周波数特性に応じてエッジ強調処理後の出
力を混合しているので、網点上文字の鮮鋭性とモアレ抑
制の両立を図ることが可能となる。 (3)文字用のフィルタ処理と網点用のフィルタ処理に
おいては、それぞれ適応処理後の出力を混合しているの
で、像域分離処理における誤識別などによる画質劣化を
抑制することが可能となる。 (4)低濃度のエッジ部には高周波成分のエッジ量を使
用して墨量、UCR量を制御しているので、低濃度の太
文字などに発生する縁取りによる画質劣化を抑制するこ
とができる。
As described above, according to the present invention, the following effects can be obtained. (1) Since adaptive processing is performed using an edge amount of a frequency component corresponding to an image type, a character on a white background, a character on a halftone dot,
While improving the sharpness of continuous tone images such as photographic paper,
Moire is suppressed, graininess is improved, and high-quality image reproduction can be performed. (2) Since the output after the edge enhancement processing is mixed according to the frequency characteristics of the image, it is possible to achieve both sharpness of halftone characters and suppression of moiré. (3) In the filter processing for characters and the filter processing for halftone dots, the outputs after the adaptive processing are mixed, so that it is possible to suppress image quality deterioration due to erroneous identification in the image area separation processing. . (4) Since the black amount and the UCR amount are controlled using the edge amount of the high-frequency component in the low-density edge portion, it is possible to suppress the image quality deterioration due to the bordering that occurs in the low-density bold characters and the like. .

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例1に係る画像処理装置の構成を
示す図である。
FIG. 1 is a diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention.

【図2】実施例1のエッジ強調処理部の構成を示す図で
ある。
FIG. 2 is a diagram illustrating a configuration of an edge enhancement processing unit according to the first embodiment.

【図3】ラプラシアンフィルタの一例を示す図である。FIG. 3 is a diagram illustrating an example of a Laplacian filter.

【図4】実施例1のエッジ量算出部の構成を示す図であ
る。
FIG. 4 is a diagram illustrating a configuration of an edge amount calculation unit according to the first embodiment.

【図5】(a)、(b)は、エッジ量算出フィルタ1、
2の一例を示す図である。
FIGS. 5A and 5B are edge amount calculation filters 1;
FIG. 2 is a diagram showing an example of the second example.

【図6】エッジ量算出フィルタ1、2の空間周波数特性
を示す図である。
FIG. 6 is a diagram illustrating spatial frequency characteristics of edge amount calculation filters 1 and 2;

【図7】本発明の実施例2に係る画像処理装置の構成を
示す図である。
FIG. 7 is a diagram illustrating a configuration of an image processing apparatus according to a second embodiment of the present invention.

【図8】実施例2のエッジ強調処理部で使用するラプラ
シアンフィルタの一例を示す図である。
FIG. 8 is a diagram illustrating an example of a Laplacian filter used in an edge enhancement processing unit according to a second embodiment.

【図9】実施例2のエッジ強調処理部で使用するラプラ
シアンフィルタ1、2の空間周波数特性を示す図であ
る。
FIG. 9 is a diagram illustrating spatial frequency characteristics of Laplacian filters 1 and 2 used in the edge enhancement processing unit according to the second embodiment.

【図10】実施例2の周波数成分検出部の構成を示す図
である。
FIG. 10 is a diagram illustrating a configuration of a frequency component detection unit according to a second embodiment.

【図11】本発明の実施例3に係る画像処理装置の構成
を示す図である。
FIG. 11 is a diagram illustrating a configuration of an image processing apparatus according to a third embodiment of the present invention.

【図12】本発明の実施例4が適用される画像処理装置
の構成を示す図である。
FIG. 12 is a diagram illustrating a configuration of an image processing apparatus to which a fourth embodiment of the present invention is applied.

【図13】実施例3のBG/UCR処理部の構成を示す
図である。
FIG. 13 is a diagram illustrating a configuration of a BG / UCR processing unit according to a third embodiment.

【図14】実施例3のエッジ量算出部の構成を示す図で
ある。
FIG. 14 is a diagram illustrating a configuration of an edge amount calculation unit according to a third embodiment.

【符号の説明】[Explanation of symbols]

1 スキャナ部 2、31、32 エッジ強調処理部 3、33、34、37 エッジ量算出部 4 像域分離処理部 5 プリンタ部 11 ラプラシアンフィルタ 12、75、76 乗算器 13 加算器 21、24 エッジ量算出フィルタ 22、25 絶対値処理部 23、26 最大値選択部 27、41 演算器 28、53、81 セレクタ 35 周波数成分検出部 36 混合器 51 文字、印画紙用フィルタ処理部 52 網点用フィルタ処理部 61 スキャナγ補正部 62 フィルタ処理部 63 色補正部 64 BG/UCR 65 プリンタγ補正部 66 中間調処理部 71 BG処理部 72 判定部 74 係数算出部 77 減算器 Reference Signs List 1 scanner unit 2, 31, 32 edge enhancement processing unit 3, 33, 34, 37 edge amount calculation unit 4 image area separation processing unit 5 printer unit 11 Laplacian filter 12, 75, 76 multiplier 13 adder 21, 24 edge amount Calculation filter 22, 25 Absolute value processing unit 23, 26 Maximum value selection unit 27, 41 Computing unit 28, 53, 81 Selector 35 Frequency component detection unit 36 Mixer 51 Character filter, photographic paper filter processing unit 52 Halftone filter processing Unit 61 scanner γ correction unit 62 filter processing unit 63 color correction unit 64 BG / UCR 65 printer γ correction unit 66 halftone processing unit 71 BG processing unit 72 determination unit 74 coefficient calculation unit 77 subtractor

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 AA11 BA02 CA01 CA02 CA06 CA07 CA08 CA12 CA16 CB01 CB02 CB06 CB07 CB08 CB12 CB16 CE03 CE06 CH08 CH18 DB02 DB05 DB06 DB08 DB09 DC01 DC16 5C077 LL03 LL19 MP06 MP07 MP08 PP02 PP03 PP15 PP27 PP28 PP33 PP37 PP38 PP47 PP48 PP49 PP65 PQ08 PQ18 PQ23 RR11 5L096 BA07 FA06 FA23 FA43 FA44 FA45 FA81 GA02 GA03 GA05 GA06  ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference) PP28 PP33 PP37 PP38 PP47 PP48 PP49 PP65 PQ08 PQ18 PQ23 RR11 5L096 BA07 FA06 FA23 FA43 FA44 FA45 FA81 GA02 GA03 GA05 GA06

Claims (58)

【特許請求の範囲】[Claims] 【請求項1】 所定画像に対して所定の適応処理を施し
て出力する画像処理方法であって、前記適応処理を行う
際に、前記画像から算出される、特性が異なる複数の特
徴量の内から前記画像の種類に対応した特徴量を選択
し、該選択された特徴量に応じて適応処理することを特
徴とする画像処理方法。
1. An image processing method for performing a predetermined adaptive process on a predetermined image and outputting the same, wherein when performing the adaptive process, a plurality of feature amounts having different characteristics calculated from the image are calculated. A feature amount corresponding to the type of the image is selected from the list, and an adaptive process is performed according to the selected feature amount.
【請求項2】 前記画像の種類が連続階調画像であると
き、前記画像から算出される高周波成分の特徴量を選択
して適応処理を行うことを特徴とする請求項1記載の画
像処理方法。
2. The image processing method according to claim 1, wherein when the type of the image is a continuous tone image, an adaptive process is performed by selecting a feature amount of a high-frequency component calculated from the image. .
【請求項3】 前記画像の種類が網点画像であるとき、
前記画像から算出される低周波成分の特徴量を選択して
適応処理を行うことを特徴とする請求項1記載の画像処
理方法。
3. When the type of the image is a halftone image,
2. The image processing method according to claim 1, wherein the adaptive processing is performed by selecting a characteristic amount of a low frequency component calculated from the image.
【請求項4】 前記画像の種類が文字画像であるとき、
前記画像から算出される低周波成分の特徴量と高周波成
分の特徴量を含む広い周波数成分の特徴量を選択して適
応処理を行うことを特徴とする請求項1記載の画像処理
方法。
4. When the type of the image is a character image,
2. The image processing method according to claim 1, wherein a characteristic amount of a wide frequency component including a characteristic amount of a low frequency component and a characteristic amount of a high frequency component calculated from the image is selected and the adaptive processing is performed.
【請求項5】 前記広い周波数成分の特徴量は、前記低
周波成分の特徴量と高周波成分の特徴量を混合した特徴
量であることを特徴とする請求項4記載の画像処理方
法。
5. The image processing method according to claim 4, wherein the characteristic amount of the wide frequency component is a characteristic amount obtained by mixing the characteristic amount of the low frequency component and the characteristic amount of the high frequency component.
【請求項6】 所定画像に対して所定の適応処理を施し
て出力する画像処理方法であって、前記画像から算出さ
れる、特性が異なる複数の特徴量を用いて前記画像に対
してそれぞれ適応処理を行い、各適応処理後の複数の出
力を、前記画像の周波数特性に応じて混合して出力する
ことを特徴とする画像処理方法。
6. An image processing method for performing predetermined adaptive processing on a predetermined image and outputting the adaptive image, wherein each of the adaptive processing is performed on the image using a plurality of feature amounts having different characteristics calculated from the image. An image processing method comprising: performing a process; mixing and outputting a plurality of outputs after each adaptive process according to a frequency characteristic of the image;
【請求項7】 前記画像の周波数特性は、前記画像に占
める高周波成分と低周波成分のそれぞれの割合であり、
前記適応処理後の第1の出力を前記画像に占める高周波
成分の割合で重み付けし、前記適応処理後の第2の出力
を前記画像に占める低周波成分の割合で重み付けするこ
とにより混合して出力することを特徴とする請求項6記
載の画像処理方法。
7. The frequency characteristic of the image is a ratio of a high frequency component and a low frequency component in the image, respectively.
The first output after the adaptive processing is weighted by the proportion of the high-frequency component occupying the image, and the second output after the adaptive processing is weighted by the proportion of the low-frequency component occupying the image to be mixed and output. 7. The image processing method according to claim 6, wherein:
【請求項8】 所定画像に対して、第1の画像種に適し
た処理を行った結果と、第2の画像種に適した処理を行
った結果との何れかを、前記画像の種類を識別した結果
を基に選択して出力する画像処理方法であって、前記第
1の画像種に適した処理は、前記画像から算出される、
特性が異なる複数の特徴量を用いて前記画像に対してそ
れぞれ適応処理を行い、各適応処理後の複数の出力を、
前記画像に占める所定成分の割合に応じて混合して出力
し、前記第2の画像種に適した処理は、前記画像から算
出される、特性が異なる複数の特徴量を用いて前記画像
に対してそれぞれ適応処理を行い、各適応処理後の複数
の出力を、前記画像に占める所定成分の所定量に応じて
混合または選択して出力することを特徴とする画像処理
方法。
8. A result of performing a process suitable for a first image type on a predetermined image or a result of performing a process suitable for a second image type, based on the type of the image. An image processing method for selecting and outputting based on a result of the identification, wherein a process suitable for the first image type is calculated from the image.
Perform adaptive processing on each of the images using a plurality of characteristic amounts having different characteristics, and output a plurality of outputs after each adaptive processing,
The mixed image is output in accordance with the ratio of the predetermined component in the image, and the process suitable for the second image type is performed on the image using a plurality of feature amounts having different characteristics calculated from the image. An image processing method for performing adaptive processing on each of the images and mixing or selecting a plurality of outputs after each of the adaptive processing in accordance with a predetermined amount of a predetermined component in the image.
【請求項9】 前記第1の画像種は文字、印画紙であ
り、該文字、印画紙用に適した処理は、前記適応処理後
の第1の出力を前記画像に占める高周波成分の割合で重
み付けし、前記適応処理後の第2の出力を前記画像に占
める低周波成分の割合で重み付けすることにより混合し
て出力することを特徴とする請求項8記載の画像処理方
法。
9. The first image type is a character or a photographic paper, and the processing suitable for the character and the photographic paper is such that the first output after the adaptive processing is a ratio of a high frequency component occupying the image. 9. The image processing method according to claim 8, wherein the weighted second output after the adaptive processing is mixed and output by weighting with a ratio of a low frequency component occupying the image.
【請求項10】 前記第2の画像種は網点上文字であ
り、該網点上文字に適した処理は、前記画像に占める高
周波成分の量が所定の第1の値以上であり、かつ低周波
成分の量が所定の第2の値以上であるとき、前記適応処
理後の第1の出力を前記画像に占める高周波成分の割合
で重み付けし、前記適応処理後の第2の出力を前記画像
に占める低周波成分の割合で重み付けすることにより混
合して出力することを特徴とする請求項8記載の画像処
理方法。
10. The second image type is a character on a halftone dot, and the processing suitable for the character on the halftone dot is such that an amount of a high-frequency component in the image is equal to or more than a predetermined first value; When the amount of the low-frequency component is equal to or more than a predetermined second value, the first output after the adaptive processing is weighted by a ratio of a high-frequency component occupying the image, and the second output after the adaptive processing is 9. The image processing method according to claim 8, wherein the image is mixed and output by weighting with a ratio of a low frequency component in the image.
【請求項11】 前記第2の画像種は網点絵柄であり、
該網点絵柄に適した処理は、前記画像に占める低周波成
分の量が所定の第3の値よりも低いとき、前記適応処理
後の第2の出力を選択して出力することを特徴とする請
求項8記載の画像処理方法。
11. The second image type is a halftone dot pattern,
The process suitable for the halftone dot pattern is characterized in that when the amount of the low frequency component in the image is lower than a predetermined third value, the second output after the adaptive process is selected and output. 9. The image processing method according to claim 8, wherein:
【請求項12】 前記第2の画像種は低線数網点であ
り、該低線数網点に適した処理は、前記画像に占める低
周波成分の量が所定の第3の値以上であるとき、前記適
応処理後の第1の出力を選択して出力することを特徴と
する請求項8記載の画像処理方法。
12. The second image type is a low-frequency halftone dot, and the processing suitable for the low-frequency halftone dot is performed when the amount of low-frequency components in the image is equal to or more than a predetermined third value. 9. The image processing method according to claim 8, wherein the first output after the adaptive processing is selected and output.
【請求項13】 前記適応処理後の第1の出力は、前記
画像から算出される高周波成分の特徴量に応じて前記画
像の高周波成分を適応処理した後の出力であることを特
徴とする請求項7、9、10または12記載の画像処理
方法。
13. The method according to claim 13, wherein the first output after the adaptive processing is an output after the high-frequency component of the image is adaptively processed in accordance with a feature amount of the high-frequency component calculated from the image. Item 13. The image processing method according to Item 7, 9, 10 or 12.
【請求項14】 前記適応処理後の第2の出力は、前記
画像から算出される低周波成分の特徴量に応じて前記画
像の低周波成分を適応処理した後の出力であることを特
徴とする請求項7、9、10または11記載の画像処理
方法。
14. The second output after the adaptive processing is an output after the low-frequency component of the image has been adaptively processed in accordance with the characteristic amount of the low-frequency component calculated from the image. 12. The image processing method according to claim 7, 9, 10, or 11, wherein:
【請求項15】 所定画像に対して所定の適応処理を施
して出力する画像処理方法であって、前記画像の濃度を
判定し、該判定結果を基に、前記画像から算出される、
特性が異なる複数の特徴量の内の一つの特徴量を選択
し、該選択された特徴量に応じて適応処理することを特
徴とする画像処理方法。
15. An image processing method for performing predetermined adaptive processing on a predetermined image and outputting the result, wherein a density of the image is determined, and the density is calculated from the image based on the determination result.
An image processing method comprising selecting one of a plurality of feature values having different characteristics and performing adaptive processing according to the selected feature value.
【請求項16】 前記濃度が所定値以上であるとき、前
記画像から算出される低周波成分の特徴量を選択し、前
記濃度が所定値未満であるとき、前記画像から算出され
る高周波成分の特徴量を選択し、前記選択された低周波
成分の特徴量または高周波成分の特徴量に応じて前記適
応処理は異なる処理を行うことを特徴とする請求項15
記載の画像処理方法。
16. When the density is equal to or more than a predetermined value, a characteristic amount of a low-frequency component calculated from the image is selected. When the density is less than a predetermined value, a characteristic amount of a high-frequency component calculated from the image is selected. 16. The method according to claim 15, wherein a characteristic amount is selected, and the adaptive process performs different processing according to the selected characteristic amount of the low frequency component or the characteristic amount of the high frequency component.
The image processing method described in the above.
【請求項17】 前記選択された低周波成分または高周
波成分の特徴量が所定値を超えるとき、前記特徴量に応
じて前記適応処理は所定量を制御することを特徴とする
請求項16記載の画像処理方法。
17. The adaptive processing according to claim 16, wherein when the characteristic amount of the selected low frequency component or high frequency component exceeds a predetermined value, the adaptive processing controls the predetermined amount according to the characteristic amount. Image processing method.
【請求項18】 前記選択された低周波成分または高周
波成分の特徴量が所定値以下のとき、前記適応処理は所
定量を最小値に制御することを特徴とする請求項16記
載の画像処理方法。
18. The image processing method according to claim 16, wherein when the characteristic amount of the selected low frequency component or high frequency component is equal to or less than a predetermined value, the adaptive processing controls the predetermined amount to a minimum value. .
【請求項19】 前記特徴量は画像のエッジ量であるこ
とを特徴とする請求項1〜6、8、13〜18のいずれ
か一つに記載の画像処理方法。
19. The image processing method according to claim 1, wherein the feature amount is an edge amount of the image.
【請求項20】 前記エッジ量は、空間周波数特性が異
なる複数のフィルタ処理によって算出することを特徴と
する請求項19記載の画像処理方法。
20. The image processing method according to claim 19, wherein the edge amount is calculated by a plurality of filtering processes having different spatial frequency characteristics.
【請求項21】 前記フィルタ処理は、高周波成分のエ
ッジ量を算出する2次微分フィルタ処理であることを特
徴とする請求項20記載の画像処理方法。
21. The image processing method according to claim 20, wherein said filter processing is a secondary differential filter processing for calculating an edge amount of a high-frequency component.
【請求項22】 前記フィルタ処理は、低周波成分のエ
ッジ量を算出する1次微分フィルタ処理であることを特
徴とする請求項20記載の画像処理方法。
22. The image processing method according to claim 20, wherein the filter processing is a first-order differential filter processing for calculating an edge amount of a low-frequency component.
【請求項23】 前記適応処理は、エッジ強調処理であ
ることを特徴とする請求項1〜4、6〜14のいずれか
一つに記載の画像処理方法。
23. The image processing method according to claim 1, wherein said adaptive processing is edge enhancement processing.
【請求項24】 前記適応処理は、墨生成および下色除
去処理であることを特徴とする請求項15、16、17
または18記載の画像処理方法。
24. The apparatus according to claim 15, wherein said adaptive processing is black generation and undercolor removal processing.
Or the image processing method according to 18.
【請求項25】 前記所定量は、墨量および下色除去量
であることを特徴とする請求項17または18記載の画
像処理方法。
25. The image processing method according to claim 17, wherein said predetermined amount is an amount of black and an amount of undercolor removal.
【請求項26】 所定画像から第1の特徴量を算出する
第1の特徴量算出手段と、前記画像から第2の特徴量を
算出する第2の特徴量算出手段と、前記画像の種類を識
別する画像種識別手段と、該識別された画像種を基に前
記第1または第2の特徴量を選択する選択手段と、前記
画像に対して前記選択された特徴量に応じた適応処理を
施す適応処理手段とを備えたことを特徴とする画像処理
装置。
26. A first feature value calculating means for calculating a first feature value from a predetermined image, a second feature value calculating means for calculating a second feature value from the image, and a type of the image. Image type identification means for identification, selection means for selecting the first or second feature value based on the identified image type, and adaptive processing for the image in accordance with the selected feature value. An image processing apparatus comprising: an adaptive processing unit for performing the processing.
【請求項27】 前記画像種識別手段が前記画像種を連
続階調画像と識別したとき、前記選択手段は前記第1の
特徴量として高周波成分の特徴量を選択し、前記適応処
理手段は、前記画像に対して、前記選択された高周波成
分の特徴量に応じた適応処理を行うことを特徴とする請
求項26記載の画像処理装置。
27. When the image type identification unit identifies the image type as a continuous tone image, the selection unit selects a high-frequency component feature amount as the first feature amount, and the adaptive processing unit 27. The image processing apparatus according to claim 26, wherein adaptive processing is performed on the image in accordance with a feature amount of the selected high-frequency component.
【請求項28】 前記画像種識別手段が前記画像種を網
点画像と識別したとき、前記選択手段は前記第2の特徴
量として低周波成分の特徴量を選択し、前記適応処理手
段は、前記画像に対して、前記選択された低周波成分の
特徴量に応じた適応処理を行うことを特徴とする請求項
26記載の画像処理装置。
28. When the image type identification unit identifies the image type as a halftone image, the selection unit selects a low frequency component feature amount as the second feature amount, and the adaptive processing unit The image processing apparatus according to claim 26, wherein an adaptive process is performed on the image in accordance with a feature amount of the selected low-frequency component.
【請求項29】 さらに、前記第1、第2の特徴量を基
に第3の特徴量を算出する第3の特徴量算出手段を備
え、前記選択手段は前記画像種識別手段が識別した画像
種を基に前記第3の特徴量を選択し、前記適応処理手段
は前記選択された第3の特徴量に応じた適応処理を施す
ことを特徴とする請求項26記載の画像処理装置。
29. The image processing apparatus according to claim 29, further comprising: third feature value calculating means for calculating a third feature value based on the first and second feature values, wherein the selecting means selects the image identified by the image type identifying means. 27. The image processing apparatus according to claim 26, wherein the third feature amount is selected based on a seed, and the adaptive processing unit performs an adaptive process according to the selected third feature amount.
【請求項30】 前記画像種識別手段が前記画像種を文
字画像と識別したとき、前記選択手段は前記第3の特徴
量算出手段によって算出された第3の特徴量として低周
波成分と高周波成分を含む特徴量を選択し、前記適応処
理手段は、前記画像に対して、前記選択された高周波成
分と低周波成分を含む特徴量に応じた適応処理を行うこ
とを特徴とする請求項29記載の画像処理装置。
30. When the image type identification unit identifies the image type as a character image, the selection unit sets a low frequency component and a high frequency component as the third feature amount calculated by the third feature amount calculation unit. 30. The image processing apparatus according to claim 29, wherein the adaptive processing unit performs an adaptive process on the image in accordance with the selected characteristic amount including the high-frequency component and the low-frequency component. Image processing device.
【請求項31】 前記第3の特徴量算出手段は、低周波
成分の特徴量と高周波成分の特徴量を混合することによ
り前記第3の特徴量を算出することを特徴とする請求項
29または30記載の画像処理装置。
31. The method according to claim 29, wherein the third feature value calculating means calculates the third feature value by mixing a feature value of a low-frequency component and a feature value of a high-frequency component. 30. The image processing device according to 30.
【請求項32】 所定画像から第1の特徴量を算出する
第1の特徴量算出手段と、前記画像から第2の特徴量を
算出する第2の特徴量算出手段と、前記画像に対して前
記算出された第1の特徴量に応じた適応処理を施す第1
の適応処理手段と、前記画像に対して前記算出された第
2の特徴量に応じた適応処理を施す第2の適応処理手段
と、前記画像の特定成分を検出する特定成分検出手段
と、該検出された特定成分に応じて前記第1の適応処理
手段の出力と前記第2の適応処理手段の出力を混合する
混合手段とを備えたことを特徴とする画像処理装置。
32. A first feature value calculating means for calculating a first feature value from a predetermined image, a second feature value calculating means for calculating a second feature value from the image, and A first step of performing an adaptive process according to the calculated first feature amount;
Adaptive processing means for performing adaptive processing on the image in accordance with the calculated second feature amount; specific component detecting means for detecting a specific component of the image; An image processing apparatus comprising: a mixing unit that mixes an output of the first adaptive processing unit and an output of the second adaptive processing unit in accordance with the detected specific component.
【請求項33】 前記特定成分検出手段は、前記特性成
分として前記画像に占める高周波成分と低周波成分の割
合を検出し、前記混合手段は、前記第1の適応処理手段
の出力を前記画像に占める高周波成分の割合で重み付け
し、前記第2の適応処理手段の出力を前記画像に占める
低周波成分の割合で重み付けすることにより混合するこ
とを特徴とする請求項32記載の画像処理装置。
33. The specific component detecting means detects a ratio of a high frequency component and a low frequency component in the image as the characteristic component, and the mixing means outputs an output of the first adaptive processing means to the image. 33. The image processing apparatus according to claim 32, wherein weighting is performed by a ratio of a high frequency component occupied, and the output of the second adaptive processing unit is mixed by weighting by a ratio of a low frequency component occupying the image.
【請求項34】 所定画像から第1の特徴量を算出する
第1の特徴量算出手段と、前記画像から第2の特徴量を
算出する第2の特徴量算出手段と、前記画像に対して前
記算出された第1の特徴量に応じた適応処理を施す第1
の適応処理手段と、前記画像に対して前記算出された第
2の特徴量に応じた適応処理を施す第2の適応処理手段
と、前記画像の特定成分を検出する特定成分検出手段
と、前記検出された特定成分を基に特定画像の種類を判
定する判定手段と、該判定結果に応じて前記第1の適応
処理手段の出力と前記第2の適応処理手段の出力を混合
または選択する制御手段とを備えたことを特徴とする画
像処理装置。
34. A first feature value calculating means for calculating a first feature value from a predetermined image; a second feature value calculating means for calculating a second feature value from the image; A first step of performing an adaptive process according to the calculated first feature amount;
Adaptive processing means for performing adaptive processing on the image in accordance with the calculated second feature amount; specific component detecting means for detecting a specific component of the image; Determining means for determining the type of the specific image based on the detected specific component; and control for mixing or selecting the output of the first adaptive processing means and the output of the second adaptive processing means in accordance with the determination result And an image processing apparatus.
【請求項35】 前記第1の特徴量は、前記画像から算
出される高周波成分の特徴量であり、前記第1の適応処
理手段は、前記算出される高周波成分の特徴量に応じて
前記画像の高周波成分を適応処理することを特徴とする
請求項32または34記載の画像処理装置。
35. The first feature value is a feature value of a high-frequency component calculated from the image, and the first adaptive processing means performs processing on the image according to the feature value of the calculated high-frequency component. 35. The image processing apparatus according to claim 32, wherein the high-frequency component is adaptively processed.
【請求項36】 前記第2の特徴量は、前記画像から算
出される低周波成分の特徴量であり、前記第2の適応処
理手段は、前記算出される低周波成分の特徴量に応じて
前記画像の低周波成分を適応処理することを特徴とする
請求項32または34記載の画像処理装置。
36. The second feature value is a feature value of a low-frequency component calculated from the image, and the second adaptive processing means calculates the second feature value in accordance with the calculated feature value of the low-frequency component. 35. The image processing apparatus according to claim 32, wherein the low frequency component of the image is adaptively processed.
【請求項37】 前記検出された特定成分は画像に占め
る高周波成分の量と低周波成分の量であり、前記判定手
段は、前記高周波成分の量が所定の第1の値以上であ
り、かつ低周波成分の量が所定の第2の値以上であると
き、前記特定画像を網点上文字画像と判定し、前記制御
手段は、前記第1の適応処理手段の出力を前記画像に占
める高周波成分の割合で重み付けし、前記第2の適応処
理手段の出力を前記画像に占める低周波成分の割合で重
み付けすることにより混合することを特徴とする請求項
34記載の画像処理装置。
37. The detected specific component is an amount of a high-frequency component and an amount of a low-frequency component occupying an image, the determination unit determines that the amount of the high-frequency component is equal to or more than a first predetermined value, and When the amount of the low frequency component is equal to or greater than the second predetermined value, the specific image is determined to be a halftone character image, and the control unit determines that the output of the first adaptive processing unit is a high frequency image occupying the image. 35. The image processing apparatus according to claim 34, wherein weighting is performed by a ratio of components, and the output of the second adaptive processing unit is mixed by weighting by a ratio of a low frequency component occupying the image.
【請求項38】 前記検出された特定成分は画像に占め
る高周波成分の量と低周波成分の量であり、前記判定手
段は、前記低周波成分の量が所定の第3の値よりも低い
とき前記特定画像を網点絵柄画像と判定し、前記制御手
段は、前記第1の適応処理手段の出力を0とし、前記第
2の適応処理手段の出力のみを選択することを特徴とす
る請求項34記載の画像処理装置。
38. The detected specific component is an amount of a high-frequency component and an amount of a low-frequency component in an image, and the determination unit determines that the amount of the low-frequency component is lower than a predetermined third value. 3. The method according to claim 1, wherein the specific image is determined as a halftone picture image, and the control unit sets the output of the first adaptive processing unit to 0 and selects only the output of the second adaptive processing unit. 35. The image processing device according to claim 34.
【請求項39】 前記検出された特定成分は画像に占め
る高周波成分の量と低周波成分の量であり、前記判定手
段は、前記低周波成分の量が所定の第3の値以上である
とき前記特定画像を低線数網点画像と判定し、前記制御
手段は、前記第2の適応処理手段の出力を0とし、前記
第1の適応処理手段の出力のみを選択することを特徴と
する請求項34記載の画像処理装置。
39. The detected specific component is an amount of a high-frequency component and an amount of a low-frequency component occupying an image, and the determination unit determines that the amount of the low-frequency component is equal to or more than a third predetermined value. The specific image is determined to be a low frequency screen image, and the control unit sets the output of the second adaptive processing unit to 0 and selects only the output of the first adaptive processing unit. The image processing device according to claim 34.
【請求項40】 所定画像が入力され、文字画像、印画
紙画像に対して所定処理を行う、請求項32記載の各手
段からなる第1の処理手段と、前記所定画像が入力さ
れ、網点画像に対して所定処理を行う、請求項34記載
の各手段からなる第2の処理手段と、前記所定画像が網
点画像であるか否かを識別する画像識別手段と、前記所
定画像が網点画像であると識別されたとき前記第2の処
理手段の出力を選択し、網点画像でないと識別されたと
き前記第1の処理手段の出力を選択する選択手段とを備
えたことを特徴とする画像処理装置。
40. A first processing means comprising a means for receiving a predetermined image, performing predetermined processing on a character image and a photographic paper image, and receiving the predetermined image, 35. A second processing means comprising means for performing predetermined processing on an image, an image identification means for identifying whether or not the predetermined image is a halftone image, and Selecting means for selecting the output of the second processing means when it is identified as a dot image, and selecting the output of the first processing means when it is identified as not a halftone image. Image processing apparatus.
【請求項41】 所定画像の濃度を判定する濃度判定手
段と、前記画像の第1の特徴量を算出する第1の特徴量
算出手段と、前記画像の第2の特徴量を算出する第2の
特徴量算出手段と、前記濃度判定手段の判定結果を基に
前記第1の特徴量または第2の特徴量を選択する選択手
段と、該選択された特徴量に応じた適応処理を施す適応
処理手段とを備えたことを特徴とする画像処理装置。
41. A density determining means for determining the density of a predetermined image, a first characteristic value calculating means for calculating a first characteristic value of the image, and a second characteristic value calculating means for calculating a second characteristic value of the image. Characteristic amount calculating means, selecting means for selecting the first characteristic amount or the second characteristic amount based on the determination result of the density determining means, and adaptation for performing an adaptive process according to the selected characteristic amount. An image processing apparatus comprising: processing means.
【請求項42】 前記適応処理手段は所定量を制御する
ための所定係数を算出する係数算出手段を備え、前記濃
度判定手段で判定された濃度が所定値未満であるとき、
前記選択手段は前記第1の特徴量として高周波成分の特
徴量を選択し、前記濃度判定手段で判定された濃度が所
定値以上であるとき、前記選択手段は前記第2の特徴量
として低周波成分の特徴量を選択し、前記選択された低
周波成分の特徴量または高周波成分の特徴量に応じて前
記係数算出手段は所定係数を算出することを特徴とする
請求項41記載の画像処理装置。
42. The adaptive processing means includes a coefficient calculating means for calculating a predetermined coefficient for controlling a predetermined amount, and when the density determined by the density determining means is less than a predetermined value,
The selection means selects a high-frequency component feature quantity as the first feature quantity, and when the density determined by the density determination means is equal to or higher than a predetermined value, the selection means sets the low-frequency component as the second feature quantity. 42. The image processing apparatus according to claim 41, wherein a characteristic amount of the component is selected, and the coefficient calculating unit calculates a predetermined coefficient in accordance with the selected characteristic amount of the low frequency component or the characteristic amount of the high frequency component. .
【請求項43】 前記選択された低周波成分の特徴量ま
たは高周波成分の特徴量が所定値を超えるとき、前記係
数算出手段は前記特徴量に応じた係数を算出し、該算出
された係数によって前記所定量を制御することを特徴と
する請求項42記載の画像処理装置。
43. When the characteristic amount of the selected low-frequency component or the characteristic amount of the high-frequency component exceeds a predetermined value, the coefficient calculating means calculates a coefficient corresponding to the characteristic amount, and calculates the coefficient based on the calculated coefficient. The image processing apparatus according to claim 42, wherein the predetermined amount is controlled.
【請求項44】 前記選択された低周波成分の特徴量ま
たは高周波成分の特徴量が所定値以下のとき、前記係数
算出手段は最小の係数を算出し、該算出された最小の係
数によって前記所定量を最小値に制御することを特徴と
する請求項42記載の画像処理装置。
44. When the characteristic amount of the selected low-frequency component or the characteristic amount of the high-frequency component is equal to or smaller than a predetermined value, the coefficient calculating means calculates a minimum coefficient, and calculates the predetermined coefficient by the calculated minimum coefficient. 43. The image processing apparatus according to claim 42, wherein the quantification is controlled to a minimum value.
【請求項45】 前記第1の特徴量算出手段は、2次微
分フィルタにより高周波成分の特徴量を算出することを
特徴とする請求項26、32、34または41記載の画
像処理装置。
45. The image processing apparatus according to claim 26, wherein the first feature value calculating means calculates a feature value of a high frequency component using a secondary differential filter.
【請求項46】 前記第2の特徴量算出手段は、1次微
分フィルタにより低周波成分の特徴量を算出することを
特徴とする請求項26、32、34または41記載の画
像処理装置。
46. The image processing apparatus according to claim 26, wherein the second feature value calculating means calculates a feature value of a low frequency component using a first-order differential filter.
【請求項47】 前記特徴量は、画像のエッジ量である
ことを特徴とする請求項26〜32、34〜36、41
〜47のいずれか一つに記載の画像処理装置。
47. The apparatus according to claim 26, wherein the characteristic amount is an edge amount of an image.
48. The image processing apparatus according to any one of -47.
【請求項48】 前記適応処理は、エッジ強調処理であ
ることを特徴とする請求項26〜30、32〜39のい
ずれか一つに記載の画像処理装置。
48. The image processing apparatus according to claim 26, wherein said adaptive processing is edge enhancement processing.
【請求項49】 前記適応処理は、墨生成および下色除
去処理であることを特徴とする請求項41または42記
載の画像処理装置。
49. An image processing apparatus according to claim 41, wherein said adaptive processing is black generation and undercolor removal processing.
【請求項50】 前記所定量は、墨量および下色除去量
であることを特徴とする請求項42、43または44記
載の画像処理装置。
50. The image processing apparatus according to claim 42, wherein the predetermined amount is a black amount and an undercolor removal amount.
【請求項51】 所定画像を入力する機能と、前記画像
を文字画像、網点画像、連続階調画像の何れかに像域識
別する機能と、前記画像から第1の特性のエッジ量を算
出する機能と、前記画像から第2の特性のエッジ量を算
出する機能と、前記像域識別された画像種を基に前記第
1、第2のエッジ量から何れか1つのエッジ量を選択す
る機能と、前記画像に対して前記選択されたエッジ量に
応じたエッジ強調処理を施す機能と、エッジ強調処理さ
れた画像を出力する機能をコンピュータに実現させるた
めのプログラムを記録したコンピュータ読み取り可能な
記録媒体。
51. A function of inputting a predetermined image, a function of discriminating the image into one of a character image, a halftone image, and a continuous tone image, and calculating an edge amount having a first characteristic from the image. A function for calculating an edge amount of the second characteristic from the image, and selecting one of the first and second edge amounts based on the image type identified in the image area. A computer-readable program storing a program for causing a computer to implement a function, a function of performing edge enhancement processing on the image in accordance with the selected edge amount, and a function of outputting an image subjected to edge enhancement processing. recoding media.
【請求項52】 さらに、前記第1のエッジ量と第2の
エッジ量から第3のエッジ量を算出する機能と、前記像
域識別された画像種を基に前記第3のエッジ量を選択す
る機能と、該選択された第3のエッジ量に応じたエッジ
強調処理を施す機能を記録した請求項51記載の記録媒
体。
52. A function for calculating a third edge amount from the first edge amount and the second edge amount, and selecting the third edge amount based on the image type identified in the image area. 52. The recording medium according to claim 51, further comprising a function of performing an edge emphasizing process according to the selected third edge amount.
【請求項53】 所定画像を入力する機能と、前記画像
から第1の特性のエッジ量を算出する機能と、前記画像
から第2の特性のエッジ量を算出する機能と、前記画像
に対して前記算出された第1のエッジ量に応じた第1の
エッジ強調処理を施す機能と、前記画像に対して前記算
出された第2のエッジ量に応じた第2のエッジ強調処理
を施す機能と、前記画像の周波数成分を検出する機能
と、該検出された周波数成分に応じて前記第1のエッジ
強調処理が施された出力と前記第2のエッジ強調処理が
施された出力を混合処理する機能と、混合処理された画
像を出力する機能をコンピュータに実現させるためのプ
ログラムを記録したコンピュータ読み取り可能な記録媒
体。
53. A function of inputting a predetermined image, a function of calculating an edge amount of a first characteristic from the image, a function of calculating an edge amount of a second characteristic from the image, A function of performing a first edge enhancement process in accordance with the calculated first edge amount, and a function of performing a second edge enhancement process in accordance with the calculated second edge amount on the image. A function of detecting a frequency component of the image, and a process of mixing the output subjected to the first edge enhancement process and the output subjected to the second edge enhancement process in accordance with the detected frequency component A computer-readable recording medium on which a program for causing a computer to realize a function and a function of outputting a mixed processed image is recorded.
【請求項54】 所定画像を入力する機能と、前記画像
から第1の特性のエッジ量を算出する機能と、前記画像
から第2の特性のエッジ量を算出する機能と、前記画像
に対して前記算出された第1のエッジ量に応じた第1の
エッジ強調処理を施す機能と、前記画像に対して前記算
出された第2のエッジ量に応じた第2のエッジ強調処理
を施す機能と、前記画像の周波数成分を検出する機能
と、該検出された周波数成分を基に網点画像の種類を判
定する機能と、該判定結果に応じて前記第1のエッジ強
調処理が施された出力と前記第2のエッジ強調処理が施
された出力を混合または選択する機能と、混合または選
択された画像を出力する機能をコンピュータに実現させ
るためのプログラムを記録したコンピュータ読み取り可
能な記録媒体。
54. A function of inputting a predetermined image, a function of calculating an edge amount of a first characteristic from the image, a function of calculating an edge amount of a second characteristic from the image, A function of performing a first edge enhancement process in accordance with the calculated first edge amount, and a function of performing a second edge enhancement process in accordance with the calculated second edge amount on the image. A function of detecting a frequency component of the image, a function of determining the type of a halftone image based on the detected frequency component, and an output having been subjected to the first edge enhancement processing according to the determination result. And a computer-readable recording medium storing a program for causing a computer to realize a function of mixing or selecting an output subjected to the second edge enhancement processing and a function of outputting a mixed or selected image.
【請求項55】 所定画像を入力する機能と、前記画像
の濃度を判定する機能と、前記画像から第1の特性のエ
ッジ量を算出する機能と、前記画像から第2の特性のエ
ッジ量を算出する機能と、前記濃度判定結果を基に前記
第1のエッジ量または第2のエッジ量を選択する機能
と、該選択されたエッジ量に応じて墨量および下色除去
量を制御する機能をコンピュータに実現させるためのプ
ログラムを記録したコンピュータ読み取り可能な記録媒
体。
55. A function of inputting a predetermined image, a function of determining the density of the image, a function of calculating an edge amount of a first characteristic from the image, and a function of calculating an edge amount of a second characteristic from the image. A calculating function, a function of selecting the first edge amount or the second edge amount based on the density determination result, and a function of controlling the black amount and the undercolor removal amount according to the selected edge amount. Computer-readable recording medium on which a program for causing a computer to realize the above is recorded.
【請求項56】 前記第1の特性のエッジ量は、高周波
成分のエッジ量である請求項51〜55のいずれか一つ
に記載の記録媒体。
56. The recording medium according to claim 51, wherein the edge amount of the first characteristic is an edge amount of a high-frequency component.
【請求項57】 前記第2の特性のエッジ量は、低周波
成分のエッジ量である請求項51〜55のいずれか一つ
に記載の記録媒体。
57. The recording medium according to claim 51, wherein the edge amount of the second characteristic is an edge amount of a low frequency component.
【請求項58】 前記第3の特性のエッジ量は、高周波
成分のエッジ量と低周波成分のエッジ量を混合したエッ
ジ量である請求項52記載の記録媒体。
58. The recording medium according to claim 52, wherein the edge amount of the third characteristic is an edge amount obtained by mixing an edge amount of a high-frequency component and an edge amount of a low-frequency component.
JP2000352052A 2000-11-20 2000-11-20 Image processing method, image processor and recording medium Pending JP2002158872A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000352052A JP2002158872A (en) 2000-11-20 2000-11-20 Image processing method, image processor and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000352052A JP2002158872A (en) 2000-11-20 2000-11-20 Image processing method, image processor and recording medium

Publications (1)

Publication Number Publication Date
JP2002158872A true JP2002158872A (en) 2002-05-31

Family

ID=18825002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000352052A Pending JP2002158872A (en) 2000-11-20 2000-11-20 Image processing method, image processor and recording medium

Country Status (1)

Country Link
JP (1) JP2002158872A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004350095A (en) * 2003-05-23 2004-12-09 Noritsu Koki Co Ltd Photographic image processing method and apparatus thereof
JP2010114879A (en) * 2008-10-08 2010-05-20 Nikon Corp Image processing method
JP2010130119A (en) * 2008-11-25 2010-06-10 Samsung Electronics Co Ltd Image processor, image processing method, program, and display device
WO2013047284A1 (en) * 2011-09-26 2013-04-04 シャープ株式会社 Image processing device, image processing method, image processing program, and recording medium storing image processing program
KR20160053756A (en) * 2014-10-29 2016-05-13 삼성디스플레이 주식회사 Image processing apparatus and image processing method
CN114486903A (en) * 2021-12-06 2022-05-13 浙江大学台州研究院 Gray-scale self-adaptive coiled material detection system, device and algorithm
JP7330337B2 (en) 2018-03-15 2023-08-21 キヤノン株式会社 Image processing device, image processing method, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004350095A (en) * 2003-05-23 2004-12-09 Noritsu Koki Co Ltd Photographic image processing method and apparatus thereof
JP2010114879A (en) * 2008-10-08 2010-05-20 Nikon Corp Image processing method
JP2010130119A (en) * 2008-11-25 2010-06-10 Samsung Electronics Co Ltd Image processor, image processing method, program, and display device
WO2013047284A1 (en) * 2011-09-26 2013-04-04 シャープ株式会社 Image processing device, image processing method, image processing program, and recording medium storing image processing program
KR20160053756A (en) * 2014-10-29 2016-05-13 삼성디스플레이 주식회사 Image processing apparatus and image processing method
JP2016086387A (en) * 2014-10-29 2016-05-19 三星ディスプレイ株式會社Samsung Display Co.,Ltd. Image processing apparatus, image processing method, and program
KR102331783B1 (en) * 2014-10-29 2021-11-30 삼성디스플레이 주식회사 Image processing apparatus and image processing method
JP7330337B2 (en) 2018-03-15 2023-08-21 キヤノン株式会社 Image processing device, image processing method, and program
CN114486903A (en) * 2021-12-06 2022-05-13 浙江大学台州研究院 Gray-scale self-adaptive coiled material detection system, device and algorithm
CN114486903B (en) * 2021-12-06 2024-05-14 浙江大学台州研究院 Gray-scale self-adaptive coiled material detection system, device and algorithm

Similar Documents

Publication Publication Date Title
JP4112362B2 (en) System and method for enhancing scanned document images for color printing
US20110285871A1 (en) Image processing apparatus, image processing method, and computer-readable medium
JP4988624B2 (en) Image processing apparatus, image processing method, and recording medium
JP4099936B2 (en) Image processing apparatus, image processing method, and recording medium storing image processing program
CN110619608B (en) Image processing apparatus, control method thereof, and storage medium
JP2009038537A (en) Image processor, image formation device, image processing program, and recording medium for recording image processing program therein
JP5275325B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP2009266233A (en) Image processor and image processing method
JP2002077623A (en) Image processing apparatus
JP6976824B2 (en) Image processing equipment, image processing methods, and programs
JP2002158872A (en) Image processing method, image processor and recording medium
JP2777202B2 (en) Image processing device
JP3464006B2 (en) Digital color image reproduction device
US8665498B2 (en) Method and system for automatically detecting and processing halftone regions in scanned documents
JP2003283835A (en) Image processor
JP6474315B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium therefor
JPH08181864A (en) Picture processor
JP4084537B2 (en) Image processing apparatus, image processing method, recording medium, and image forming apparatus
JP2010206725A (en) Image processor, image forming device, image processing method, program, and recording medium
JP3946410B2 (en) Image processing device
JP3007102B2 (en) Image processing device
JP2702133B2 (en) Image processing method
JP2010278924A (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP2000152006A (en) Smoothing processor
JP3262834B2 (en) Color image processing equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070905