JP2000032287A - Image processor and image processing method - Google Patents

Image processor and image processing method

Info

Publication number
JP2000032287A
JP2000032287A JP10200961A JP20096198A JP2000032287A JP 2000032287 A JP2000032287 A JP 2000032287A JP 10200961 A JP10200961 A JP 10200961A JP 20096198 A JP20096198 A JP 20096198A JP 2000032287 A JP2000032287 A JP 2000032287A
Authority
JP
Japan
Prior art keywords
image
correction
processing
color
lightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10200961A
Other languages
Japanese (ja)
Inventor
Natsumi Miyazawa
なつみ 宮澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP10200961A priority Critical patent/JP2000032287A/en
Publication of JP2000032287A publication Critical patent/JP2000032287A/en
Pending legal-status Critical Current

Links

Landscapes

  • Color Image Communication Systems (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To attain high speed processing by automatically discriminating a type of an input image and outputting the image with/without adaptive gradation correction processing depending on the result of discrimination to prevent deterioration in image quality being a side effect of gradation correction. SOLUTION: In the operation of discriminating a type of a received image, a lightness distribution information extract section 301 generates a histogram of lightness based on processing object image data and a color number count section 302 counts number of colors expressed based on combinations of R, G, B of the processing object image data. A feature variable analysis section 303 extracts minimum lightness, maximum lightness and number of peaks where the lightness takes maximum values as feature variables based on a distribution shape of the lightness histogram. In the case that the lightness distribution is not widely distributed to an all gradation area or the lightness is concentrated on a few specific gradation areas by comparing the feature variables with a prescribed threshold level, it is discriminated that the image is a graphical image and gradation correction processing is stopped. In the case that number of colors is less than a prescribed threshold value, it is discriminated that the image receives processing such as dither processing and the gradation correction processing is stopped.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置及び
画像処理方法に係り、特に処理対象の画像に対し、階調
補正、コントラスト補正、カラーバランス補正などの画
像補正処理を施すための画像処理装置及び画像処理方法
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing method, and more particularly to an image processing apparatus for performing image correction processing such as gradation correction, contrast correction and color balance correction on an image to be processed. The present invention relates to an apparatus and an image processing method.

【0002】[0002]

【従来の技術】昨今のデジタルカメラ、デジタルスキャ
ナあるいはプリンタ等の画像入出力装置の普及及びそれ
に付随するデジタル画像処理技術の発展に伴って、より
高い画像品質が市場で求められるようになってきてい
る。例えば、デジタルカメラで撮影した画像をカラーC
RTに表示する場合や、フラットベッドスキャナにより
読み取ったカラー原稿を電子写真/インクジェット方式
などのプリンタで出力する場合などには、個々の画像入
出力装置の特性を補正するばかりでなく、例えば、原画
像の撮影条件や、原稿の保存状態による画像への影響等
を考慮した適切な補正処理(以下、適応的補正処理とい
う。)を施して、より高画質の画像を得る技術が各種提
案されている。
2. Description of the Related Art With the spread of image input / output devices such as digital cameras, digital scanners and printers, and the development of digital image processing technology associated therewith, higher image quality is required in the market. I have. For example, an image captured by a digital camera
When displaying on an RT or outputting a color original read by a flatbed scanner with a printer such as an electrophotographic / inkjet system, not only the characteristics of each image input / output device are corrected but also, for example, There have been proposed various techniques for obtaining a higher-quality image by performing an appropriate correction process (hereinafter, referred to as an adaptive correction process) in consideration of an image capturing condition, an influence of a document storage state on an image, and the like. I have.

【0003】より具体的には、デジタルカメラで撮影し
た人物の肌の色をより健康的な肌色に変換して画像表示
したり、室内で撮影した露光不足の写真などを明るくシ
ャープな画像に変換したり、新聞紙や雑誌の紙面にある
低濃度部の濁りをカットしてより読みやすい複写物を得
たりする技術がこれに該当する。また、画像補正処理と
しては、階調補正、コントラスト補正、カラーバランス
補正、精細度補正、モアレ除去あるいはノイズ除去など
が挙げられる。
More specifically, a person's skin color photographed by a digital camera is converted into a healthier skin color to display an image, or an underexposed photograph photographed indoors is converted into a bright and sharp image. For example, a technique of cutting turbidity of a low-density portion on a newspaper or a magazine to obtain a more readable copy. Examples of the image correction processing include gradation correction, contrast correction, color balance correction, fineness correction, moiré removal, noise removal, and the like.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、処理対
象のあらゆる画像に対して、適応的補正処理を施してし
まうと、不具合が生じてしまう場合があった。ここで、
適応的補正処理による不具合について図17及び図18
を参照して説明する。図17に画像コントラストを自動
的に補正する場合の例を示す。図17の画像コントラス
ト自動補正方式としては、公知技術である累積ヒストグ
ラムを補正テーブルとして使用する手法を用いている。
図17(a)は、処理対象画像であり、図に示すように
中央部は明るく左右端部にいくに従って、暗くなる8ビ
ット/画素のグラデーション画像を表している。
However, if an adaptive correction process is applied to all images to be processed, a problem may occur. here,
Faults due to adaptive correction processing FIGS. 17 and 18
This will be described with reference to FIG. FIG. 17 shows an example in which the image contrast is automatically corrected. As the image contrast automatic correction method in FIG. 17, a method using a cumulative histogram, which is a known technique, as a correction table is used.
FIG. 17A shows an image to be processed, which is a gradation image of 8 bits / pixel which becomes brighter at the center and darker toward the left and right ends as shown in the figure.

【0005】図17(b)は、図17(a)の画像の累
積ヒストグラムを示すものである。図17(b)に示す
ように、累積ヒストグラムは、上に凸の曲線を描いてい
るが、この累積ヒストグラムを図17(c)に示す補正
曲線を用いて補正を行うと、図17(d)に示すような
処理結果画像が得られることとなる。このような補正
は、例えば、デジタルカメラで撮像した画像やスキャナ
で取り込んだ写真などの自然画像の場合には、コントラ
スト改善効果がある。しかしながら、得られる階調変化
が原画像の場合と比較して、より階段状となってしまう
ため、例えば、イラストやCG(Computer Graphics)
の場合には、中間階調におけるグラデーションのリニア
リティが画像作成者の意図したもの異なってしまう場合
が多く、結果として逆効果になってしまうという不具合
が生じる。
FIG. 17 (b) shows a cumulative histogram of the image of FIG. 17 (a). As shown in FIG. 17B, the cumulative histogram has an upwardly convex curve. When the cumulative histogram is corrected by using the correction curve shown in FIG. 17C, FIG. ) Will be obtained. Such a correction has a contrast improving effect in the case of a natural image such as an image captured by a digital camera or a photograph captured by a scanner. However, the obtained gradation change becomes more stair-like than in the case of the original image, and thus, for example, an illustration or CG (Computer Graphics)
In the case of (1), the linearity of the gradation at the intermediate gradation often differs from that intended by the image creator, resulting in a disadvantage that the effect is adversely affected.

【0006】次に図18を参照してダイナミックレンジ
の変換によるコントラスト補正の一例を示す。図18
(a)は、8ビット/画素の処理対象画像であり、図1
8(b)は、その階調分布を示している。ダイナミック
レンジ変換によるコントラスト補正の場合には、図18
(b)における階調分布の最小階調値A及び最大階調値
Bを変換基準点として、量子化幅を変更する。より具体
的には、256階調(=階調値0〜255)の場合、最
小階調値Aを階調値=0とし、最大階調値Bを階調値=
255とする補正曲線(図18(c)参照)により階調
変換を行う。得られる処理画像は、図18(d)に示す
ようなものとなる。
Next, an example of contrast correction by dynamic range conversion will be described with reference to FIG. FIG.
(A) is an image to be processed of 8 bits / pixel, and FIG.
FIG. 8B shows the gradation distribution. In the case of contrast correction by dynamic range conversion, FIG.
The quantization width is changed using the minimum gradation value A and the maximum gradation value B of the gradation distribution in (b) as conversion reference points. More specifically, in the case of 256 gradations (= gradation values 0 to 255), the minimum gradation value A is set to gradation value = 0, and the maximum gradation value B is set to gradation value =
The gradation conversion is performed using a correction curve of 255 (see FIG. 18C). The obtained processed image is as shown in FIG.

【0007】このダイナミックレンジ変換によるコント
ラスト補正処理は、画像のコントラストを強調する効果
があり、処理対象画像が文字や線画の場合には、可読性
が向上する。しかしながら、処理対象画像に所定の階調
状態が要求されるような場合、例えば、処理対象画像が
会社や製品のロゴ等のような場合には、補正処理に伴う
階調状態の変化や色の変化はあまり望ましいものとはい
えないという不具合が生じる。以上の説明においては、
例として、グレイスケール(256階調)のグラデーシ
ョン画像の階調性を取り上げたが、同様の問題は、カラ
ー画像についても発生し、階調性や色再現性に不具合が
発生する。また、精細度を自動補正する空間フィルタの
場合にもエッジ部の過強調が生じる場合がある。
The contrast correction processing by the dynamic range conversion has an effect of enhancing the contrast of an image. When the processing target image is a character or a line drawing, the readability is improved. However, when a predetermined gradation state is required for the processing target image, for example, when the processing target image is a logo of a company or a product, the change in the gradation state and the color The disadvantage is that the change is not very desirable. In the above description,
As an example, the gradation property of a gray scale (256 gradation) gradation image has been taken up. However, the same problem also occurs in a color image, and a problem occurs in gradation property and color reproducibility. Also, in the case of a spatial filter that automatically corrects definition, over-emphasis of an edge portion may occur.

【0008】以上の説明のように、適応的な画像補正処
理は処理対象画像によっては必ずしもユーザの意図した
画像を得られるとは限らない。従って、適応的な補正処
理を行うに先立って、当該適応的補正処理を施すべき画
像と施すべきではない画像とを自動的に識別することが
望まれる。特に、昨今ではネットワークを介して、ある
いは、各種記録媒体を介して画像データを入出する機会
が増加しており、このような状況下では処理対象画像が
どのような条件で入力、撮影あるいは作成されたもので
あるかを特定することは困難であり、より一層適応的補
正処理を施すべき画像と施すべきではない画像とを自動
的に識別することが望まれている。そこで、本発明の目
的は、適応的補正処理を施すべき画像か否かを自動的に
識別し、適切な補正処理を行うことが可能な画像処理装
置及び画像処理方法を提供することにある。
As described above, the adaptive image correction processing cannot always obtain an image intended by the user depending on an image to be processed. Therefore, prior to performing the adaptive correction processing, it is desired to automatically identify an image to be subjected to the adaptive correction processing and an image not to be subjected to the adaptive correction processing. In particular, in recent years, the number of opportunities to input and output image data via a network or via various recording media has increased, and under such circumstances, the image to be processed is input, photographed, or created under any conditions. It is difficult to specify whether the image has undergone the adaptive correction process, and it is desired that the image to be subjected to the adaptive correction process be automatically identified. Therefore, an object of the present invention is to provide an image processing apparatus and an image processing method capable of automatically identifying whether or not an image to be subjected to adaptive correction processing and performing appropriate correction processing.

【0009】[0009]

【課題を解決するための手段】上記課題を解決するた
め、請求項1記載の構成は、入力された画像データに対
応する画像の種別を判別する画像種別判別手段と、前記
画像の特徴を表す特徴量を抽出する特徴量抽出手段と、
前記画像データに対し、前記特徴量に対応する画像補正
処理を施す画像補正手段と、判別した前記画像の種別に
基づいて前記画像データに対する前記画像補正処理を禁
止する補正処理禁止手段と、を備えたことを特徴として
いる。
According to an aspect of the present invention, there is provided an image processing apparatus comprising: an image type determining unit configured to determine a type of an image corresponding to input image data; A feature amount extracting means for extracting a feature amount;
Image correction means for performing image correction processing corresponding to the feature amount on the image data, and correction processing prohibition means for prohibiting the image correction processing on the image data based on the determined type of the image. It is characterized by that.

【0010】請求項2記載の構成は、請求項1記載の構
成において、前記画像種別判別手段は、前記画像につい
ての色数あるいは階調数に基づいて前記画像の種別を判
別することを特徴としている。
According to a second aspect of the present invention, in the configuration of the first aspect, the image type determining means determines the type of the image based on the number of colors or the number of gradations of the image. I have.

【0011】請求項3記載の構成は、請求項1または請
求項2に記載の構成において、前記画像種別判別手段
は、前記画像がピクトリアル画像か否かを判別するピク
トリアル判別手段を備え、前記補正処理禁止手段は、前
記ピクトリアル判別手段の判別により前記画像がピクト
リアル画像ではない場合に前記画像補正処理を禁止する
ことを特徴としている。
According to a third aspect of the present invention, in the configuration of the first or second aspect, the image type determination unit includes a pictorial determination unit that determines whether the image is a pictorial image. The correction processing prohibiting means prohibits the image correction processing when the image is not a pictorial image by the discrimination of the pictorial determination means.

【0012】請求項4記載の構成は、請求項1または請
求項2に記載の構成において、前記画像種別判別手段
は、前記画像がカラー画像あるいはグレースケール画像
のいずれであるかを判別するカラー/グレイスケール判
別手段と、前記画像がカラー画像である場合に、当該画
像についての色数を判別する色数判別手段と、前記画像
がグレイスケール画像である場合に、当該画像について
の階調数を判別する階調数判別手段と、を備え、前記補
正処理禁止手段は、前記カラー/グレイスケール判別手
段、前記色数判別手段及び前記階調数判別手段の判別に
より前記画像がカラー画像であり、かつ、その色数が所
定の色数未満の画像である場合あるいは前記画像がグレ
イスケール画像であり、かつ、その階調数が所定の階調
数未満である場合に前記画像補正処理を禁止することを
特徴としている。
According to a fourth aspect of the present invention, in the configuration of the first or second aspect, the image type determining unit determines whether the image is a color image or a grayscale image. A gray scale determining unit, a color number determining unit that determines the number of colors of the image when the image is a color image, and a gray scale number of the image when the image is a gray scale image. A tone number discriminating means for discriminating, wherein the correction processing prohibiting means is a color image by the color / gray scale discriminating means, the color number discriminating means and the tone number discriminating means, And when the number of colors is less than a predetermined number of colors or when the image is a gray scale image and the number of gradations is less than a predetermined number of gradations, It is characterized by prohibiting the serial image correction processing.

【0013】請求項5記載の構成は、請求項4記載の構
成において、前記補正処理禁止手段は、前記画像がカラ
ー画像あるいはグレイスケール画像のいずれでもない場
合に、前記画像補正処理を禁止することを特徴としてい
る。
According to a fifth aspect of the present invention, in the configuration of the fourth aspect, the correction processing inhibiting means inhibits the image correction processing when the image is neither a color image nor a grayscale image. It is characterized by.

【0014】請求項6記載の構成は、請求項1ないし請
求項5のいずれかに記載の画像処理装置において、前記
画像補正手段は、前記画像の明度補正処理を行う明度補
正処理手段を備えたことを特徴としている。
According to a sixth aspect of the present invention, in the image processing apparatus according to any one of the first to fifth aspects, the image correction means includes a brightness correction processing means for performing brightness correction processing of the image. It is characterized by:

【0015】請求項7記載の構成は、請求項1ないし請
求項5のいずれかに記載の画像処理装置において、前記
画像補正手段は、前記画像の彩度補正処理を行う彩度補
正処理手段を備えたことを特徴としている。
According to a seventh aspect of the present invention, in the image processing apparatus according to any one of the first to fifth aspects, the image correction means includes a saturation correction processing means for performing a saturation correction processing of the image. It is characterized by having.

【0016】請求項8記載の構成は、請求項1ないし請
求項5のいずれかに記載の画像処理装置において、前記
画像補正手段は、前記画像のカラーバランス補正処理を
行うカラーバランス補正処理手段を備えたことを特徴と
している。
According to an eighth aspect of the present invention, in the image processing apparatus according to any one of the first to fifth aspects, the image correction means includes a color balance correction processing means for performing a color balance correction processing of the image. It is characterized by having.

【0017】請求項9記載の構成は、入力画像の種別を
判別する画像種別判別工程と、前記画像の特徴を表す特
徴量を抽出する特徴量抽出工程と、前記入力画像に対
し、前記特徴量に対応する画像補正処理を施す画像補正
工程と、判別した前記画像の種別に基づいて前記入力画
像に対する前記画像補正処理を禁止する補正処理禁止工
程と、を備えたことを特徴としている。
According to a ninth aspect of the present invention, there is provided an image type determining step of determining a type of an input image, a characteristic amount extracting step of extracting a characteristic amount representing a characteristic of the image, And a correction prohibition step of prohibiting the image correction processing on the input image based on the determined type of the image.

【0018】請求項10記載の構成は、請求項9記載の
構成において、前記画像種別判別工程は、前記画像がカ
ラー画像あるいはグレースケール画像のいずれであるか
を判別するカラー/グレイスケール判別工程と、前記画
像がカラー画像である場合に、当該画像についての色数
を判別する色数判別工程と、前記画像がグレイスケール
画像である場合に、当該画像についての階調数を判別す
る階調数判別工程と、を備え、前記補正処理禁止工程
は、前記カラー/グレイスケール判別工程、前記色数判
別工程及び前記階調数判別工程における判別により前記
画像がカラー画像であり、かつ、その色数が所定の色数
未満の画像である場合あるいは前記画像がグレイスケー
ル画像であり、かつ、その階調数が所定の階調数未満で
ある場合に前記画像補正処理を禁止することを特徴とし
ている。
According to a tenth aspect of the present invention, in the configuration of the ninth aspect, the image type determining step includes a color / gray scale determining step of determining whether the image is a color image or a gray scale image. A color number determining step of determining the number of colors of the image when the image is a color image; and a gray scale number of determining the number of gray levels of the image when the image is a gray scale image. A correction step, wherein the correction processing prohibiting step is a step in which the image is a color image by the determination in the color / gray scale determination step, the color number determination step, and the gradation number determination step, and Is an image with less than a predetermined number of colors, or when the image is a grayscale image and the number of tones is less than a predetermined number of tones, It is characterized by prohibiting the correction process.

【0019】[0019]

【発明の実施の形態】次に図面を参照して本発明の好適
な実施形態について説明する。 [1] 第1実施形態 [1.1] 第1実施形態の画像処理装置の構成例 図1に第1実施形態の画像処理装置の構成例を示す。画
像処理装置100は、画像処理装置100全体を制御す
るためのCPU101と、画像処理装置100の内部バ
スの制御を行うバスコントローラ102と、後述の画像
蓄積部110に蓄積されている画像データに基づいて各
種表示を行うCRT103と、CRT103を制御する
ためのCRTコントローラ104と、各種データを入力
するためのマウスやデジタイザなどのポインティングデ
バイスやキーボード等を含む操作部105と、操作部1
05とバスとの間のインターフェース動作を行うインタ
ーフェース部106と、制御用プログラムあるいは制御
用データなどを記憶するROM107と、各種データを
一時的に記憶するためのRAM108と、ダイレクトメ
モリアクセスコントロールを行うためのDMAコントロ
ーラ109と、を備えて構成されている。
Preferred embodiments of the present invention will now be described with reference to the drawings. [1] First Embodiment [1.1] Configuration Example of Image Processing Apparatus of First Embodiment FIG. 1 shows a configuration example of an image processing apparatus of a first embodiment. The image processing apparatus 100 is based on a CPU 101 for controlling the entire image processing apparatus 100, a bus controller 102 for controlling an internal bus of the image processing apparatus 100, and image data stored in an image storage unit 110 described later. CRT 103 for performing various displays on the display, a CRT controller 104 for controlling the CRT 103, an operation unit 105 including a pointing device such as a mouse and a digitizer for inputting various data, a keyboard, and the like;
Interface unit 106 for performing an interface operation between the control unit 05 and the bus, a ROM 107 for storing a control program or control data, a RAM 108 for temporarily storing various data, and for performing direct memory access control And a DMA controller 109.

【0020】さらに画像処理装置100は、処理対象画
像の画像データなどの各種画像データを蓄積するための
画像蓄積部110と、画像蓄積部110に蓄積されてい
る画像の種類を判別するための画像判別部111と、画
像判別部111の判別結果に基づいて画像補正を行うべ
き画像に対し、画像補正処理を行う画像補正部112
と、画像原稿を読み取って画像データを生成するための
スキャナ113と、画像出力を行うための電子写真方式
やインクジェット方式のプリンタ114と、スキャナ1
13と内部バスとの間のインターフェース動作を行うイ
ンターフェース部115と、プリンタ114と内部バス
との間のインターフェース動作を行うインターフェース
部116と、ネットワーク118と画像処理装置100
との間のインターフェース動作を行うインターフェース
部119と、を備えて構成されている。
Further, the image processing apparatus 100 includes an image storage unit 110 for storing various image data such as image data of an image to be processed, and an image for determining the type of the image stored in the image storage unit 110. A determination unit 111 and an image correction unit 112 that performs image correction processing on an image to be subjected to image correction based on the determination result of the image determination unit 111
A scanner 113 for reading an image original to generate image data, an electrophotographic or inkjet printer 114 for outputting an image, and a scanner 1
An interface unit 115 that performs an interface operation between the printer 13 and the internal bus; an interface unit 116 that performs an interface operation between the printer 114 and the internal bus; a network 118 and the image processing apparatus 100
And an interface unit 119 that performs an interface operation between the two.

【0021】この場合において、CPU101及びバス
コントローラ102は操作部105を介して操作者が対
話入力を行うことにより他の構成部を制御している。上
記構成において、操作者は、例えばスキャナ113で写
真画像を読込み、画像蓄積部110に格納した後、CR
T102に表示させながら適当な座標指定を行い、指定
された領域内の画像をネットワーク118へ送信したり
する等の画像処理を行う。また、ネットワーク118か
ら入手した画像データを画像蓄積部110に格納し、画
像補正部112で補正処理を施した後、プリンタ114
から出力するような処理も可能である。
In this case, the CPU 101 and the bus controller 102 control other components by the operator performing interactive input via the operation unit 105. In the above configuration, the operator reads a photographic image with, for example, the scanner 113 and stores it in the image storage
Appropriate coordinates are specified while being displayed on T102, and image processing such as transmitting an image in the specified area to the network 118 is performed. Further, the image data obtained from the network 118 is stored in the image storage unit 110, subjected to a correction process by the image correction unit 112, and
It is also possible to perform processing to output from.

【0022】[1.2] 第1実施形態の動作 次に図1及び図2のフローチャートに従って、第1実施
形態の動作について詳細に説明する。まず、処理画像は
バスを介して入力され、画像蓄積部110に一旦保持さ
れる。ここで画像の入力は例えばスキャナ113で原稿
を走査入力してもよいし、あるいはネットワーク118
の通信手段を経由して入手しても良い。画像蓄積部11
0では、それらの入力画像は例えば、BGR各色8ビッ
ト/画素の形式で蓄積保持される(ステップS1)。画
像判別部111では、画像蓄積部110に保持されてい
る画像の特性・種別を判別し(ステップS2)、画像補
正部112による適応的な画像補正を実施するか否かを
判別する(ステップS3)。ステップS3の判別におい
て、画像補正を実行すると判別された場合には(ステッ
プS3;Yes)、画像蓄積部110に格納されている
対象画像は画像補正部112に送られ、画像補正部11
2において適応的な補正処理が実施された(ステップS
4)後、プリンタ114へ画像データが出力される(ス
テップS5)。また、ステップS3の判別において、画
像補正を実行しないと判別された場合には(ステップS
3;No)いう結果が得られた場合には、画像蓄積部1
10に保存されている画像データがそのままプリンタ1
14へ出力される(ステップS5)。
[1.2] Operation of First Embodiment Next, the operation of the first embodiment will be described in detail with reference to the flowcharts of FIGS. First, a processed image is input via a bus and temporarily stored in the image storage unit 110. Here, the input of the image may be performed by scanning and inputting the original with the scanner 113, or the network 118
May be obtained via the communication means. Image storage unit 11
At 0, those input images are stored and held, for example, in the format of 8 bits / pixel for each color of BGR (step S1). The image determining unit 111 determines the characteristics and types of the images stored in the image storage unit 110 (step S2), and determines whether to perform adaptive image correction by the image correcting unit 112 (step S3). ). If it is determined in step S3 that image correction is to be performed (step S3; Yes), the target image stored in the image storage unit 110 is sent to the image correction unit 112, and the image correction unit 11
In step S2, adaptive correction processing was performed (step S
4) After that, the image data is output to the printer 114 (step S5). If it is determined in step S3 that image correction is not to be performed (step S3).
3; No), the image storage unit 1
Image data stored in the printer 10
14 (step S5).

【0023】[1.2.1] 画像補正部の動作 続いて画像補正部112の詳細動作について説明する。
この画像補正部112においては、カラーバランス補
正、コントラスト補正及び精細度補正の3つの補正が施
されるが、これらの補正処理に先立って条件設定処理が
なされる。以下、カラーバランス補正条件設定処理、コ
ントラスト補正条件設定処理、精細度補正条件設定処理
について説明する。
[1.2.1] Operation of Image Correction Unit Next, the detailed operation of the image correction unit 112 will be described.
In the image correction unit 112, three corrections of color balance correction, contrast correction, and definition correction are performed, and a condition setting process is performed prior to these correction processes. Hereinafter, the color balance correction condition setting process, the contrast correction condition setting process, and the definition correction condition setting process will be described.

【0024】[1.2.1.1] カラーバランス補正
条件設定処理 図3にカラーバランス補正条件設定処理の概要処理を示
す。図3(a)は、画像蓄積部110に格納される処理
対象画像のヒストグラムである。まず、R(赤),緑
(G),青(B)それぞれの分布の最小値Rmin,G
min,Bmin及び最大値Rmax,Gmax,Bm
axを検出する。次に、3つの最小値Rmin,Gmi
n,Bmin及び3つの最大値Rmax,Gmax,B
maxの代表値を選定する。
[1.2.1.1] Color Balance Correction Condition Setting Process FIG. 3 shows an outline of the color balance correction condition setting process. FIG. 3A is a histogram of the processing target image stored in the image storage unit 110. First, the minimum values Rmin, G of the respective distributions of R (red), green (G), and blue (B)
min, Bmin and maximum values Rmax, Gmax, Bm
ax is detected. Next, the three minimum values Rmin, Gmi
n, Bmin and three maximum values Rmax, Gmax, B
Select a representative value for max.

【0025】本実施形態においては、最小値Rmin,
Gmin,Bminの中で最も小さい値を最小代表値R
GBminとする。すなわち、 RGBmin=min(Rmin,Gmin,Bmi
n) ここで、関数min()は、最小値を出力する関数であ
る。とする。また、最大値Rmax,Gmax,Bma
xの中で最も大きい値を最大代表値RGBmaxとす
る。すなわち、 RGBmax=max(Rmax,Gmax,Bma
x) ここで、関数max()は、最大値を出力する関数であ
る。とする。続いて、図3(b)に示すようにR,G,
B各信号の最小値及び最大値がそれぞれRGBmin及
びRGBmaxに一致するように、それぞれの量子化レ
ンジ変換用LUT(Look Up Table:図3(c)参照)
を求める。
In this embodiment, the minimum value Rmin,
The smallest value among Gmin and Bmin is the minimum representative value R
GBmin. That is, RGBmin = min (Rmin, Gmin, Bmi
n) Here, the function min () is a function that outputs the minimum value. And Further, the maximum values Rmax, Gmax, Bma
The largest value of x is set as the maximum representative value RGBmax. That is, RGBmax = max (Rmax, Gmax, Bmax
x) Here, the function max () is a function that outputs the maximum value. And Subsequently, as shown in FIG.
B. Each quantization range conversion LUT (Look Up Table: see FIG. 3 (c)) so that the minimum value and the maximum value of each B signal coincide with RGBmin and RGBmax, respectively.
Ask for.

【0026】[1.2.1.2] コントラスト補正条
件設定処理 次に図4を参照してコントラスト補正条件設定処理につ
いて説明する。本第1実施形態においては、コントラス
ト補正処理の手法として公知の技術であるダイナミック
レンジ変換を用いている。まず、図4(a)に示すよう
に、処理対象画像の階調分布最小値Cmin及び階調分
布最大値Cmaxを検出する。ここで、 Cmin=RGBmin Cmax=RGBmax となるので、前段の処理であるカラーバランス補正によ
って求められた最小代表値RGBmin及び最大代表値
RGBmaxに基づいてコントラスト補正を行うことと
なる。そして図4(b)に示すように、階調分布最小値
Cminに等しい入力に対して出力値0、階調分布最大
値Cmaxに等しい入力に対して出力値255となるよ
うにコントラスト変換用LUTを求める。
[1.2.1.2] Contrast Correction Condition Setting Process Next, the contrast correction condition setting process will be described with reference to FIG. In the first embodiment, a dynamic range conversion, which is a known technique, is used as a technique of the contrast correction processing. First, as shown in FIG. 4A, a minimum gradation distribution value Cmin and a maximum gradation distribution value Cmax of an image to be processed are detected. Here, since Cmin = RGBmin Cmax = RGBmax, contrast correction is performed based on the minimum representative value RGBmin and the maximum representative value RGBmax obtained by the color balance correction which is the preceding process. Then, as shown in FIG. 4B, the contrast conversion LUT is set so that the output value is 0 for an input equal to the minimum gradation distribution value Cmin, and the output value is 255 for an input equal to the maximum gradation distribution value Cmax. Ask for.

【0027】[1.2.1.3] 精細度補正条件設定
処理 次に図5及び図6を用いて精細度補正条件設定処理につ
いて説明する。適応的な精細度補正は、処理対象画像中
のエッジ検出を行い、全画像の濃度に対するエッジ部の
濃度によって、空間フィルタの補正係数を決定するもの
である。まず、グレイレベル合計値SUMall及びエ
ッジ部グレイレベル合計値SUMedgを初期化する
(ステップS11)。すなわち、 SUMall=0 SUMedg=0 とする。次に画像蓄積部110に保持されている処理対
象画像を読み込み、各画像のグレイレベルGLを算出す
る(ステップS12)。
[1.2.1.3] Fineness Correction Condition Setting Process Next, the fineness correction condition setting process will be described with reference to FIGS. The adaptive definition correction performs edge detection in an image to be processed, and determines a correction coefficient of a spatial filter based on the density of an edge portion with respect to the density of all images. First, the gray level total value SUMall and the edge gray level total value SUMedg are initialized (step S11). That is, SUMall = 0 and SUMedg = 0. Next, the processing target images stored in the image storage unit 110 are read, and the gray level GL of each image is calculated (step S12).

【0028】ここで、グレイレベルGLは画像の明るさ
のレベルを表す値であり、R,G,B各信号に基づい
て、例えば、次式により算出する。 GL=0.3×R+0.6×G+0.1×B 続いて、グレイレベル信号に対して、図6に示すような
エッジ検出フィルタによる畳み込み演算を実施して(ス
テップS13)、予め設定した所定閾値との比較によっ
て注目画素がエッジ画素であるか否かの判定を行う(ス
テップS14)。ステップS14の判別において、注目
画素がエッジ部であった場合には(ステップS14;Y
es)、グレイレベルGLの値を全画像中のエッジ部グ
レイレベル合計値SUMedgに加算する(ステップS
15)。すなわち、 SUMedg=SUMedg+GL とする。
Here, the gray level GL is a value representing the brightness level of the image, and is calculated based on the R, G, and B signals, for example, by the following equation. GL = 0.3 × R + 0.6 × G + 0.1 × B Subsequently, a convolution operation is performed on the gray level signal by an edge detection filter as shown in FIG. 6 (step S13), and a predetermined predetermined value is set. It is determined whether or not the pixel of interest is an edge pixel by comparing with a threshold value (step S14). If it is determined in step S14 that the pixel of interest is an edge portion (step S14; Y
es), the value of the gray level GL is added to the sum of the gray levels SUMedg of the edge parts in all the images (step S).
15). That is, it is assumed that SUMedg = SUMedg + GL.

【0029】ステップS14の判別において、注目画素
がエッジ部ではない場合には(ステップS14;N
o)、処理をステップS16に移行する。続いて、全画
像のグレイレベル合計値SUMallに注目画素のグレ
イレベルGLを加算する(ステップS16)。次にステ
ップS12〜S16の処理を全ての画素に対して行った
か否かを判別し(ステップS17)、全ての画素に対し
てステップS12〜S16の処理を行っていない場合に
は(ステップS17;No)、同様に処理を繰り返すこ
ととなる。また、全ての画素に対してステップS12〜
S16の処理を行った場合には(ステップS17;Ye
s)、処理対象画像のシャープさを表すシャープ尺度S
HPを次式により算出する(ステップS18)。 SHP=100.0×SUMedg/SUMall 算出されたシャープ尺度SHPに対して予め設定されて
いるRGB各色に対して適応する精細度補正用の空間フ
ィルタ係数を設定する。以上のような補正処理の条件設
定が行われた後、処理対象画像は画像蓄積部110から
画像補正部112に送られ、前記設定された補正条件で
画像補正処理を施された後、プリンタ114から出力さ
れる。
If it is determined in step S14 that the pixel of interest is not an edge portion (step S14; N
o), the process proceeds to step S16. Subsequently, the gray level GL of the target pixel is added to the gray level total value SUAll of all images (step S16). Next, it is determined whether or not the processing of steps S12 to S16 has been performed on all pixels (step S17). If the processing of steps S12 to S16 has not been performed on all pixels (step S17; No), the process is repeated similarly. Steps S12 to S12 are performed for all the pixels.
When the processing of S16 is performed (Step S17; Ye
s), a sharpness scale S representing the sharpness of the image to be processed
HP is calculated by the following equation (step S18). SHP = 100.0 × SUMedg / SUMall A spatial filter coefficient for fineness correction adapted to each of the RGB colors set in advance for the calculated sharp scale SHP is set. After the above-described condition setting of the correction process is performed, the image to be processed is sent from the image storage unit 110 to the image correction unit 112, and after the image correction process is performed under the set correction conditions, the printer 114 Output from

【0030】[1.2.2]画像判別部 次に画像判別部111について、図7及び図8を参照し
て説明する。図7に画像判別部の概要構成ブロック図を
示し、図8に画像判別部の処理フローチャートを示す。
画像判別部111は、入力された画像データに対して、
明度分布情報(ヒストグラム)を抽出する明度分布情報
抽出部301と、画像蓄積部110に蓄積されている処
理対象画像データに対応する処理対象画像のR、G、B
の組み合わせにより表される色数Nを計数する色数計数
部302と、抽出した明度分布情報及び計数した画像の
色数Nに基づいて当該画像データが対応する画像の特徴
量を解析し、適応的な補正処理を当該処理対象画像に対
して施すか否かの判別結果を出力する特徴量解析部30
3と、を備えて構成されている。
[1.2.2] Image Discriminating Section Next, the image discriminating section 111 will be described with reference to FIGS. FIG. 7 shows a schematic block diagram of the image discriminating unit, and FIG. 8 shows a processing flowchart of the image discriminating unit.
The image discriminating unit 111 converts the input image data into
A brightness distribution information extracting unit 301 for extracting brightness distribution information (histogram); and R, G, B of a processing target image corresponding to the processing target image data stored in the image storage unit 110
And a feature number of an image corresponding to the image data based on the extracted lightness distribution information and the number N of colors of the counted image, and adapts. Amount analysis unit 30 that outputs a determination result as to whether or not to apply a dynamic correction process to the processing target image
3 is provided.

【0031】この場合において、明度分布情報抽出部3
01は、画像蓄積部110に保存される処理対象画像デ
ータから、明度を算出しそのヒストグラムを作成する。
本実施形態では、明度値Yとして以下に示す値を用いて
いる。 Y=min(R,G,B) ここで、min()は最小値を出力する関数である。な
お、用いる明度値Yの算出方式は上述した方式に限った
ものではなく、例えばR,G,Bの線形演算で求める方
式やG信号のみで代替する方式等の広く知られた他の方
式により算出することが可能である。以下、図8に従っ
て、特徴量解析部304において、処理対象画像に対し
て補正処理を施すか否かを判別する判別過程について説
明する。特徴量解析部304では、まず明度分布情報抽
出部301において抽出される情報から明度Yの明度最
小値Ymin,明度最大値Ymax及び明度極大値ポイ
ント数Ypeakを算出する(ステップS21)。
In this case, the brightness distribution information extracting unit 3
01 calculates the brightness from the processing target image data stored in the image storage unit 110 and creates a histogram thereof.
In the present embodiment, the following values are used as the lightness value Y. Y = min (R, G, B) Here, min () is a function that outputs a minimum value. The method of calculating the brightness value Y to be used is not limited to the above-described method, but may be any other widely known method such as a method of obtaining a linear operation of R, G, and B, or a method of substituting only the G signal. It is possible to calculate. Hereinafter, a determination process in which the feature amount analysis unit 304 determines whether or not to perform the correction process on the processing target image will be described with reference to FIG. First, the feature amount analysis unit 304 calculates the minimum brightness value Ymin, maximum brightness value Ymax, and maximum brightness value point number Ypeak of the brightness Y from the information extracted by the brightness distribution information extraction unit 301 (step S21).

【0032】ここで、明度最小値Ymin及び明度最大
値Ymaxは、スキャナでの読取ノイズや画像通信時の
圧縮による劣化などを加味して、低階調側及び高階調側
からそれぞれ5%の分布を示す階調レベルを求めて、そ
れぞれ明度最小値Ymin、明度最大値Ymaxとする
(図9参照)。また、明度極大値ポイント数Ypeak
は、明度Yがある所定閾値以上の分布を示す階調の数を
求めた数値である(図10参照)。これらの明度最小値
Ymin、明度最大値Ymax及び明度極大値ポイント
数Ypeakの特徴量は、例えば風景画や人物像のよう
な「ピクトリアル画像」であれば、明度の分布が全階調
域に広く分布している。また例えば人工的に作成された
デザイン画やロゴなどの「グラフィカル画像」であれ
ば、全明度域に渡った分布は示さず特定階調に分布が集
中する事が多い。
Here, the lightness minimum value Ymin and the lightness maximum value Ymax are 5% distribution from the low gradation side and the high gradation side, respectively, taking into account the reading noise of the scanner and the deterioration due to compression during image communication. Are obtained, and are respectively defined as a lightness minimum value Ymin and a lightness maximum value Ymax (see FIG. 9). In addition, the brightness maximum value point number Ypeak
Is a numerical value obtained by calculating the number of gradations showing a distribution in which the brightness Y is equal to or more than a predetermined threshold (see FIG. 10). These feature values of the lightness minimum value Ymin, the lightness maximum value Ymax, and the lightness maximum value point number Ypeak are, for example, in the case of a “pictorial image” such as a landscape image or a human image, the lightness distribution is over the entire gradation range. Widely distributed. Further, for example, in the case of a “graphical image” such as an artificially created design image or logo, the distribution is not concentrated over the entire brightness range, and the distribution is often concentrated on a specific gradation.

【0033】よって、本実施形態では、明度最小値Ym
in、明度最大値Ymax及び明度極大値ポイント数Y
peakを用いて対象画像が「ピクトリアル画像」であ
るか「グラフィカル画像」を判別している。より詳細に
は、まず、明度最小値Ymin及び明度最大値Ymax
と所定閾値Yth1及びYth2(>Yth1)を比較
して、すなわち、 Yth1≧Ymin 、かつ、 Yth2≦Ymax を満たしているか否かを判別し、処理対象画像の明度分
布が全明度域に渡っているか否かを判別する(ステップ
S22)。そして、ステップS22の判別において、 Yth1<Ymin 、または、 Yth2>Ymax と判別された場合には(ステップS22;No)、処理
対象画像の明度分布が全明度域に渡っていない、すなわ
ち、処理対象画像は「グラフィカル画像」であると判断
し、適応的な画像補正処理をスキップする(行わない)
と判別し(ステップS25)、処理を終了する。
Therefore, in this embodiment, the lightness minimum value Ym
in, brightness maximum value Ymax and brightness maximum value point number Y
The peak is used to determine whether the target image is a “pictorial image” or a “graphical image”. More specifically, first, the lightness minimum value Ymin and the lightness maximum value Ymax
And the predetermined threshold values Yth1 and Yth2 (> Yth1), that is, whether or not Yth1 ≧ Ymin and Yth2 ≦ Ymax is satisfied is determined, and whether the brightness distribution of the processing target image extends over the entire brightness range It is determined whether or not it is (step S22). When it is determined in step S22 that Yth1 <Ymin or Yth2> Ymax (step S22; No), the brightness distribution of the processing target image does not cover the entire brightness range, that is, the processing target Determines that the image is a "graphical image" and skips (does not perform) adaptive image correction processing
Is determined (step S25), and the process ends.

【0034】ステップS22の判別において、 Yth1≧Ymin 、かつ、 Yth2≦Ymax と判別された場合には(ステップS22;Yes)、明
度極大値ポイント数Ypeakを所定閾値Yth3と比
較して、 Yth3≦Ypeak を満たしているか否か、すなわち、特定階調に階調分布
が集中していないか否かを判別する(ステップS2
3)。ステップS403の判別において、 Yth3>Ypeak と判別された場合には(ステップS23;No)、特定
階調への分布の集中がある、すなわち、処理対象画像は
「グラフィカル画像」であるとして、適応的な画像補正
処理をスキップする(行わない)と判別し(ステップS
26)、処理を終了する。
If it is determined in step S22 that Yth1 ≧ Ymin and Yth2 ≦ Ymax (step S22; Yes), the maximum brightness value point number Ypeak is compared with a predetermined threshold value Yth3, and Yth3 ≦ Ypeak. Is satisfied, that is, whether the gradation distribution is not concentrated on the specific gradation (step S2).
3). If it is determined in step S403 that Yth3> Ypeak (step S23; No), the distribution is concentrated on a specific gradation, that is, it is determined that the processing target image is a “graphical image” and the adaptive processing is performed. (Step S)
26), end the process.

【0035】ステップS23の判別において、 Yth3≦Ypeak を満たしていると判別した場合には(ステップS23;
Yes)、色数計数部303でカウントした画像中の色
数Nを所定閾値Nthと比較し、 Nth≦N を満たしているか否か、すなわち、処理対象画像が通常
のフルカラー画像であるか否かを判別する(ステップS
24)。ステップS24の判別において、 Nth>N と判別された場合には(ステップS24;No)、すな
わち、処理対象画像が、例えばディザや誤差拡散等の面
積階調表現により低階調数化処理を施した画像であると
して、適応的な画像補正処理をスキップする(行わな
い)と判別し(ステップS28)、処理を終了する。
If it is determined in step S23 that Yth3 ≦ Ypeak is satisfied (step S23;
Yes), the number of colors N in the image counted by the color number counting unit 303 is compared with a predetermined threshold Nth, and whether or not Nth ≦ N is satisfied, that is, whether or not the processing target image is a normal full-color image (Step S
24). If it is determined in step S24 that Nth> N is satisfied (step S24; No), that is, the image to be processed is subjected to the gradation lowering process by area gradation expression such as dithering or error diffusion. As a result, it is determined that the adaptive image correction process is skipped (not performed) (step S28), and the process is terminated.

【0036】また、ステップS24の判別において、 Nth≦N と判別された場合には(ステップS24;Yes)、処
理対象画像は、通常のフルカラー画像であるものとして
補正処理を実施することとなる(ステップS27)。以
上の説明のように、画像蓄積部110に格納されている
画像に対して補正処理を施すか否かを判別する。
If it is determined in step S24 that Nth ≦ N (step S24; Yes), the correction processing is performed assuming that the processing target image is a normal full-color image (step S24). Step S27). As described above, it is determined whether to perform the correction processing on the image stored in the image storage unit 110.

【0037】[1.3] 第1実施形態のまとめ 以上の処理の概要を図11に示す。本第1実施形態によ
れば、画像蓄積部110に蓄積されている処理対象画像
が、例えばロゴやイラスト等のグラフィカル画像の場合
には、補正処理を行わない構成としている。これは、グ
ラフィカル画像の場合には、一般に画像全体のコントラ
ストやシャープさよりも当該グラフィカル画像を構成す
る各色を忠実に再現することが求められるからである。
また、グラフィカル画像のように人為的に作成した画像
の場合には、色や明度の分布が偏っている場合が多く、
そのような画像に対して写真などのようなピクトリアル
画像に好適な適応的補正処理を実施すると、画像補正の
処理が例えばコントラストの過強調などの画質低下に結
びついてしまうからである。
[1.3] Summary of First Embodiment FIG. 11 shows an outline of the above processing. According to the first embodiment, the correction processing is not performed when the processing target image stored in the image storage unit 110 is a graphical image such as a logo or an illustration. This is because, in the case of a graphical image, it is generally required to faithfully reproduce each color constituting the graphical image rather than the contrast and sharpness of the entire image.
Also, in the case of images created artificially, such as graphical images, the distribution of colors and brightness is often biased,
This is because, if an adaptive correction process suitable for a pictorial image such as a photograph is performed on such an image, the image correction process leads to a deterioration in image quality such as over-contrast enhancement.

【0038】さらにグラフィカル画像の場合には、色境
界や線画のエッジ部においてもノイズやなまりを含まな
い理想的な状態になっている場合が多く、このような画
像に対して精細度補正を施すことはかえって好ましくな
いからである。さらに本第1実施形態においては、画像
を構成する色数が所定閾値Nth以下の場合には、補正
処理を行わない構成としている。これは、処理対象画像
を、例えば多値ディザや2値誤差拡散などの面積階調表
現された画像であると判別している為である。これらの
面積階調表現された画像に対して、適応的な補正処理を
実施すると、粒状性や階調性が損なわれる場合が多く、
またエッジ部に注目する精細度補正はディザや誤差拡散
のドットの影響で適切な補正値が得られない場合が多い
からである。従って、本第1実施形態においては、以上
のような場合には適応的補正処理を施さず、ピクトリア
ル画像且つ所定数以上の色数を有するカラー画像と判定
された場合にのみ適応的なカラーバランス補正、コント
ラスト補正及び精細度補正を実施するのである。
Furthermore, in the case of a graphical image, an ideal state in which noise or rounding is not included even at a color boundary or an edge portion of a line drawing is often obtained, and such an image is subjected to definition correction. This is because it is not preferable. Further, in the first embodiment, when the number of colors constituting the image is equal to or smaller than the predetermined threshold Nth, the correction processing is not performed. This is because the image to be processed is determined to be an image expressed by area gradation such as multi-value dither or binary error diffusion. When an adaptive correction process is performed on an image in which these area gradations are expressed, graininess and gradation are often impaired,
In addition, in the fineness correction focusing on the edge portion, an appropriate correction value cannot often be obtained due to the influence of dither and error diffusion dots. Therefore, in the first embodiment, the adaptive correction processing is not performed in the above case, and the adaptive color processing is performed only when the image is determined to be a pictorial image and a color image having a predetermined number or more of colors. The balance correction, the contrast correction, and the definition correction are performed.

【0039】[1.4]第1実施形態の効果 以上の様に、本第1実施形態によれば、入力画像(処理
対象画像)の種別を自動的に判別した後、その結果に応
じて適応的な補正処理を施すか否かを判別し、適応的な
補正処理を施すと判別した場合には、当該入力画像に適
応的な補正処理を施した後に出力し、当該入力画像に適
応的な補正処理を施さないと判別した場合には、当該入
力画像をそのまま出力することによって、適応的な補正
処理によって生じる副作用的画質低下を防止するととも
に、画像処理時間を短縮することが可能となる。
[1.4] Effects of the First Embodiment As described above, according to the first embodiment, after the type of an input image (image to be processed) is automatically determined, the type is determined according to the result. It is determined whether or not to perform the adaptive correction process. If it is determined that the adaptive correction process is to be performed, the input image is output after performing the adaptive correction process, and the adaptive image is output to the input image. If it is determined that no appropriate correction processing is performed, by directly outputting the input image, it is possible to prevent the side effect of image quality deterioration caused by the adaptive correction processing and to shorten the image processing time. .

【0040】[2] 第2実施形態 次に本発明の第2実施形態について説明する。本第2実
施形態が第1実施形態と異なる点は、処理対象画像の種
別を自動的に判別し、その結果に応じて画像補正処理を
実施するか否かを判別する処理に加えて、処理対象とな
る画像がカラー画像であるかグレイスケール画像である
かを判別し、処理対象画像がグレイスケール画像の場合
には、カラー画像特有の処理を実施しないように構成し
た点である。これにより、本第2実施形態によれば、例
えばスキャナ113で入力した白黒原稿に対して適応的
な色バランスや彩度レンジに対する補正処理を施してし
まうことによる色付き等の不具合を防止することができ
る。また、本第2実施形態の画像処理装置の構成は、第
1実施形態の画像処理装置の構成及び概要処理手順と同
様であるので、以下の説明においては、図1及び図2を
参照して説明する。
[2] Second Embodiment Next, a second embodiment of the present invention will be described. The difference between the second embodiment and the first embodiment is that, in addition to the process of automatically determining the type of the processing target image and determining whether or not to perform the image correction process according to the result, the process It is characterized in that whether the target image is a color image or a grayscale image is determined, and if the processing target image is a grayscale image, processing specific to the color image is not performed. Thus, according to the second embodiment, it is possible to prevent a problem such as coloring due to performing a correction process on an adaptive color balance and a saturation range on a black-and-white document input by the scanner 113, for example. it can. The configuration of the image processing apparatus according to the second embodiment is the same as the configuration and the general processing procedure of the image processing apparatus according to the first embodiment. Therefore, in the following description, referring to FIGS. explain.

【0041】[2.1] 第2実施形態の動作 次に第2実施形態の動作について詳細に説明する。ま
ず、処理対象画像はバスを介して入力され、画像蓄積部
110に一旦保持される。ここで画像の入力は例えばス
キャナ113で原稿を走査入力してもよいし、あるいは
ネットワーク118の通信手段を経由して入手してもよ
い。図12に第2実施形態の処理フローチャートを示
す。画像蓄積部110は、それらの入力画像はBGR各
色8ビット/画素の形式で蓄積保持する(ステップS3
1)。画像判別部111は、画像蓄積部110に保持さ
れている画像の特性・種別を判別して画像補正部112
による適応的な画像補正を実行するか否か、さらにどの
ような補正処理を実行するか否かを判別する(ステップ
S32)。ステップS32の判別において、カラー画像
用補正処理を実行すると判別した場合には(ステップS
33;Yes1)いう結果が得られた場合には、画像蓄
積部110に格納されている対象画像は画像補正部11
2に送られ、画像補正部112において適応的な補正処
理が実施される(ステップS34)。
[2.1] Operation of Second Embodiment Next, the operation of the second embodiment will be described in detail. First, an image to be processed is input via a bus and temporarily stored in the image storage unit 110. Here, the image may be input by, for example, scanning and inputting the original with the scanner 113, or may be obtained via communication means of the network 118. FIG. 12 shows a processing flowchart of the second embodiment. The image storage unit 110 stores and holds those input images in the format of 8 bits / pixel for each color of BGR (step S3).
1). The image discriminating unit 111 discriminates the characteristics and types of the images stored in the image accumulating unit 110, and
It is determined whether or not to execute the adaptive image correction according to the above, and what kind of correction processing is to be performed (step S32). If it is determined in step S32 that the color image correction process is to be performed (step S32).
33; Yes1), if the result is obtained, the target image stored in the image storage unit 110 is
2 and the image correction unit 112 performs an adaptive correction process (step S34).

【0042】ステップS34のカラー画像用補正処理に
おいては、カラーバランス補正(ステップS34a)、
明度コントラスト補正(ステップS34b)、彩度コン
トラスト補正(ステップS34c)及び精細度補正(ス
テップS34d)の4種類の補正処理が実行される。そ
して補正処理の実行後、プリンタ114へ補正処理後の
画像データが出力される(ステップS36)。ステップ
S32の判別において、グレイスケール画像用補正処理
を実行すると判別した場合には(ステップS33;Ye
s2)、画像蓄積部110に格納されている対象画像は
画像補正部112に送られ、画像補正部112において
適応的な補正処理が実施される(ステップS35)。
In the color image correction processing in step S34, color balance correction (step S34a),
Four types of correction processing are executed: brightness contrast correction (step S34b), chroma contrast correction (step S34c), and definition correction (step S34d). After the execution of the correction process, the image data after the correction process is output to the printer 114 (step S36). If it is determined in step S32 that the grayscale image correction process is to be performed (step S33; Ye).
s2), the target image stored in the image storage unit 110 is sent to the image correction unit 112, and the image correction unit 112 performs an adaptive correction process (step S35).

【0043】ステップS35のグレイスケール画像用補
正処理においては、カラー画像特有の補正処理、すなわ
ちカラーバランス補正(ステップS34a相当)及び彩
度コントラスト補正(ステップS34c相当)は実施さ
れず、明度コントラスト補正(ステップS35a)及び
精細度補正(ステップS35b)の2種類の補正しょり
が実行される。そして補正処理の実行後、プリンタ11
4へ画像データが出力される(ステップS36)。ま
た、ステップS32の判別において、画像補正処理を実
行しないと判別した場合には(ステップS32;N
o)、画像蓄積部110に保存されている画像データが
そのままプリンタ114へ送られ、画像の出力が行われ
る(ステップS36)。
In the correction processing for the gray scale image in step S35, the correction processing unique to the color image, that is, the color balance correction (corresponding to step S34a) and the saturation contrast correction (corresponding to step S34c) are not performed, and the lightness contrast correction ( Two types of corrections are executed: step S35a) and definition correction (step S35b). After executing the correction processing, the printer 11
The image data is output to No. 4 (step S36). If it is determined in step S32 that the image correction process is not to be performed (step S32; N
o), the image data stored in the image storage unit 110 is sent to the printer 114 as it is, and the image is output (step S36).

【0044】[2.1.2] 補正条件設定処理 [2.1.2.1] カラーバランス補正条件設定処理 図3にカラーバランス補正条件設定処理の説明図を示
す。図3(a)は、画像蓄積部110に格納される処理
対象画像のヒストグラムである。まず、R(赤),緑
(G),青(B)それぞれの分布の最小値Rmin,G
min,Bmin及び最大値Rmax,Gmax,Bm
axを検出する。次に、3つの最小値Rmin,Gmi
n,Bmin及び3つの最大値Rmax,Gmax,B
maxの代表値を選定する。本実施形態においては、最
小値Rmin,Gmin,Bminの中で最も小さい値
を最小代表値RGBminとする。すなわち、 RGBmin=min(Rmin,Gmin,Bmi
n) ここで、関数min()は、最小値を出力する関数であ
る。とする。また、最大値Rmax,Gmax,Bma
xの中で最も大きい値を最大代表値RGBmaxとす
る。すなわち、 RGBmax=max(Rmax,Gmax,Bma
x) ここで、関数max()は、最大値を出力する関数であ
る。とする。続いて、図3(b)に示すようにR,G,
B各信号の最小値及び最大値がそれぞれRGBmin及
びRGBmaxに一致するように、それぞれの量子化レ
ンジ変換用LUT(Look Up Table:図3(c)参照)
を求める。
[2.1.2] Correction condition setting process [2.1.2.1] Color balance correction condition setting process FIG. 3 is an explanatory diagram of the color balance correction condition setting process. FIG. 3A is a histogram of the processing target image stored in the image storage unit 110. First, the minimum values Rmin, G of the respective distributions of R (red), green (G), and blue (B)
min, Bmin and maximum values Rmax, Gmax, Bm
ax is detected. Next, the three minimum values Rmin, Gmi
n, Bmin and three maximum values Rmax, Gmax, B
Select a representative value for max. In the present embodiment, the smallest value among the minimum values Rmin, Gmin, and Bmin is set as the minimum representative value RGBmin. That is, RGBmin = min (Rmin, Gmin, Bmi
n) Here, the function min () is a function that outputs the minimum value. And Further, the maximum values Rmax, Gmax, Bma
The largest value of x is set as the maximum representative value RGBmax. That is, RGBmax = max (Rmax, Gmax, Bmax
x) Here, the function max () is a function that outputs the maximum value. And Subsequently, as shown in FIG.
B. Each quantization range conversion LUT (Look Up Table: see FIG. 3 (c)) so that the minimum value and the maximum value of each B signal coincide with RGBmin and RGBmax, respectively.
Ask for.

【0045】[2.1.2.2] 明度コントラスト補
正条件設定処理及び彩度コントラスト補正条件設定処理 次に図13を参照して明度コントラスト補正条件設定処
理及び彩度コントラスト補正条件設定処理について説明
する。本第1実施形態においては、明度コントラスト補
正処理及び彩度コントラスト補正処理の手法として、R
GB3原色信号を明度及び色度を表す信号に変換した
後、公知の技術であるダイナミックレンジ変換を用いて
いる。まず、図13(a)に示すような座標系で表され
るRGB画像を、図13(b)のような明度及び色度を
表し所定のレンジで各8ビットに量子化されるLab信
号に変換する。ここでは、座標系の変換は近似的に以下
の式によって行われる。
[2.1.2.2] Brightness Contrast Correction Condition Setting Process and Chroma Contrast Correction Condition Setting Process Next, the brightness contrast correction condition setting process and the saturation contrast correction condition setting process will be described with reference to FIG. I do. In the first embodiment, as a method of the lightness contrast correction processing and the saturation contrast correction processing, R
After converting the GB3 primary color signals into signals representing lightness and chromaticity, a known technique of dynamic range conversion is used. First, an RGB image represented by a coordinate system as shown in FIG. 13A is converted into a Lab signal which represents lightness and chromaticity as shown in FIG. Convert. Here, the transformation of the coordinate system is approximately performed by the following equation.

【数1】 次に、a信号及びb信号により彩度を表す彩度信号Ca
bを生成する。彩度信号Cabは、図13(c)に示す
ように、a信号軸及びb信号軸によって定義される2次
元平面におけるグレイポイントからの距離で求められ
る。そして、図4に示した処理対象画像の階調分布最小
値Cmin及び階調分布最大値Cmaxに基づいて、コ
ントラスト変換用のLUTを、明度L及び彩度Cabそ
れぞれについて設定する。ここでは、明度Lについて
は、図4の階調分布最小値Cmin及び階調分布最大値
Cmaxと同様のコントラスト変換を実施し、彩度信号
Cabについては、彩度信号最大値Cabmaxについ
てだけレンジ変換を実施する。また、彩度補正は、カラ
ー画像の場合にのみ行う。
(Equation 1) Next, a saturation signal Ca representing saturation by the a signal and the b signal
Generate b. As shown in FIG. 13C, the saturation signal Cab is obtained from the distance from the gray point on the two-dimensional plane defined by the signal axis a and the signal axis b. Then, based on the gradation distribution minimum value Cmin and the gradation distribution maximum value Cmax of the processing target image shown in FIG. 4, an LUT for contrast conversion is set for each of the lightness L and the saturation Cab. Here, for the lightness L, the same contrast conversion as the gradation distribution minimum value Cmin and the gradation distribution maximum value Cmax of FIG. 4 is performed, and for the saturation signal Cab, the range conversion is performed only for the saturation signal maximum value Cabmax. Is carried out. The saturation correction is performed only for a color image.

【0046】[2.1.2.3] 精細度補正条件設定
処理 続いて、図5及び図6を参照して精細度補正条件設定処
理について説明する。適応的な精細度補正は、対象画像
中のエッジ検出を行い、全画像の濃度に対するエッジ部
の濃度によって、空間フィルタの補正係数を決定するも
のである。まず、グレイレベル合計値SUMall及び
エッジ部グレイレベル合計値SUMedgを初期化する
(ステップS11)。すなわち、 SUMall=0 SUMedg=0 とする。次に画像蓄積部110に保持されている処理対
象画像を読み込み、画像のグレイレベルGLを算出する
(ステップS12)。ここで、グレイレベル信号GLは
画像の明るさのレベルを表す値であり、R,G,B各信
号及び明度・色度信号の明度信号を用い、例えば、次式
により算出する。 GL=a11×R+a12×G+a13×B+b1 続いて、グレイレベル信号GLに対して、図6に示すよ
うなエッジ検出フィルタによる畳み込み演算を実施して
(ステップS13)、予め設定した所定閾値との比較に
よって注目画素がエッジ画素であるか否かの判定を行う
(ステップS14)。
[2.1.2.3] Definition Correction Condition Setting Process Next, the definition correction condition setting process will be described with reference to FIGS. The adaptive definition correction performs edge detection in a target image, and determines a correction coefficient of a spatial filter based on the density of an edge portion with respect to the density of all images. First, the gray level total value SUMall and the edge gray level total value SUMedg are initialized (step S11). That is, SUMall = 0 and SUMedg = 0. Next, the processing target image stored in the image storage unit 110 is read, and the gray level GL of the image is calculated (step S12). Here, the gray level signal GL is a value representing the brightness level of the image, and is calculated by the following equation using the R, G, B signals and the brightness signals of the brightness / chromaticity signals. GL = a11.times.R + a12.times.G + a13.times.B + b1 Then, the gray level signal GL is subjected to a convolution operation using an edge detection filter as shown in FIG. 6 (step S13), and is compared with a predetermined threshold value. It is determined whether or not the target pixel is an edge pixel (Step S14).

【0047】ステップS14の判別において、注目画素
がエッジ部であった場合には(ステップS14;Ye
s)、グレイレベルGLの値を全画像中のエッジ部グレ
イレベル合計値SUMedgに加算する(ステップS1
5)。すなわち、 SUMedg=SUMedg+GL とする。ステップS14の判別において、注目画素がエ
ッジ部ではない場合には(ステップS14;No)、処
理をステップS16に移行する。続いて、全画像のグレ
イレベル合計値SUMallに注目画素のグレイレベル
GLを加算する(ステップS16)。次にステップS1
2〜S16の処理を全ての画素に対して行ったか否かを
判別し(ステップS17)、全ての画素に対してステッ
プS12〜S16の処理を行っていない場合には(ステ
ップS17;No)、同様に処理を繰り返すこととな
る。また、全ての画素に対してステップS12〜S16
の処理を行った場合には(ステップS17;Yes)、
処理対象画像のシャープさを表すシャープ尺度SHPを
次式により算出する(ステップS18)。 SHP=100.0×SUMedg/SUMall 算出されたシャープ尺度SHPに対して予め設定されて
いるRGB各色に対して適応する精細度補正用の空間フ
ィルタ係数を設定する。以上のような補正処理の条件設
定が行われた後、処理対象画像は画像蓄積部110から
画像補正部112に送られる。
If it is determined in step S14 that the pixel of interest is an edge portion (step S14; Ye
s), the value of the gray level GL is added to the sum of the gray levels SUMedg of the edge parts in all the images (step S1).
5). That is, it is assumed that SUMedg = SUMedg + GL. If it is determined in step S14 that the pixel of interest is not an edge portion (step S14; No), the process proceeds to step S16. Subsequently, the gray level GL of the target pixel is added to the gray level total value SUAll of all images (step S16). Next, step S1
It is determined whether or not the processing of steps S2 to S16 has been performed on all pixels (step S17). If the processing of steps S12 to S16 has not been performed on all pixels (step S17; No), The processing is repeated in the same manner. Steps S12 to S16 are performed for all the pixels.
(Step S17; Yes),
A sharpness measure SHP representing the sharpness of the processing target image is calculated by the following equation (step S18). SHP = 100.0 × SUMedg / SUMall A spatial filter coefficient for fineness correction adapted to each of the RGB colors set in advance for the calculated sharp scale SHP is set. After the correction processing conditions are set as described above, the processing target image is sent from the image storage unit 110 to the image correction unit 112.

【0048】そして、ステップS33の判別において
(図12参照)、カラー画像用補正を実行すると判別さ
れた場合には(ステップS33;Yes1)、画像蓄積
部110に格納された処理対象のカラー画像には、カラ
ーバランス補正処理が施される(ステップS34a)。
続いて次式、
If it is determined in step S33 (see FIG. 12) that the correction for a color image is to be performed (step S33; Yes1), the color image to be processed stored in the image storage unit 110 is added to the color image to be processed. Is subjected to a color balance correction process (step S34a).
Then,

【数2】 に基づいて、Lab信号への変換処理を行い、L信号に
対しては明度コントラスト補正及び精細度補正が施さ
れ、a信号及びb信号に対しては彩度コントラスト補正
が行われる。その後、RGB信号→Lab信号変換の逆
変換により、Lab信号をRGB信号に逆変換し、プリ
ンタ114から出力する。また、ステップS33の判別
において、グレイスケール画像用補正を実行すると判別
された場合には(ステップS33;Yes2)、画像蓄
積部110に格納された処理対象画像からR、G、Bい
ずれかの画像を画像処理部112へ送出し、前述のよう
に設定した補正条件に従って、明度コントラスト補正及
び精細度補正が行われ、プリンタ114から出力され
る。
(Equation 2) , A brightness signal contrast correction and a definition correction are performed on the L signal, and a saturation contrast correction is performed on the a signal and the b signal. Thereafter, the Lab signal is inversely converted into an RGB signal by the inverse conversion of the RGB signal → Lab signal conversion, and output from the printer 114. If it is determined in step S33 that the grayscale image correction is to be performed (step S33; Yes2), any of the R, G, and B images is processed from the processing target image stored in the image storage unit 110. Is transmitted to the image processing unit 112, brightness contrast correction and definition correction are performed in accordance with the correction conditions set as described above, and output from the printer 114.

【0049】[2.1.3] 画像判別部 次に画像判別部111について、図14及び図15を参
照して説明する。図14に画像判別部の概要構成ブロッ
ク図を示し、図15に画像判別部の処理フローチャート
を示す。画像判別部111は、入力された画像データに
対して、明度分布情報(ヒストグラム)を抽出する明度
分布情報抽出部401と、彩度分布情報(ヒストグラ
ム)を抽出する彩度分布情報抽出部402と、画像蓄積
部110に蓄積されている処理対象画像データに対応す
る処理対象画像のR、G、Bの組み合わせにより表され
る色数N1及び算出した明度値で表される階調数N2を
計数する色数計数部403と、抽出した明度分布情報及
び計数した画像の色数Nに基づいて当該画像データが対
応する画像の特徴量を解析し、適応的な補正処理を当該
処理対象画像に対して施すか否かの判別結果を出力する
特徴量解析部404と、を備えて構成されている。
[2.1.3] Image Discrimination Unit Next, the image discrimination unit 111 will be described with reference to FIGS. FIG. 14 shows a schematic block diagram of the image discriminating unit, and FIG. 15 shows a processing flowchart of the image discriminating unit. The image determination unit 111 includes a brightness distribution information extraction unit 401 that extracts brightness distribution information (histogram) from input image data, and a saturation distribution information extraction unit 402 that extracts saturation distribution information (histogram). The number of colors N1 represented by a combination of R, G, and B of the processing target image corresponding to the processing target image data stored in the image storage unit 110 and the number of gradations N2 represented by the calculated lightness value are counted. The color number counting unit 403 analyzes the feature amount of the image corresponding to the image data based on the extracted brightness distribution information and the number N of colors of the counted image, and performs adaptive correction processing on the image to be processed. And a feature amount analysis unit 404 that outputs a determination result as to whether or not to apply.

【0050】この場合において、明度分布情報抽出部4
01は、画像蓄積部110に保存された処理対象画像デ
ータから、明度を算出しそのヒストグラムを作成する。
本実施形態では、明度値Yとして以下に示す値を用いて
いる。 Y=min(R,G,B) ここで、min()は最小値を出力する関数である。な
お、用いる明度値Yの算出方式は上述した方式に限った
ものではなく、例えばR,G,Bの線形演算で求める方
式やG信号のみで代替する方式等の広く知られた他の方
式により算出することが可能である。また、彩度分布情
報抽出部402は、画像蓄積部110に保存された処理
対象画像データから、彩度を算出しそのヒストグラムを
生成する。本実施形態では、彩度値Cとして以下に示す
値を用いている。 C=max(R,G,B)−min(R,G,B) ここで、min()は、最小値を出力する関数であり、
max()は、最大値を出力する関数である。なお、用
いる彩度値Cの算出方式は、上述した方式に限ったもの
ではなく、他の算出方式を用いるように構成することも
可能である。
In this case, the brightness distribution information extraction unit 4
In step 01, a brightness is calculated from the processing target image data stored in the image storage unit 110, and a histogram thereof is created.
In the present embodiment, the following values are used as the lightness value Y. Y = min (R, G, B) Here, min () is a function that outputs a minimum value. The method of calculating the brightness value Y to be used is not limited to the above-described method, but may be any other widely known method such as a method of obtaining a linear operation of R, G, and B, or a method of substituting only the G signal. It is possible to calculate. Further, the saturation distribution information extraction unit 402 calculates saturation from the processing target image data stored in the image storage unit 110 and generates a histogram thereof. In the present embodiment, the following values are used as the saturation values C. C = max (R, G, B) −min (R, G, B) where min () is a function that outputs a minimum value,
max () is a function that outputs the maximum value. Note that the calculation method of the saturation value C to be used is not limited to the above-described method, but may be configured to use another calculation method.

【0051】色数計数部403は、画像蓄積部110に
保存される処理対象画像データからの色数をカウントす
る手段であり、処理対象画像のR,G,Bの組み合わせ
により表される色の数N1及び前記明度値Yで表される
階調数N2を計数する。 [2.1.4]以下、図15に従って、特徴量解析部4
04において、処理対象画像に対して補正処理を施すか
否かを判別する判別過程について説明する。特徴量解析
部404では、まず明度分布情報抽出部401において
抽出される情報から明度Yの明度最小値Ymin,明度
最大値Ymax及び明度極大値ポイント数Ypeakを
算出する(ステップS41)。ここで、明度最小値Ym
in及び明度最大値Ymaxは、スキャナでの読取ノイ
ズや画像通信時の圧縮による劣化などを加味して、低階
調側及び高階調側からそれぞれ5%の分布を示す階調レ
ベルを求めて、それぞれ明度最小値Ymin、明度最大
値Ymaxとする(図9参照)。
The number-of-colors counting section 403 is means for counting the number of colors from the image data to be processed stored in the image storage section 110. The number of colors is represented by a combination of R, G, and B of the image to be processed. The number N1 and the number of gradations N2 represented by the lightness value Y are counted. [2.1.4] Hereinafter, according to FIG.
In 04, a description will be given of a determination process of determining whether or not to perform a correction process on the processing target image. The feature amount analysis unit 404 first calculates a lightness minimum value Ymin, a lightness maximum value Ymax, and a lightness maximum value point number Ypeak from the information extracted by the lightness distribution information extraction unit 401 (step S41). Here, the lightness minimum value Ym
The in and brightness maximum value Ymax are obtained by taking into account the reading noise in the scanner and the deterioration due to compression during image communication, etc., to find the gradation levels showing 5% distribution from the low gradation side and the high gradation side, respectively. The lightness minimum value Ymin and the lightness maximum value Ymax are respectively set (see FIG. 9).

【0052】また、明度極大値ポイント数Ypeak
は、明度Yがある所定閾値以上の分布を示す階調の数を
求めた数値である(図10参照)。これらの明度最小値
Ymin、明度最大値Ymax及び明度極大値ポイント
数Ypeakの特徴量は、例えば風景画や人物像のよう
な「ピクトリアル画像」であれば、明度の分布が全階調
域に広く分布している。また例えば人工的に作成された
デザイン画やロゴなどの「グラフィカル画像」であれ
ば、全明度域に渡った分布は示さず特定階調に分布が集
中する事が多い。よって、本実施形態では、明度最小値
Ymin、明度最大値Ymax及び明度極大値ポイント
数Ypeakを用いて対象画像が「ピクトリアル画像」
であるか「グラフィカル画像」を判別している。
Also, the brightness maximum value point number Ypeak
Is a numerical value obtained by calculating the number of gradations showing a distribution in which the brightness Y is equal to or more than a predetermined threshold (see FIG. 10). These feature values of the lightness minimum value Ymin, the lightness maximum value Ymax, and the lightness maximum value point number Ypeak are, for example, in the case of a “pictorial image” such as a landscape image or a human image, the lightness distribution is over the entire gradation range. Widely distributed. Further, for example, in the case of a “graphical image” such as an artificially created design image or logo, the distribution is not concentrated over the entire brightness range, and the distribution is often concentrated on a specific gradation. Therefore, in the present embodiment, the target image is a “pictorial image” using the lightness minimum value Ymin, the lightness maximum value Ymax, and the lightness maximum value point number Ypeak.
Or "graphical image".

【0053】より詳細には、まず、明度最小値Ymin
及び明度最大値Ymaxと所定閾値Yth1及びYth
2(>Yth1)を比較して、すなわち、 Yth1≧Ymin 、かつ、 Yth2≦Ymax を満たしているか否かを判別し、処理対象画像の明度分
布が全明度域に渡っているか否かを判別する(ステップ
S42)。そして、ステップS42の判別において、 Yth1<Ymin 、または、 Yth2>Ymax と判別された場合には(ステップS42;No)、処理
対象画像の明度分布が全明度域に渡っていない、すなわ
ち、処理対象画像は「グラフィカル画像」であると判断
し、適応的な画像補正処理をスキップする(行わない)
と判別し(ステップS48)、処理を終了する。
More specifically, first, the lightness minimum value Ymin
And brightness maximum value Ymax and predetermined threshold values Yth1 and Yth
2 (> Yth1), that is, it is determined whether or not Yth1 ≧ Ymin and Yth2 ≦ Ymax are satisfied, and it is determined whether or not the brightness distribution of the image to be processed covers the entire brightness range. (Step S42). If it is determined in step S42 that Yth1 <Ymin or Yth2> Ymax (step S42; No), the brightness distribution of the processing target image does not extend over the entire brightness range, that is, the processing target Determines that the image is a "graphical image" and skips (does not perform) adaptive image correction processing
Is determined (step S48), and the process ends.

【0054】ステップS42の判別において、 Yth1≧Ymin 、かつ、 Yth2≦Ymax と判別された場合には(ステップS42;Yes)、明
度極大値ポイント数Ypeakを所定閾値Yth3と比
較して、 Yth3≦Ypeak を満たしているか否か、すなわち、特定階調に階調分布
が集中していないか否かを判別する(ステップS4
3)。ステップS43の判別において、 Yth3>Ypeak と判別された場合には(ステップS43;No)、特定
階調への分布の集中がある、すなわち、処理対象画像は
「グラフィカル画像」であるとして、適応的な画像補正
処理をスキップする(行わない)と判別し(ステップS
49)、処理を終了する。
If it is determined in step S42 that Yth1 ≧ Ymin and Yth2 ≦ Ymax (step S42; Yes), the maximum brightness value point number Ypeak is compared with a predetermined threshold value Yth3, and Yth3 ≦ Ypeak. Is satisfied, that is, whether the gradation distribution is not concentrated on the specific gradation (step S4).
3). If it is determined in step S43 that Yth3> Ypeak (step S43; No), the distribution is concentrated on a specific gradation, that is, the processing target image is determined to be a “graphical image”, and the adaptive processing is performed. (Step S)
49), and the process ends.

【0055】ステップS43の判別において、 Yth3≦Ypeak を満たしていると判別した場合には(ステップS43;
Yes)、彩度分布情報抽出部402において抽出され
る情報から、彩度特徴量Cnを算出する(ステップS4
4)。より具体的には、彩度特徴量Cnは、画像中の色
画素数の割合を示す特徴量であり、ある所定閾値以上の
値を有する画素数を計数し、対象画像の全画素数で除算
することにより求められる。続いて、算出された彩度特
徴量Cnを所定閾値Cthと比較することによって、処
理対象画像がカラー画像であるか、あるいは、グレイス
ケール画像であるかを判別する(ステップS45)。ス
テップS45の判別において、 Cth≦Cn と判別された場合には(ステップS45;Yes)、色
数計数部403でカウントした画像中の色数N1を所定
閾値Nth1と比較し、 Nth1≦N1 を満たしているか否か、すなわち、処理対象画像が通常
のフルカラー画像であるか否かを判別する(ステップS
46)。
If it is determined in step S43 that Yth3 ≦ Ypeak is satisfied (step S43;
Yes), the saturation feature amount Cn is calculated from the information extracted by the saturation distribution information extraction unit 402 (step S4).
4). More specifically, the saturation feature amount Cn is a feature amount indicating the ratio of the number of color pixels in the image, and counts the number of pixels having a value equal to or greater than a predetermined threshold value and divides by the total number of pixels of the target image It is required by doing. Subsequently, by comparing the calculated saturation feature amount Cn with a predetermined threshold value Cth, it is determined whether the processing target image is a color image or a gray scale image (step S45). If it is determined in step S45 that Cth ≦ Cn (step S45; Yes), the number of colors N1 in the image counted by the color number counting unit 403 is compared with a predetermined threshold Nth1 to satisfy Nth1 ≦ N1. That is, it is determined whether or not the processing target image is a normal full-color image (Step S).
46).

【0056】ステップS46の判別において、 Nth1>N1 と判別された場合には(ステップS46;No)、処理
対象画像が、例えばディザや誤差拡散等の面積階調表現
により低階調数化処理を施した画像であるとして、適応
的な画像補正処理をスキップする(行わない)と判別し
(ステップS51)、処理を終了する。また、ステップ
S45の判別において、 Cth>Cn と判別された場合には(ステップS45;No)、色数
計数部403でカウントした画像中の階調数N2を所定
閾値Nth2と比較し、 Nth2≦N1 を満たしているか否か、すなわち、処理対象画像がグレ
イスケール画像であるか否かを判別する(ステップS4
7)。
If it is determined in step S46 that Nth1> N1 (step S46; No), the image to be processed is subjected to the process of reducing the number of tones by area gradation expression such as dithering or error diffusion. It is determined that the image has been subjected to adaptive image correction processing to be skipped (not performed) (step S51), and the processing ends. If it is determined in step S45 that Cth> Cn (step S45; No), the number of tones N2 in the image counted by the color number counting unit 403 is compared with a predetermined threshold value Nth2, and Nth2 ≦ It is determined whether or not N1 is satisfied, that is, whether or not the processing target image is a gray scale image (step S4).
7).

【0057】ステップS47の判別において、 Nth2>N2 と判別された場合には(ステップS47;No)、処理
対象画像が、例えばディザや誤差拡散等の面積階調表現
により低階調数化処理を施した画像であるとして、上述
したフルカラー画像の場合と同様に、適応的な画像補正
処理をスキップする(行わない)と判別し(ステップS
53)、処理を終了する。ステップS47の判別におい
て、 Nth2≦N2 と判別された場合には(ステップS47;Yes)、処
理対象画像は、グレイスケール画像であるものとして補
正処理を実施することとなる(ステップS52)。以上
の説明のように、画像蓄積部110に格納されている画
像に対して補正処理を施すか否かを判別する。
If it is determined in step S47 that Nth2> N2 (step S47; No), the image to be processed is subjected to the process of lowering the number of tones by area gradation expression such as dithering or error diffusion. As in the case of the above-described full-color image, it is determined that the adaptive image correction process is skipped (not performed) (Step S).
53), end the process. If it is determined in step S47 that Nth2 ≦ N2 (step S47; Yes), the correction process is performed assuming that the processing target image is a grayscale image (step S52). As described above, it is determined whether to perform the correction processing on the image stored in the image storage unit 110.

【0058】[2.2] 第2実施形態のまとめ 以上の処理の概要を図16に示す。本第2実施形態によ
れば、画像蓄積部110に蓄積されている処理対象画像
が、例えばロゴやイラスト等のグラフィカル画像の場合
には、補正処理を行わない構成としている。これは、グ
ラフィカル画像の場合には、一般に画像全体のコントラ
ストやシャープさよりも当該グラフィカル画像を構成す
る各色を忠実に再現することが求められるからである。
また、グラフィカル画像のように人為的に作成した画像
の場合には、色や明度の分布が偏っている場合が多く、
そのような画像に対して写真などのようなピクトリアル
画像に好適な適応的補正処理を実施すると、画像補正の
処理が例えばコントラストの過強調などの画質低下に結
びついてしまうからである。さらにグラフィカル画像の
場合には、色境界や線画のエッジ部においてもノイズや
なまりを含まない理想的な状態になっている場合が多
く、このような画像に対して精細度補正を施すことはか
えって好ましくないからである。
[2.2] Summary of Second Embodiment FIG. 16 shows an outline of the above processing. According to the second embodiment, the correction processing is not performed when the processing target image stored in the image storage unit 110 is a graphical image such as a logo or an illustration. This is because, in the case of a graphical image, it is generally required to faithfully reproduce each color constituting the graphical image rather than the contrast and sharpness of the entire image.
Also, in the case of images created artificially, such as graphical images, the distribution of colors and brightness is often biased,
This is because, if an adaptive correction process suitable for a pictorial image such as a photograph is performed on such an image, the image correction process leads to a deterioration in image quality such as over-contrast enhancement. Furthermore, in the case of a graphical image, it is often the case that an ideal state does not include noise or rounding even at a color boundary or an edge portion of a line drawing. This is because it is not preferable.

【0059】さらに本第2実施形態においては、カラー
画像の場合には色数が所定閾値Nth以下、グレイスケ
ール画像の場合には階調数が所定閾値Nth2以下の場
合には、補正処理を行わない構成としている。これは、
処理対象画像を、例えば多値ディザや2値誤差拡散など
の面積階調表現された画像であると判別している為であ
る。これらの面積階調表現された画像に対して、適応的
な補正処理を実施すると、粒状性や階調性が損なわれる
場合が多く、またエッジ部に注目する精細度補正はディ
ザや誤差拡散のドットの影響で適切な補正値が得られな
い場合が多いからである。さらに処理対象画像がピクト
リアル画像、かつ、カラー画像と判別された場合には、
対象画像に対して適応的なカラーバランス補正、明度コ
ントラスト補正、彩度コントラスト補正及び精細度補正
を実施する。また、処理対象画像がピクトリアル画像、
かつ、グレイスケール画像と判別された場合には、カラ
ーバランス補正及び彩度コントラスト補正の必要がない
為、適応的なコントラスト補正及び精細度補正を実施す
る。
Further, in the second embodiment, when the number of colors is equal to or less than a predetermined threshold value Nth for a color image, and when the number of gradations is equal to or less than a predetermined threshold value Nth2 for a grayscale image, a correction process is performed. There is no configuration. this is,
This is because the image to be processed is determined to be an image expressed in area gradation such as multi-value dither or binary error diffusion. When an adaptive correction process is performed on these area-graded images, the granularity and gradation are often impaired, and the fineness correction focusing on the edge portion is performed by dithering or error diffusion. This is because an appropriate correction value cannot often be obtained due to the influence of dots. Further, when the processing target image is determined to be a pictorial image and a color image,
Adaptive color balance correction, lightness contrast correction, saturation contrast correction, and fineness correction are performed on the target image. The processing target image is a pictorial image,
If it is determined that the image is a grayscale image, it is not necessary to perform color balance correction and saturation contrast correction. Therefore, adaptive contrast correction and definition correction are performed.

【0060】[2.3] 第2実施形態の効果 以上の様に、本第2実施形態によれば、入力画像(処理
対象画像)の種別を自動的に判別した後、その結果に応
じて補正処理を実施するか否かを判別し、適応的な補正
処理を施すと判別した場合には、当該入力画像に適応的
な補正処理を施した後に出力し、当該入力画像に適応的
な補正処理を施さないと判別した場合には、当該入力画
像をそのまま出力することによって、適応的な補正処理
によって生じる副作用的画質低下を防止するとともに、
画像処理時間を短縮することが可能となる。さらに、入
力画像がカラー画像であるかグレイスケール画像である
かを判別することによって、対象画像が白黒であるのか
カラーであるのかを意識することなく、良好な補正処理
が短時間で実現される。
[2.3] Effects of Second Embodiment As described above, according to the second embodiment, after the type of an input image (image to be processed) is automatically determined, the type is determined according to the result. It is determined whether or not to perform the correction processing, and when it is determined that the adaptive correction processing is to be performed, the input image is subjected to the adaptive correction processing and then output, and the adaptive correction is performed for the input image. If it is determined that the processing is not performed, the input image is output as it is to prevent the side effect image quality deterioration caused by the adaptive correction processing,
Image processing time can be reduced. Further, by determining whether the input image is a color image or a grayscale image, a good correction process can be realized in a short time without being conscious of whether the target image is monochrome or color. .

【0061】[0061]

【発明の効果】本発明によれば、入力画像(処理対象画
像)の種別を自動的に判別した後、その判別結果に応じ
て適応的な補正処理を施すか否かを判別し、適応的な補
正処理を施す場合には、入力画像に対して適応的な階調
補正を施してから出力し、適応的な補正処理を施さない
場合には入力画像をそのまま出力することによって、適
応的な補正処理が生じる副作用的画質低下を防止し、画
像処理の高速化を実現することができる。
According to the present invention, after automatically determining the type of an input image (image to be processed), it is determined whether or not to perform adaptive correction processing in accordance with the determination result. When the adaptive correction processing is performed, the input image is subjected to adaptive gradation correction and then output. When the adaptive correction processing is not performed, the input image is output as it is. It is possible to prevent a side effect of image quality deterioration caused by the correction processing, and realize high-speed image processing.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 実施形態の画像処理装置の概要構成ブロック
図である。
FIG. 1 is a schematic configuration block diagram of an image processing apparatus according to an embodiment.

【図2】 実施形態の画像処理の概要処理フローチャー
トである。
FIG. 2 is a flowchart illustrating an outline of image processing according to the embodiment;

【図3】 カラーバランス補正条件設定処理の概要処理
説明図である。
FIG. 3 is an explanatory diagram of a general process of a color balance correction condition setting process.

【図4】 コントラスト補正条件設定処理の概要処理説
明図である。
FIG. 4 is an explanatory diagram of a schematic process of a contrast correction condition setting process.

【図5】 精細度補正条件設定処理の概要処理フローチ
ャートである。
FIG. 5 is a schematic processing flowchart of a definition correction condition setting process.

【図6】 エッジ検出フィルタによる畳み込み演算の説
明図である。
FIG. 6 is an explanatory diagram of a convolution operation by an edge detection filter.

【図7】 第1実施形態の画像判別部の概要構成ブロッ
ク図である。
FIG. 7 is a schematic configuration block diagram of an image determination unit according to the first embodiment.

【図8】 第1実施形態の画像判別部の処理フローチャ
ートである。
FIG. 8 is a processing flowchart of an image determining unit according to the first embodiment.

【図9】 明度最小値Ymin及び明度最大値Ymax
の説明図である。
FIG. 9 shows a minimum lightness value Ymin and a maximum lightness value Ymax.
FIG.

【図10】 明度極大値ポイント数Ypeakの説明図
である。
FIG. 10 is an explanatory diagram of a brightness maximum value point number Ypeak.

【図11】 第1実施形態の処理概要説明図である。FIG. 11 is an explanatory diagram of a process outline according to the first embodiment.

【図12】 第2実施形態の処理フローチャートであ
る。
FIG. 12 is a processing flowchart of the second embodiment.

【図13】 明度コントラスト補正条件設定処理及び彩
度コントラスト補正条件設定処理の説明図である。
FIG. 13 is an explanatory diagram of a brightness contrast correction condition setting process and a saturation contrast correction condition setting process.

【図14】 第2実施形態の画像判別部の概要構成ブロ
ック図である。
FIG. 14 is a schematic configuration block diagram of an image determination unit according to a second embodiment.

【図15】 第2実施形態の画像判別部の処理フローチ
ャートである。
FIG. 15 is a processing flowchart of an image determining unit according to the second embodiment.

【図16】 第2実施形態の処理概要説明図である。FIG. 16 is an explanatory diagram of a process outline according to the second embodiment.

【図17】 従来の画像のコントラストを自動的に補正
する補正処理を説明する図である。
FIG. 17 is a diagram illustrating a conventional correction process for automatically correcting the contrast of an image.

【図18】 従来のダイナミックレンジの変換によるコ
ントラスト補正処理を説明する図である。
FIG. 18 is a diagram illustrating a conventional contrast correction process based on dynamic range conversion.

【符号の説明】[Explanation of symbols]

100… 画像処理装置 101…CPU 102…バスコントローラ 103…CRT 104…CRTコントローラ 105…操作部 106…インターフェース部 107…ROM 108…RAM 109…DMAコントローラ 110…画像蓄積部 111…画像判別部 112…画像補正部 113…スキャナ 114…プリンタ 115…インターフェース部 116…インターフェース部 118…ネットワーク 119…インターフェース部 301…明度分布情報抽出部 302…色数計数部 303…特徴量解析部 401…明度分布情報抽出部 402…彩度分布情報抽出部 403…色数計数部 404…特徴量解析部 REFERENCE SIGNS LIST 100 image processing device 101 CPU 102 bus controller 103 CRT 104 CRT controller 105 operation unit 106 interface unit 107 ROM 108 RAM 109 DMA controller 110 image storage unit 111 image determination unit 112 image Correction unit 113 Scanner 114 Printer 115 Interface unit 116 Interface unit 118 Network 119 Interface unit 301 Brightness distribution information extraction unit 302 Color count unit 303 Feature analysis unit 401 Lightness distribution information extraction unit 402 ... Saturation distribution information extraction unit 403 ... Color number counting unit 404 ... Feature amount analysis unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 AA11 BA28 CA01 CA02 CA06 CA08 CA12 CA16 CB01 CB02 CB06 CB08 CB12 CB16 CC02 CE11 CE16 CH18 DA01 DB02 DB05 DB06 DB08 DB09 DC22 DC25 5C077 LL19 MP06 MP07 MP08 PP15 PP32 PP35 PP37 PP43 PP47 PP51 PQ08 PQ19 SS06 TT02 TT06 5C079 HB01 HB06 LA01 LA02 LA06 LA12 LA31 LB02 NA03 NA05 PA02 PA03 PA05  ──────────────────────────────────────────────────続 き Continued from the front page F-term (reference) PP51 PQ08 PQ19 SS06 TT02 TT06 5C079 HB01 HB06 LA01 LA02 LA06 LA12 LA31 LB02 NA03 NA05 PA02 PA03 PA05

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 入力された画像データに対応する画像の
種別を判別する画像種別判別手段と、 前記画像の特徴を表す特徴量を抽出する特徴量抽出手段
と、 前記画像データに対し、前記特徴量に対応する画像補正
処理を施す画像補正手段と、 判別した前記画像の種別に基づいて前記画像データに対
する前記画像補正処理を禁止する補正処理禁止手段と、 を備えたことを特徴とする画像処理装置。
An image type determination unit configured to determine a type of an image corresponding to input image data; a feature amount extraction unit configured to extract a feature amount representing a feature of the image; Image processing means for performing image correction processing corresponding to an amount, and correction processing prohibition means for prohibiting the image correction processing on the image data based on the determined type of the image. apparatus.
【請求項2】 請求項1記載の画像処理装置において、 前記画像種別判別手段は、前記画像についての色数ある
いは階調数に基づいて前記画像の種別を判別することを
特徴とする画像処理装置。
2. The image processing apparatus according to claim 1, wherein the image type determining unit determines the type of the image based on the number of colors or the number of gradations of the image. .
【請求項3】 請求項1または請求項2に記載の画像処
理装置において、 前記画像種別判別手段は、前記画像がピクトリアル画像
か否かを判別するピクトリアル判別手段を備え、 前記補正処理禁止手段は、前記ピクトリアル判別手段の
判別により前記画像がピクトリアル画像ではない場合に
前記画像補正処理を禁止することを特徴とする画像処理
装置。
3. The image processing apparatus according to claim 1, wherein the image type determination unit includes a pictorial determination unit that determines whether the image is a pictorial image, and the correction process is prohibited. An image processing apparatus for prohibiting the image correction process when the image is not a pictorial image according to the determination by the pictorial determination unit.
【請求項4】 請求項1または請求項2に記載の画像処
理装置において、 前記画像種別判別手段は、前記画像がカラー画像あるい
はグレースケール画像のいずれであるかを判別するカラ
ー/グレイスケール判別手段と、 前記画像がカラー画像である場合に、当該画像について
の色数を判別する色数判別手段と、 前記画像がグレイスケール画像である場合に、当該画像
についての階調数を判別する階調数判別手段と、を備
え、 前記補正処理禁止手段は、前記カラー/グレイスケール
判別手段、前記色数判別手段及び前記階調数判別手段の
判別により前記画像がカラー画像であり、かつ、その色
数が所定の色数未満の画像である場合あるいは前記画像
がグレイスケール画像であり、かつ、その階調数が所定
の階調数未満である場合に前記画像補正処理を禁止する
ことを特徴とする画像処理装置。
4. The image processing apparatus according to claim 1, wherein the image type determination unit determines whether the image is a color image or a grayscale image. A color number determining unit that determines the number of colors of the image when the image is a color image; and a gradation that determines the number of gradations of the image when the image is a gray scale image. Number correction means, wherein the correction processing prohibiting means is a color image based on the color / gray scale determination means, the color number determination means and the gradation number determination means, and the color If the number of images is less than a predetermined number of colors or if the image is a grayscale image and the number of gradations is less than a predetermined number of gradations, the image complement is performed. The image processing apparatus characterized by prohibiting processing.
【請求項5】 請求項4記載の画像処理装置において、 前記補正処理禁止手段は、前記画像がカラー画像あるい
はグレイスケール画像のいずれでもない場合に、前記画
像補正処理を禁止することを特徴とする画像処理装置。
5. The image processing apparatus according to claim 4, wherein the correction processing prohibiting unit prohibits the image correction processing when the image is neither a color image nor a grayscale image. Image processing device.
【請求項6】 請求項1ないし請求項5のいずれかに記
載の画像処理装置において、 前記画像補正手段は、前記画像の明度補正処理を行う明
度補正処理手段を備えたことを特徴とする画像処理装
置。
6. The image processing apparatus according to claim 1, wherein the image correction unit includes a brightness correction processing unit that performs a brightness correction process on the image. Processing equipment.
【請求項7】 請求項1ないし請求項5のいずれかに記
載の画像処理装置において、 前記画像補正手段は、前記画像の彩度補正処理を行う彩
度補正処理手段を備えたことを特徴とする画像処理装
置。
7. The image processing apparatus according to claim 1, wherein the image correction unit includes a saturation correction processing unit that performs a saturation correction process on the image. Image processing device.
【請求項8】 請求項1ないし請求項5のいずれかに記
載の画像処理装置において、 前記画像補正手段は、前記画像のカラーバランス補正処
理を行うカラーバランス補正処理手段を備えたことを特
徴とする画像処理装置。
8. The image processing apparatus according to claim 1, wherein the image correction unit includes a color balance correction unit that performs a color balance correction process on the image. Image processing device.
【請求項9】 入力画像の種別を判別する画像種別判別
工程と、 前記画像の特徴を表す特徴量を抽出する特徴量抽出工程
と、 前記入力画像に対し、前記特徴量に対応する画像補正処
理を施す画像補正工程と、 判別した前記画像の種別に基づいて前記入力画像に対す
る前記画像補正処理を禁止する補正処理禁止工程と、 を備えたことを特徴とする画像処理方法。
9. An image type determining step of determining a type of an input image; a feature amount extracting step of extracting a feature amount representing a feature of the image; and an image correction process corresponding to the feature amount for the input image. An image processing method, comprising: an image correction step of performing the following, and a correction processing prohibition step of prohibiting the image correction processing on the input image based on the determined type of the image.
【請求項10】 請求項9記載の画像処理方法におい
て、 前記画像種別判別工程は、前記画像がカラー画像あるい
はグレースケール画像のいずれであるかを判別するカラ
ー/グレイスケール判別工程と、 前記画像がカラー画像である場合に、当該画像について
の色数を判別する色数判別工程と、 前記画像がグレイスケール画像である場合に、当該画像
についての階調数を判別する階調数判別工程と、を備
え、 前記補正処理禁止工程は、前記カラー/グレイスケール
判別工程、前記色数判別工程及び前記階調数判別工程に
おける判別により前記画像がカラー画像であり、かつ、
その色数が所定の色数未満の画像である場合あるいは前
記画像がグレイスケール画像であり、かつ、その階調数
が所定の階調数未満である場合に前記画像補正処理を禁
止することを特徴とする画像処理方法。
10. The image processing method according to claim 9, wherein the image type determining step includes a color / gray scale determining step of determining whether the image is a color image or a gray scale image; If the image is a color image, a number-of-colors determining step of determining the number of colors of the image; and if the image is a grayscale image, a number-of-gradations determining step of determining the number of gray levels of the image. Wherein the correction processing prohibiting step is a color image based on the determination in the color / gray scale determining step, the color number determining step, and the gradation number determining step, and
Prohibiting the image correction process when the number of colors is less than a predetermined number of colors or when the image is a grayscale image and the number of gradations is less than a predetermined number of gradations. Characteristic image processing method.
JP10200961A 1998-07-15 1998-07-15 Image processor and image processing method Pending JP2000032287A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10200961A JP2000032287A (en) 1998-07-15 1998-07-15 Image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10200961A JP2000032287A (en) 1998-07-15 1998-07-15 Image processor and image processing method

Publications (1)

Publication Number Publication Date
JP2000032287A true JP2000032287A (en) 2000-01-28

Family

ID=16433199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10200961A Pending JP2000032287A (en) 1998-07-15 1998-07-15 Image processor and image processing method

Country Status (1)

Country Link
JP (1) JP2000032287A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003125208A (en) * 2001-08-08 2003-04-25 Hewlett Packard Co <Hp> Apparatus for predominant color identification in digital image
KR100444510B1 (en) * 2002-07-08 2004-08-16 엘지전자 주식회사 Apparatus And Method For Driving Plasma Display Panel Using An Enlarging Method Of Dynamic Range
JP2008035009A (en) * 2006-07-27 2008-02-14 Fujifilm Corp Data correction method, apparatus and program
JP4521468B1 (en) * 2009-02-25 2010-08-11 株式会社東芝 Image processing apparatus and image processing method
WO2014064916A1 (en) * 2012-10-25 2014-05-01 三菱電機株式会社 Image processing device and image processing method
WO2014119060A1 (en) * 2013-01-31 2014-08-07 三菱電機株式会社 Image processing device, image processing method, program, and recording medium
US20210304415A1 (en) * 2018-08-02 2021-09-30 Nippon Telegraph And Telephone Corporation Candidate region estimation device, candidate region estimation method, and program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003125208A (en) * 2001-08-08 2003-04-25 Hewlett Packard Co <Hp> Apparatus for predominant color identification in digital image
KR100444510B1 (en) * 2002-07-08 2004-08-16 엘지전자 주식회사 Apparatus And Method For Driving Plasma Display Panel Using An Enlarging Method Of Dynamic Range
JP2008035009A (en) * 2006-07-27 2008-02-14 Fujifilm Corp Data correction method, apparatus and program
JP4521468B1 (en) * 2009-02-25 2010-08-11 株式会社東芝 Image processing apparatus and image processing method
JP2010199976A (en) * 2009-02-25 2010-09-09 Toshiba Corp Image processor and image processing method
US7995146B2 (en) 2009-02-25 2011-08-09 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
WO2014064916A1 (en) * 2012-10-25 2014-05-01 三菱電機株式会社 Image processing device and image processing method
JP5889431B2 (en) * 2012-10-25 2016-03-22 三菱電機株式会社 Image processing apparatus and image processing method
US9619873B2 (en) 2012-10-25 2017-04-11 Mitsubishi Electric Corporation Image processing device and image processing method
WO2014119060A1 (en) * 2013-01-31 2014-08-07 三菱電機株式会社 Image processing device, image processing method, program, and recording medium
JP5847341B2 (en) * 2013-01-31 2016-01-20 三菱電機株式会社 Image processing apparatus, image processing method, program, and recording medium
US9449375B2 (en) 2013-01-31 2016-09-20 Mitsubishi Electric Corporation Image processing apparatus, image processing method, program, and recording medium
US20210304415A1 (en) * 2018-08-02 2021-09-30 Nippon Telegraph And Telephone Corporation Candidate region estimation device, candidate region estimation method, and program
US12008765B2 (en) * 2018-08-02 2024-06-11 Nippon Telegraph And Telephone Corporation Candidate region estimation device, candidate region estimation method, and program

Similar Documents

Publication Publication Date Title
US8929681B2 (en) Image processing apparatus and image processing method
EP0747855B1 (en) Method and apparatus for enhancing a digital image
US7406193B2 (en) Image processing method and image processing apparatus for making luminance correction
JP3759761B2 (en) Method and apparatus for changing sharpness
US7940434B2 (en) Image processing apparatus, image forming apparatus, method of image processing, and a computer-readable storage medium storing an image processing program
US6608926B1 (en) Image processing method, image processing apparatus and recording medium
US8553285B2 (en) Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US7903872B2 (en) Image-processing apparatus and method, computer program, and storage medium
US6822762B2 (en) Local color correction
EP1619875A1 (en) Image processing apparatus, image processing method, color adjustment method, and color adjusment system
JPH07322033A (en) Picture-dependent color chroma correction method of natural scene picture in electronic document and its device
US7333136B2 (en) Image processing apparatus for carrying out tone conversion processing and color correction processing using a three-dimensional look-up table
JP4262151B2 (en) Image processing method, image processing apparatus, computer program, and storage medium
US20080062484A1 (en) Image processing device and image processing method
JP4208396B2 (en) Image processing method, apparatus, and recording medium
US6894807B1 (en) Method and apparatus for printing a black-and-white image based on color image information
US7912308B2 (en) Image processing device that quickly performs retinex process
JP2000032287A (en) Image processor and image processing method
JP3950551B2 (en) Image processing method, apparatus, and recording medium
JPH11120325A (en) Image evaluating method, medium where image evaluating program is recorded, and image evaluating device
JP4219577B2 (en) Image processing apparatus, image output apparatus, image processing method, and storage medium
JP4112413B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and computer-readable recording medium on which image processing program is recorded
JPH10283470A (en) Image processor, image processing method and recording medium
JP2009070099A (en) Image-processing device, image-processing method, program and recording medium
JP4120928B2 (en) Image processing apparatus, image processing method, and program thereof

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051220