JPH11146219A - Image processing device and method and medium recording image processing program - Google Patents

Image processing device and method and medium recording image processing program

Info

Publication number
JPH11146219A
JPH11146219A JP9312126A JP31212697A JPH11146219A JP H11146219 A JPH11146219 A JP H11146219A JP 9312126 A JP9312126 A JP 9312126A JP 31212697 A JP31212697 A JP 31212697A JP H11146219 A JPH11146219 A JP H11146219A
Authority
JP
Japan
Prior art keywords
correspondence
image processing
image data
image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9312126A
Other languages
Japanese (ja)
Other versions
JP3918257B2 (en
Inventor
Naoki Kuwata
直樹 鍬田
Yoshihiro Nakami
至宏 中見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP31212697A priority Critical patent/JP3918257B2/en
Priority to EP05077481A priority patent/EP1619875A1/en
Priority to DE69827703T priority patent/DE69827703T2/en
Priority to EP05077482A priority patent/EP1619876A3/en
Priority to EP98304660A priority patent/EP0886437B1/en
Priority to EP04077594A priority patent/EP1489833A1/en
Priority to US09/097,828 priority patent/US6535301B1/en
Publication of JPH11146219A publication Critical patent/JPH11146219A/en
Priority to US10/270,485 priority patent/US7072074B2/en
Priority to US11/431,753 priority patent/US7286265B2/en
Priority to US11/431,752 priority patent/US7292371B2/en
Application granted granted Critical
Publication of JP3918257B2 publication Critical patent/JP3918257B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor with which side effect image processing is prevented as much as possible when correcting image data. SOLUTION: A computer 21, as a central image processor designates an area to apply image processing through a step S100, and while discriminating whether an object-pixel belongs to the designated area or not through steps S110-S140 while moving it. When that pixel belongs to that area, the designated image processing is executed. Thus, any adverse effect is prevented from being exerted upon the image data in the other area by correcting image data in a certain area, and the image data can be easily made beautiful as a whole.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置、画
像処理方法および画像処理プログラムを記録した媒体に
関し、特に、デジタル写真画像のようなドットマトリク
ス状の画素からなる実写の画像データを入力して各画素
の画像データを所定の対応関係で変換する画像処理装置
および画像処理プログラムを記録した媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, an image processing method, and a medium on which an image processing program is recorded, and more particularly to a method for inputting actual image data consisting of pixels in a dot matrix such as a digital photographic image. And an image processing apparatus for converting image data of each pixel in a predetermined correspondence relationship.

【0002】[0002]

【従来の技術】ディジタル写真画像のような実写の画像
データに対して各種の画像処理が行われている。例え
ば、コントラストを拡大するとか、色度を補正すると
か、明るさを補正するといった画像処理である。これら
の画像処理は、各画素の画像データを所定の対応関係と
なるように変換して行われる。色度を補正する例では、
色変換テーブルを用意しておき、変換元の画像データを
入力データとして同色変換テーブルを参照して出力デー
タを生成する。これにより、肌色補正であれば画像の肌
色部分が鮮やかになったりする。
2. Description of the Related Art Various types of image processing are performed on image data of actual photographs such as digital photographic images. For example, image processing such as increasing the contrast, correcting the chromaticity, or correcting the brightness. These image processes are performed by converting the image data of each pixel so as to have a predetermined correspondence. In the example of correcting chromaticity,
A color conversion table is prepared, and output data is generated with reference to the same color conversion table using the conversion source image data as input data. As a result, in the case of skin color correction, the skin color portion of the image becomes vivid.

【0003】[0003]

【発明が解決しようとする課題】上述した従来の画像処
理装置においては、ある色度の補正を行おうとすると画
像全体がそのような補正を施されることになり、必ずし
も満足のいく結果が得られるとは限らないという課題が
あった。例えば、人の顔が青みがかって血色が悪く感じ
られるような場合に血色を良くさせようとした場合、画
面全体が赤みがかってしまうといったことが生じてい
た。すなわち、ある画像修正を行うことによって本来の
効果も得られるものの、副作用的に好ましくない画像修
正も行われてしまう。
In the above-described conventional image processing apparatus, when a certain chromaticity is to be corrected, such correction is applied to the entire image, and a satisfactory result is not always obtained. There was a problem that it was not always possible. For example, when a person's face is bluish and the bloody color is bad, if the user tries to improve the bloody color, the entire screen becomes reddish. That is, although an original effect can be obtained by performing a certain image correction, an undesirable image correction is also performed as a side effect.

【0004】本発明は、上記課題にかんがみてなされた
もので、画像データを修正するにあたり、できる限り副
作用的な画像処理を行わないようにすることが可能な画
像処理装置の提供を目的とする。
[0004] The present invention has been made in view of the above problems, and has as its object to provide an image processing apparatus capable of minimizing side-effect image processing when correcting image data. .

【0005】[0005]

【課題を解決するための手段】上記目的を達成するた
め、請求項1にかかる発明は、ドットマトリクス状の画
素からなる実写の画像データを入力し、各画素の画像デ
ータを所定の対応関係で変換する画像処理装置であっ
て、上記画像データを変換する対応関係をその適用対象
の情報とともに複数備える対応関係保持手段と、この対
応関係保持手段にて保持される各対応関係の適用対象の
情報に基づいて各画素の画像データを変換すべき対応関
係を判断する対応関係判断手段と、この対応関係判断手
段にて判断された対応関係を上記対応関係保持手段から
参照して各画素の画像データを変換する画像データ変換
手段とを具備する構成としてある。
According to a first aspect of the present invention, there is provided an image processing apparatus comprising: inputting real image data composed of pixels in a dot matrix, and converting the image data of each pixel in a predetermined correspondence relationship; An image processing apparatus for performing conversion, comprising: a correspondence holding unit having a plurality of correspondences for converting the image data together with information on an application target thereof; and information on an application target of each correspondence held by the correspondence holding unit. A correspondence determining means for determining the correspondence to convert the image data of each pixel on the basis of the image data of each pixel by referring to the correspondence determined by the correspondence determining means from the correspondence holding means And image data conversion means for converting the image data.

【0006】上記のように構成した請求項1にかかる発
明においては、画像をドットマトリクス状の画素として
表すとともに各画素を画像データで表現している場合
に、各画素の画像データを所定の対応関係で変換する。
この際、対応関係保持手段は同画像データを変換する対
応関係をその適用対象の情報とともに複数備えており、
対応関係判断手段はこの対応関係保持手段にて保持され
る各対応関係の適用対象の情報に基づいて各画素の画像
データを変換すべき対応関係を判断し、画像データ変換
手段はこの対応関係判断手段にて判断された対応関係を
上記対応関係保持手段から参照して各画素の画像データ
を変換する。
According to the first aspect of the present invention, when an image is represented as a dot matrix pixel and each pixel is represented by image data, the image data of each pixel is assigned to a predetermined correspondence. Convert by relationship.
At this time, the correspondence holding means includes a plurality of correspondences for converting the same image data together with information on an application target thereof,
Correspondence determining means determines the correspondence to convert the image data of each pixel based on the information on the application of each correspondence held in the correspondence holding means, and the image data conversion means determines the correspondence. The correspondence determined by the means is referred to from the correspondence holding means to convert the image data of each pixel.

【0007】すなわち、画像データを変換する対応関係
を複数備え、各画素毎にどの対応関係を適用すべきか判
断し、各画素毎に適切な対応関係を適用して画像データ
を変換する。例えば、木々の緑を鮮やかにする対応関係
は木々の緑の画素に適用し、肌を血色良く見せる対応関
係は肌色の画素に適用するというように、適宜、対応関
係を変化させている。
That is, a plurality of correspondences for converting image data are provided, which correspondence is to be applied to each pixel, and an appropriate correspondence is applied to each pixel to convert the image data. For example, the correspondence that makes the green of the trees vivid is applied to the green pixels of the trees, and the correspondence that makes the skin look good is applied to the pixels of the skin color, and the correspondence is appropriately changed.

【0008】画像処理を行う関係上、対象となる画像デ
ータは実写画像において特に好適であり、ここにおける
実写画像は必ずしも100%実写である必要はなく、半
合成であったり、複数の実写画像を混合させたものでも
構わない。
[0008] In view of performing image processing, target image data is particularly suitable for a real image. The real image here is not necessarily 100% real image, and may be semi-synthesized or a plurality of real images. It may be mixed.

【0009】対応関係保持手段は対応関係をその適用対
象の情報とともに複数備えている。対応関係は画像デー
タを入力して所定の変換を行うものであり、それぞれの
対応関係毎に適用対象の情報も備えている。このような
適用対象の情報自体は各種のものを採用可能であり、そ
の一例として、請求項2にかかる発明は、請求項1に記
載の画像処理装置において、上記対応関係保持手段は、
画像の部位毎に適用すべき対応関係を保持するとともに
各対応関係を適用すべき部位の情報を有し、上記対応関
係判断手段は、各画素の画像内における部位を検知する
とともに検知された部位と上記対応関係保持手段が有す
る各対応関係ごとの部位の情報とを照らし合わせて変換
すべき対応関係を判断する構成としてある。
[0009] The correspondence holding means has a plurality of correspondences together with information on the application target. The correspondence relationship is to perform predetermined conversion by inputting image data, and each correspondence relationship has information to be applied. As the information itself to be applied, various kinds of information can be adopted. As an example, the invention according to claim 2 is the image processing apparatus according to claim 1, wherein the correspondence holding unit includes:
The correspondence relation to be applied to each part of the image is held, and information on a part to which each correspondence relation is to be applied is included. The correspondence determination means detects a part in the image of each pixel and detects the detected part. The correspondence relation to be converted is determined by comparing the correspondence relation holding means with the information on the parts for each correspondence relation.

【0010】上記のように構成した請求項2にかかる発
明においては、画像の部位毎に適用すべき対応関係が異
なり、上記対応関係保持手段は各対応関係を適用すべき
部位の情報を有している。このため、上記対応関係判断
手段は各画素の画像内における部位を検知し、検知され
た部位と上記対応関係保持手段が有する各対応関係ごと
の部位の情報とを照らし合わせる。そして、一致するも
のがあればその対応関係を変換すべきものとして判断す
る。
In the invention according to claim 2 configured as described above, the correspondence to be applied differs for each part of the image, and the correspondence holding means has information on the part to which each correspondence is to be applied. ing. For this reason, the correspondence determination unit detects a part in the image of each pixel, and compares the detected part with information on a part for each correspondence held by the correspondence holding unit. If there is a match, the correspondence is determined to be converted.

【0011】すなわち、画像の部位毎に異なる対応関係
を用意して画像データに適用する。例えば、画像の上方
部分には空色に対する対応関係を適用し、下方部分は特
に変換しないというものが含まれる。この場合の画像の
部位の単位は特に制限されるものではなく、矩形であっ
たり、丸形であったり、フリーな図形などを採用可能で
ある。また、必ずしもある範囲を持って部位を特定する
必要もなく、ある部分を中心として所定の範囲を指定す
るといったものでも良い。この場合、中心から離れるに
従って徐々に変換度合いを下げていくといったものでも
良い。むろん、一つの対応関係を複数の部位に適用して
も構わない。
That is, a different correspondence is prepared for each part of the image and applied to the image data. For example, the upper part of the image may include the correspondence with the sky blue color, and the lower part may not be converted. The unit of the part of the image in this case is not particularly limited, and may be a rectangle, a circle, a free figure, or the like. Further, it is not always necessary to specify a part with a certain range, and a predetermined range may be designated centering on a certain part. In this case, the degree of conversion may be gradually reduced as the distance from the center increases. Of course, one correspondence may be applied to a plurality of parts.

【0012】適用対象を特定する他の一例として、請求
項3にかかる発明は、請求項1または請求項2のいずれ
かに記載の画像処理装置において、上記対応関係保持手
段は、複数の対応関係を保持するとともに各対応関係を
適用すべき色度の情報を有し、上記対応関係判断手段
は、各画素の色度を検知するとともに検知された色度と
上記対応関係保持手段が有する各対応関係ごとの色度の
情報とを照らし合わせて変換すべき対応関係を判断する
構成としてある。
As another example of specifying an application object, the invention according to claim 3 is an image processing apparatus according to any one of claims 1 and 2, wherein the correspondence holding means includes a plurality of correspondences. And the chromaticity information to which each correspondence relationship is to be applied. The correspondence relationship determination means detects the chromaticity of each pixel, and the detected chromaticity and each correspondence possessed by the correspondence relationship holding means. The configuration is such that the correspondence to be converted is determined by comparing the chromaticity information for each relationship.

【0013】上記のように構成した請求項3にかかる発
明においては、複数の対応関係を保持しており、各色度
毎に適用すべき対応関係が異なっている。このため、上
記対応関係保持手段は各対応関係毎に適用すべき色度の
情報を有しており、上記対応関係判断手段は各画素の色
度を検知する。そして、検知された色度と上記対応関係
保持手段が有する各対応関係ごとの色度の情報とを照ら
し合わせ、変換すべき対応関係を判断する。この場合、
あくまでも適用すべき対応関係を判断するために色度を
利用するのであり、必ずしも色度を修正する必要はな
い。
In the invention according to claim 3 configured as described above, a plurality of correspondences are held, and the correspondence to be applied differs for each chromaticity. Therefore, the correspondence holding means has chromaticity information to be applied for each correspondence, and the correspondence determination means detects the chromaticity of each pixel. Then, the detected chromaticity is compared with the chromaticity information for each corresponding relationship held by the corresponding relationship holding unit, and the corresponding relationship to be converted is determined. in this case,
The chromaticity is used to determine the correspondence to be applied, and the chromaticity does not always need to be corrected.

【0014】色度を判断するには入力された画像データ
をそのまま利用しても構わないし、いわゆる色空間を変
更してより色度を判断しやすい画像データに変換してか
ら判断しても良い。さらには、必ずしも狭義の色度にと
らわれず、画像データから判断可能な所定の特徴量を利
用する場合であっても広義の意味で色度と判断すること
が可能である。
In order to determine the chromaticity, the input image data may be used as it is, or it may be determined after changing the so-called color space into image data in which the chromaticity can be more easily determined. . Further, the chromaticity is not necessarily limited to the chromaticity in a narrow sense, and it is possible to determine the chromaticity in a broad sense even when a predetermined feature amount that can be determined from image data is used.

【0015】一方、画像データを変換するための対応関
係を備えるための各種の具体的手法を採用可能である。
その一例として、請求項4にかかる発明は、請求項1〜
請求項3のいずれかに記載の画像処理装置において、上
記対応関係保持手段は、変換元の画像データと変換後の
画像データの対応関係を記憶する色変換テーブルを有す
る構成としてある。
On the other hand, various specific methods for providing a correspondence for converting image data can be adopted.
As an example, the invention according to claim 4 is based on claims 1 to
4. The image processing apparatus according to claim 3, wherein the correspondence holding unit has a color conversion table that stores a correspondence between the original image data and the converted image data.

【0016】上記のように構成した請求項4にかかる発
明においては、上記対応関係保持手段の色変換テーブル
に変換元の画像データと変換後の画像データとが記憶さ
れており、画像データ変換手段は変換元の画像データを
用いて同色変換テーブルを参照することにより、変換後
の画像データを得ることになる。すなわち、対応関係を
テーブルとして記憶するものである。
In the invention according to claim 4, the image data of the conversion source and the image data after the conversion are stored in the color conversion table of the correspondence holding means. Refers to the same color conversion table using the original image data to obtain the converted image data. That is, the correspondence is stored as a table.

【0017】むろん、これ以外にも演算式であるとか、
演算用パラメータといった形で対応関係を保持すること
も可能であるが、テーブルを利用する場合には参照する
だけの手間であるなどのメリットもある。
Of course, besides this, it is an arithmetic expression,
Although it is possible to hold the correspondence in the form of calculation parameters, there is an advantage that when a table is used, it is troublesome to refer to the table.

【0018】複数の対応関係は必ずしも個別の対応関係
が複数ある場合に限るものではなく、実質的に複数の変
換結果が得られるようなものでも良い。その一例とし
て、請求項5にかかる発明は、請求項1〜請求項4のい
ずれかに記載の画像処理装置において、上記対応関係保
持手段は、対応関係を適用する度合いを変化させること
によって複数の対応関係を実現する構成としてある。
The plurality of correspondences are not necessarily limited to the case where there are a plurality of individual correspondences, but may be ones which can substantially obtain a plurality of conversion results. As an example, the invention according to claim 5 is the image processing apparatus according to any one of claims 1 to 4, wherein the correspondence holding unit changes the degree of application of the correspondence by changing a plurality of degrees. This is a configuration for realizing the correspondence.

【0019】上記のように構成した請求項5にかかる発
明においては、対応関係保持手段は対応関係を適用する
度合いを変化させることにより複数の対応関係を実現す
る。例えば、同対応関係を適用しない画像データと適用
した画像データとの間で適応度合いに応じた値に設定す
ると入ったことが可能である。この場合、リニアな関連
づけであってもよいし非線形的な関連づけをしても構わ
ない。
In the invention according to claim 5 configured as described above, the correspondence holding means realizes a plurality of correspondences by changing the degree of application of the correspondence. For example, it is possible to set a value according to the degree of adaptation between image data to which the correspondence is not applied and image data to which the correspondence is applied. In this case, a linear association or a non-linear association may be used.

【0020】さらには、このような適応度合いを利用す
る場合には、一つの対応関係だけを備えれば、当該対応
関係を適用して変換させた状態と、実質的に変換させな
い状態とが得られ、複数の対応関係を備えたものという
ことができるし、この場合に適応度合いを変化させるこ
とによってさらに多くの対応関係を実現できる。
Further, when using such a degree of adaptation, if only one correspondence is provided, a state where the correspondence is converted and a state where the conversion is not substantially obtained are obtained. Thus, it can be said that a plurality of correspondences are provided, and in this case, more correspondences can be realized by changing the adaptation degree.

【0021】対応関係保持手段が備える対応関係は予め
定められたものであってもよいし、適宜定めるものであ
っても良く、後者の一例として、請求項6にかかる発明
は、請求項1〜請求項5のいずれかに記載の画像処理装
置において、上記対応関係保持手段は、上記画像データ
に適用すべき対応関係を指定する対応関係指定手段を有
する構成としてある。
The correspondence provided in the correspondence holding means may be predetermined or may be appropriately determined. As an example of the latter, the invention according to claim 6 is based on claims 1 to 6. The image processing apparatus according to claim 5, wherein the correspondence holding unit includes a correspondence designation unit that designates a correspondence to be applied to the image data.

【0022】上記のように構成した請求項6にかかる発
明においては、上記対応関係保持手段の対応関係指定手
段により上記画像データに適用すべき対応関係を指定す
る。対応関係には変換内容と適用対象の二つの要素があ
り、上記対応関係保持手段はいずれを対象とするもので
あっても構わない。この場合、各画像の部位を指定し、
指定された部位における変換内容を選択するといったこ
とも可能である。また、画像処理のオプションとして肌
色補正であるとか空色補正といった項目を選択するとい
ったものでも良い。
In the invention according to claim 6 configured as described above, the correspondence to be applied to the image data is designated by the correspondence designation means of the correspondence holding means. The correspondence has two elements, that is, the conversion content and the application target, and the correspondence holding means may be any one. In this case, specify the part of each image,
It is also possible to select the contents of conversion at the designated part. Further, an item such as skin color correction or sky color correction may be selected as an image processing option.

【0023】このような対応関係の具体的な一例とし
て、請求項7にかかる発明は、請求項1〜請求項6のい
ずれかに記載の画像処理装置において、上記対応関係保
持手段は、上記画像データに基づいて明るさを変化させ
る対応関係を保持する構成としてある。
As a specific example of such a correspondence, the invention according to claim 7 is an image processing apparatus according to any one of claims 1 to 6, wherein the correspondence holding means includes the image processing device. The configuration is such that the correspondence for changing the brightness based on the data is held.

【0024】上記のように構成した請求項7にかかる発
明においては、対応関係保持手段が画像データに基づい
て明るさを変化させる対応関係を保持し、画像データ変
換手段はこの対応関係を利用して所定の画素に対して明
るさを変化させる変換を行う。例えば、画像のある部分
について画素を明るくするといった変換を行う。
In the invention according to claim 7 configured as described above, the correspondence holding means holds the correspondence for changing the brightness based on the image data, and the image data conversion means uses this correspondence. Is performed to change the brightness of a predetermined pixel. For example, a conversion is performed to brighten pixels in a certain part of the image.

【0025】また、他の一例として請求項8にかかる発
明は、請求項1〜請求項7のいずれかに記載の画像処理
装置において、上記対応関係保持手段は、画像データに
基づいて色度を変化させる対応関係を保持する構成とし
てある。
According to another aspect of the present invention, in the image processing apparatus according to any one of the first to seventh aspects, the correspondence holding means stores the chromaticity based on the image data. It is configured to hold the correspondence to be changed.

【0026】上記のように構成した請求項8にかかる発
明においては、対応関係保持手段が画像データに基づい
て色度を変化させる対応関係を保持し、画像データ変換
手段はこの対応関係を利用して所定の画素に対して色度
を変化させる変換を行う。例えば、画像の中に肌色の画
素があれば赤みを強調させる変換を行う。
In the invention according to claim 8 configured as described above, the correspondence holding means holds the correspondence for changing the chromaticity based on the image data, and the image data conversion means uses this correspondence. Is performed to change the chromaticity of a predetermined pixel. For example, if there is a flesh-colored pixel in the image, conversion is performed to enhance redness.

【0027】さらに、他の一例として請求項9にかかる
発明は、請求項1〜請求項8のいずれかに記載の画像処
理装置において、上記対応関係保持手段は、画像データ
に基づいて色の鮮やかさを変化させる対応関係を保持す
る構成としてある。
According to a ninth aspect of the present invention, in the image processing apparatus according to any one of the first to eighth aspects, the correspondence holding means is configured to perform color vividness based on image data. It is configured to hold the correspondence that changes the length.

【0028】上記のように構成した請求項9にかかる発
明においては、対応関係保持手段が画像データに基づい
て色の鮮やかさを変化させる対応関係を保持し、画像デ
ータ変換手段はこの対応関係を利用して画像の鮮やかさ
を変化させる変換を行う。例えば、色鮮やかな被写体を
周りの背景と比べて引き立てたい場合に当該被写体をよ
り鮮やかにする変換を行う。
In the ninth aspect of the present invention, the correspondence holding means holds the correspondence for changing the vividness of the color based on the image data, and the image data conversion means converts the correspondence. The conversion that changes the vividness of the image is performed using the conversion. For example, when it is desired to enhance a colorful subject in comparison with the surrounding background, conversion that makes the subject more vivid is performed.

【0029】ところで、所定の対応関係を適用するか否
かがはっきりと分かれると、見た目にその境界が分かっ
てしまいかねない。このため、請求項10にかかる発明
は、請求項1〜請求項9のいずれかに記載の画像処理装
置において、上記画像データ変換手段は、対応関係が異
なる領域の間の遷移領域の画素について徐々に対応関係
が変化するように画像データを変換する構成としてあ
る。
By the way, if it is clearly decided whether or not to apply a predetermined correspondence, the boundary may be apparent to the eye. For this reason, according to a tenth aspect of the present invention, in the image processing apparatus according to any one of the first to ninth aspects, the image data conversion means gradually changes the pixels in the transition area between the areas having different correspondences. The image data is converted so that the correspondence changes.

【0030】上記のように構成した請求項10にかかる
発明においては、対応関係が異なる領域の間に遷移領域
を設け、当該遷移領域の画素については徐々に対応関係
が変化するように画像データ変換手段が画像データを変
換する。これにより、段差が生じないようにする。
According to the tenth aspect of the present invention, a transition area is provided between areas having different correspondences, and image data conversion is performed so that the correspondence of pixels in the transition area changes gradually. Means converts the image data. This prevents a step from occurring.

【0031】遷移領域で徐々に対応関係が変化する態様
は適宜選択可能であり、線形の遷移としてもよいし、非
線形の遷移としても良い。
The manner in which the correspondence gradually changes in the transition area can be appropriately selected, and may be a linear transition or a non-linear transition.

【0032】上述したようにして、複数の対応関係を備
えて画素に応じて対応関係を変える手法は、実体のある
装置に限定される必要はなく、その方法としても機能す
ることは容易に理解できる。このため、請求項11にか
かる発明は、ドットマトリクス状の画素からなる実写の
画像データを入力し、各画素の画像データを所定の対応
関係で変換する画像処理方法であって、上記画像データ
を変換する対応関係をその適用対象の情報とともに複数
備え、各対応関係の適用対象の情報に基づいて各画素の
画像データを変換すべき対応関係を判断し、判断された
対応関係で各画素の画像データを変換する構成としてあ
る。
As described above, the method of providing a plurality of correspondences and changing the correspondences according to pixels does not need to be limited to a substantial device, and it is easily understood that the method also functions as the method. it can. For this reason, the invention according to claim 11 is an image processing method for inputting real image data composed of pixels in a dot matrix and converting the image data of each pixel in a predetermined correspondence relationship. A plurality of correspondences to be converted are provided together with the information of the application target, and a correspondence to convert the image data of each pixel is determined based on the information of the application target of each correspondence. It is configured to convert data.

【0033】すなわち、必ずしも実体のある装置に限ら
ず、その方法としても有効であることに相違はない。
That is, there is no difference in that the present invention is not necessarily limited to a substantial device but is also effective as a method.

【0034】以上のような手法で画像処理する発明の思
想は、各種の態様を含むものである。すなわち、ハード
ウェアで実現されたり、ソフトウェアで実現されるな
ど、適宜、変更可能である。発明の思想の具現化例とし
て画像処理するソフトウェアとなる場合には、かかるソ
フトウェアを記録したソフトウェア記録媒体上において
も当然に存在し、利用されるといわざるをえない。その
一例として、請求項12にかかる発明は、コンピュータ
にてドットマトリクス状の画素からなる実写の画像デー
タを入力し、各画素の画像データを所定の対応関係で変
換する画像処理プログラムを記録した媒体であって、上
記画像データを変換する対応関係をその適用対象の情報
とともに複数備え、各対応関係の適用対象の情報に基づ
いて各画素の画像データを変換すべき対応関係を判断
し、判断された対応関係で各画素の画像データを変換す
る構成としてある。
The idea of the invention for performing image processing by the above-described method includes various aspects. That is, it can be appropriately changed, for example, by hardware or software. In the case of software for performing image processing as an embodiment of the idea of the present invention, the software naturally exists on a software recording medium on which such software is recorded, and it must be said that the software is used. As an example, the invention according to claim 12 is a computer-readable storage medium storing an image processing program for inputting real image data composed of dot matrix pixels and converting the image data of each pixel in a predetermined correspondence relationship. A plurality of correspondences for converting the image data are provided together with the information of the application target, and the correspondence to convert the image data of each pixel is determined based on the information of the application target of each correspondence. The configuration is such that the image data of each pixel is converted according to the corresponding relationship.

【0035】むろん、その記録媒体は、磁気記録媒体で
あってもよいし光磁気記録媒体であってもよいし、今後
開発されるいかなるソフトウェア記録媒体においても全
く同様に考えることができる。また、一次複製品、二次
複製品などの複製段階については全く問う余地無く同等
である。その他、供給方法として通信回線を利用して行
う場合でも本発明が利用されていることには変わりない
し、半導体チップに書き込まれたようなものであっても
同様である。
Of course, the recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any software recording medium to be developed in the future. Also, the duplication stages of the primary duplicated product, the secondary duplicated product, and the like are equivalent without any question. In addition, the present invention is still used even when the supply method is performed using a communication line, and the same applies to a case where the information is written on a semiconductor chip.

【0036】さらに、一部がソフトウェアであって、一
部がハードウェアで実現されている場合においても発明
の思想において全く異なるものはなく、一部をソフトウ
ェア記録媒体上に記憶しておいて必要に応じて適宜読み
込まれるような形態のものとしてあってもよい。
Further, even when a part is realized by software and a part is realized by hardware, there is no difference in the concept of the invention, and it is necessary to store a part on a software recording medium. May be in a form that is read as appropriate in accordance with.

【0037】[0037]

【発明の効果】以上説明したように本発明は、画素毎に
画像データを変換する対応関係を変化させることができ
るため、他の部分に悪影響を与えることなく、所望の画
像処理を実現することが可能な画像処理装置を提供する
ことができる。
As described above, according to the present invention, since the correspondence for converting image data can be changed for each pixel, desired image processing can be realized without adversely affecting other parts. It is possible to provide an image processing apparatus capable of performing the above.

【0038】また、請求項2にかかる発明によれば、画
像の部位で対応関係を変化させるので、場所を指定した
画像処理を行うことができ、操作などが容易となる。
Further, according to the second aspect of the present invention, since the correspondence is changed depending on the part of the image, image processing in which the location is designated can be performed, and the operation and the like become easy.

【0039】さらに、請求項3にかかる発明によれば、
色度で対象を選択できるため、画像処理したい画素が複
数の部分に存在する場合であっても比較的容易に実現で
きる。
Further, according to the invention of claim 3,
Since the target can be selected based on the chromaticity, it can be realized relatively easily even when pixels to be subjected to image processing exist in a plurality of portions.

【0040】さらに、請求項4にかかる発明によれば、
対応関係を色変換テーブルとして保持するため、画像変
換が比較的容易となる。
Further, according to the invention according to claim 4,
Since the correspondence is stored as a color conversion table, image conversion is relatively easy.

【0041】さらに、請求項5にかかる発明によれば、
適応度合いを変化させることで、一つの対応関係を複数
のように利用可能となる。
Further, according to the invention of claim 5,
By changing the adaptation degree, one correspondence can be used as a plurality.

【0042】さらに、請求項6にかかる発明によれば、
適用すべき対応関係を指定できるため、自由度が向上す
る。
Further, according to the invention of claim 6,
Since the correspondence to be applied can be specified, the degree of freedom is improved.

【0043】さらに、請求項7にかかる発明によれば、
適用すべき対応関係で明るさを変化させることができ
る。
Furthermore, according to the invention of claim 7,
The brightness can be changed depending on the correspondence to be applied.

【0044】さらに、請求項8にかかる発明によれば、
適用すべき対応関係で色度を変化させることができる。
Further, according to the invention of claim 8,
The chromaticity can be changed depending on the correspondence to be applied.

【0045】さらに、請求項9にかかる発明によれば、
適用すべき対応関係で鮮やかさを変化させることができ
る。
Further, according to the ninth aspect of the present invention,
The vividness can be changed depending on the correspondence to be applied.

【0046】さらに、請求項10にかかる発明によれ
ば、一つの画像の中で異なる対応関係が適用されること
になっても境界部分で段差が生じないようにすることが
できる。
Further, according to the tenth aspect, even when different correspondences are applied in one image, it is possible to prevent a step from occurring at a boundary portion.

【0047】さらに、請求項11にかかる発明によれ
ば、同様の効果を得ることが可能な画像処理方法を提供
でき、請求項12にかかる発明によれば、画像処理プロ
グラムを記録した媒体を提供することができる。
Further, according to the eleventh aspect of the present invention, it is possible to provide an image processing method capable of obtaining the same effect, and according to the twelfth aspect of the present invention, to provide a medium on which an image processing program is recorded. can do.

【0048】[0048]

【発明の実施の形態】以下、図面にもとづいて本発明の
実施形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0049】図1は、本発明の一実施形態にかかる画像
処理装置を利用する画像処理システムをブロック図によ
り示しており、図2は具体的ハードウェア構成例を概略
ブロック図により示している。
FIG. 1 is a block diagram showing an image processing system using an image processing apparatus according to an embodiment of the present invention, and FIG. 2 is a schematic block diagram showing an example of a specific hardware configuration.

【0050】図1において、画像入力装置10は写真な
どをドットマトリクス状の画素として表した実写の画像
データを画像処理装置20へ出力し、同画像処理装置2
0は画像処理の適用対象と内容を指定してから対象とな
る画素について画像処理を実行する。同画像処理装置2
0は画像処理した画像データを画像出力装置30へ出力
し、画像出力装置は画像処理された画像をドットマトリ
クス状の画素で出力する。
In FIG. 1, an image input device 10 outputs real image data representing a photograph or the like as pixels in a dot matrix to an image processing device 20, and outputs the image data to the image processing device 20.
0 designates an image processing application target and contents, and then executes image processing for the target pixel. Image processing device 2
Numeral 0 outputs image-processed image data to the image output device 30, and the image output device outputs the image-processed image by dot matrix pixels.

【0051】画像入力装置10の具体例は図2における
スキャナ11やデジタルスチルカメラ12あるいはビデ
オカメラ14などが該当し、画像処理装置20の具体例
はコンピュータ21とハードディスク22とキーボード
23とマウス27とCD−ROMドライブ24とフロッ
ピーディスクドライブ25とモデム26などからなるコ
ンピュータシステムが該当し、画像出力装置30の具体
例はプリンタ31やディスプレイ32等が該当する。本
実施形態の場合、画像の不具合を修正すべく対象となる
画素を指定しつつ所定の対応関係で画像処理を行なうも
のであるため、画像データとしては写真などの実写デー
タが好適である。なお、モデム26については公衆通信
回線に接続され、外部のネットワークに同公衆通信回線
を介して接続し、ソフトウェアやデータをダウンロード
して導入可能となっている。
A specific example of the image input device 10 corresponds to the scanner 11, the digital still camera 12 or the video camera 14 shown in FIG. 2, and a specific example of the image processing device 20 includes a computer 21, a hard disk 22, a keyboard 23 and a mouse 27. A computer system including a CD-ROM drive 24, a floppy disk drive 25, and a modem 26 corresponds to the computer system. A specific example of the image output device 30 corresponds to a printer 31, a display 32, and the like. In the case of the present embodiment, image processing is performed in a predetermined correspondence while designating a target pixel in order to correct a defect in an image, so that real image data such as a photograph is preferable as the image data. The modem 26 is connected to a public communication line, is connected to an external network via the public communication line, and can download and install software and data.

【0052】本実施形態においては、画像入力装置10
としてのスキャナ11やデジタルスチルカメラ12が画
像データとしてRGB(緑、青、赤)の階調データを出
力するとともに、画像出力装置30としてのプリンタ3
1は階調データとしてCMY(シアン、マゼンダ、イエ
ロー)あるいはこれに黒を加えたCMYKの二値データ
を入力として必要とするし、ディスプレイ32はRGB
の階調データを入力として必要とする。一方、コンピュ
ータ21内ではオペレーティングシステム21aが稼働
しており、プリンタ31やディスプレイ32に対応した
プリンタドライバ21bやディスプレイドライバ21c
が組み込まれている。
In this embodiment, the image input device 10
The scanner 11 and the digital still camera 12 output RGB (green, blue, red) gradation data as image data, and the printer 3 as the image output device 30.
1 requires CMY (cyan, magenta, yellow) or CMYK binary data obtained by adding black to the input as gradation data, and the display 32 has RGB data.
Is required as an input. On the other hand, an operating system 21a is running in the computer 21, and a printer driver 21b and a display driver 21c corresponding to the printer 31 and the display 32 are provided.
Is incorporated.

【0053】また、画像処理アプリケーション21dは
オペレーティングシステム21aにて処理の実行を制御
され、必要に応じてプリンタドライバ21bやディスプ
レイドライバ21cと連携して所定の画像処理を実行す
る。従って、画像処理装置20としてのこのコンピュー
タ21の具体的役割は、RGBの階調データを入力して
画像を評価しつつ最適な画像処理を施したRGBの階調
データを作成し、ディスプレイドライバ21cを介して
ディスプレイ32に表示させるとともに、プリンタドラ
イバ21bを介してCMY(あるいはCMYK)の二値
データに変換してプリンタ31に印刷させることにな
る。
The image processing application 21d is controlled by the operating system 21a to execute processing, and executes predetermined image processing in cooperation with the printer driver 21b and the display driver 21c as necessary. Therefore, the specific role of the computer 21 as the image processing device 20 is to input RGB gradation data, create RGB gradation data subjected to optimal image processing while evaluating an image, and generate a display driver 21c. Is displayed on the display 32 via the printer driver 21b, and is converted to CMY (or CMYK) binary data via the printer driver 21b and printed by the printer 31.

【0054】このように、本実施形態においては、画像
の入出力装置の間にコンピュータシステムを組み込んで
画像評価と画像処理を行うようにしているが、必ずしも
かかるコンピュータシステムを必要とするわけではな
く、画像データに対して各種の画像処理を行うシステム
に適用可能である。例えば、図3に示すようにデジタル
スチルカメラ12a内に所定の適用対象毎に対応する画
像処理を実行する画像処理装置を組み込み、変換した画
像データを用いてディスプレイ32aに表示させたりプ
リンタ31aに印字させるようなシステムであっても良
い。また、図4に示すように、コンピュータシステムを
介することなく画像データを入力して印刷するプリンタ
31bにおいては、スキャナ11bやデジタルスチルカ
メラ12bあるいはモデム26b等を介して入力される
画像データから各画素毎に適用対象に属するか否かを判
定して対応する画像処理を実行するように構成すること
も可能である。
As described above, in this embodiment, a computer system is incorporated between image input / output devices to perform image evaluation and image processing. However, such a computer system is not always required. The present invention is applicable to a system that performs various types of image processing on image data. For example, as shown in FIG. 3, the digital still camera 12a incorporates an image processing device that executes image processing corresponding to each predetermined application, and displays the converted image data on the display 32a or prints the image on the printer 31a. It may be a system that causes it. Further, as shown in FIG. 4, in a printer 31b that inputs and prints image data without passing through a computer system, each pixel is converted from image data input through a scanner 11b, a digital still camera 12b, a modem 26b, or the like. It is also possible to determine whether or not the image data belongs to the application target and execute the corresponding image processing.

【0055】上述した画像評価とそれに伴う画像処理
は、具体的には上記コンピュータ21内にて図5などに
示すフローチャートに対応した画像処理プログラムで行
っている。処理内容を大まかに説明すると、次のように
なる。最初のステップS100では画像処理ごとに適用
すべき対象を指定する処理を実施しておき、ステップS
110〜S140では図6に示すようにドットマトリク
ス状の各画素について対象画素を移動させながら所定の
画像処理を実行する。この際、ステップS110では対
象画素がステップS100にて指定した画像処理の対象
であるか否かを判定し、ステップS120ではその判定
結果に従って画像データを変換する。むろん、この変換
によって実質的に画像処理されたことになる。ステップ
S130,S140については対象画素を移動させてい
く処理に該当する。以下、この大きな流れに沿って詳細
に説明する。
The above-described image evaluation and the accompanying image processing are performed in the computer 21 by an image processing program corresponding to the flowchart shown in FIG. The processing content is roughly described as follows. In the first step S100, processing for designating a target to be applied for each image processing is performed,
In steps 110 to S140, predetermined image processing is executed while moving the target pixel for each pixel in the dot matrix as shown in FIG. At this time, in step S110, it is determined whether or not the target pixel is the target of the image processing specified in step S100. In step S120, the image data is converted according to the determination result. Obviously, the image processing is substantially performed by this conversion. Steps S130 and S140 correspond to the process of moving the target pixel. Hereinafter, a detailed description will be given along this large flow.

【0056】画像処理をどの画素に対して行うべきかは
画像処理の内容にも依存するが、本実施形態において
は、図7および図8に示すように、処理対象となる画像
の部位を指定する。図7に示すように、ウィンドウ40
の上辺に沿って当該ウィンドウ枠を操作するための操作
エリア41が設けられるとともに、中央部分には画像の
表示エリア42を設けてあり、下辺に沿って画像処理を
指定する処理メニューエリア43を設けてある。
Which pixel should be subjected to the image processing depends on the contents of the image processing. In this embodiment, as shown in FIGS. 7 and 8, a portion of the image to be processed is designated. I do. As shown in FIG.
An operation area 41 for operating the window frame is provided along the upper side, an image display area 42 is provided in the center, and a processing menu area 43 for specifying image processing is provided along the lower side. It is.

【0057】表示エリア42に処理対象となる画像を表
示した状態でマウス27で矩形領域を指定するととも
に、同マウス27で処理メニューエリア43の中の画像
処理を選択する。処理メニューエリア43には実行可能
な画像処理として「コントラスト」修正、「明るさ」修
正、「シャープネス」修正、「彩度」修正の各領域とと
もにその程度を指示する矢印を設けてあり、例えば、コ
ントラストの上矢印をマウス27でクリックすればコン
トラストを強調する画像処理を指定したことになり、下
矢印をクリックすればコントラストを弱める画像処理を
指定したことになる。
While the image to be processed is displayed in the display area 42, a rectangular area is designated by the mouse 27, and image processing in the processing menu area 43 is selected by the mouse 27. In the processing menu area 43, as image processing that can be executed, “contrast” correction, “brightness” correction, “sharpness” correction, and “saturation” correction are provided, and arrows indicating the degree thereof are provided. Clicking the up arrow of the contrast with the mouse 27 specifies image processing for enhancing the contrast, and clicking the down arrow specifies image processing for reducing the contrast.

【0058】各領域について複数の画像処理を選択して
も良いし、選択した画像処理は上記処理メニューエリア
43の中の「リスト表示・編集」をクリックすれば図9
に示すような領域の左上座標と右下座標と画像処理の処
理種類とレベルを表示する。レベルは画像処理の程度を
示すものであり、上述した上矢印と下矢印のクリック回
数によって処理程度を強めたり弱めたりするためのデー
タである。処理種類は後述するように画像処理の種類を
示すものであり、この例では「コントラスト」修正は1
で「明るさ」修正は2で、「シャープネス」修正は3
で、「彩度」修正は4となってそれぞれ対象を意味す
る。なお、処理種類とレベルについては画像処理の内容
の説明とともに後述する。また、選択した画像処理を削
除する場合にはそれぞれの指定をクリックしてハイライ
トさせ、キーボード23の削除キーを押下すればよい。
この他、編集は通常のアプリケーションの操作に準ずれ
ばよい。
A plurality of image processings may be selected for each area, and the selected image processings can be selected by clicking “list display / edit” in the processing menu area 43 as shown in FIG.
The upper left coordinates and lower right coordinates of the area as shown in FIG. The level indicates the degree of image processing, and is data for increasing or decreasing the degree of processing according to the number of clicks of the up arrow and the down arrow. The processing type indicates the type of image processing as described later. In this example, the “contrast” correction is 1
The "brightness" correction is 2 and the "sharpness" correction is 3
In this case, the “saturation” correction is set to 4, meaning each target. The processing type and level will be described later together with the description of the image processing. When the selected image processing is to be deleted, the user clicks each specification to highlight it and presses the delete key of the keyboard 23.
In addition, editing may be performed in accordance with the operation of a normal application.

【0059】本実施形態においては、画像処理アプリケ
ーション21dがアプリケーションレベルで実行される
ため、処理対象となる画像をウィンドウ40内に表示し
て領域指定することが可能となっている。しかし、同様
の画像処理をプリンタドライバ21bのようなドライバ
レベルで実現する場合もあり、この場合には必ずしも画
像をウィンドウ表示できないことがある。
In this embodiment, since the image processing application 21d is executed at the application level, it is possible to display an image to be processed in the window 40 and specify an area. However, similar image processing may be realized at the driver level such as the printer driver 21b, and in this case, the image may not always be displayed on the window.

【0060】図10はウィンドウ表示にかかわらず画像
処理対象を指定する一例を示しており、プリンタドライ
バ21bを起動したときにオプションとして選択するウ
ィンドウ50を示している。図7〜図9が画像の部位を
指定しているのに対し、この例では、画像の色度を指定
して対象となる画素を選択するものである。ここで、色
度について説明する。
FIG. 10 shows an example of specifying an image processing object regardless of the window display, and shows a window 50 that is selected as an option when the printer driver 21b is started. While FIG. 7 to FIG. 9 specify a part of the image, in this example, the chromaticity of the image is specified and a target pixel is selected. Here, the chromaticity will be described.

【0061】色度の具体例としてx−y色度を計算す
る。いま、対象画素のRGB表色系におけるRGB階調
データが(R,G,B)であるとするときに、 r=R/(R+G+B) …(1) g=G/(R+G+B) …(2) とおくとすると、XYZ表色系における色度座標x,y
との間には、 x=(1.1302+1.6387r+0.6215g)/(6.7846-3.0157r-0.3857g) …(3) y=(0.0601+0.9399r+4.5306g)/(6.7846-3.0157r-0.3857g) …(4) なる対応関係が成立する。ここにおいて、色度は明るさ
に左右されることなく色の刺激値の絶対的な割合を表す
ものであるから、色度からその画素がどのような対象物
かを判断することができるといえる。
As a specific example of chromaticity, xy chromaticity is calculated. Now, assuming that the RGB gradation data of the target pixel in the RGB color system is (R, G, B), r = R / (R + G + B) (1) g = G / (R + G + B) (2), chromaticity coordinates x, y in the XYZ color system
X = (1.1302 + 1.6387r + 0.6215g) / (6.7846-3.0157r-0.3857g)… (3) y = (0.0601 + 0.9399r + 4.5306g) / (6.7846-3.0157r-0.3857) g)... (4) Here, since the chromaticity represents the absolute ratio of the color stimulus value without being influenced by the brightness, it can be said that it is possible to determine what kind of object the pixel is based on the chromaticity. .

【0062】例えば、人物像を画像のオブジェクトと考
えると、肌色の部分の画素を抽出すれば良いと言える。
肌色の場合の色度は、 0.35<x<0.40 …(5) 0.33<y<0.36 …(6) というような範囲に含まれているから、各画素の色度を
求めたときにこの範囲内であればその画素は人間の肌を
示す画素と考えてもあながち誤っていないと言える。同
様に青空の色度や木々の緑の色度といったものも色度と
して判断すれば明るさに関わらず空の画素や木々の緑の
画素を概ね特定できる。図11はx−y色度の分布関係
を示しており、肌色の領域であるとか、青空の色の領域
であるとか、木々の緑の色の領域がこのような矩形の領
域として把握できる様子を示している。なお、図10に
示すようにこのx−y色度の分布範囲を直に指定して個
別指定できるようにしても良い。
For example, assuming that a human image is an object of an image, it can be said that it is sufficient to extract pixels of a flesh-colored portion.
The chromaticity of the skin color is included in the range of 0.35 <x <0.40 (5) 0.33 <y <0.36 (6). Then, it can be said that the pixel is not mistaken even if it is considered as a pixel indicating human skin. Similarly, if the chromaticity of the blue sky and the chromaticity of the green of the trees are also determined as the chromaticity, the sky pixels and the green pixels of the trees can be generally specified regardless of the brightness. FIG. 11 shows an xy chromaticity distribution relationship, in which a skin color area, a blue sky color area, and a green color area of trees can be grasped as such a rectangular area. Is shown. As shown in FIG. 10, the distribution range of the xy chromaticity may be directly designated and individually designated.

【0063】一方、図12には同様に領域を決めるにあ
たって中心点を指定する手法を示している。肌色の場合
であれば、(5)(6)式よりその中心点として、 x=0.375 …(7) y=0.345 …(8) が得られる。そこで、この中心点を基準として一定半径
の円内に入っていれば上記領域に属するものと判定する
ようにすればよい。
On the other hand, FIG. 12 shows a method of designating a center point in deciding an area in the same manner. In the case of flesh color, x = 0.375 (7) y = 0.345 (8) is obtained as the center point from equations (5) and (6). Therefore, if the center point is within a circle having a constant radius, it may be determined that the object belongs to the above-mentioned area.

【0064】プリンタドライバ21bのオプションで表
示するウィンドウ50では、色度で対象を指定すべく所
定の色度に対する具体例を表示し、操作者が観念的に青
空をきれいにしたいとか、木々の緑を鮮やかにしたいと
いった要望を反映できるようにしている。この場合、そ
れぞれの色度の画素を強調させるのか弱めるのか指示す
るための矢印ボタンも設けてある。
In the window 50 displayed as an option of the printer driver 21b, a specific example for a predetermined chromaticity is displayed in order to specify an object by the chromaticity, and the operator wants to intentionally clean the blue sky or change the green of the trees. It is designed to reflect requests for vividness. In this case, an arrow button for instructing whether to emphasize or weaken the pixel of each chromaticity is also provided.

【0065】この例では色度で画素の範囲を指定しつつ
その色度を強調するか否かといった画像処理に利用する
ようにしているが、色度による画素の選択と実行すべき
画像処理が一致する必要はない。例えば、肌色の画素を
明るくするとか、緑色の画素のコントラストを強調する
といった画像処理でも構わない。すなわち、あくまでも
色度は画素を処理対象であるか否かの指標として利用す
ることができるものであり、この例ではさらに画像処理
の選択に利用しているに過ぎない。
In this example, the range of pixels is designated by chromaticity and the chromaticity is used for image processing such as whether or not to emphasize the chromaticity. No need to match. For example, image processing such as brightening flesh color pixels or enhancing contrast of green pixels may be used. That is, the chromaticity can be used as an index for determining whether or not a pixel is a processing target. In this example, the chromaticity is only used for selecting image processing.

【0066】以上のようにして画像処理ごとに適用すべ
き対象を指定するステップS100の処理が対応関係指
定手段を構成するが、むろんこれらに限る必要はなく、
部位や色度を指定する手法としても適宜変更可能である
し、これら以外の要素、例えば、明るさとかシャープさ
などで指定することも可能である。また、図9に示すよ
うにして所定の領域を指定しつつその画像処理を対応づ
けて保持する対応表はコンピュータシステム内の記憶領
域に保持されるが、後述する画像処理のための色変換テ
ーブルとともに対応関係保持手段を構成することはいう
までもない。
As described above, the processing of step S100 for specifying the target to be applied for each image processing constitutes the correspondence specifying means. However, it is needless to say that the present invention is not limited to these.
The method for designating the part and the chromaticity can be changed as appropriate, and it is also possible to designate with other elements such as brightness or sharpness. As shown in FIG. 9, a correspondence table for designating a predetermined area and associating the image processing with each other is stored in a storage area in the computer system. Needless to say, it also constitutes the correspondence holding means.

【0067】次のステップS110以下では対象画素を
移動させながら上述したように指定した画像処理の対象
画素であるか否かを判定する。対象画素が画像処理の対
象であるか否かは図9に示す領域・テーブル対応表にお
ける各欄の左上座標と右下座標を参照して対象画素の座
標と比較すればよい。該当する欄があれば画像処理の適
用対象画素であると判断するし、いずれの欄の領域にも
属しなければ当該対象画素には画像処理しなくても良い
と判断する。また、図10に示すように色度で判断する
場合には(1)〜(4)式に従って対象画素の色度を計
算し、プリンタドライバ21bのオプションで選択され
た色度の範囲に属するか否かを判定する。
In the next step S110 and subsequent steps, while moving the target pixel, it is determined whether or not the pixel is the target pixel of the image processing designated as described above. Whether or not the target pixel is the target of the image processing may be compared with the coordinates of the target pixel by referring to the upper left coordinates and lower right coordinates of each column in the area / table correspondence table shown in FIG. If there is a corresponding column, it is determined that the pixel is a target pixel to which the image processing is applied. When the determination is made based on the chromaticity as shown in FIG. 10, the chromaticity of the target pixel is calculated according to the equations (1) to (4), and whether the pixel belongs to the chromaticity range selected by the option of the printer driver 21b. Determine whether or not.

【0068】画像処理の適用対象であるか否かは部位あ
るいは色度に基づいて上述したように判定するもののこ
れらの範囲に属するか属しないかといった二者択一の判
定を行うと、隣接領域について何らかの視覚的な段差が
生じやすい。例えば、ある矩形領域を明るくしようとし
たとき、矩形領域のすぐ外側では明るくしないとすれ
ば、その境界で明るさの段差が生じ、矩形領域がはっき
りと分かってしまう。
Whether or not the image processing is to be applied is determined based on the region or chromaticity as described above. However, if an alternative determination such as belonging to or not belonging to these ranges is performed, the adjacent area is determined. Is likely to cause some visual step. For example, if an attempt is made to brighten a certain rectangular area, if the area is not brightened immediately outside the rectangular area, a brightness step occurs at the boundary, and the rectangular area is clearly recognized.

【0069】このため、本実施形態においては、画像処
理の適用度kのパラメータを利用する。図13に示すよ
うに、ステップS111にて所定の領域に属すると判断
されればステップS112にて適用度kに「1」をセッ
トするものの、その領域の周縁の遷移領域については適
用度kを「0」〜「1」の範囲で変化させる。すなわ
ち、ステップS113にて遷移領域内であると判断され
た場合、ステップS114では領域に近いならば適用度
kを「1」に近づけるし、遠いならば「0」に近づけ
る。そして、所定の領域にも遷移領域にも属しない場合
にはステップS115にて適用度kに「0」をセットす
る。一方、図12に示す例では色度の中心点を指定して
いるが、図14に示すように半径r0内を画像処理の対
象として適用度kに「1」を設定するものとし、遷移領
域を半径r0〜半径r1の範囲として周縁部分で徐々に
適用度kが「0」に近づくようにすればよい。
For this reason, in this embodiment, a parameter of the degree of applicability k of the image processing is used. As shown in FIG. 13, if it is determined in step S111 that it belongs to the predetermined area, the applicability k is set to “1” in step S112, but the applicability k is set to the transition area around the area. It is changed in the range of “0” to “1”. In other words, if it is determined in step S113 that the area is within the transition area, in step S114 the applicability k is made closer to "1" if the area is closer to the area, and closer to "0" if it is farther. If it does not belong to the predetermined area or the transition area, the applicability k is set to “0” in step S115. On the other hand, in the example shown in FIG. 12, the center point of the chromaticity is specified. However, as shown in FIG. May be set in the range of the radius r0 to the radius r1 so that the applicability k gradually approaches “0” in the peripheral portion.

【0070】ステップS110では適用対応関係を判定
するとともにステップS111〜S115にてこの適用
度kを求めておく。以上のようなステップS110〜S
115のソフトウェア処理とこれを実現するハードウェ
アによって対応関係判断手段を構成する。本実施形態に
おいては、その判定結果を各画像処理の適用度kとして
求めるようにしているが、適用するか否かという二者択
一の判定が実現可能であることはいうまでもない。
In step S110, the applicability is determined, and in steps S111 to S115, the applicability k is determined. Steps S110 to S as described above
The software processing of 115 and the hardware for realizing the same constitute a correspondence determination unit. In the present embodiment, the determination result is obtained as the applicability k of each image processing. However, it is needless to say that the alternative determination of whether to apply the image processing can be realized.

【0071】次のステップ120では適用度kに注目し
て対象画素に対して画像処理を実行する。ここで、本実
施系において用意されている画像処理の具体的内容につ
いてそれぞれ説明する。
In the next step 120, image processing is executed on the target pixel, paying attention to the applicability k. Here, specific contents of the image processing prepared in the present embodiment will be described.

【0072】コントラストは画像全体としての輝度の幅
を示し、コントラストを修正したいと感じる場合、コン
トラストの幅を広げたいという要望が主である。ある画
像の各画素における輝度の分布をヒストグラムとして集
計したものを図15で実線にて示している。実線に示す
分布を取る場合、明るい画素の輝度と暗い画素の輝度と
の差が少ないが、輝度の分布が一点鎖線に示すように広
がれば明るい画素の輝度と暗い画素の輝度との差が大き
くなり、コントラストの幅が広がることになる。ここ
で、図17はコントラストを拡大するための輝度変換を
示している。変換元の輝度yと変換後の輝度Yとの間に
おいて、 Y=ay+b …(9) なる関係で変換させるとすると、a>1において変換元
の最大輝度ymaxと最小輝度yminの画素の差は変
換後においてより大きくなり、図15に示すように輝度
の分布が広がることになる。この場合、輝度の分布に応
じて傾きaとオフセットbを決定すればより好適であ
る。例えば、 a=255/(ymax−ymin) …(10) b=−a・yminあるいは255−a・ymax …(11) とおくとすると、あるせまい幅を持った輝度分布を再現
可能な範囲まで広げることができる。ただし、再現可能
な範囲を最大限に利用して輝度分布の拡大を図った場
合、ハイライト部分が白く抜けてしまったり、ハイシャ
ドウ部分が黒くつぶれてしまうことが起こる。これを防
止するには再現可能な範囲の上端と下端に拡大しない範
囲として輝度値で「5」ぐらいを残すようにすればよ
い。この結果、変換式のパラメータは次式のようにな
る。
The contrast indicates the width of the luminance of the entire image. When it is desired to correct the contrast, there is a main demand to increase the width of the contrast. The sum of the distribution of luminance at each pixel of a certain image as a histogram is shown by a solid line in FIG. When taking the distribution shown by the solid line, the difference between the brightness of the bright pixel and the brightness of the dark pixel is small, but if the brightness distribution spreads as shown by the dashed line, the difference between the brightness of the bright pixel and the brightness of the dark pixel becomes large. That is, the range of contrast is widened. Here, FIG. 17 shows luminance conversion for enlarging the contrast. Assuming that the conversion is performed in a relationship of Y = ay + b (9) between the luminance y of the conversion source and the luminance Y after the conversion, when a> 1, the difference between the pixel of the maximum luminance ymax and the minimum luminance ymin of the conversion source is It becomes larger after the conversion, and the distribution of the luminance is expanded as shown in FIG. In this case, it is more preferable to determine the slope a and the offset b according to the luminance distribution. For example, if a = 255 / (ymax−ymin) (10) b = −a · ymin or 255−a · ymax (11), the brightness distribution having a certain narrow width can be reproduced. Can be spread. However, when the luminance distribution is expanded by making the most of the reproducible range, a highlight portion may be lost in white, or a high shadow portion may be lost in black. To prevent this, a luminance value of about "5" may be left as a range that does not expand to the upper and lower ends of the reproducible range. As a result, the parameters of the conversion equation are as follows.

【0073】 a=245/(ymax−ymin) …(12) b=5−a・yminあるいは250−a・ymax …(13) そして、この場合にはy<yminと、y>ymaxの範囲に
おいては変換を行わないようにする。
A = 245 / (ymax−ymin) (12) b = 5-a · ymin or 250−a · ymax (13) In this case, in the range of y <ymin and y> ymax Causes no conversion.

【0074】画像データを変換するにあたって、毎回計
算する必要はない。輝度の範囲が「0」〜「255」と
いう値をとるとすれば、各輝度値について予め変換結果
を予めておき、図16に示すように変換テーブルを形成
しておく。ただし、この場合はあくまでも輝度の変換で
あり、画像データが輝度を要素として備えていればこの
変換テーブルを利用することができるものの、輝度を間
接的な要素としか備えていない場合には同変換テーブル
を利用することができない。コンピュータシステムにお
いては、画像データとして赤緑青の各要素について明る
さを階調で表した階調データ(R,G,B)であること
が多い。このような階調データ(R,G,B)では、直
接には輝度の値を持っておらず、輝度を求めるためにL
uv表色空間に色変換する必要があるが、演算量などの
問題から得策ではない。このため、テレビジョンなどの
場合に利用されているRGBから輝度を直に求める次式
の変換式を利用する。
In converting image data, it is not necessary to calculate each time. Assuming that the range of the luminance takes a value of “0” to “255”, a conversion result is prepared in advance for each luminance value, and a conversion table is formed as shown in FIG. However, in this case, the conversion of the luminance is used only.If the image data has the luminance as an element, the conversion table can be used. However, if the image data has only the indirect element, the conversion is performed. Cannot use the table. In computer systems, image data is often gradation data (R, G, B) representing the brightness of each of the red, green, and blue elements in gradation. Such gradation data (R, G, B) does not have a luminance value directly, but needs L
Although it is necessary to perform color conversion to the uv color space, this is not a good idea due to problems such as the amount of calculation. For this reason, the following conversion formula for directly obtaining luminance from RGB used in the case of a television or the like is used.

【0075】 y=0.30R+0.59G+0.11B …(14) このように階調データと輝度yとの間に線形の変換か可
能であることを前提とすれば、変換前の階調データ(R
0,G0,B0)と変換後の階調データ(R1,G1,B1)との
間には(9)式を適用可能であり、 R1=aR0+b …(15) G1=aG0+b …(16) B1=aB0+b …(17) なる関係で求めることができるから、結果として図16
に示す変換テーブルを利用して階調データを変換すれば
よいことが分かる。
Y = 0.30R + 0.59G + 0.11B (14) Assuming that linear conversion between gradation data and luminance y is possible, gradation data before conversion ( R
0, G0, B0) and the converted gradation data (R1, G1, B1), the equation (9) can be applied. R1 = aR0 + b (15) G1 = aG0 + b (16) B1 = AB0 + b (17) As a result, FIG.
It can be understood that gradation data should be converted using the conversion table shown in FIG.

【0076】次に、明るさを修正する画像処理の手法に
ついて説明する。先程と同様に輝度のヒストグラムを想
定すると、図18にて実線で示すように輝度分布の山が
全体的に暗い側に寄っている場合には波線で示すように
全体的に明るい側に山を移動させると良いし、逆に、図
19にて実線で示すように輝度分布の山が全体的に明る
い側に寄っている場合には波線で示すように全体的に暗
い側に山を移動させると良い。このような場合には図1
7に示すような直線的な輝度の変換を施すのではなく、
図20に示すようないわゆるγ曲線を利用した輝度の変
換を行えばよい。
Next, an image processing method for correcting the brightness will be described. Assuming a histogram of the luminance in the same manner as above, if the peak of the luminance distribution is entirely shifted to the dark side as shown by the solid line in FIG. It is preferable to move the peak. Conversely, when the peak of the luminance distribution is entirely shifted toward the bright side as shown by the solid line in FIG. 19, the peak is moved to the entire dark side as indicated by the broken line. And good. In such a case, FIG.
Instead of performing a linear luminance conversion as shown in Fig. 7,
What is necessary is just to perform luminance conversion using what is called a gamma curve as shown in FIG.

【0077】γ曲線による補正ではγ<1において全体
的に明るくなるし、γ>1において全体的に暗くなる。
この度合いはステップS100にて図7に示す処理メニ
ューエリア43で明るさ修正の欄の上矢印や下矢印をク
リックした回数によって徐々に変化させればよい。
In the correction using the γ curve, the overall brightness becomes higher when γ <1, and the entire brightness becomes lower when γ> 1.
This degree may be gradually changed in step S100 by the number of clicks on the up arrow and the down arrow of the brightness correction column in the processing menu area 43 shown in FIG.

【0078】また、コントラストの修正の場合と同様に
自動的にγの値を設定することも可能である。各種の実
験を行った結果、輝度分布におけるメジアンymedを
求め、同メジアンymedが「85」未満である場合に
暗い画像と判断して以下のγ値に対応するγ補正で明る
くする。
It is also possible to automatically set the value of γ as in the case of correcting the contrast. As a result of various experiments, the median ymed in the luminance distribution is obtained, and when the median ymed is less than “85”, the image is determined to be a dark image and brightened by γ correction corresponding to the following γ value.

【0079】 γ=ymed/85 …(18) あるいは、 γ=(ymed/85)**(1/2) …(19) とする。ただし、γ<0.7となっても、γ=0.7と
する。このような限界を設けておかないと夜の画像が昼
間のようになってしまうからである。なお、明るくしす
ぎると全体的に白っぽい画像になってコントラストが弱
い画像になりやすいため、彩度を合わせて強調するなど
の処理が好適である。
Γ = ymed / 85 (18) or γ = (ymed / 85) ** (1/2) (19) However, even if γ <0.7, γ = 0.7. Unless such a limit is set, a night image looks like daytime. If the image is made too bright, the image becomes whitish as a whole and the image tends to have a low contrast. Therefore, a process such as emphasizing with saturation is preferable.

【0080】一方、メジアンymedが「128」より
大きい場合に明るい画像と判断して以下のγ値に対応す
るγ補正で暗くする。
On the other hand, when the median ymed is larger than “128”, the image is determined to be a bright image and darkened by γ correction corresponding to the following γ value.

【0081】 γ=ymed/128 …(20) あるいは、 γ=(ymed/128)**(1/2) …(21) とする。この場合、γ>1.3となっても、γ=1.3
として暗くなり過ぎないように限界を設けておく。
Γ = ymed / 128 (20) or γ = (ymed / 128) ** (1/2) (21) In this case, even if γ> 1.3, γ = 1.3.
A limit is set so as not to be too dark.

【0082】なお、このγ補正についても図16に示す
ような変換テーブルを形成しておけばよい。
Note that a conversion table as shown in FIG. 16 may be formed for the γ correction.

【0083】画像のシャープさを修正するエッジ強調処
理は、強調前の各画素の輝度Yに対して強調後の輝度
Y’が、 Y’=Y+Eenhance・(Y−Yunsharp) …(22) として演算される。ここで、Eenhance は、エッジ強調
度であるとともに、Yunsharpは各画素の画像データに
対してアンシャープマスク処理を施したものであり、こ
こでアンシャープマスク処理について説明する。図21
は一例として5×5画素のアンシャープマスク60を示
している。このアンシャープマスク60は、中央の「1
00」の値をマトリクス状の画像データにおける処理対
象画素Y(x,y)の重み付けとし、その周縁画素に対
して同マスクの升目における数値に対応した重み付けを
して積算するのに利用される。このアンシャープマスク
60を利用する場合、
In the edge enhancement processing for correcting the sharpness of the image, the luminance Y ′ after enhancement is calculated as follows: Y ′ = Y + Enhance · (Y−Yunsharp) (22) Is done. Here, Eenhance is the degree of edge enhancement, and Yunsharp is the result of performing unsharp mask processing on the image data of each pixel. Here, the unsharp mask processing will be described. FIG.
Shows an unsharp mask 60 of 5 × 5 pixels as an example. The unsharp mask 60 is positioned at the center “1”.
The value “00” is used as the weight of the pixel Y (x, y) to be processed in the matrix image data, and the peripheral pixels are used for weighting corresponding to the numerical values in the cells of the same mask and multiplying. . When using this unsharp mask 60,

【0084】[0084]

【数1】 (Equation 1)

【0085】なる演算式に基づいて積算する。(23)
式において、「396」とは重み付け係数の合計値であ
り、サイズの異なるアンシャープマスクにおいては、そ
れぞれ升目の合計値となる。また、Mijはアンシャー
プマスクの升目に記載されている重み係数であり、Y
(x,y)は各画素の画像データである。なお、ijに
ついてはアンシャープマスク41に対して横列と縦列の
座標値で示している。
The multiplication is performed based on the following arithmetic expression. (23)
In the formula, “396” is the total value of the weighting coefficients, and in the case of unsharp masks of different sizes, it is the total value of each cell. Mij is a weight coefficient described in the unsharp mask cell, and Y
(X, y) is image data of each pixel. Note that ij is indicated by horizontal and vertical coordinate values with respect to the unsharp mask 41.

【0086】(22)式に基づいて演算されるエッジ強
調演算の意味するところは次のようになる。Yunsharp
(x,y)は注目画素に対して周縁画素の重み付けを低
くして加算したものであるから、いわゆる「なまった
(アンシャープ)」画像データとしていることになる。
このようにしてなまらせたものはいわゆるローパスフィ
ルタをかけたものと同様の意味あいを持つ。従って、
「Y(x,y)−Yunsharp(x,y)」とは本来の全
成分から低周波成分を引いたことになってハイパスフィ
ルタをかけたものと同様の意味あいを持つ。そして、ハ
イパスフィルタを通過したこの高周波成分に対してエッ
ジ強調度Eenhanceを乗算して「Y(x,y)」に加え
れば同エッジ強調度Eenhanceに比例して高周波成分を
増したことになり、エッジが強調される結果となる。な
お、エッジ強調が必要になる状況を考えるといわゆる画
像のエッジ部分であるから、隣接する画素との間で画像
データの差が大きな場合にだけ演算するようにして処理
量を激減させることもできる。
The meaning of the edge emphasis operation calculated based on the equation (22) is as follows. Yunsharp
Since (x, y) is obtained by adding the peripheral pixel to the target pixel with a lower weight, so-called "unsharp" image data is obtained.
What has been blunted in this way has the same meaning as that obtained by applying a so-called low-pass filter. Therefore,
“Y (x, y) −Yunsharp (x, y)” has the same meaning as a high-pass filter obtained by subtracting a low frequency component from all original components. Then, by multiplying the high-frequency component passed through the high-pass filter by the edge enhancement Eenhance and adding it to “Y (x, y)”, the high-frequency component is increased in proportion to the edge enhancement Eenhance. The result is that the edges are enhanced. Considering a situation where edge enhancement is required, since the image is a so-called edge portion of an image, the amount of processing can be drastically reduced by calculating only when the difference between image data between adjacent pixels is large. .

【0087】この場合においてもエッジ強調度Eenhanc
eはステップS100にて図7に示す処理メニューエリ
ア43でシャープさ修正の欄の上矢印や下矢印をクリッ
クした回数によって変化させればよい。また、エッジ強
調度Eenhanceを自動設定することも可能である。
Also in this case, the degree of edge enhancement Eenhanc
e may be changed by the number of times the user clicks the up arrow or the down arrow of the sharpness correction column in the processing menu area 43 shown in FIG. 7 in step S100. It is also possible to automatically set the edge enhancement degree Eenhance.

【0088】画像のエッジ部分では隣接する画素間での
階調データの差分は大きくなる。この差分は輝度勾配で
あり、これをエッジ度と呼ぶことにする。画像の輝度の
変化度合いは、ベクトルを水平方向成分と垂直方向成分
とに分けて求めれば演算可能となる。ドットマトリクス
状の画素からなる画像においては、対象画素を中心とし
たときに八つの画素と隣接しているが、演算を簡易とす
るために水平方向と垂直方向に隣接する画素との間での
み変化度合いを求め、ベクトルの長さを当該対象画素の
エッジ度gとして積算し、積算されたエッジ度を画素数
で除算することにより平均値を算出する。すなわち、こ
のオブジェクト画像のシャープ度合いSLは、画素数を
E(I)pixとすると、
At the edge portion of the image, the difference of the gradation data between adjacent pixels becomes large. This difference is a luminance gradient, which will be referred to as an edge degree. The degree of change in the luminance of the image can be calculated if the vector is obtained by dividing the vector into a horizontal component and a vertical component. In an image consisting of pixels in a dot matrix, eight pixels are adjacent when the target pixel is centered, but only between pixels that are adjacent in the horizontal and vertical directions to simplify the calculation. The degree of change is obtained, the length of the vector is integrated as the edge degree g of the target pixel, and the average value is calculated by dividing the integrated edge degree by the number of pixels. That is, assuming that the number of pixels is E (I) pix, the degree of sharpness SL of the object image is as follows.

【0089】[0089]

【数2】 (Equation 2)

【0090】のようにして演算することができる。この
場合、SLの値が小さい画像ほどシャープネスの度合い
が低い(見た目にぼけた)ことになるし、SLの値が大
きい画像ほどシャープネスの度合いが高い(見た目には
っきりとしたもの)ことになる。
The calculation can be performed as follows. In this case, an image having a lower SL value has a lower degree of sharpness (blurry in appearance), and an image having a higher SL value has a higher degree of sharpness (clearer in appearance).

【0091】一方、画像のシャープさは感覚的なもので
あるため、実験的に得られた最適なシャープ度合いの画
像データについて同様にしてシャープ度合いSLを求
め、その値を理想のシャープ度合いSLoptと設定す
るとともに、エッジ強調度Eenhanceを、 Eenhance=ks・(SLopt−SL)**(1/2) …(25) として求める。ここにおいて、係数ksは画像の大きさ
に基づいて変化するものであり、画像データが縦横方向
にそれぞれheightドットとwidthドットから
なる場合、 ks=min(height,width)/A …(26) のようにして求めればよい。ここにおいて、min(h
eight,width)はheightドットとwi
dthドットのうちのいずれか小さい方を指し、Aは定
数で「768」としている。むろん、これらは実験結果
から得られたものであり、適宜変更可能であることはい
うまでもない。ただし、基本的には画像が大きいものほ
ど強調度を大きくするということで良好な結果を得られ
ている。
On the other hand, since the sharpness of the image is intuitive, the sharpness SL is obtained in the same manner for the image data of the optimal sharpness obtained experimentally, and the value is used as the ideal sharpness SLopt. At the same time, the degree of edge enhancement Eenhance is obtained as follows: Enhance = ks · (SLopt−SL) ** (1/2) (25) Here, the coefficient ks changes based on the size of the image. When the image data is composed of height dots and width dots in the vertical and horizontal directions, ks = min (height, width) / A (26) What is necessary is just to ask. Here, min (h
height, width) is the height dot and wi
The smaller one of the dth dots is indicated, and A is a constant “768”. Of course, these are obtained from the experimental results, and it goes without saying that they can be appropriately changed. However, good results are basically obtained by increasing the degree of emphasis for a larger image.

【0092】以上のようにすればマニュアル設定あるい
は自動設定でエッジ強調処理を実行できる。
In this way, the edge emphasizing process can be executed manually or automatically.

【0093】彩度の画像処理は次のように実施する。彩
度強調パラメータSratio というものを採用して彩度を
強調するとした場合、上述したように画像データが彩度
のパラメータを備えているものであれば同パラメータを
変換すればよいものの、上述したように階調データとし
てRGBの成分値しか持っていないため、本来的には彩
度値が直接の成分値となっている表色空間への変換を行
なわなければ彩度値を得ることができない。しかしなが
ら、RGBの画像データを、一旦、Luv空間内の画像
データに変換し、彩度強調後に再びRGBに戻すといっ
た作業が必要となり、演算量が多くならざるを得ない。
従って、RGBの階調データをそのまま利用して彩度強
調することにする。
The saturation image processing is performed as follows. Assuming that the saturation is enhanced by adopting a saturation enhancement parameter Sratio, if the image data has the saturation parameter as described above, the parameter may be converted, but as described above. Since only RGB component values are provided as grayscale data, saturation values cannot be obtained unless conversion to a color space in which saturation values are directly component values is performed. However, it is necessary to temporarily convert the RGB image data into image data in the Luv space, return the image data to RGB again after saturation enhancement, and the amount of calculation must be increased.
Therefore, the saturation is enhanced using the RGB gradation data as it is.

【0094】RGB表色空間のように各成分が概略対等
な関係にある色相成分の成分値であるときには、R=G
=Bであればグレイであって無彩度となる。従って、R
GBの各成分における最小値となる成分については各画
素の色相に影響を与えることなく単に彩度を低下させて
いるにすぎないと考えれば、各成分における最小値をす
べての成分値から減算し、その差分値を拡大することに
よって彩度を強調できるといえる。
When each component is a component value of a hue component having a substantially equal relationship as in the RGB color space, R = G
If = B, it is gray and achromatic. Therefore, R
Assuming that the minimum component of each component of GB simply reduces the saturation without affecting the hue of each pixel, the minimum value of each component is subtracted from all component values. It can be said that the saturation can be enhanced by enlarging the difference value.

【0095】RGB階調データの各成分(R,G,B)
における青(B)の成分値が最小値であったとすると、
この彩度強調パラメータSratio を使用して次のように
変換する。
Each component (R, G, B) of RGB gradation data
If the component value of blue (B) at is the minimum value,
Using the saturation enhancement parameter Sratio, conversion is performed as follows.

【0096】 R’=B+(R−B)×Sratio …(27) G’=B+(G−B)×Sratio …(28) B’=B …(29) この結果、RGB表色空間とLuv空間との間で一往復
する二度の色変換が不要となるため、演算時間の低減を
はかることができる。この実施形態においては、無彩度
の成分について単純に最小値の成分を他の成分値から減
算する手法を採用しているが、無彩度の成分を減算する
にあたっては別の変換式を採用するものであっても構わ
ない。ただし、(27)〜(29)式のように最小値を
減算するだけの場合には乗除算が伴わないので演算量が
容易となるという効果がある。
R ′ = B + (RB) × Sratio (27) G ′ = B + (GB) × Sratio (28) B ′ = B (29) As a result, the RGB color space and Luv Since it is not necessary to perform two rounds of color conversion to make one round trip to and from the space, the calculation time can be reduced. In this embodiment, a method of simply subtracting the minimum value component from the other component values for the achromatic component is employed, but another conversion formula is employed for subtracting the achromatic component. It does not matter. However, in the case where only the minimum value is subtracted as in the equations (27) to (29), there is an effect that the amount of calculation is simplified because no multiplication / division is involved.

【0097】(27)〜(29)式を採用する場合で
も、良好な変換が可能であるものの、この場合には彩度
を強調すると輝度も向上して全体的に明るくなるという
傾向がある。従って、各成分値から輝度の相当値を減算
した差分値を対象として変換を行うことにする。
Even when the formulas (27) to (29) are adopted, good conversion is possible, but in this case, if the saturation is enhanced, the luminance tends to be improved and the whole image tends to be brighter. Therefore, the conversion is performed on the difference value obtained by subtracting the luminance equivalent value from each component value.

【0098】彩度強調が、 R’=R+△R …(30) G’=G+△G …(31) B’=B+△B …(32) となるとすると、この加減値△R,△G,△Bは輝度と
の差分値に基づいて次式のように求める。すなわち、 △R=(R−Y)×Sratio …(33) △G=(G−Y)×Sratio …(34) △B=(B−Y)×Sratio …(35) となり、この結果、 R’=R+(R−Y)×Sratio …(36) G’=G+(G−Y)×Sratio …(37) B’=B+(B−Y)×Sratio …(38) として変換可能となる。なお、輝度の保存は次式から明
らかである。
Assuming that the saturation enhancement is as follows: R ′ = R + △ R (30) G ′ = G + △ G (31) B ′ = B + △ B (32) , △ B are obtained as in the following equation based on the difference value from the luminance. That is, ΔR = (R−Y) × Sratio (33) ΔG = (G−Y) × Sratio (34) ΔB = (B−Y) × Sratio (35) '= R + (R−Y) × Sratio (36) G ′ = G + (G−Y) × Sratio (37) B ′ = B + (B−Y) × Sratio (38) The preservation of the brightness is apparent from the following equation.

【0099】 Y’=Y+△Y …(39) △Y=0.30△R+0.59△G+0.11△B =Sratio{(0.30R+0.59G+0.11B)−Y} =0 …(40) また、入力がグレー(R=G=B)のときには、輝度Y
=R=G=Bとなるので、加減値△R=△G=△B=0
となり、無彩色に色が付くこともない。(36)式〜
(38)式を利用すれば輝度が保存され、彩度を強調し
ても全体的に明るくなることはない。
Y ′ = Y + △ Y (39) ΔY = 0.30 △ R + 0.59 △ G + 0.11 △ B = Sratio {(0.30R + 0.59G + 0.11B) −Y} = 0 (40) When the input is gray (R = G = B), the luminance Y
= R = G = B, the adjustment value △ R = △ G = △ B = 0
And there is no achromatic color. Equation (36)
By using the equation (38), the luminance is preserved, and even if the saturation is emphasized, the whole is not brightened.

【0100】むろん、この場合の彩度強調指数Sratio
は、ステップS100にて図7に示す処理メニューエリ
ア43で彩度修正の欄の上矢印や下矢印をクリックした
回数によって変化させればよい。ただし、この彩度強調
指数Sratio についても自動設定することが可能であ
る。
Of course, the saturation enhancement index Sratio in this case
May be changed according to the number of times the user clicks the up arrow or the down arrow of the saturation correction column in the processing menu area 43 shown in FIG. 7 in step S100. However, the saturation emphasis index Sratio can also be automatically set.

【0101】まず、画素の彩度を簡略化して求める。こ
れには彩度の代替値Xとして次のように演算する。
First, the saturation of a pixel is determined in a simplified manner. For this, the following calculation is performed as the saturation alternative value X.

【0102】 X=|G+B−2×R| …(41) 本来的には彩度は、R=G=Bの場合に「0」となり、
RGBの単色あるいはいずれか二色の所定割合による混
合時において最大値となる。この性質から直に彩度を適
切に表すのは可能であるものの、簡易な(41)式によ
っても赤の単色および緑と青の混合色である黄であれば
最大値の彩度となり、各成分が均一の場合に「0」とな
る。また、緑や青の単色についても最大値の半分程度に
は達している。むろん、 X’=|R+B−2×G| …(42) X”=|G+R−2×B| …(43) という式にも代替可能である。
X = | G + B−2 × R | (41) Originally, the saturation is “0” when R = G = B,
The maximum value is obtained at the time of mixing at a predetermined ratio of a single color of RGB or any two colors. Although it is possible to directly represent the saturation from this property directly, it is possible to obtain the maximum value of the saturation by a simple equation (41) if the color is a single color of red and yellow which is a mixed color of green and blue. It is "0" when the components are uniform. In addition, green and blue single colors also reach about half of the maximum value. Of course, X '= | R + B−2 × G | (42) X ′ = | G + R−2 × B | (43)

【0103】この彩度の代替値Xについてのヒストグラ
ムの分布を求めるとすると彩度が最低値「0」〜最大値
「511」の範囲で分布するので、概略的には図22に
示すような分布となる。次に、集計された彩度分布に基
づいてこの画像についての彩度指数というものを決定す
る。この彩度分布から上位の「16%」が占める範囲を
求め、この範囲内での最低の彩度「A」がこの画像の彩
度を表すものとして、A<92なら S=−A×(10/92)+50 …(44) 92≦A<184なら S=−A×(10/46)+60 …(45) 184≦A<230なら S=−A×(10/23)+100 …(46) 230≦Aなら S=0 …(47) というように彩度強調指数Sを決定する。図23はこの
彩度「A」と彩度強調指数Sとの関係を示している。図
に示すように、彩度指数Sは最大値「50」〜最小値
「0」の範囲で彩度「A」が小さいときに大きく、同彩
度「A」が大きいときに小さくなるように徐々に変化し
ていくことになる。この彩度指数Sから彩度強調指数S
ratio への変換は、 Sratio =(S+100)/100 …(48) として求めればよい。この場合、彩度強調指数S=0の
ときに彩度強調パラメータSratio =1となって彩度強
調されない。
If the distribution of the histogram for the alternative value X of the saturation is obtained, the saturation is distributed in the range from the minimum value “0” to the maximum value “511”. Distribution. Next, a saturation index for this image is determined based on the aggregated saturation distribution. From the saturation distribution, a range occupied by the higher-order “16%” is obtained, and the lowest saturation “A” within this range represents the saturation of this image. If A <92, S = −A × ( 10/92) +50 (44) If 92 ≦ A <184 S = −A × (10/46) +60 (45) If 184 ≦ A <230 S = −A × (10/23) +100 (46) If 230 ≦ A, the saturation emphasis index S is determined as S = 0 (47). FIG. 23 shows the relationship between the saturation “A” and the saturation enhancement index S. As shown in the drawing, the saturation index S is large when the saturation “A” is small and is small when the saturation “A” is large in the range of the maximum value “50” to the minimum value “0”. It will change gradually. From the saturation index S, the saturation enhancement index S
Conversion to ratio may be obtained as Sratio = (S + 100) / 100 (48). In this case, when the saturation enhancement index S = 0, the saturation enhancement parameter Sratio = 1 and the saturation enhancement is not performed.

【0104】最後に、図10に示すようにして色度で画
素の範囲を指定しつつその色度を強調する手法について
説明するが、基本的には当該色調を強調するにあたって
その画素の輝度を強くする手法を採用する。従って、図
20に示すようなγ補正のトーンカーブを利用する。む
ろん、強調程度に応じてγの値を変化させればよい。な
お、自動設定する場合には理想値に近い画像について青
空、木々の緑、肌色について平均値(Rs.ideal,Gs.idea
l,Bs.ideal)を求めるとともに、その平均値(Rs.idea
l,Gs.ideal,Bs.ideal)と当該画像での集計結果に基づ
く平均値(Rs.ave,Gs.ave,Bs.ave)とのずれを求め、そ
の差を修正量ΔR,ΔG,ΔBとすればよい。
Finally, a method of designating a pixel range by chromaticity and enhancing the chromaticity as shown in FIG. 10 will be described. Basically, when enhancing the color tone, the luminance of the pixel is reduced. Adopt a method of strengthening. Therefore, a tone curve of γ correction as shown in FIG. 20 is used. Of course, the value of γ may be changed according to the degree of emphasis. In the case of automatic setting, the average value (Rs.ideal, Gs.idea, blue sky, green of trees, and skin color for an image close to the ideal value)
l, Bs.ideal) and its average (Rs.idea)
l, Gs.ideal, Bs.ideal) and the average value (Rs.ave, Gs.ave, Bs.ave) based on the aggregation result of the image are determined, and the difference is corrected by the correction amounts ΔR, ΔG, ΔB. And it is sufficient.

【0105】以上、本実施形態において用意されている
画像処理の手法について説明したが、ステップS110
にて対象画素の適用対応関係を判定するとともにステッ
プS111〜S115にて適用度kを求められるので、
ステップS120では判定結果に基づいて画像データを
変換する。
The image processing method prepared in the present embodiment has been described above.
In step S111 to step S115, the applicability k is determined in steps S111 to S115.
In step S120, the image data is converted based on the determination result.

【0106】前述したように図7に示す処理メニューエ
リア43では画像処理の種類を選択するとともに強調レ
ベルも選択している。従って、ステップS100では上
述した画像処理を前提としつつそれぞれの強調レベルに
応じた変換テーブルを作成し、コンピュータシステムに
おける所定の記憶領域に保存しておく。そして、ステッ
プS120ではかかる変換テーブルを参照して次のよう
に変換する。
As described above, in the processing menu area 43 shown in FIG. 7, the type of image processing and the emphasis level are selected. Therefore, in step S100, a conversion table corresponding to each emphasis level is created on the premise of the above-described image processing, and stored in a predetermined storage area in the computer system. Then, in step S120, the conversion is performed as follows with reference to the conversion table.

【0107】変換前のRGB階調データの各成分(Rpr
e,Gpre,Bpre)とするとともに、所定の変換テーブ
ルを参照した変換後のRGB階調データの各成分(Rpo
st,Gpost,Bpost)とするとともに、最終的な画像デ
ータを(Rfinl,Gfinl,Bfinl)とすると、 Rfinl=k・Rpost+(1−k)・Rpre …(49) Gfinl=k・Gpost+(1−k)・Gpre …(50) Bfinl=k・Bpost+(1−k)・Bpre …(51) と変換する。この意味するところは、適用度kが「0」
〜「1」で変化する遷移領域において徐々に画像処理が
重みを持つようになり、段差が生じなくなることであ
る。
Each component of the RGB gradation data before conversion (Rpr
e, Gpre, Bpre) and each component (Rpo) of the converted RGB tone data with reference to a predetermined conversion table.
st, Gpost, Bpost) and the final image data is (Rfinl, Gfinl, Bfinl): Rfinl = kRpost + (1-k) Rpre (49) Gfinl = kGpost + (1- k) · Gpre (50) Bfinl = k · Bpost + (1−k) · Bpre (51) This means that the applicability k is “0”
This means that the image processing gradually has a weight in the transition region that changes from “1” to “1”, and the step does not occur.

【0108】むろん、対象画素が適用対応となる全ての
画像処理の変換テーブルについて、順次、(49)式〜
(51)式を適用するし、適用度kが「0」であれば画
像データ変換を行わなくてもよい。また、(49)式〜
(51)式についてはRGBの各成分についての演算と
なっているが、対象となる成分が一部であることもあ
る。さらに、適用度kを利用しない場合には単に変換テ
ーブルの種類だけを変えて得られるRGB階調データの
各成分(Rpost,Gpost,Bpost)をそのまま利用して
もよい。
Of course, the conversion tables for all the image processing to which the target pixel is applicable are sequentially performed according to the equations (49) to (49).
Equation (51) is applied, and if the applicability k is “0”, the image data conversion need not be performed. Also, Equation (49)
Although equation (51) is an operation for each of the RGB components, the target component may be a part. Further, when the applicability k is not used, each component (Rpost, Gpost, Bpost) of the RGB gradation data obtained by simply changing only the type of the conversion table may be used as it is.

【0109】ところで、以上においては画像処理ごとに
適用すべき対象を指定していた。すなわち、全体から見
れば特定の領域だけが画像処理を実施されている。しか
しながら、全体に対してある画像処理をしながらも特定
の領域に対してさらに別の画像処理を重ねて実施すると
いったことも当然に可能となる。
In the above description, the target to be applied is specified for each image processing. That is, when viewed from the whole, only a specific area is subjected to image processing. However, it is naturally possible to perform another image processing on a specific area while performing a certain image processing on the whole.

【0110】ここで、画像全体に対する画像処理の変換
結果として各成分(Rtotal,Gtotal,Btotal)が得
られるとともに、特定の領域に対する画像処理の変換結
果として各成分(Rpart,Gpart,Bpart)が得られる
としたならば、最終的な画像データ(Rfinl,Gfinl,
Bfinl)は、同様の適用度k’を利用して、 Rfinl=k’・Rpart+(1−k’)・Rtotal …(52) Gfinl=k’・Gpart+(1−k’)・Gtotal …(53) Bfinl=k’・Bpart+(1−k’)・Btotal …(54) といった重み付け加算で演算すればよい。
Here, each component (Rtotal, Gtotal, Btotal) is obtained as a conversion result of image processing for the entire image, and each component (Rpart, Gpart, Bpart) is obtained as a conversion result of image processing for a specific area. If the final image data (Rfinl, Gfinl,
Bfinl) uses the same degree of applicability k ′, and Rfinl = k ′ · Rpart + (1−k ′) · Rtotal (52) Gfinl = k ′ · Gpart + (1−k ′) · Gtotal (53) Bfinl = k ′ · Bpart + (1−k ′) · Btotal (54)

【0111】例えば、図24は図7の写真において全体
的に色の鮮やかさを強調させる一方で、逆光気味の人物
を明るくさせたい状況での選択態様を概略的に示してい
る。すなわち、画像全体を対象とする左下下がりのハッ
チング領域に対する変換結果(Rtotal,Gtotal,Bto
tal)と、人物像を対象とする右下下がりのハッチング
領域に対する変換結果(Rpart,Gpart,Bpart)と
が、適用度k’を利用して重ね合わされる。この場合、
人物像に対して指定した領域内で適用度k’が最大の
0.5となるとともに、その周縁の遷移領域で適用度
k’が0<k’<0.5の範囲で変化させればよい。こ
れに対して、人物像に対して指定した領域内での適用度
k’を最大1.0となるように設定し、その周縁の遷移
領域で適用度k’が0<k’<1.0の範囲で変化させ
るようにすれば、人物像に対して指定した領域内では画
像全体に対する変換を適用させないようにすることもで
きる。むろん、同様にしてさらに多数の画像処理の結果
を適用させることもできる。
For example, FIG. 24 schematically shows a selection mode in a situation where it is desired to brighten a backlighting person while emphasizing overall color vividness in the photograph of FIG. That is, the conversion result (Rtotal, Gtotal, Bto
tal) and the conversion result (Rpart, Gpart, Bpart) for the hatched area in the lower right for the human image are superimposed using the applicability k ′. in this case,
If the degree of applicability k 'in the area specified for the human image is 0.5, and the applicability k' is changed in the range of 0 <k '<0.5 in the transition area around the figure, Good. On the other hand, the applicability k ′ in the region designated for the human image is set to be a maximum of 1.0, and the applicability k ′ is 0 <k ′ <1. If the change is made in the range of 0, it is possible to prevent the conversion of the whole image from being applied in the area specified for the human image. Of course, the results of many more image processings can be applied in the same manner.

【0112】以後、ステップS130で対象画素を移動
させるとともにステップS140で全ての対象画素につ
いて処理を終了したか判断し、終了していれば本画像処
理を終了する。
Thereafter, the target pixel is moved in step S130, and it is determined in step S140 whether or not the processing has been completed for all the target pixels. If the processing has been completed, the image processing ends.

【0113】なお、それぞれの画像処理で強調程度を自
動設定する手法について説明したが、それらは上述した
ようにして対象画素を移動させていく前の段階で均等に
画像データをサンプリングして必要な集計を行ない、集
計結果に基づいて強調程度を自動設定するとともに変換
テーブルを作成しておけばよい。
Although the method of automatically setting the degree of emphasis in each image processing has been described, it is necessary to uniformly sample image data before moving the target pixel as described above. Aggregation is performed, the degree of emphasis is automatically set based on the aggregation result, and a conversion table may be created.

【0114】プリンタドライバ21bで色度に基づくオ
プション選択するような場合にはこのような自動設定に
よって強調レベルを設定することができるので、操作性
を向上させることができる。
When an option based on chromaticity is selected by the printer driver 21b, the emphasis level can be set by such automatic setting, so that operability can be improved.

【0115】次に、上記構成からなる本実施形態の動作
を説明する。
Next, the operation of the present embodiment having the above configuration will be described.

【0116】写真画像をスキャナ11で読み込み、プリ
ンタ31にて印刷する場合を想定する。すると、まず、
コンピュータ21にてオペレーティングシステム21a
が稼働しているもとで、画像処理アプリケーション21
dを起動させ、スキャナ11に対して写真の読み取りを
開始させる。読み取られた画像データが同オペレーティ
ングシステム21aを介して画像処理アプリケーション
21dに取り込まれたら、同画像処理アプリケーション
21dは図5に示すフローチャートに基づいて画像処理
を実行する。
It is assumed that a photographic image is read by the scanner 11 and printed by the printer 31. Then, first,
Operating system 21a on computer 21
Is running, the image processing application 21
d is started, and the scanner 11 starts reading a photograph. When the read image data is captured by the image processing application 21d via the operating system 21a, the image processing application 21d executes image processing based on the flowchart shown in FIG.

【0117】先ず、ステップS100にて適用対象を指
定すべく、図7に示すように読み込んだ写真画像をウィ
ンドウ40の表示エリア42に表示する。この状態で操
作者は図8に示すようにマウス27で空色部分を矩形領
域として指定するとともに処理メニューエリア43で彩
度を強調させるように上矢印を数回クリックする。ま
た、中央の人物像が入るように矩形領域を選択し、処理
メニューエリア43で明るさを強調させるように上矢印
を数回クリックする。すなわち、背景のうちの空の領域
を指定して彩度を強調する画像処理を指定するととも
に、人物の領域を指定して明るさをあげる画像処理を指
定したことになる。
First, in step S100, the read photographic image is displayed in the display area 42 of the window 40 as shown in FIG. In this state, the operator designates the sky blue portion as a rectangular region with the mouse 27 as shown in FIG. 8 and clicks the up arrow several times in the processing menu area 43 so as to emphasize the saturation. In addition, a rectangular area is selected so that the center person image is included, and the up arrow is clicked several times in the processing menu area 43 so as to emphasize the brightness. That is, the image processing for enhancing the saturation by designating the sky area of the background and the image processing for increasing the brightness by designating the area of the person are designated.

【0118】ウィンドウを閉じることによって指定を終
了させると、この指定に基づいて変換テーブルを作成す
る。すなわち、図9に示す領域テーブル対応表を参照
し、処理種類を参照して画像処理の種類を決めるととも
にレベルに基づいて強調程度を判断し、変換テーブルを
作成する。ここでは彩度強調処理のための変換テーブル
と明るさを明るくするための変換テーブルを作成するこ
とになる。
When the designation is completed by closing the window, a conversion table is created based on the designation. That is, referring to the area table correspondence table shown in FIG. 9, the type of image processing is determined with reference to the type of processing, and the degree of emphasis is determined based on the level, and a conversion table is created. Here, a conversion table for saturation enhancement processing and a conversion table for increasing brightness are created.

【0119】この後、処理対象画素を初期位置に設定
し、ステップS110にて対象画素の座標が図9に示す
領域テーブル対応表の各領域に含まれるか否かを判断す
る。むろん、この場合に遷移領域も考慮し、適用度kを
得る。図8に示すように対象画素がハッチングした領域
内に入っていれば適用度kとして「1」が設定されるた
め、ステップS120では対象となる画像処理の変換テ
ーブルを参照し、(49)〜(51)式に基づいて画像
データを変換する。また、図8に示す例では背景部分を
指定した矩形領域と人物像を指定した矩形領域とが一部
で重なっており、重なっている部分では二段階に(4
9)〜(51)式を適用して画像データを変換する。む
ろん、遷移領域についても画像データは変換され、指定
されなかった周縁部分と段差が生じないようにする。
Thereafter, the target pixel is set to the initial position, and it is determined in step S110 whether or not the coordinates of the target pixel are included in each area of the area table correspondence table shown in FIG. Of course, in this case, the transition area is also considered, and the applicability k is obtained. As shown in FIG. 8, if the target pixel is within the hatched area, “1” is set as the applicability k. In step S <b> 120, the conversion table of the target image processing is referred to, and The image data is converted based on the equation (51). In the example shown in FIG. 8, the rectangular area specifying the background part and the rectangular area specifying the human image partially overlap each other.
The image data is converted by applying the expressions 9) to (51). Of course, the image data is also converted in the transition area so that a step does not occur with the undesignated peripheral portion.

【0120】以上の処理をステップS130にて処理対
象画素を移動させながらステップS140にて全画素に
ついて実行したと判断されるまで繰り返す。これによ
り、空色部分については彩度を強調して青空らしく鮮や
かにする画像処理が行われるし、人物像の部分を明るく
して逆光状態であったとしてもフラッシュを点灯させて
撮影したような見やすい画像となる。むろん、人物像が
明るくなったとしても空の部分が明るくなってしまうこ
とはないし、人物像の部分で特に彩度強調されてしまう
こともない。
The above process is repeated while moving the pixel to be processed in step S130 until it is determined in step S140 that all pixels have been executed. As a result, image processing is performed on the sky blue portion to enhance the saturation and make it look like a blue sky, and even when the person image portion is bright and in a backlight state, it is easy to see as if shooting with the flash turned on It becomes an image. Of course, even if the person image becomes bright, the sky portion does not become bright, and the saturation is not particularly emphasized in the person image portion.

【0121】この後、画像処理された画像データをディ
スプレイドライバ21cを介してディスプレイ32に表
示し、良好であればプリンタドライバ21bを介してプ
リンタ31にて印刷させる。すなわち、同プリンタドラ
イバ21bは指定した領域毎に指定したとおりの画像処
理を実行されたRGBの階調データを入力し、所定の解
像度変換を経てプリンタ31の印字ヘッド領域に対応し
たラスタライズを行なうとともに、ラスタライズデータ
をRGBからCMYKへ色変換し、その後でCMYKの
階調データから二値データへ変換してプリンタ31へ出
力する。
Thereafter, the processed image data is displayed on the display 32 via the display driver 21c. If the image data is good, the image data is printed by the printer 31 via the printer driver 21b. That is, the printer driver 21b inputs RGB gradation data on which image processing has been executed as specified for each specified area, performs rasterization corresponding to the print head area of the printer 31 through predetermined resolution conversion, and , And converts the rasterized data from RGB to CMYK, then converts the CMYK gradation data to binary data and outputs it to the printer 31.

【0122】一方、画像処理アプリケーション21dと
して画像処理するのではなく、所定のアプリケーション
から印刷処理を実行し、プリンタドライバ21bが起動
された場合には、ウィンドウ40の表示エリア41に読
み込み画像を表示できない場合も多い。この場合、プリ
ンタドライバ21bは図10に示すようなオプション選
択の画面を表示することができ、操作者は読み込む前の
写真などを見ながら人の肌の部分をきれいにしたいと
か、木々の緑を鮮やかにしたいなど、所望の画像処理と
なる項目を選択しておく。この処理は図5に示すステッ
プS100の適用対象指定の処理に該当する。
On the other hand, if the image processing application 21d does not perform image processing, but performs printing processing from a predetermined application and starts the printer driver 21b, the read image cannot be displayed in the display area 41 of the window 40. Often. In this case, the printer driver 21b can display an option selection screen as shown in FIG. 10, and the operator wants to clean the human skin while looking at the photograph before reading or to make the green of the trees vivid. Items such as desired image processing are selected in advance. This process corresponds to the process of specifying the application target in step S100 shown in FIG.

【0123】オプション選択後、同プリンタドライバ2
1bは内部で変換テーブルを作成しておき、入力される
画像データの各画素について色度を判定し、オプション
選択された対象の色度であるか判断する。そして、対象
となっている場合には、変換テーブルを参照して(4
9)〜(51)式に基づいて変換を実行し、変換後の画
像データをプリンタ31に出力可能なCMYの画像デー
タに変換する。
After selecting the option, the printer driver 2
1b prepares a conversion table internally, determines the chromaticity of each pixel of the input image data, and determines whether the chromaticity is the chromaticity of the option selected. Then, in the case of the target, referring to the conversion table (4
The conversion is performed based on the expressions 9) to (51), and the converted image data is converted into CMY image data that can be output to the printer 31.

【0124】この結果、オリジナルの画像のうち人の肌
の画素や木々の緑の画素については明るく修正され、結
果として鮮やかに見えるように印刷されることになる。
As a result, pixels of human skin and green pixels of trees in the original image are corrected to be bright, and as a result, printed so as to look vivid.

【0125】このように、画像処理の中枢をなすコンピ
ュータ21はステップS100で画像処理を適用したい
領域を指定しておき、ステップS110〜S140では
対象画素を移動させながら指定されている領域に属する
かどうかを判定しつつ、属する場合には指定された画像
処理を実行することになるため、ある領域の画像データ
を修正することによって別の領域の画像データに悪影響
を与えるといったことが無くなり、全体として美しくす
ることが容易に実現できるようになる。
As described above, the computer 21, which is the center of the image processing, designates the area to which the image processing is to be applied in step S100, and determines in step S110 to S140 whether the object pixel belongs to the designated area while moving the pixel. Since the specified image processing will be executed if it belongs while judging whether or not the image data of one area is corrected, the image data of another area will not be adversely affected. Beautification can be easily realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態にかかる画像処理装置のブ
ロック図である。
FIG. 1 is a block diagram of an image processing apparatus according to an embodiment of the present invention.

【図2】同画像処理装置の具体的ハードウェアのブロッ
ク図である。
FIG. 2 is a block diagram of specific hardware of the image processing apparatus.

【図3】本発明の画像処理装置の他の適用例を示す概略
ブロック図である。
FIG. 3 is a schematic block diagram illustrating another application example of the image processing apparatus of the present invention.

【図4】本発明の画像処理装置の他の適用例を示す概略
ブロック図である。
FIG. 4 is a schematic block diagram illustrating another application example of the image processing apparatus of the present invention.

【図5】本発明の画像処理装置における画像処理を示す
フローチャートである。
FIG. 5 is a flowchart illustrating image processing in the image processing apparatus of the present invention.

【図6】処理対象画素を移動させていく状態を示す図で
ある。
FIG. 6 is a diagram illustrating a state in which a processing target pixel is moved.

【図7】処理対象エリアと処理内容を指定する表示状態
を示す図である。
FIG. 7 is a diagram illustrating a display state in which a processing target area and processing contents are designated;

【図8】二つの処理対象エリアを選択した状態を示す図
である。
FIG. 8 is a diagram showing a state where two processing target areas are selected.

【図9】指定した領域と画像処理の対象を記憶する領域
・テーブル対応表を示す図である。
FIG. 9 is a diagram showing an area-table correspondence table that stores a specified area and an image processing target;

【図10】処理対象と処理内容をオプション選択する画
面の表示状態を示す図である。
FIG. 10 is a diagram showing a display state of a screen for selecting options for a processing target and processing contents.

【図11】x−y色度で指定される矩形領域を示す図で
ある。
FIG. 11 is a diagram illustrating a rectangular area specified by xy chromaticity.

【図12】x−y色度で中心点を指定する状況を示す図
である。
FIG. 12 is a diagram illustrating a situation where a center point is designated by xy chromaticity.

【図13】適用度を設定する際のフローチャートであ
る。
FIG. 13 is a flowchart for setting an applicability.

【図14】x−y色度で中心点を指定したときの適用度
の変化を示すグラフである。
FIG. 14 is a graph showing a change in applicability when a center point is designated by xy chromaticity.

【図15】輝度分布を拡大する場合の分布範囲を示す図
である。
FIG. 15 is a diagram illustrating a distribution range when the luminance distribution is expanded.

【図16】輝度分布を拡大する際の変換テーブルを示す
図である。
FIG. 16 is a diagram showing a conversion table when expanding a luminance distribution.

【図17】輝度分布を拡大させるための変換関係を示す
図である。
FIG. 17 is a diagram showing a conversion relationship for expanding a luminance distribution.

【図18】γ補正で明るくする概念を示す図である。FIG. 18 is a diagram illustrating a concept of increasing brightness by γ correction.

【図19】γ補正で暗くする概念を示す図である。FIG. 19 is a diagram showing a concept of darkening by γ correction.

【図20】γ補正で変更される輝度の対応関係を示す図
である。
FIG. 20 is a diagram illustrating a correspondence relationship of luminance changed by γ correction.

【図21】5×5画素のアンシャープマスクを示す図で
ある。
FIG. 21 is a diagram showing an unsharp mask of 5 × 5 pixels.

【図22】彩度分布の集計状態の概略図である。FIG. 22 is a schematic diagram of a tallying state of a saturation distribution.

【図23】彩度Aと彩度強調指数Sとの関係を示す図で
ある。
FIG. 23 is a diagram illustrating a relationship between a saturation A and a saturation enhancement index S.

【図24】全体に適用する画像処理と一部に適用する画
像処理とが行わせる場合の処理対象エリアを示す図であ
る。
FIG. 24 is a diagram illustrating a processing target area in a case where image processing applied to the whole and image processing applied to a part are performed.

【符号の説明】[Explanation of symbols]

10…画像入力装置 20…画像処理装置 21…コンピュータ 21a…オペレーティングシステム 21b…プリンタドライバ 21c…ディスプレイドライバ 21d…画像処理アプリケーション 22…ハードディスク 23…キーボード 24…CD−ROMドライブ 25…フロッピーディスクドライブ 26…モデム 30…画像出力装置 Reference Signs List 10 image input device 20 image processing device 21 computer 21a operating system 21b printer driver 21c display driver 21d image processing application 22 hard disk 23 keyboard 24 CD-ROM drive 25 floppy disk drive 26 modem 30 ... Image output device

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 ドットマトリクス状の画素からなる実写
の画像データを入力し、各画素の画像データを所定の対
応関係で変換する画像処理装置であって、 上記画像データを変換する対応関係をその適用対象の情
報とともに複数備える対応関係保持手段と、 この対応関係保持手段にて保持される各対応関係の適用
対象の情報に基づいて各画素の画像データを変換すべき
対応関係を判断する対応関係判断手段と、 この対応関係判断手段にて判断された対応関係を上記対
応関係保持手段から参照して各画素の画像データを変換
する画像データ変換手段とを具備することを特徴とする
画像処理装置。
An image processing apparatus for inputting real image data composed of dot matrix pixels and converting the image data of each pixel in a predetermined correspondence, wherein the correspondence for converting the image data is represented by Correspondence holding means provided with a plurality of pieces of information to be applied, and a correspondence for judging a correspondence to convert image data of each pixel based on information of an application target of each correspondence held by the correspondence holding means. An image processing apparatus comprising: a determination unit; and an image data conversion unit that converts the image data of each pixel by referring to the correspondence determined by the correspondence determination unit from the correspondence holding unit. .
【請求項2】 上記請求項1に記載の画像処理装置にお
いて、上記対応関係保持手段は、画像の部位毎に適用す
べき対応関係を保持するとともに各対応関係を適用すべ
き部位の情報を有し、上記対応関係判断手段は、各画素
の画像内における部位を検知するとともに検知された部
位と上記対応関係保持手段が有する各対応関係ごとの部
位の情報とを照らし合わせて変換すべき対応関係を判断
することを特徴とする画像処理装置。
2. The image processing apparatus according to claim 1, wherein said correspondence holding means holds a correspondence to be applied to each part of the image and has information on a part to which each correspondence is applied. The correspondence determining means detects a part in the image of each pixel, and compares the detected part with information of each part in the correspondence holding means to convert the corresponding part. An image processing apparatus characterized by determining:
【請求項3】 上記請求項1または請求項2のいずれか
に記載の画像処理装置において、上記対応関係保持手段
は、複数の対応関係を保持するとともに各対応関係を適
用すべき色度の情報を有し、上記対応関係判断手段は、
各画素の色度を検知するとともに検知された色度と上記
対応関係保持手段が有する各対応関係ごとの色度の情報
とを照らし合わせて変換すべき対応関係を判断すること
を特徴とする画像処理装置。
3. The image processing apparatus according to claim 1, wherein the correspondence holding unit holds a plurality of correspondences and information of chromaticity to which each correspondence is to be applied. And the correspondence determination means includes:
An image characterized by detecting the chromaticity of each pixel and comparing the detected chromaticity with the chromaticity information for each corresponding relationship held by the corresponding relationship holding means to determine a corresponding relationship to be converted. Processing equipment.
【請求項4】 上記請求項1〜請求項3のいずれかに記
載の画像処理装置において、上記対応関係保持手段は、
変換元の画像データと変換後の画像データの対応関係を
記憶する色変換テーブルを有することを特徴とする画像
処理装置。
4. The image processing apparatus according to claim 1, wherein said correspondence holding unit includes:
An image processing apparatus comprising: a color conversion table that stores a correspondence relationship between conversion source image data and converted image data.
【請求項5】 上記請求項1〜請求項4のいずれかに記
載の画像処理装置において、上記対応関係保持手段は、
対応関係を適用する度合いを変化させることによって複
数の対応関係を実現することを特徴とする画像処理装
置。
5. The image processing apparatus according to claim 1, wherein the correspondence holding unit includes:
An image processing apparatus for realizing a plurality of correspondences by changing a degree of application of a correspondence.
【請求項6】 上記請求項1〜請求項5のいずれかに記
載の画像処理装置において、上記対応関係保持手段は、
上記画像データに適用すべき対応関係を指定する対応関
係指定手段を有することを特徴とする画像処理装置。
6. The image processing apparatus according to claim 1, wherein the correspondence holding unit includes:
An image processing apparatus comprising: a correspondence specification unit that specifies a correspondence to be applied to the image data.
【請求項7】 上記請求項1〜請求項6のいずれかに記
載の画像処理装置において、上記対応関係保持手段は、
上記画像データに基づいて明るさを変化させる対応関係
を保持することを特徴とする画像処理装置。
7. The image processing device according to claim 1, wherein the correspondence holding unit includes:
An image processing apparatus, wherein a correspondence for changing brightness based on the image data is held.
【請求項8】 上記請求項1〜請求項7のいずれかに記
載の画像処理装置において、上記対応関係保持手段は、
画像データに基づいて色度を変化させる対応関係を保持
することを特徴とする画像処理装置。
8. The image processing apparatus according to claim 1, wherein the correspondence holding unit includes:
An image processing apparatus for maintaining a correspondence for changing chromaticity based on image data.
【請求項9】 上記請求項1〜請求項8のいずれかに記
載の画像処理装置において、上記対応関係保持手段は、
画像データに基づいて色の鮮やかさを変化させる対応関
係を保持することを特徴とする画像処理装置。
9. The image processing apparatus according to claim 1, wherein the correspondence holding unit includes:
An image processing apparatus for storing a correspondence that changes the vividness of a color based on image data.
【請求項10】 上記請求項1〜請求項9のいずれかに
記載の画像処理装置において、上記画像データ変換手段
は、対応関係が異なる領域の間の遷移領域の画素につい
て徐々に対応関係が変化するように画像データを変換す
ることを特徴とする画像処理装置。
10. The image processing apparatus according to claim 1, wherein the image data conversion means changes the correspondence of pixels in a transition area between areas having different correspondences. An image processing apparatus characterized in that image data is converted such that the image data is converted.
【請求項11】 ドットマトリクス状の画素からなる実
写の画像データを入力し、各画素の画像データを所定の
対応関係で変換する画像処理方法であって、上記画像デ
ータを変換する対応関係をその適用対象の情報とともに
複数備え、各対応関係の適用対象の情報に基づいて各画
素の画像データを変換すべき対応関係を判断し、判断さ
れた対応関係で各画素の画像データを変換することを特
徴とする画像処理方法。
11. An image processing method for inputting real image data composed of pixels in a dot matrix and converting the image data of each pixel in a predetermined correspondence, wherein the correspondence for converting the image data is determined by A plurality of the image data of each pixel is determined based on the information of the application target of each corresponding relationship, and the image data of each pixel is converted based on the determined corresponding relationship. Characteristic image processing method.
【請求項12】 コンピュータにてドットマトリクス状
の画素からなる実写の画像データを入力し、各画素の画
像データを所定の対応関係で変換する画像処理プログラ
ムを記録した媒体であって、上記画像データを変換する
対応関係をその適用対象の情報とともに複数備え、各対
応関係の適用対象の情報に基づいて各画素の画像データ
を変換すべき対応関係を判断し、判断された対応関係で
各画素の画像データを変換することを特徴とする画像処
理プログラムを記録した媒体。
12. A medium in which an image processing program for inputting a real image data consisting of pixels in a dot matrix form by a computer and converting the image data of each pixel in a predetermined correspondence relationship is recorded. A plurality of correspondences for converting the image data are provided together with the information of the application target, and the correspondence to convert the image data of each pixel is determined based on the information of the application target of each correspondence, and the correspondence of each pixel is determined based on the determined correspondence. A medium storing an image processing program for converting image data.
JP31212697A 1997-06-17 1997-11-13 Image processing apparatus, image processing method, and medium storing image processing program Expired - Fee Related JP3918257B2 (en)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP31212697A JP3918257B2 (en) 1997-11-13 1997-11-13 Image processing apparatus, image processing method, and medium storing image processing program
DE69827703T DE69827703T2 (en) 1997-06-17 1998-06-12 Method and device for adjusting the color
EP05077482A EP1619876A3 (en) 1997-06-17 1998-06-12 Colour image processing apparatus and method
EP98304660A EP0886437B1 (en) 1997-06-17 1998-06-12 Method and apparatus for colour adjustment
EP04077594A EP1489833A1 (en) 1997-06-17 1998-06-12 Image processing apparatus, image processing method, color adjustment method, and color adjustment system
EP05077481A EP1619875A1 (en) 1997-06-17 1998-06-12 Image processing apparatus, image processing method, color adjustment method, and color adjusment system
US09/097,828 US6535301B1 (en) 1997-06-17 1998-06-16 Image processing apparatus, image processing method, image processing program recording medium, color adjustment method, color adjustment device, and color adjustment control program recording medium
US10/270,485 US7072074B2 (en) 1997-06-17 2002-10-16 Image processing apparatus, image processing method, image processing program recording medium, color adjustment method, color adjustment device, and color adjustment control program recording medium
US11/431,753 US7286265B2 (en) 1997-06-17 2006-05-11 Image processing apparatus, image processing method, image processing program recording medium, color adjustment method, color adjustment device, and color adjustment control program recording medium
US11/431,752 US7292371B2 (en) 1997-06-17 2006-05-11 Image processing apparatus, image processing method, image processing program recording medium, color adjustment method, color adjustment device, and color adjustment control program recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31212697A JP3918257B2 (en) 1997-11-13 1997-11-13 Image processing apparatus, image processing method, and medium storing image processing program

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2004327174A Division JP3941810B2 (en) 2004-11-11 2004-11-11 Image processing apparatus, image processing method, and medium storing image processing program
JP2004327172A Division JP3956970B2 (en) 2004-11-11 2004-11-11 Image processing apparatus, image processing method, and medium storing image processing program

Publications (2)

Publication Number Publication Date
JPH11146219A true JPH11146219A (en) 1999-05-28
JP3918257B2 JP3918257B2 (en) 2007-05-23

Family

ID=18025573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31212697A Expired - Fee Related JP3918257B2 (en) 1997-06-17 1997-11-13 Image processing apparatus, image processing method, and medium storing image processing program

Country Status (1)

Country Link
JP (1) JP3918257B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007132765A1 (en) * 2006-05-12 2007-11-22 Ryobi System Solutions Image data processing device
US7394486B2 (en) 2002-09-26 2008-07-01 Seiko Epson Corporation Adjusting output image of image data
JP2009050035A (en) * 2008-12-05 2009-03-05 Nec Corp Image processing method, image processing system, and image processing program
US7602968B2 (en) 2001-10-24 2009-10-13 Nik Software, Inc. Overlaid graphical user interface and method for image processing
US7602991B2 (en) 2001-10-24 2009-10-13 Nik Software, Inc. User definable image reference regions
JP2011524664A (en) * 2008-05-28 2011-09-01 ポイボス ビジョン オプト−エレクトロニクス テクノロジー リミテッド Color gamut expansion system and method
US8111941B2 (en) 2006-11-22 2012-02-07 Nik Software, Inc. Method for dynamic range editing
JP2012093977A (en) * 2010-10-27 2012-05-17 Casio Comput Co Ltd Image processing device, method and program
JP2012513634A (en) * 2008-12-22 2012-06-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method for changing image data signal, device for changing image data signal, and display device
JP2012227591A (en) * 2011-04-15 2012-11-15 Seiko Epson Corp Image processor, printer, image processing program, and image processing method
US8701028B2 (en) 2006-06-14 2014-04-15 Google Inc. Graphical user interface and related method
US8837849B2 (en) 2007-06-26 2014-09-16 Google Inc. Method for noise-robust color changes in digital images
US9053530B2 (en) 2006-11-27 2015-06-09 Google Inc. Method for sliced inpainting
US9143657B2 (en) 2006-01-24 2015-09-22 Sharp Laboratories Of America, Inc. Color enhancement technique using skin color detection

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9786031B2 (en) 2001-10-24 2017-10-10 Google Inc. Distortion of digital images using spatial offsets from image reference points
US8064725B2 (en) 2001-10-24 2011-11-22 Nik Software, Inc. Distortion of digital images using spatial offsets
US10140682B2 (en) 2001-10-24 2018-11-27 Google Llc Distortion of digital images using spatial offsets from image reference points
US7602968B2 (en) 2001-10-24 2009-10-13 Nik Software, Inc. Overlaid graphical user interface and method for image processing
US7602991B2 (en) 2001-10-24 2009-10-13 Nik Software, Inc. User definable image reference regions
US7970233B2 (en) 2001-10-24 2011-06-28 Nik Software, Inc. Distortion of digital images using spatial offsets from image reference points
US9008420B2 (en) 2001-10-24 2015-04-14 Google Inc. Distortion of digital images using spatial offsets from image reference points
US8625925B2 (en) 2001-10-24 2014-01-07 Google Inc. Distortion of digital images using spatial offsets from image reference points
US9471998B2 (en) 2001-10-24 2016-10-18 Google Inc. Distortion of digital images using spatial offsets from image reference points
US7394486B2 (en) 2002-09-26 2008-07-01 Seiko Epson Corporation Adjusting output image of image data
US9143657B2 (en) 2006-01-24 2015-09-22 Sharp Laboratories Of America, Inc. Color enhancement technique using skin color detection
WO2007132765A1 (en) * 2006-05-12 2007-11-22 Ryobi System Solutions Image data processing device
US9690467B2 (en) 2006-06-14 2017-06-27 Google Inc. Graphical user interface and related method
US10430060B2 (en) 2006-06-14 2019-10-01 Google Llc Graphical user interface and related method
US8701028B2 (en) 2006-06-14 2014-04-15 Google Inc. Graphical user interface and related method
US8111941B2 (en) 2006-11-22 2012-02-07 Nik Software, Inc. Method for dynamic range editing
US9286665B2 (en) 2006-11-22 2016-03-15 Google Inc. Method for dynamic range editing
US8737764B2 (en) 2006-11-22 2014-05-27 Google Inc. Method for dynamic range editing
US9589335B2 (en) 2006-11-22 2017-03-07 Google Inc. Method for dynamic range editing
US9934562B2 (en) 2006-11-22 2018-04-03 Google Llc Method for dynamic range editing
US9053530B2 (en) 2006-11-27 2015-06-09 Google Inc. Method for sliced inpainting
US10535123B2 (en) 2006-11-27 2020-01-14 Google Llc Method for sliced inpainting
US9870604B2 (en) 2006-11-27 2018-01-16 Google Llc Method for sliced inpainting
US10554857B2 (en) 2007-06-26 2020-02-04 Google Llc Method for noise-robust color changes in digital images
US9407790B2 (en) 2007-06-26 2016-08-02 Google Inc. Method for noise-robust color changes in digital images
US8837849B2 (en) 2007-06-26 2014-09-16 Google Inc. Method for noise-robust color changes in digital images
US9883079B2 (en) 2007-06-26 2018-01-30 Google Llc Method for noise-robust color changes in digital images
JP2011524664A (en) * 2008-05-28 2011-09-01 ポイボス ビジョン オプト−エレクトロニクス テクノロジー リミテッド Color gamut expansion system and method
JP2009050035A (en) * 2008-12-05 2009-03-05 Nec Corp Image processing method, image processing system, and image processing program
JP2012513634A (en) * 2008-12-22 2012-06-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method for changing image data signal, device for changing image data signal, and display device
JP2012093977A (en) * 2010-10-27 2012-05-17 Casio Comput Co Ltd Image processing device, method and program
JP2012227591A (en) * 2011-04-15 2012-11-15 Seiko Epson Corp Image processor, printer, image processing program, and image processing method

Also Published As

Publication number Publication date
JP3918257B2 (en) 2007-05-23

Similar Documents

Publication Publication Date Title
US6535301B1 (en) Image processing apparatus, image processing method, image processing program recording medium, color adjustment method, color adjustment device, and color adjustment control program recording medium
US7155060B2 (en) Image processing system, image processing method, and medium having an image processing control program recorded thereon
JP3918257B2 (en) Image processing apparatus, image processing method, and medium storing image processing program
JP2000215306A (en) Medium recording image correction program, device and method for correcting image
US8290262B2 (en) Color processing apparatus and method thereof
JP4243362B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
JP4019204B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP3956970B2 (en) Image processing apparatus, image processing method, and medium storing image processing program
JP3921737B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP3941810B2 (en) Image processing apparatus, image processing method, and medium storing image processing program
JP3817371B2 (en) Image processing method, apparatus, and recording medium
JP3501151B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JP3573143B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JP3705250B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP3558073B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JPH10200756A (en) Image processing unit, image processing method, and medium recording image processing program
JP3570416B2 (en) Image processing apparatus, image processing method, and medium recording image processing control program
JP2000067239A (en) Picture evaluation device/method, medium recording picture evaluation program and picture retouching device
JPH11136514A (en) Picture processor, picture processing method and medium recording picture processing control program
JP2000067239A5 (en)
JP2003051001A (en) Device and method for processing image and medium recording image processing control program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070205

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110223

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110223

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120223

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130223

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130223

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees