JPH11136514A - Picture processor, picture processing method and medium recording picture processing control program - Google Patents

Picture processor, picture processing method and medium recording picture processing control program

Info

Publication number
JPH11136514A
JPH11136514A JP9294051A JP29405197A JPH11136514A JP H11136514 A JPH11136514 A JP H11136514A JP 9294051 A JP9294051 A JP 9294051A JP 29405197 A JP29405197 A JP 29405197A JP H11136514 A JPH11136514 A JP H11136514A
Authority
JP
Japan
Prior art keywords
image processing
image
feature amount
image data
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9294051A
Other languages
Japanese (ja)
Inventor
Naoki Kuwata
直樹 鍬田
Yoshihiro Nakami
至宏 中見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP9294051A priority Critical patent/JPH11136514A/en
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to US09/093,094 priority patent/US6738527B2/en
Priority to EP10158002A priority patent/EP2199973A3/en
Priority to EP98304509A priority patent/EP0891075A3/en
Publication of JPH11136514A publication Critical patent/JPH11136514A/en
Priority to US10/742,718 priority patent/US7259894B2/en
Priority to US11/491,305 priority patent/US7755801B2/en
Priority to US11/491,278 priority patent/US7940426B2/en
Priority to US11/739,858 priority patent/US7508548B2/en
Priority to US13/081,027 priority patent/US8553285B2/en
Priority to US13/455,575 priority patent/US8867099B2/en
Priority to US13/719,602 priority patent/US8681380B2/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a picture processor which can automatically select an optimum feature amount in accordance with a picture processing and executes the picture processing and to provided a picture processing method and a medium recording a picture processing control program. SOLUTION: A computer being the center of the picture processing obtains a luminance distribution histogram based on an added result sampled by different evaluation reference in a step S310. It obtains different feature amounts from the different luminance distribution histograms in steps S320 and S330 and converts picture data based on the respective feature amounts in a step S350. Thus, the optimum picture processing can be realized.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、デジタル写真画像
のような実写の画像データに対して最適な画像処理を自
動的に実行する画像処理装置、画像処理方法および画像
処理制御プログラムを記録した媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, an image processing method, and a medium in which an image processing control program for automatically executing optimum image processing on real image data such as digital photographic images. About.

【0002】[0002]

【従来の技術】ディジタル写真画像のような実写の画像
データに対して各種の画像処理が行われている。例え
ば、コントラストを拡大するとか、色調を補正すると
か、明るさを補正するといった画像処理である。これら
の画像処理は、通常、マイクロコンピュータで実行可能
となっており、操作者がモニタ上で画像を確認して必要
な画像処理を選択したり、画像処理のパラメータなどを
決定している。すなわち、画像の特徴を操作者が判定し
て各種の操作を選択したり実行している。
2. Description of the Related Art Various types of image processing are performed on image data of actual photographs such as digital photographic images. For example, image processing such as increasing contrast, correcting color tone, or correcting brightness. Normally, these image processings can be executed by a microcomputer, and an operator checks an image on a monitor and selects necessary image processing, or determines parameters of the image processing. That is, the operator determines the characteristics of the image and selects or executes various operations.

【0003】[0003]

【発明が解決しようとする課題】近年、画像処理の技法
については各種のものが提案され、実際に効果を発揮し
ている。しかしながら、どの技法でどの程度の処理を行
うかとなると、依然、人間が関与しなければならない。
これは、画像処理の対象となるディジタル画像データに
おいて、どこが重要であるのかを判断することができな
かったためである。
In recent years, various image processing techniques have been proposed and have actually been effective. However, when it comes to how much processing is done with which technique, humans still have to be involved.
This is because it is not possible to determine where the digital image data to be subjected to image processing is important.

【0004】例えば、明るさを補正する画像処理を考え
た場合、画面全体の平均が暗ければ明るく補正し、逆に
平均が明るければ暗く補正するという自動処理を考えた
とする。ここで、夜間撮影した人物像の実写の画像デー
タがあるとする。背景は殆ど真っ暗に近いものの、人物
自体は良好に撮影できていたとする。この実写の画像デ
ータを自動補正すると、背景が真っ暗であるがために明
るく補正しようとしてしまい、昼間の画像のようになっ
てしまうことになる。
[0004] For example, in consideration of image processing for correcting brightness, it is assumed that automatic processing is performed in which, if the average of the entire screen is dark, the image is corrected to be bright, and if the average is bright, the image is corrected to be dark. Here, it is assumed that there is image data of a real image of a person image taken at night. It is assumed that although the background is almost completely dark, the person itself has been well photographed. If the image data of the actual photograph is automatically corrected, an attempt is made to correct the image data brightly because the background is completely dark, resulting in a daytime image.

【0005】この場合、人間が関与していれば人物像の
部分だけに注目する。そして、人物像が暗ければ少し明
るく補正するし、逆に、フラッシュなどの効果で明る過
ぎれば暗くする補正を選択する。
In this case, if a human is involved, attention is paid only to the part of the human figure. Then, if the person image is dark, the correction is made slightly brighter, and conversely, if the image is too bright due to the effect of flash or the like, the correction is made darker.

【0006】本出願人は、このような課題に鑑みて特願
平xx号にて画像の中での重要な部分を判断する発明を
提案した。同発明においては、画像のシャープな部分に
本来の被写体(オブジェクト)が存在しているはずであ
ると考え、各画素での画像の変化度合いに着目して同変
化度合いの大きな画素をオブジェクトと判断するととも
に、同オブジェクトについて所定の評価基準に基づいて
特徴量を得て、当該特徴量を使用して画像処理を行って
いる。
In view of such a problem, the present applicant has proposed an invention in Japanese Patent Application No. xx to judge an important part in an image. In the present invention, it is considered that an original subject (object) should exist in a sharp portion of an image, and a pixel having a large degree of change is determined as an object by focusing on the degree of change of the image at each pixel. In addition, a feature amount is obtained for the object based on a predetermined evaluation criterion, and image processing is performed using the feature amount.

【0007】しかしながら、オブジェクトの特徴量を使
用して画像処理を行う方が好ましい場合もあれば、実写
画像全体の平均的な特徴量を使用して画像処理を行う方
が好ましい場合もある。例えば、ある人物像の実写画像
を考えた場合、必ずしも人物が最も明るい(ハイライ
ト)とは限らない。従って、背景にハイライト部分があ
る場合、人物のみに着目してコントラストを拡大補正す
ると、これに伴って同背景のハイライト部分が白く抜け
てしまうことになりかねない。この場合、むしろ背景も
含めた実写画像全体に着目して行う方が良好な結果が得
られる。このように画像処理を行うにあたり、最適な特
徴量を選択する必要性は依然として残ったままであっ
た。
However, in some cases, it is preferable to perform image processing using the feature amount of the object, and in other cases, it is preferable to perform image processing using the average feature amount of the entire actual photographed image. For example, when considering a real image of a certain person image, the person is not always the brightest (highlight). Therefore, when there is a highlight portion in the background, if the contrast is corrected and focused on only the person, the highlight portion of the background may be lost in white. In this case, a better result can be obtained by focusing on the entire real image including the background. In performing image processing in this way, the need to select an optimal feature amount still remains.

【0008】本発明は、上記課題にかんがみてなされた
もので、画像処理手法に応じて最適な特徴量を自動的に
選択して画像処理を行うことが可能な画像処理装置、画
像処理方法および画像処理制御プログラムを記録した媒
体の提供を目的とする。
The present invention has been made in view of the above problems, and has an image processing apparatus, an image processing method, and an image processing method capable of automatically selecting an optimal feature amount according to an image processing method and performing image processing. It is intended to provide a medium in which an image processing control program is recorded.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するた
め、請求項1にかかる発明は、ドットマトリクス状の画
素からなる実写画像の画像データを入力し、各画素の画
像データを集計しつつ所定の評価基準で特徴量を得て、
当該特徴量に基づいて画像処理する画像処理装置であっ
て、複数の評価基準に従って上記特徴量を得る評価手段
と、複数の手法で上記画像データを変換可能であるとと
もに、各手法に応じて上記評価手段にて得られた特徴量
を使い分ける画像処理手段とを備えた構成としてある。
In order to achieve the above object, according to the first aspect of the present invention, image data of a photographed image composed of pixels in a dot matrix form is inputted, and a predetermined value is obtained while totalizing the image data of each pixel. The feature amount is obtained by the evaluation criteria of
An image processing apparatus that performs image processing based on the feature amount, an evaluation unit that obtains the feature amount according to a plurality of evaluation criteria, and the image data can be converted by a plurality of methods. An image processing unit that selectively uses the feature amount obtained by the evaluation unit is provided.

【0010】上記のように構成した請求項1にかかる発
明においては、ドットマトリクス状の画素からなる実写
画像の画像データを入力し、評価手段は各画素の画像デ
ータを集計しつつ複数の評価基準に従って特徴量を得
る。そして、画像処理手段は、複数の手法で同画像デー
タを変換するにあたり、各手法に応じて同評価手段で得
られた特徴量を使い分けて同画像データを変換する。
In the invention according to claim 1 configured as described above, image data of a real photographed image composed of dot-matrix pixels is input, and the evaluation means aggregates the image data of each pixel and generates a plurality of evaluation criteria. The feature amount is obtained according to. Then, when converting the same image data by a plurality of methods, the image processing means converts the same image data by properly using the feature amounts obtained by the evaluation means according to each method.

【0011】すなわち、明暗補正のようにオブジェクト
に着目した特徴量を使用して画像データを変換する方が
好ましい場合もあれば、コントラスト拡大補正のように
画像全体に着目した特徴量を使用して画像データを変換
する方が好ましい場合もあり、これらの複数の特徴量を
適宜選択して画像データの変換を行う。
That is, in some cases, it is preferable to convert image data using a feature amount focused on an object, such as brightness correction, or on the other hand, using a feature amount focused on the entire image, such as contrast expansion correction. In some cases, it is preferable to convert the image data, and the image data is converted by appropriately selecting a plurality of these feature amounts.

【0012】なお、この特徴量は画像データを変換する
にあたり、画像の特徴などを判定するのに使用可能なも
のであればよく、具体的に画像の種類を特定するものを
得る必要はない。例えば、画像を明るいと判定するか暗
いと判定するかといった場合の輝度のヒストグラムなど
といった指標も含むものであり、明るい画像であるとか
暗い画像であるといった判定結果が得られる必要はな
い。むろん、明暗以外にも画像がシャープであるか否か
の指標であるとか、鮮やかさを判断する際の指標であっ
てもよい。
Note that this feature amount may be any value that can be used to determine the characteristics of the image when converting the image data, and it is not necessary to specifically obtain the type of the image. For example, it also includes an index such as a histogram of luminance when an image is determined to be bright or dark, and it is not necessary to obtain a determination result such as a bright image or a dark image. Of course, other than light and dark, it may be an index for determining whether an image is sharp or an index for determining vividness.

【0013】また、実写の画像データとはありのままの
実物を撮像しようとした画像データを指している。これ
は画像処理がこのような実物との比較で不具合のある画
像を補正処理しようとしているためである。従って、そ
の対象は自然物だけにとどまらず、人工的なものであっ
ても構わないし、より具体的には写真をスキャナによっ
て取り込んだ画像データであるとか、デジタルカメラで
撮影したような画像データなどが含まれる。
[0013] Further, the actual image data refers to image data intended to image a real object as it is. This is because the image processing is trying to correct an image having a defect in comparison with such a real object. Therefore, the object is not limited to natural objects and may be artificial, and more specifically, image data captured by a scanner or image data captured by a digital camera. included.

【0014】さらに、上記評価手段と画像処理手段の動
作態様についても各種の態様を適用可能であって特に限
定されるものではない。例えば、複数の手法の画像処理
が行われることを前提として、上記評価手段にてあらか
じめ複数の評価基準に従って複数の特徴量を得て保持し
ておき、必要に応じて上記画像処理手段にて適宜特徴量
を選択して画像データを変換するようにしてもよい。ま
た別の一例として、上記画像処理手段が一の画像処理を
行うごとに、適当な特徴量を得るべく評価手段に所定の
評価基準に従って各画素の画像データを集計させるよう
にしてもよく、いずれの態様も含むものとする。
Further, various modes can be applied to the operation modes of the evaluation unit and the image processing unit, and there is no particular limitation. For example, on the premise that image processing of a plurality of methods is performed, a plurality of feature amounts are obtained and held in advance by the evaluation means in accordance with a plurality of evaluation criteria, and the image processing means appropriately performs the processing as necessary. The image data may be converted by selecting a feature amount. As another example, every time the image processing unit performs one image processing, the evaluation unit may be configured to total the image data of each pixel according to a predetermined evaluation criterion in order to obtain an appropriate feature amount. Is included.

【0015】上記評価手段がいかなる評価基準に従って
特徴量を得るかについては、対象となる画像処理方法に
よって異なり、上述したようにオブジェクトに着目して
画像処理する方がよい場合もあれば、そうではない場合
もある。前者の場合の好適な一例として、請求項2にか
かる発明は、請求項1に記載の画像処理装置において、
上記評価手段は、実写画像内のオブジェクトを抽出して
当該オブジェクトの画素の画像データを集計して特徴量
を得る評価基準を有するとともに、上記画像処理手段
は、一の画像処理の手法において上記画像データの中心
部分の特徴量を使用する際に上記オブジェクトの画素か
ら得られた特徴量を使用する構成としてある。
The evaluation criteria that the evaluation means obtains the feature amount depends on the target image processing method. In some cases, it is better to perform image processing by focusing on objects as described above. Not always. As a preferred example of the former case, the invention according to claim 2 is the image processing apparatus according to claim 1,
The evaluation means has an evaluation criterion for extracting an object in the photographed image, summing up image data of pixels of the object, and obtaining a feature amount, and the image processing means has the image processing method in one image processing method. When using the feature amount of the central part of the data, the feature amount obtained from the pixel of the object is used.

【0016】上記のように構成した請求項2にかかる発
明においては、上記画像処理手段が画像データの中心部
分の特徴量に基づいて画像データを変換する場合に、上
記評価手段は同実写画像内のオブジェクトを抽出し、当
該オブジェクトの画素の画像データを所定の評価基準に
従って集計して特徴量を得る。
In the invention according to claim 2 configured as described above, when the image processing means converts the image data based on the characteristic amount of the central part of the image data, the evaluation means includes Are extracted, and the image data of the pixels of the object are totaled according to a predetermined evaluation criterion to obtain a feature amount.

【0017】ここにおいて、画像データの中心部分とは
次のようなことを意味する。例えば、ある実写画像が明
るいか暗いかを判定する場合には、画像の中間濃度に基
づいて判断するのが適切であることは容易にわかる。こ
の中間濃度は、輝度分布を考えた場合にメジアン、すな
わち輝度分布における中心ともいうことができ、この意
味において画像データの中心部分という。そして、実写
画像内にオブジェクトが存在すれば、当該オブジェクト
の明るさにあわせて明暗補正する必要性が高いといえ
る。
Here, the central part of the image data means the following. For example, when it is determined whether a certain photographed image is bright or dark, it is easily understood that it is appropriate to make the determination based on the intermediate density of the image. This intermediate density can also be called the median when considering the luminance distribution, that is, the center in the luminance distribution, and in this sense, it is called the central part of the image data. Then, if an object exists in the actual photographed image, it can be said that there is a high necessity for correcting the brightness in accordance with the brightness of the object.

【0018】オブジェクトの抽出手法の基本的な一例と
して、請求項3にかかる発明は、請求項2に記載の画像
処理装置において、上記評価手段は、各画素における隣
接画素との画像データの変化度合いに基づいて同変化度
合いの大きな画素をオブジェクトとして抽出する構成と
してある。
According to a third aspect of the present invention, in the image processing apparatus according to the second aspect of the present invention, as the basic example of the object extracting method, the evaluation unit includes a degree of change in image data between each pixel and an adjacent pixel. , A pixel having the same degree of change is extracted as an object.

【0019】上記のように構成した請求項3にかかる発
明においては、上記評価手段は、隣接する画素間での画
像データの変化度合いが大きな画素をオブジェクトとし
て抽出する。ドットマトリクス状の画素のように一定間
隔で並んでいる場合、隣接する画素間の画像データの差
分は一次微分値と比例するため、このような差分をもっ
てして画像の変化度合いとして判断できる。この場合、
差分をベクトルの大きさと考えるとともに、隣接方向を
考慮してベクトルを合成するようにしてもよい。
In the invention according to claim 3 configured as described above, the evaluation means extracts, as an object, a pixel whose image data has a large degree of change between adjacent pixels. When the pixels are arranged at regular intervals like pixels in a dot matrix, the difference in image data between adjacent pixels is proportional to the first derivative, so that such a difference can be used to determine the degree of change in the image. in this case,
The difference may be considered as the magnitude of the vector, and the vector may be synthesized in consideration of the adjacent direction.

【0020】また、オブジェクトの抽出方法の別の一例
として、請求項4にかかる発明は、請求項2に記載の画
像処理装置において、上記評価手段は、各画素における
色度が所定範囲内にある画素をオブジェクトとして抽出
する構成としてある。
According to another aspect of the object extracting method, the invention according to claim 4 is the image processing apparatus according to claim 2, wherein the evaluation means is arranged such that the chromaticity of each pixel is within a predetermined range. The configuration is such that pixels are extracted as objects.

【0021】上記のように構成した請求項4にかかる発
明においては、上記評価手段は、各画素における色度を
求める。色度は色の刺激値の絶対的な割合を表してお
り、明るさには左右されない。従って、画像の中のオブ
ジェクトを色度の取りうる範囲によって分けることがで
きる。例えば、肌色の取りうる範囲であるとか、木々の
緑色の取りうる範囲といったものである。色度にはこの
ようなことが言えるので、上記評価手段は、上記求めら
れた色度が所定範囲内にある画素をオブジェクトとして
抽出する。
In the invention according to claim 4 configured as described above, the evaluation means obtains the chromaticity of each pixel. Chromaticity represents the absolute percentage of the color stimulus value and is independent of brightness. Therefore, the objects in the image can be divided according to the range in which the chromaticity can be obtained. For example, it may be a range where skin color can be taken, or a range where green of trees can be taken. Since such a thing can be said for the chromaticity, the evaluation unit extracts a pixel whose chromaticity is within a predetermined range as an object.

【0022】オブジェクトに着目しないで画像処理する
場合の好適な一例として、請求項5にかかる発明は、請
求項1〜請求項4のいずれかに記載の画像処理装置にお
いて、上記評価手段は、上記画像データの各画素を均等
にサンプリングして集計して特徴量を得る評価基準を有
するとともに、上記画像処理手段は、一の画像処理の手
法において実写画像の平均的な特徴量を使用する際に上
記均等にサンプリングして得られた特徴量を使用する構
成としてある。
As a preferred example of a case where image processing is performed without focusing on an object, the invention according to claim 5 is the image processing apparatus according to any one of claims 1 to 4, wherein the evaluation means In addition to having an evaluation criterion for equally sampling each pixel of the image data and summing them up to obtain a feature amount, the image processing means uses an average feature amount of a real image in one image processing method. The configuration is such that the feature amounts obtained by uniformly sampling are used.

【0023】上記のように構成した請求項5にかかる発
明においては、上記画像処理手段が平均的な特徴量に基
づいて画像データを変換する場合に、上記評価手段は同
画像データの各画素を所定の評価基準に従って均等にサ
ンプリングして特徴量を得る。むろん、実写画像を構成
する全画素を対象として集計するようにしてもよいが、
処理量が多くなることから得策ではないと言える。
In the invention according to claim 5 configured as described above, when the image processing means converts the image data based on the average feature amount, the evaluation means converts each pixel of the image data. Sampling is performed evenly according to a predetermined evaluation criterion to obtain a feature amount. Of course, it may be possible to aggregate all the pixels constituting the real image,
It can be said that it is not a good idea because the processing amount increases.

【0024】このようにオブジェクトに着目しないで画
像処理する場合の別の一例として、請求項6にかかる発
明は、請求項1〜請求項5のいずれかに記載の画像処理
装置において、上記評価手段は、上記画像データの各画
素を均等にサンプリングして集計して特徴量を得る評価
基準を有するとともに、上記画像処理手段は、一の画像
処理の手法において実写画像の特徴量分布の端部を使用
する際に上記均等にサンプリングして得られた特徴量を
使用する構成としてある。
As another example of the case where the image processing is performed without focusing on the object, the invention according to claim 6 is the image processing apparatus according to any one of claims 1 to 5, wherein Has an evaluation criterion for evenly sampling and totaling each pixel of the image data to obtain a feature amount, and the image processing means determines an end of the feature amount distribution of the real image in one image processing method. At the time of use, the feature amount obtained by uniformly sampling the above is used.

【0025】上記のように構成した請求項6にかかる発
明においては、上記画像処理手段は、上記評価手段にて
得られた特徴量分布の端部を使用することを前提として
いる。例えば、コントラストを拡大する場合などにおい
ては、輝度分布を求めて当該輝度分布の端部を広げるよ
うに画像処理を施すが、かかる場合においてオブジェク
トについての輝度分布を使用すると、それ以外のハイラ
イト部分が白く抜けてしまうことがある。そこで、この
ような場合、上記評価手段は同画像データの各画素を所
定の評価基準に従って均等にサンプリングして集計して
特徴量を得る。
In the invention according to claim 6 configured as described above, it is assumed that the image processing means uses an end portion of the feature amount distribution obtained by the evaluation means. For example, when the contrast is enlarged, image processing is performed so as to obtain a luminance distribution and widen the end of the luminance distribution. In such a case, when the luminance distribution of the object is used, other highlight parts are used. May appear white. Therefore, in such a case, the evaluation unit obtains a feature amount by uniformly sampling and summing each pixel of the image data according to a predetermined evaluation criterion.

【0026】複数の異なる評価基準により得られた特徴
量に基づいて複数の画像処理を行う手法は、必ずしも実
体のある装置に限られる必要もなく、その一例として、
請求項7にかかる発明は、ドットマトリクス状の画素か
らなる実写画像の画像データを入力し、各画素の画像デ
ータを集計しつつ所定の評価基準で特徴量を得て、当該
特徴量に基づいて画像処理する画像処理方法であって、
複数の評価基準に従って上記特徴量を得て、複数の手法
で上記画像データを変換するにあたり、各手法に応じて
上記評価手段にて得られた特徴量を使い分ける構成とし
てある。
The method of performing a plurality of image processings based on feature amounts obtained by a plurality of different evaluation criteria is not necessarily limited to a physical device.
According to a seventh aspect of the present invention, image data of a photographed image composed of pixels in a dot matrix is input, a feature amount is obtained based on a predetermined evaluation criterion while the image data of each pixel is totaled, and based on the feature amount. An image processing method for performing image processing,
When the feature amount is obtained in accordance with a plurality of evaluation criteria and the image data is converted by a plurality of methods, the feature amount obtained by the evaluation means is selectively used according to each method.

【0027】すなわち、必ずしも実体のある装置に限ら
ず、その方法としても有効であることに相違はない。
That is, there is no difference in that the present invention is not necessarily limited to a substantial device and is also effective as a method.

【0028】ところで、上述したように複数の異なる評
価基準により得られた特徴量に基づいて複数の画像処理
を行う画像処理装置は単独で存在する場合もあるし、あ
る機器に組み込まれた状態で利用されることもなるな
ど、発明の思想としては各種の態様を含むものである。
また、ハードウェアで実現されたり、ソフトウェアで実
現されるなど、適宜、変更可能である。
As described above, an image processing apparatus that performs a plurality of image processes based on feature amounts obtained based on a plurality of different evaluation criteria may exist alone, or may be installed in a certain device. The concept of the invention includes various aspects, for example, it may be used.
Further, it can be appropriately changed, for example, by hardware or software.

【0029】発明の思想の具現化例として画像処理装置
を制御するソフトウェアとなる場合には、かかるソフト
ウェアを記録した記録媒体上においても当然に存在し、
利用されるといわざるをえない。
When the software for controlling the image processing apparatus is realized as an embodiment of the idea of the present invention, the software naturally exists on a recording medium on which such software is recorded.
I have to say that it is used.

【0030】その一例として、請求項8にかかる発明
は、ドットマトリクス状の画素からなる実写画像の画像
データを入力し、各画素の画像データを集計しつつ所定
の評価基準で特徴量を得て、当該特徴量に基づいて画像
処理する画像処理制御プログラムを記録した媒体であっ
て、複数の評価基準に従って上記特徴量を得て、複数の
手法で上記画像データを変換するにあたり、各手法に応
じて上記評価手段にて得られた特徴量を使い分ける構成
としてある。
As an example of the invention, the invention according to claim 8 is to input image data of a real photographed image composed of pixels in a dot matrix form, and obtain a feature amount based on a predetermined evaluation criterion while totalizing the image data of each pixel. A medium on which an image processing control program for performing image processing based on the feature amount is recorded, wherein the feature amount is obtained according to a plurality of evaluation criteria, and the image data is converted by a plurality of methods. Thus, the feature amount obtained by the evaluation means is selectively used.

【0031】むろん、その記録媒体は、磁気記録媒体で
あってもよいし光磁気記録媒体であってもよいし、今後
開発されるいかなる記録媒体においても全く同様に考え
ることができる。また、一次複製品、二次複製品などの
複製段階については全く問う余地無く同等である。その
他、供給方法として通信回線を利用して行う場合でも本
発明が利用されていることには変わりはないし、半導体
チップに書き込まれたようなものであっても同様であ
る。
Of course, the recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium to be developed in the future. Also, the duplication stages of the primary duplicated product, the secondary duplicated product, and the like are equivalent without any question. In addition, the present invention is still used even when a supply method is performed using a communication line, and the same applies to a case where the information is written on a semiconductor chip.

【0032】さらに、一部がソフトウェアであって、一
部がハードウェアで実現されている場合においても発明
の思想において全く異なるものはなく、一部を記録媒体
上に記憶しておいて必要に応じて適宜読み込まれるよう
な形態のものとしてあってもよい。
Further, even when a part is implemented by software and a part is implemented by hardware, there is no difference in the concept of the invention, and it is necessary to store a part on a recording medium. It may be in a form that is appropriately read in accordance with it.

【0033】[0033]

【発明の効果】以上説明したように本発明は、複数の評
価基準に従って特徴量を得て複数の手法で画像処理を行
うにあたり、各手法に応じて使用する特徴量を使い分け
るようにしたため、最適な評価基準に基づいて画像処理
を行うことが可能な画像処理装置を提供することができ
る。
As described above, according to the present invention, when a feature value is obtained in accordance with a plurality of evaluation criteria and image processing is performed by a plurality of methods, the feature value used according to each method is selectively used. It is possible to provide an image processing apparatus capable of performing image processing based on a simple evaluation criterion.

【0034】また、請求項2にかかる発明によれば、明
暗補正など画像データの中心部分の特徴量に基づいて画
像処理を行う場合に好適である。
According to the second aspect of the present invention, it is suitable for performing image processing based on the characteristic amount of the central portion of the image data, such as brightness correction.

【0035】さらに、請求項3にかかる発明によれば、
隣接する画素間での画像データの差分を求めるだけであ
るので、演算が容易であり、オブジェクト判断のための
処理量を低減できる。
Further, according to the third aspect of the present invention,
Since only the difference between the image data between the adjacent pixels is obtained, the calculation is easy and the processing amount for object determination can be reduced.

【0036】さらに、請求項4にかかる発明によれば、
色度でオブジェクトを判断するものの、オブジェクトの
明暗に依存することなく当該オブジェクトを抽出するこ
とができる。
Further, according to the invention of claim 4,
Although the object is determined based on the chromaticity, the object can be extracted without depending on the brightness of the object.

【0037】さらに、請求項5にかかる発明によれば、
彩度補正など実写画像の平均的な特徴量に基づいて画像
処理を行う場合に好適である。
Further, according to the invention of claim 5,
This is suitable for performing image processing based on an average feature amount of a captured image, such as saturation correction.

【0038】さらに、請求項6にかかる発明によれば、
コントラスト拡大補正など実写画像における特徴量分布
の端部を使用して画像処理する場合に好適である。
Further, according to the invention of claim 6,
This is suitable when performing image processing using the end of the feature amount distribution in a real image such as contrast expansion correction.

【0039】さらに、請求項7にかかる発明によれば、
同様にして最適な評価基準に基づいて画像処理を行うこ
とが可能な画像処理方法を提供することができ、請求項
8にかかる発明によれば、画像処理制御プログラムを記
録した媒体を提供することができる。
Further, according to the invention of claim 7,
Similarly, it is possible to provide an image processing method capable of performing image processing based on an optimum evaluation criterion. According to the invention according to claim 8, it is possible to provide a medium in which an image processing control program is recorded. Can be.

【0040】[0040]

【発明の実施の形態】以下、図面にもとづいて本発明の
実施形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0041】図1は、本発明の一実施形態にかかる画像
処理装置を適用した画像処理システムをブロック図によ
り示しており、図2は具体的ハードウェア構成例を概略
ブロック図により示している。
FIG. 1 is a block diagram showing an image processing system to which an image processing apparatus according to an embodiment of the present invention is applied, and FIG. 2 is a schematic block diagram showing an example of a specific hardware configuration.

【0042】図1において、画像入力装置10は写真な
どをドットマトリクス状の画素として表した実写の画像
データを画像処理装置20へ出力し、同画像処理装置2
0は複数の画像処理を行うにあたり、各画像処理に最適
な評価基準に基づいて複数の特徴量を得て、特徴量を使
い分けつつ各画像処理を実行する。同画像処理装置20
は画像処理した画像データを画像出力装置30へ出力
し、画像出力装置は画像処理された画像をドットマトリ
クス状の画素で出力する。
In FIG. 1, an image input device 10 outputs real image data representing a photograph or the like as pixels in a dot matrix to an image processing device 20 and outputs the data to the image processing device 2.
0 performs a plurality of image processes, obtains a plurality of feature amounts based on an evaluation criterion most suitable for each image process, and executes each image process while selectively using the feature amounts. Image processing device 20
Outputs the image-processed image data to the image output device 30, and the image output device outputs the image-processed image by dot matrix pixels.

【0043】画像処理装置20は、予め複数の評価基準
に従って画像データを集計して複数の特徴量を得てお
り、この意味において評価手段を備えているし、画像処
理内容に応じた特徴量を適宜選択して当該特徴量に基づ
いた画像処理を行うことから画像処理手段をも備えてい
ると言える。
The image processing apparatus 20 obtains a plurality of feature amounts by previously compiling image data according to a plurality of evaluation criteria. In this sense, the image processing device 20 includes an evaluation means. Since the image processing is appropriately selected and performed on the basis of the feature amount, it can be said that the image processing device includes an image processing unit.

【0044】画像入力装置10の具体例は図2における
スキャナ11やデジタルスチルカメラ12あるいはビデ
オカメラ14などが該当し、画像処理装置20の具体例
はコンピュータ21とハードディスク22とキーボード
23とCD−ROMドライブ24とフロッピーディスク
ドライブ25とモデム26などからなるコンピュータシ
ステムが該当し、画像出力装置30の具体例はプリンタ
31やディスプレイ32等が該当する。本実施形態の場
合、画像の不具合等を修正すべく当該画像の特徴量を得
て画像処理するため、画像データとしては写真などの実
写データが好適である。なお、モデム26については公
衆通信回線に接続され、外部のネットワークに同公衆通
信回線を介して接続し、ソフトウェアやデータをダウン
ロードして導入可能となっている。
A specific example of the image input device 10 corresponds to the scanner 11, the digital still camera 12, or the video camera 14 in FIG. 2, and a specific example of the image processing device 20 is a computer 21, a hard disk 22, a keyboard 23, a CD-ROM. A computer system including a drive 24, a floppy disk drive 25, a modem 26, and the like corresponds to the computer system. Specific examples of the image output device 30 correspond to a printer 31, a display 32, and the like. In the case of the present embodiment, real image data such as a photograph is preferable as the image data because the feature amount of the image is obtained and image processing is performed to correct a defect or the like of the image. The modem 26 is connected to a public communication line, is connected to an external network via the public communication line, and can download and install software and data.

【0045】本実施形態においては、画像入力装置10
としてのスキャナ11やデジタルスチルカメラ12が画
像データとしてRGB(緑、青、赤)の階調データを出
力するとともに、画像出力装置30としてのプリンタ3
1は階調データとしてCMY(シアン、マゼンダ、イエ
ロー)あるいはこれに黒を加えたCMYKの二値データ
を入力として必要とするし、ディスプレイ32はRGB
の階調データを入力として必要とする。
In this embodiment, the image input device 10
The scanner 11 and the digital still camera 12 output RGB (green, blue, red) gradation data as image data, and the printer 3 as the image output device 30.
1 requires CMY (cyan, magenta, yellow) or CMYK binary data obtained by adding black to the input as gradation data, and the display 32 has RGB data.
Is required as an input.

【0046】一方、コンピュータ21内ではオペレーテ
ィングシステム21aが稼働しており、プリンタ31や
ディスプレイ32に対応したプリンタドライバ21bや
ディスプレイドライバ21cが組み込まれている。ま
た、画像処理アプリケーション21dはオペレーティン
グシステム21aにて処理の実行を制御され、必要に応
じてプリンタドライバ21bやディスプレイドライバ2
1cと連携して所定の画像処理を実行する。従って、画
像処理装置20としてのこのコンピュータ21の具体的
役割は、RGBの階調データを入力して最適な画像処理
を施したRGBの階調データを作成し、ディスプレイド
ライバ21cを介してディスプレイ32に表示させると
ともに、プリンタドライバ21bを介してCMY(ある
いはCMYK)の二値データに変換してプリンタ31に
印刷させることになる。
On the other hand, an operating system 21a is running in the computer 21, and a printer driver 21b and a display driver 21c corresponding to the printer 31 and the display 32 are incorporated. The image processing application 21d is controlled in its execution by the operating system 21a, and the printer driver 21b and the display driver 2
A predetermined image processing is executed in cooperation with 1c. Therefore, the specific role of the computer 21 as the image processing apparatus 20 is to input RGB gradation data, create RGB gradation data subjected to optimal image processing, and display the RGB data through the display driver 21c. , And converted into CMY (or CMYK) binary data via the printer driver 21b and printed by the printer 31.

【0047】このように、本実施形態においては、画像
の入出力装置の間にコンピュータシステムを組み込んで
画像処理を行うようにしているが、必ずしもかかるコン
ピュータシステムを必要とするわけではなく、画像デー
タに対して各種の画像処理を行うシステムに適用可能で
ある。例えば、図3に示すようにデジタルスチルカメラ
12a内に画像処理する画像処理装置を組み込み、変換
した画像データを用いてディスプレイ32aに表示させ
たりプリンタ31aに印字させるようなシステムであっ
ても良い。また、図4に示すように、コンピュータシス
テムを介することなく画像データを入力して印刷するプ
リンタ31bにおいては、スキャナ11bやデジタルス
チルカメラ12bあるいはモデム26b等を介して入力
される画像データに対して画像処理するように構成する
ことも可能である。
As described above, in this embodiment, a computer system is incorporated between image input / output devices to perform image processing. However, such a computer system is not necessarily required, and image data is not necessarily required. Can be applied to a system that performs various types of image processing. For example, as shown in FIG. 3, a system may be used in which an image processing device for performing image processing is incorporated in the digital still camera 12a, and the converted image data is used to display on the display 32a or print on the printer 31a. Further, as shown in FIG. 4, in a printer 31b that inputs and prints image data without passing through a computer system, the image data input through a scanner 11b, a digital still camera 12b, a modem 26b, or the like is used. It is also possible to configure so as to perform image processing.

【0048】上述した画像の特徴量の取得とそれに伴う
画像処理は、具体的には上記コンピュータ21内にて図
5などに示すフローチャートに対応した画像処理プログ
ラムで行っている。同図に示すフローチャートは画像処
理プログラムにおける前段部分に該当し、画像データを
複数の評価基準で集計する処理を実行する。
The above-described acquisition of the image feature amount and the associated image processing are performed by the image processing program corresponding to the flowchart shown in FIG. The flowchart shown in the figure corresponds to the former part of the image processing program, and executes a process of totalizing image data based on a plurality of evaluation criteria.

【0049】ここで本実施形態において採用する二つの
評価基準について説明する。共通するのはいずれも全画
素を対象とするのではなく、所定の基準に従って画素を
サンプリングするとともに、サンプリングした画素につ
いて輝度を集計する点である。また、相違するのは、一
方が均等に画素をサンプリングするのに対し、他方がエ
ッジ画素を選択してサンプリングする点である。輝度の
集計結果については後述するが、このようにしていわゆ
るサンプリング手法を変えることにより、異なった評価
基準に従って複数の特徴量を得ることができる。均等に
画素をサンプリングするというのは画像全体の画素につ
いて輝度を集計することに他ならず、画像全体としての
画像データの輝度の分布を求めることになるから、風景
写真が全体的に暗いとかコントラストが狭いといった評
価の参考となる特徴量が得られることになる。
Here, two evaluation criteria used in this embodiment will be described. What is common is that not all pixels are targeted, but pixels are sampled according to a predetermined criterion, and the luminance of the sampled pixels is totaled. The difference is that one samples the pixels uniformly while the other samples the edge pixels. As will be described later, the result of summation of the luminances can be obtained by changing the so-called sampling method in this way to obtain a plurality of feature amounts according to different evaluation criteria. Equally sampling pixels is equivalent to summing up the brightness of the pixels of the entire image, and also finding the distribution of the brightness of the image data as a whole image. Thus, a feature amount that can be used as a reference for evaluation such as narrowness is obtained.

【0050】一方、エッジ画素は画像のシャープな部分
であるから、画像の中でも本来の被写体に関わる画素に
ついて輝度を集計することになり、たとえ背景が暗くて
も被写体が十分な明るさを持っていれば画像の明るさは
十分であるといった評価の参考となる特徴量が得られる
ことになる。本実施形態においては、これらの特徴量を
画像処理手法に応じて自動的に選択するようにしてい
る。
On the other hand, since the edge pixels are sharp portions of the image, the luminance of the pixels related to the original subject in the image is totaled. Even if the background is dark, the subject has sufficient brightness. Then, a feature amount serving as a reference for evaluation that the brightness of the image is sufficient can be obtained. In the present embodiment, these feature amounts are automatically selected according to the image processing method.

【0051】図5に示すフローチャートを参照すると、
この集計処理では、図6に示すようにドットマトリクス
状の画素からなる画像データについて対象画素を水平方
向に主走査しつつ垂直方向に副走査して移動させ、各画
素についてサンプリング対象であるか否かを判断して集
計している。
Referring to the flowchart shown in FIG.
In this totaling process, as shown in FIG. 6, the target pixel is moved in the vertical direction by sub-scanning while moving the target pixel horizontally in the image data composed of the pixels in the dot matrix, and whether each pixel is a sampling target is determined. It is counted by judging.

【0052】画像データがドットマトリクス状の画素か
ら構成されている場合には、各画素ごとに上述したRG
Bの輝度を表す階調データで表されており、画像のエッ
ジ部分では隣接する画素間での同データの差分は大きく
なる。この差分は輝度勾配であり、これをエッジ度と呼
ぶことにし、ステップS110では各画素でのエッジ度
を判定する。
If the image data is composed of dot matrix pixels, the above-described RG
It is represented by gradation data representing the luminance of B, and the difference of the same data between adjacent pixels becomes large in the edge portion of the image. This difference is a luminance gradient, which is called an edge degree. In step S110, the edge degree at each pixel is determined.

【0053】図7に示すようなXY直交座標を考察する
場合、画像の変化度合いのベクトルはX軸方向成分とY
軸方向成分とをそれぞれ求めれば演算可能となる。ドッ
トマトリクス状の画素からなるディジタル画像において
は、図8に示すように縦軸方向と横軸方向に画素が隣接
しており、その明るさをf(x,y)で表すものとす
る。この場合、f(x,y)はRGBの各輝度であるR
(x,y),G(x,y),B(x,y)であったり、
あるいは全体の輝度Y(x,y)であってもよい、な
お、RGBの各輝度であるR(x,y),G(x,
y),B(x,y)と全体の輝度Y(x,y)との関係
は、厳密には色変換テーブルなどを参照しなければ変換
不能であるが、後述するようにして簡易な対応関係を利
用するようにしても良い。
When considering the XY orthogonal coordinates as shown in FIG. 7, the vector of the degree of change of the image is the X-axis direction component and the Y-axis component.
The calculation can be performed by obtaining the axial components. In a digital image including pixels in a dot matrix, pixels are adjacent to each other in the vertical and horizontal directions as shown in FIG. 8, and the brightness is represented by f (x, y). In this case, f (x, y) is R, which is each luminance of RGB.
(X, y), G (x, y), B (x, y),
Alternatively, the luminance may be the whole luminance Y (x, y). Note that R (x, y), G (x,
The relationship between y), B (x, y) and the overall luminance Y (x, y) cannot be converted unless strictly referring to a color conversion table or the like. The relationship may be used.

【0054】図8に示すものにおいて、X方向の差分値
fxとY方向の差分値fyは、
In FIG. 8, the difference value fx in the X direction and the difference value fy in the Y direction are

【0055】[0055]

【数1】 (Equation 1)

【0056】のように表される。従って、これらを成分
とするベクトルの大きさ|g(x,y)|は、
Is represented as follows. Therefore, the magnitude | g (x, y) |

【0057】[0057]

【数2】 (Equation 2)

【0058】のように表される。むろん、エッジ度はこ
の|g(x,y)|で表される。なお、本来、画素は図
9に示すように縦横に升目状に配置されており、中央の
画素に注目すると八つの隣接画素がある。従って、同様
にそれぞれの隣接する画素との画像データの差分をベク
トルで表し、このベクトルの和を画像の変化度合いと判
断しても良い。
Is represented as follows. Of course, the edge degree is represented by | g (x, y) |. Note that, as shown in FIG. 9, the pixels are originally arranged in a grid in the vertical and horizontal directions, and there are eight adjacent pixels when focusing on the central pixel. Therefore, similarly, the difference between the image data and each adjacent pixel may be represented by a vector, and the sum of the vectors may be determined as the degree of change of the image.

【0059】以上のようにして各画素についてエッジ度
が求められるので、あるしきい値と比較してエッジ度の
方が大きい画素はエッジ画素と判断すればよい。なお、
経験的事実から考察すると、フォーカスが集中する被写
体は構図の中央部分に位置することが多い。従って、中
央部分から多くの画素が抽出されるような仕組みとする
ことにより、画像処理の判断に利用したときにより好ま
しい効果を得られる。
Since the edge degree is obtained for each pixel as described above, a pixel having a larger edge degree than a certain threshold value may be determined as an edge pixel. In addition,
Considering empirical facts, a subject with a high focus is often located at the center of the composition. Therefore, by adopting a structure in which a large number of pixels are extracted from the central portion, a more favorable effect can be obtained when used for determination of image processing.

【0060】このため、図10に示すように、画像の中
の部分毎に比較するしきい値Th1,Th2,Th3を
異ならせておくようにしてもよい。むろん、この例で
は、
For this reason, as shown in FIG. 10, the threshold values Th1, Th2, and Th3 to be compared for each portion in the image may be different. Of course, in this example,

【0061】[0061]

【数3】 (Equation 3)

【0062】なる関係があり、中央に近い部分ほどしき
い値は低く、エッジ度が比較的低くてもフォーカスが集
中していると判断されるようになる。
The threshold value is lower in the portion closer to the center, and it is determined that the focus is concentrated even if the edge degree is relatively low.

【0063】ステップS120ではエッジ度と同しきい
値とを比較して変化度合いが大きいか否かを判断する。
比較の結果、エッジ度の方が大きければこの画素はエッ
ジ画素であると判断し、ステップS130にてその画素
の画像データをサンプリングしてワークエリアに保存す
る。ワークエリアはコンピュータ21内のRAMであっ
てもよいしハードディスク22であってもよい。
In step S120, it is determined whether or not the degree of change is large by comparing the edge degree with the same threshold value.
As a result of the comparison, if the degree of edge is larger, the pixel is determined to be an edge pixel, and in step S130, the image data of the pixel is sampled and stored in the work area. The work area may be the RAM in the computer 21 or the hard disk 22.

【0064】本実施形態においては、エッジ度に基づい
てオブジェクトを抽出する構成としているが、むろん、
オブジェクトの抽出方法はこれに限られない。例えば、
各画素の色度を求め、当該色度が所定範囲内にある画素
をオブジェクトとして抽出することも可能である。
In the present embodiment, an object is extracted based on the degree of edge.
The object extraction method is not limited to this. For example,
It is also possible to obtain the chromaticity of each pixel and extract the pixels whose chromaticity is within a predetermined range as an object.

【0065】すなわち、ステップS110およびステッ
プS120の処理を、それぞれステップS115および
ステップS125の処理に置換し、まず、ステップS1
15にて各画素についての色度を計算する。いま、対象
画素のRGB表色系におけるRGB階調データが(R,
G,B)であるとするときに、
That is, the processing of steps S110 and S120 is replaced with the processing of steps S115 and S125, respectively.
At 15, the chromaticity of each pixel is calculated. Now, the RGB gradation data of the target pixel in the RGB color system is (R,
G, B)

【0066】[0066]

【数4】 (Equation 4)

【0067】とおくとすると、XYZ表色系における色
度座標x,yとの間には、
In other words, between the chromaticity coordinates x and y in the XYZ color system,

【0068】[0068]

【数5】 (Equation 5)

【0069】なる対応関係が成立する。ここにおいて、
色度は明るさに左右されることなく色の刺激値の絶対的
な割合を表すものであるから、色度からその画素がどの
ような対象物かを判断することができるといえる。例え
ば、肌色を例に取ると、
The following relationship is established. put it here,
Since the chromaticity represents the absolute ratio of the stimulus value of the color without being affected by the brightness, it can be said that it is possible to determine what kind of object the pixel is based on the chromaticity. For example, taking skin color as an example,

【0070】[0070]

【数6】 (Equation 6)

【0071】というような範囲に含まれているから、各
画素の色度を求めたときにこの範囲内であればその画素
は人間の肌を示す画素と考えてもあながち誤っていない
と言える。
Since the chromaticity of each pixel is determined when the chromaticity of the pixel is within this range, it can be said that the pixel is not mistaken even if it is considered to be a pixel indicating human skin.

【0072】従って、ステップS125では、各画素の
RGB階調データに基づいて変換されたx−y色度が肌
色の範囲であるか否かを判断し、肌色であるならばステ
ップS130にてその画素の画像データをサンプリング
して同様にワークエリアに保存する。
Therefore, in step S125, it is determined whether or not the xy chromaticity converted based on the RGB gradation data of each pixel is within the range of the flesh color. The image data of the pixel is sampled and stored in the work area in the same manner.

【0073】一方、上記のようなエッジ度の判定と並行
してステップS140では当該対象画素が均等サンプリ
ングの対象画素であるか否かを判断する。均等にサンプ
リングするといっても、ある誤差の範囲内となる程度に
サンプリングする必要がある。統計的誤差によれば、サ
ンプル数Nに対する誤差は概ね1/(N**(1/2))
と表せる。ただし、**は累乗を表している。従って、1
%程度の誤差で処理を行うためにはN=10000とな
る。
On the other hand, in step S140, it is determined whether or not the target pixel is a target pixel for uniform sampling in parallel with the above-described edge degree determination. Even if sampling is performed uniformly, it is necessary to perform sampling to such an extent that it is within a certain error range. According to the statistical error, the error with respect to the number of samples N is approximately 1 / (N ** (1/2))
Can be expressed as Here, ** indicates a power. Therefore, 1
In order to perform processing with an error of about%, N = 10000.

【0074】ここにおいて、図6に示すビットマップ画
面は(width)×(height)の画素数とな
り、サンプリング周期ratioは、
Here, the bit map screen shown in FIG. 6 has the number of pixels of (width) × (height), and the sampling period ratio is

【0075】[0075]

【数7】 (Equation 7)

【0076】とする。ここにおいて、min(widt
h,height)はwidthとheightのいず
れか小さい方であり、Aは定数とする。また、ここでい
うサンプリング周期ratioは何画素ごとにサンプリ
ングするかを表しており、図11の○印の画素はサンプ
リング周期ratio=2の場合を示している。すなわ
ち、縦方向及び横方向に二画素ごとに一画素のサンプリ
ングであり、一画素おきにサンプリングしている。A=
200としたときの1ライン中のサンプリング画素数は
図12に示すようになる。
It is assumed that Here, min (widt
h, height) is the smaller of width and height, and A is a constant. Also, the sampling period ratio here indicates how many pixels are sampled, and the pixels marked with a circle in FIG. 11 show the case where the sampling period ratio = 2. In other words, one pixel is sampled every two pixels in the vertical direction and the horizontal direction, and sampling is performed every other pixel. A =
The number of sampling pixels in one line when the number is set to 200 is as shown in FIG.

【0077】同図から明らかなように、サンプリングし
ないことになるサンプリング周期ratio=1の場合
を除いて、200画素以上の幅があるときには最低でも
サンプル数は100画素以上となることが分かる。従っ
て、縦方向と横方向について200画素以上の場合には
(100画素)×(100画素)=(10000画素)
が確保され、誤差を1%以下にできる。
As can be seen from the figure, except for the case where the sampling period ratio = 1 where sampling is not performed, when the width is 200 pixels or more, the number of samples is at least 100 pixels or more. Therefore, when the number of pixels is 200 or more in the vertical and horizontal directions, (100 pixels) × (100 pixels) = (10000 pixels)
Is ensured, and the error can be reduced to 1% or less.

【0078】ここにおいてmin(width,hei
ght)を基準としているのは次のような理由による。
例えば、図13(a)に示すビットマップ画像のよう
に、width>>heightであるとすると、長い
方のwidthでサンプリング周期ratioを決めて
しまった場合には、同図(b)に示すように、縦方向に
は上端と下端の2ラインしか画素を抽出されないといっ
たことが起こりかねない。しかしながら、min(wi
dth,height)として、小さい方に基づいてサ
ンプリング周期ratioを決めるようにすれば同図
(c)に示すように少ない方の縦方向においても中間部
を含むような間引きを行うことができるようになる。す
なわち、所定の抽出数を確保したサンプリングが可能と
なる。
Here, min (width, hei)
(ght) is based on the following reason.
For example, assuming that width >> height as in the bitmap image shown in FIG. 13A, when the sampling period ratio is determined by the longer width, as shown in FIG. 13B. In addition, it may happen that only two lines, the upper and lower lines, are extracted in the vertical direction. However, min (wi
(dth, height), if the sampling period ratio is determined based on the smaller one, it is possible to perform the thinning including the intermediate part even in the smaller vertical direction as shown in FIG. Become. That is, it is possible to perform sampling while securing a predetermined number of extractions.

【0079】ステップS140では、このような均等な
サンプリング手法を採用しつつ、当該対象画素がそのサ
ンプリング対象となっているか否かを判断し、対象であ
ればステップS150にて画像データをサンプリングす
る。
In step S140, while employing such a uniform sampling method, it is determined whether or not the target pixel is to be sampled. If so, the image data is sampled in step S150.

【0080】ステップS130,S150で画像データ
をサンプリングするというのは、同画像データに基づい
て輝度を集計することを意味する。上述したように、本
実施形態においてはコンピュータ21が扱うのはRGB
の階調データであり、直接には輝度の値を持っていな
い。輝度を求めるためにLuv表色空間に色変換するこ
とも可能であるが、演算量などの問題から得策ではな
い。このため、テレビジョンなどの場合に利用されてい
るRGBから輝度を直に求める次式の変換式を利用す
る。
Sampling the image data in steps S130 and S150 means that the luminance is totalized based on the image data. As described above, in this embodiment, the computer 21 handles RGB
And does not directly have a luminance value. Although it is possible to perform color conversion to the Luv color space in order to obtain the luminance, this is not advisable due to problems such as the amount of calculation. For this reason, the following conversion formula for directly obtaining luminance from RGB used in the case of a television or the like is used.

【0081】[0081]

【数8】 (Equation 8)

【0082】輝度はヒストグラムとして集計する。むろ
ん、ステップS130の集計エリアとステップS150
の集計エリアは別個である。
The luminance is tabulated as a histogram. Of course, the counting area of step S130 and step S150
Are separate areas.

【0083】以上のような処理を画像データの各画素に
ついて行うため、ステップS160にて処理の対象画素
を移動させ、ステップS170にて全画素について終了
したと判断されるまで処理を繰り返す。
In order to perform the above processing for each pixel of the image data, the pixel to be processed is moved in step S160, and the processing is repeated until it is determined in step S170 that all the pixels have been completed.

【0084】この後、画像処理方法に応じて均等サンプ
リングによる集計結果Dist_aveと、エッジ画素
サンプリングによる集計結果Dist_edgとを使い
分けて特徴量を取得し、当該特徴量に基づいて最適な画
像処理を実行する。図14は、その一例としてコントラ
ストの拡大と明度の補正の画像処理を実行するためのフ
ローチャートを示している。
After that, according to the image processing method, the total amount Dist_ave obtained by the uniform sampling and the total result Dist_edg obtained by the edge pixel sampling are selectively used to acquire the characteristic amount, and the optimum image processing is executed based on the characteristic amount. . FIG. 14 shows a flowchart for executing image processing for enlargement of contrast and correction of brightness as an example.

【0085】本実施形態でのコントラストを拡大するた
めの基本的な手法は、画像データに基づいて輝度分布を
求め、この輝度分布が本来の階調幅(255階調)の一
部分しか利用していないのであれば分布を拡大するとい
うものである。
In the basic method for increasing the contrast in the present embodiment, a luminance distribution is obtained based on image data, and this luminance distribution uses only a part of the original gradation width (255 gradations). If so, the distribution is expanded.

【0086】上述したように、ある人物像の実写画像を
考えた場合、必ずしも人物がハイライト部分であるとは
限らないため、同人物の輝度分布を拡大してしまうと他
のハイライト部分が白くぬけてしまうことになりかねな
い。従って、ステップS310では均等サンプリングに
よる集計結果Dist_aveとしての輝度分布のヒス
トグラムを作成し、ステップS320では拡大する幅を
決定する。拡大幅を決定するにあたり、輝度分布の両端
を求めることを考える。写真画像の輝度分布は図15に
示すように概ね山形に表れる。むろん、その位置、形状
についてはさまざまである。輝度分布の幅はこの両端を
どこに決めるかによって決定されるが、単に裾野が延び
て分布数が「0」となる点を両端とすることはできな
い。裾野部分では分布数が「0」付近で変移する場合が
あるし、統計的に見れば限りなく「0」に近づきながら
推移していくからである。
As described above, when a real image of a certain person image is considered, a person is not always a highlight portion. Therefore, if the luminance distribution of the same person is enlarged, another highlight portion will not be highlighted. It could end up white. Therefore, in step S310, a histogram of the luminance distribution is created as the aggregation result Dist_ave by the uniform sampling, and in step S320, the width to be enlarged is determined. In determining the enlargement width, consider obtaining both ends of the luminance distribution. As shown in FIG. 15, the luminance distribution of the photographic image appears substantially in a mountain shape. Of course, the position and shape are various. The width of the luminance distribution is determined depending on where the both ends are determined. However, the point where the number of distributions becomes “0” by extending the base cannot be set as the both ends. This is because the number of distributions may change around “0” in the tail part, and the number of distributions changes while approaching “0” without limit statistically.

【0087】このため、分布範囲において最も輝度の大
きい側と小さい側からある分布割合だけ内側に経た部分
を分布の両端とする。本実施形態においては、同図に示
すように、この分布割合を0.5%に設定している。む
ろん、この割合については、適宜、変更することが可能
である。このように、ある分布割合だけ上端と下端をカ
ットすることにより、ノイズなどに起因して生じている
白点や黒点を無視することもできる。すなわち、このよ
うな処理をしなければ一点でも白点や黒点があればそれ
が輝度分布の両端となってしまうので、255階調の輝
度値であれば、多くの場合において最下端は階調「0」
であるし、最上端は階調「255」となってしまうが、
上端部分から0.5%の画素数だけ内側に入った部分を
端部とすることにより、このようなことが無くなる。
For this reason, a portion which is located inside the distribution range by a certain distribution ratio from the side where the luminance is the largest and the side where the luminance is the smallest is set as both ends of the distribution. In the present embodiment, as shown in the figure, the distribution ratio is set to 0.5%. Of course, this ratio can be changed as appropriate. In this manner, by cutting the upper and lower ends by a certain distribution ratio, white points and black points caused by noise or the like can be ignored. That is, if such processing is not performed, even if there is even one point, a white point or a black point will be at both ends of the luminance distribution. "0"
And the uppermost end is the gradation “255”,
Such a problem is eliminated by setting a portion which is 0.5% of the number of pixels inside from the upper end portion as an end portion.

【0088】実際の処理ではサンプリングした画素数に
対する0.5%を演算し、再現可能な輝度分布における
上端の輝度値及び下端の輝度値から順番に内側に向かい
ながらそれぞれの分布数を累積し、0.5%の値となっ
た輝度値をこの場合の特徴量として求める。以後、この
上端側をymaxと呼び、下端側をyminと呼ぶ。
In the actual processing, 0.5% of the number of sampled pixels is calculated, and the number of distributions is accumulated while going inward from the luminance value at the upper end and the luminance value at the lower end in the reproducible luminance distribution. The luminance value having a value of 0.5% is obtained as a feature amount in this case. Hereinafter, this upper end is called ymax, and the lower end is called ymin.

【0089】再現可能な輝度の範囲を「0」〜「25
5」としたときに、変換前の輝度yと輝度の分布範囲の
最大値ymaxと最小値yminから変換先の輝度Yを次式に
基づいて求める。
The reproducible luminance range is from “0” to “25”.
When “5” is set, the luminance Y to be converted is obtained from the luminance y before the conversion and the maximum value ymax and the minimum value ymin of the luminance distribution range based on the following equation.

【0090】[0090]

【数9】 (Equation 9)

【0091】ただしHowever,

【0092】[0092]

【数10】 (Equation 10)

【0093】また、上記変換式にてY<0ならばY=0
とし、Y>255ならばY=255とする。ここにおけ
る、aは傾きであり、bはオフセットといえる。この変
換式によれば、図16に示すように、あるせまい幅を持
った輝度分布を再現可能な範囲まで広げることができ
る。ただし、再現可能な範囲を最大限に利用して輝度分
布の拡大を図った場合、ハイライト部分が白く抜けてし
まったり、ハイシャドウ部分が黒くつぶれてしまうこと
が起こる。これを防止するため本実施形態においては、
再現可能な範囲を制限している。すなわち、再現可能な
範囲の上端と下端に拡大しない範囲として輝度値で
「5」だけ残している。この結果、変換式のパラメータ
は次式のようになる。
If Y <0 in the above conversion formula, Y = 0.
If Y> 255, Y = 255. Here, “a” is a slope, and “b” is an offset. According to this conversion formula, as shown in FIG. 16, a luminance distribution having a certain narrow width can be expanded to a reproducible range. However, when the luminance distribution is expanded by making the most of the reproducible range, a highlight portion may be lost in white, or a high shadow portion may be lost in black. In order to prevent this, in this embodiment,
Reproducible range is limited. That is, the luminance value “5” is left as a range that does not expand to the upper and lower ends of the reproducible range. As a result, the parameters of the conversion equation are as follows.

【0094】[0094]

【数11】 [Equation 11]

【0095】そして、この場合にはy<yminと、y>
ymaxの範囲においては変換を行わないようにする。
In this case, y <ymin and y>
No conversion is performed in the range of ymax.

【0096】ただし、このままの拡大率(aに対応)を
適用してしまうと、非常に大きな拡大率が得られる場合
も生じてしまう。例えば、夕方のような薄暮の状態では
最も明るい部分から暗い部分までのコントラストの幅が
狭くて当然であるのに、この画像についてコントラスト
を大きく拡大しようとする結果、昼間の画像のように変
換されてしまいかねない。このような変換は希望されな
いので、拡大率には制限を設けておき、aが1.5(〜
2)以上とはならないように制限する。これにより、薄
暮は薄暮なりに表現されるようになる。なお、この場合
は輝度分布の中心位置がなるべく変化しないような処理
を行っておく。
However, if the enlargement ratio (corresponding to a) is applied as it is, a very large enlargement ratio may be obtained. For example, in a twilight state such as in the evening, the width of the contrast from the brightest part to the dark part is naturally narrow, but as a result of trying to greatly increase the contrast of this image, it is converted like a daytime image. I could end up. Since such conversion is not desired, a limit is set for the enlargement ratio, and a is set to 1.5 (to
2) Restrict it so that it does not exceed the above. Thereby, twilight comes to be expressed as twilight. In this case, processing is performed so that the center position of the luminance distribution does not change as much as possible.

【0097】ところで、輝度の変換時に、毎回、上記変
換式(Y=ay+b)を実行するのは非合理的である。
というのは、輝度yの取りうる範囲が「0」〜「25
5」でしかあり得ないため、予め輝度yが取りうる全て
の値に対応して変換後の輝度Yを求めておくことも可能
である。従って、図17に示すようなテーブルとして記
憶しておく。
By the way, it is irrational to execute the above conversion formula (Y = ay + b) every time the luminance is converted.
That is, the possible range of the luminance y is “0” to “25”.
Since it can be only 5 ", the converted luminance Y can be obtained in advance for all possible values of the luminance y. Therefore, it is stored as a table as shown in FIG.

【0098】このような変換テーブルを形成することが
ステップS320の拡大幅決定処理に該当し、画像デー
タを変更することが可能になる。しかし、このような輝
度の範囲の拡大によってコントラストを強調するだけで
なく、合わせて明るさを調整することも極めて有効であ
るため、ステップS330にて画像の明るさを判断し、
補正のためのパラメータを生成する。
Forming such a conversion table corresponds to the enlargement width determination processing in step S320, and it is possible to change the image data. However, since it is extremely effective not only to enhance the contrast by expanding the range of brightness but also to adjust the brightness together, the brightness of the image is determined in step S330.
Generate parameters for correction.

【0099】例えば、図18にて実線で示すように輝度
分布の山が全体的に暗い側に寄っている場合には波線で
示すように全体的に明るい側に山を移動させると良い
し、逆に、図19にて実線で示すように輝度分布の山が
全体的に明るい側に寄っている場合には波線で示すよう
に全体的に暗い側に山を移動させると良い。
For example, in the case where the peaks of the luminance distribution are entirely on the dark side as shown by the solid line in FIG. 18, it is preferable to move the peaks to the overall bright side as shown by the broken line. Conversely, when the peaks of the luminance distribution are generally shifted toward the bright side as shown by the solid line in FIG. 19, the peaks may be moved to the dark side as a whole as indicated by the wavy line.

【0100】ところで、オブジェクトが明るいか暗いか
を判定するための特徴量は、エッジ画素サンプリングの
集計結果Dist_edgから求める方が好ましいこと
は容易にわかる。そこで、エッジ画素サンプリングの集
計結果Dist_edgとしての輝度分布のヒストグラ
ムをステップS310にて作成しておく。
By the way, it can be easily understood that the characteristic amount for determining whether the object is bright or dark is preferably obtained from the aggregation result Dist_edg of the edge pixel sampling. Therefore, a histogram of the luminance distribution as a total result Dist_edg of the edge pixel sampling is created in step S310.

【0101】各種の実験を行った結果、本実施形態にお
いては、Dist_edgとしての輝度分布におけるメ
ジアンymedを特徴量として求め、同メジアンyme
dが「85」未満である場合に暗い画像と判断して以下
のγ値に対応するγ補正で明るくする。
As a result of conducting various experiments, in this embodiment, the median ymed in the luminance distribution as Dist_edg is obtained as a feature value, and the median ymed is obtained.
When d is less than “85”, the image is determined to be a dark image, and is brightened by γ correction corresponding to the following γ value.

【0102】[0102]

【数12】 (Equation 12)

【0103】あるいは、Alternatively,

【0104】[0104]

【数13】 (Equation 13)

【0105】とする。It is assumed that

【0106】この場合、γ<0.7となっても、γ=
0.7とする。このような限界を設けておかないと夜の
画像が昼間のようになってしまうからである。なお、明
るくしすぎると全体的に白っぽい画像になってコントラ
ストが弱い画像になりやすいため、彩度を合わせて強調
するなどの処理が好適である。
In this case, even if γ <0.7, γ =
0.7. Unless such a limit is set, a night image looks like daytime. If the image is made too bright, the image becomes whitish as a whole and the image tends to have a low contrast. Therefore, a process such as emphasizing with saturation is preferable.

【0107】一方、メジアンymedが「128」より
大きい場合に明るい画像と判断して以下のγ値に対応す
るγ補正で暗くする。
On the other hand, when the median ymed is larger than “128”, the image is determined to be a bright image and darkened by γ correction corresponding to the following γ value.

【0108】[0108]

【数14】 [Equation 14]

【0109】あるいは、Alternatively,

【0110】[0110]

【数15】 (Equation 15)

【0111】とする。この場合、γ>1.3となって
も、γ=1.3として暗くなり過ぎないように限界を設
けておく。
It is assumed that In this case, even if γ> 1.3, a limit is set to γ = 1.3 so as not to be too dark.

【0112】なお、このγ補正は変換前の輝度分布に対
して行っても良いし、変換後の輝度分布に対して行って
も良い。γ補正をした場合における対応関係を図20に
示しており、γ<1であれば上方に膨らむカーブとな
り、γ>1であれば下方に膨らむカーブとなる。むろ
ん、かかるγ補正の結果も図17に示すテーブル内に反
映させておけばよく、テーブルデータに対して同補正を
行っておく。
Note that this γ correction may be performed on the luminance distribution before conversion or on the luminance distribution after conversion. FIG. 20 shows a correspondence relationship in the case where γ correction is performed. If γ <1, the curve expands upward, and if γ> 1, the curve expands downward. Needless to say, the result of the γ correction may be reflected in the table shown in FIG. 17, and the correction is performed on the table data.

【0113】最後に、ステップS340にてコントラス
ト補正と明度補正が必要であるか否かを判断する。この
判断は上述した拡大率(a)とγ値について適当なしき
い値と比較し、拡大率の方が大きかったりγ値が所定範
囲を超えていたら必要性有りと判断する。そして、必要
性有りと判断されれば画像データの変換を行う。
Finally, in step S340, it is determined whether contrast correction and brightness correction are necessary. In this determination, the enlargement ratio (a) and the γ value are compared with appropriate thresholds, and if the enlargement ratio is larger or the γ value exceeds a predetermined range, it is determined that the necessity exists. If it is determined that there is a need, the image data is converted.

【0114】画像処理が必要であると判断された場合、
(13)式に基づく変換を行うが、同式の変換式は、R
GBの成分値との対応関係においても当てはめることが
でき、変換前の成分値(R0,G0,B0)に対して変換
後の成分値(R,G,B)は、
When it is determined that image processing is necessary,
The conversion based on the equation (13) is performed.
This can also be applied to the correspondence relationship with the component values of GB, and the component values (R, G, B) after conversion with respect to the component values (R0, G0, B0) before conversion are

【0115】[0115]

【数16】 (Equation 16)

【0116】として求めることもできる。ここで、輝度
y,Yが階調「0」〜階調「255」であるのに対応し
てRGBの各成分値(R0,G0,B0),(R,G,B )
も同じ範囲となっており、上述した輝度y,Yの変換テ
ーブルをそのまま利用すればよいといえる。
Can be obtained as Here, the RGB component values (R0, G0, B0), (R, G, B) corresponding to the luminances y, Y of the gradation "0" to the gradation "255".
Are in the same range, and it can be said that the conversion table of the luminances y and Y described above may be used as it is.

【0117】従って、ステップS350では全画素の画
像データ(R0,G0,B0)について(22)〜(2
4)式に対応する変換テーブルを参照し、変換後の画像
データ(R,G,B)を得るという処理を繰り返すことに
なる。
Therefore, in step S350, the image data (R0, G0, B0) of all the pixels are (22) to (2).
The processing of obtaining the converted image data (R, G, B) with reference to the conversion table corresponding to the expression 4) is repeated.

【0118】ところで、この場合は輝度の集計結果を使
い分けて輝度分布の両端やメジアンからなる特徴量を得
て、当該特徴量を使用してコントラスト補正と明度補正
を行うようにしているが、画像処理の具体例はこれに限
られるものではなく、使用する特徴量も様々である。
By the way, in this case, a feature amount consisting of both ends and a median of the brightness distribution is obtained by properly using the result of summation of brightness, and contrast correction and lightness correction are performed using the feature amount. The specific example of the processing is not limited to this, and various feature amounts are used.

【0119】図21は彩度強調のための画像処理を実行
する場合のフローチャートを示している。
FIG. 21 is a flowchart showing a case in which image processing for enhancing saturation is executed.

【0120】まず、画素データがその成分要素として彩
度を持っていればその彩度の値を用いて分布を求めるこ
とが可能であるが、RGBの成分値しか持っていないた
め、本来的には彩度値が直接の成分値となっている表色
空間への変換を行なわなければ彩度値を得ることができ
ない。例えば、標準表色系としてのLuv空間において
は、L軸が輝度(明度)を表し、U軸及びV軸で色相を
表している。ここにおいて、U軸及びV軸においては両
軸の交点からの距離が彩度を表すため、実質的に(U**
2+V**2)**(1/2)が彩度となる。
First, if the pixel data has saturation as its component element, it is possible to obtain the distribution using the saturation value. However, since the pixel data has only RGB component values, it is inherently necessary. Can not obtain a saturation value without conversion to a color space in which the saturation value is a direct component value. For example, in a Luv space as a standard color system, the L axis represents luminance (brightness), and the U axis and the V axis represent hue. Here, in the U-axis and the V-axis, since the distance from the intersection of both axes represents the saturation, substantially (U **
2 + V ** 2) ** (1/2) is the saturation.

【0121】このような異なる表色空間の間での色変換
は対応関係を記憶した色変換テーブルを参照しつつ、補
間演算を併用しなければならず、演算処理量は膨大とな
ってくる。このような状況に鑑み、本実施形態において
は、画像データとして標準的なRGBの階調データを直
に利用して彩度の代替値Xを次のようにして求めてい
る。
The color conversion between these different color spaces requires the use of an interpolation operation while referring to a color conversion table in which the correspondence relationship is stored, and the amount of operation processing becomes enormous. In view of such a situation, in the present embodiment, the alternative value X of the saturation is obtained as follows by directly using standard RGB gradation data as image data.

【0122】[0122]

【数17】 [Equation 17]

【0123】本来的には彩度は、R=G=Bの場合に
「0」となり、RGBの単色あるいはいずれか二色の所
定割合による混合時において最大値となる。この性質か
ら直に彩度を適切に表すのは可能であるものの、簡易な
(25)式によっても赤の単色および緑と青の混合色で
ある黄であれば最大値の彩度となり、各成分が均一の場
合に「0」となる。また、緑や青の単色についても最大
値の半分程度には達している。むろん、
Originally, the saturation becomes "0" when R = G = B, and becomes the maximum value when mixing a single color of RGB or a predetermined ratio of any two colors. Although it is possible to directly represent the saturation directly from this property, even with a simple equation (25), if the color is a single color of red and yellow which is a mixed color of green and blue, the saturation becomes the maximum value. It is "0" when the components are uniform. In addition, green and blue single colors also reach about half of the maximum value. Of course,

【0124】[0124]

【数18】 (Equation 18)

【0125】という式にも代替可能である。The formula can be substituted.

【0126】ステップS410では、均等サンプリング
の手法を採用しつつ彩度の代替値Xについてのヒストグ
ラムの分布を求める。すなわち、彩度強調という点にお
いては、必ずしもオブジェクトの彩度が大きいとは限ら
ず、オブジェクトの彩度が小さい場合に当該オブジェク
トの彩度を大きくすると、本来の色を再現できなくなっ
てしまうことになりかねない。従って、彩度強調に使用
する特徴量は画像において平均的であるといえることか
ら、ステップS410にて均等サンプリングの手法を採
用する。(25)式においては、彩度が最低値「0」〜
最大値「511」の範囲で分布し、概略的には図22に
示すような分布となる。次なるステップS420では、
集計された彩度分布に基づいてこの画像についての彩度
指数を決定する。
In step S410, the distribution of the histogram for the saturation alternative value X is obtained while employing the uniform sampling technique. In other words, in terms of saturation enhancement, the saturation of an object is not always large, and if the saturation of the object is increased when the saturation of the object is small, the original color cannot be reproduced. It could be. Therefore, since the feature amount used for the saturation enhancement can be said to be average in the image, the method of uniform sampling is adopted in step S410. In the equation (25), the saturation is from the minimum value “0” to
The distribution is within the range of the maximum value “511”, and the distribution is roughly as shown in FIG. In the next step S420,
A saturation index for this image is determined based on the aggregated saturation distribution.

【0127】彩度指数を導出するにあたり、本実施形態
においては、サンプリングされた画素数の範囲で、分布
数として上位の「16%」が占める範囲を求める。そし
て、この範囲内での最低の彩度「A」がこの画像の彩度
を表すものとして次式に基づいて彩度強調指数Sなる特
徴量を決定する。
In deriving the saturation index, in the present embodiment, a range occupied by the upper 16% as the number of distributions in the range of the number of sampled pixels is obtained. Then, assuming that the lowest saturation “A” within this range represents the saturation of this image, the feature amount of the saturation enhancement index S is determined based on the following equation.

【0128】すなわち、That is,

【0129】[0129]

【数19】 [Equation 19]

【0130】とする。図23は、この彩度「A」と彩度
強調指数Sとの関係を示している。図に示すように、彩
度指数Sは最大値「50」〜最小値「0」の範囲で彩度
「A」が小さいときに大きく、同彩度「A」が大きいと
きに小さくなるように徐々に変化していくことになる。
It is assumed that FIG. 23 shows the relationship between the saturation “A” and the saturation enhancement index S. As shown in the drawing, the saturation index S is large when the saturation “A” is small and is small when the saturation “A” is large in the range of the maximum value “50” to the minimum value “0”. It will change gradually.

【0131】彩度強調指数Sに基づいて彩度を強調する
にあたり、上述したように画像データが彩度のパラメー
タを備えているものであれば同パラメータを変換すれば
よいものの、RGBの表色空間を採用している場合に
は、一旦、標準表色系であるLuv空間に変換し、Lu
v空間内で半径方向へ変移させなければならないといえ
る。しかしながら、RGBの画像データを、一旦、Lu
v空間内の画像データに変換し、彩度強調後に再びRG
Bに戻すといった作業が必要となり、演算量が多くなら
ざるを得ない。従って、RGBの階調データをそのまま
利用して彩度強調することにする。
In enhancing the saturation based on the saturation enhancement index S, if the image data has the saturation parameter as described above, the parameter may be converted. When the space is adopted, the space is temporarily converted to the Luv space which is a standard color system, and the Lu space is used.
It can be said that the displacement must be made in the radial direction in the v space. However, once the RGB image data is
After converting to v-space image data and emphasizing saturation,
Work such as returning to B is required, and the amount of calculation must be increased. Therefore, the saturation is enhanced using the RGB gradation data as it is.

【0132】RGB表色空間のように各成分が概略対等
な関係にある色相成分の成分値であるときには、R=G
=Bであればグレイであって無彩度となる。従って、R
GBの各成分における最小値となる成分については各画
素の色相に影響を与えることなく単に彩度を低下させて
いるにすぎないと考えれば、各成分における最小値をす
べての成分値から減算し、その差分値を拡大することに
よって彩度を強調できるといえる。
When each component is a component value of a hue component having a substantially equal relationship as in the RGB color space, R = G
If = B, it is gray and achromatic. Therefore, R
Assuming that the minimum component of each component of GB simply reduces the saturation without affecting the hue of each pixel, the minimum value of each component is subtracted from all component values. It can be said that the saturation can be enhanced by enlarging the difference value.

【0133】まず、上述した彩度強調指数Sから演算に
有利な彩度強調パラメータSratioを、
First, a saturation enhancement parameter Sratio advantageous for calculation is calculated from the saturation enhancement index S described above.

【0134】[0134]

【数20】 (Equation 20)

【0135】として求める。この場合、彩度強調指数S
=0のときに彩度強調パラメータSratio=1となって
彩度強調されない。次に、RGB階調データの各成分
(R,G,B)における青(B)の成分値が最小値であ
ったとすると、この彩度強調パラメータSratioを使用
して次のように変換する。
Is obtained. In this case, the saturation enhancement index S
When = 0, the saturation enhancement parameter Sratio = 1, and saturation enhancement is not performed. Next, assuming that the component value of blue (B) in each component (R, G, B) of the RGB gradation data is the minimum value, the conversion is performed as follows using the saturation enhancement parameter Sratio.

【0136】[0136]

【数21】 (Equation 21)

【0137】この結果、RGB表色空間とLuv空間と
の間で一往復する二度の色変換が不要となるため、演算
時間の低減をはかることができる。この実施形態におい
ては、無彩度の成分について単純に最小値の成分を他の
成分値から減算する手法を採用しているが、無彩度の成
分を減算するにあたっては別の変換式を採用するもので
あっても構わない。ただし、(33)〜(35)式のよ
うに最小値を減算するだけの場合には乗除算が伴わない
ので演算量が容易となるという効果がある。
As a result, it is not necessary to perform two round trips of color conversion between the RGB color space and the Luv space, so that the calculation time can be reduced. In this embodiment, a method of simply subtracting the minimum value component from the other component values for the achromatic component is employed, but another conversion formula is employed for subtracting the achromatic component. It does not matter. However, in the case where only the minimum value is subtracted as in the equations (33) to (35), there is an effect that the amount of calculation becomes easy because no multiplication / division is involved.

【0138】(29)〜(31)式を採用する場合で
も、良好な変換が可能であるものの、この場合には彩度
を強調すると輝度も向上して全体的に明るくなるという
傾向がある。従って、各成分値から輝度の相当値を減算
した差分値を対象として変換を行うことにする。
Even when the equations (29) to (31) are adopted, good conversion is possible, but in this case, when the saturation is enhanced, the luminance tends to be improved and the whole image tends to be brighter. Therefore, the conversion is performed on the difference value obtained by subtracting the luminance equivalent value from each component value.

【0139】まず、輝度を求めるために、上述したLu
v空間に色変換したのでは演算量が多大となってしまう
ため、テレビジョンなどの場合に利用されているRGB
から輝度を直に求める(12)式を利用する。
First, in order to obtain the luminance, the above-described Lu is used.
Since the amount of calculation is large if the color conversion is performed in the v space, the RGB used in the case of television etc.
Equation (12) for directly obtaining the luminance from the following equation is used.

【0140】一方、彩度強調は、On the other hand, saturation enhancement

【0141】[0141]

【数22】 (Equation 22)

【0142】とする。この加減値△R,△G,△Bは輝
度Yとの差分値に基づいて次式のように求める。すなわ
ち、
It is assumed that: The addition and subtraction values △ R, △ G, and △ B are obtained from the difference value with the luminance Y as follows. That is,

【0143】[0143]

【数23】 (Equation 23)

【0144】となり、この結果、As a result,

【0145】[0145]

【数24】 (Equation 24)

【0146】として変換可能となる。なお、輝度の保存
は次式から明らかである。
The conversion is possible. The preservation of the brightness is apparent from the following equation.

【0147】[0147]

【数25】 (Equation 25)

【0148】また、入力がグレー(R=G=B)のとき
には、輝度Y=R=G=Bとなるので、加減値△R=△
G=△B=0となり、無彩色に色が付くこともない。
(42)式〜(44)式を利用すれば輝度が保存され、
彩度を強調しても全体的に明るくなることはない。
When the input is gray (R = G = B), the luminance Y = R = G = B.
G = △ B = 0, and there is no achromatic color.
By using the equations (42) to (44), the luminance is saved,
Emphasizing saturation does not make the whole picture brighter.

【0149】以上のようにして彩度強調指数Sratioを
求めたら、ステップS430にて所定のしきい値と比較
し、彩度強調が必要な画像であるかを判断する。そし
て、必要であればステップS440にて(42)式〜
(44)式に基づいて全画素について画像データを変換
する。
After the saturation enhancement index Sratio is obtained as described above, it is compared with a predetermined threshold value in step S430 to determine whether the image needs saturation enhancement. Then, if necessary, in step S440, equations (42) to
Image data is converted for all pixels based on equation (44).

【0150】従って、均等サンプリングの手法を選択し
て画像データを集計しつつ(ステップS410)、彩度
強調指数Sなる特徴量を取得する(ステップ420)ま
でのプログラム前段部分と当該プログラム前段部分を実
行するハードウェア構成とが評価手段を構成し、画像デ
ータの変換を行う(ステップS440)プログラム後段
部分と当該プログラム後段部分を実行するハードウェア
構成とが画像処理手段を構成することになる。
Accordingly, while the equal sampling method is selected and the image data is totaled (step S410), the former part of the program and the former part of the program up to the acquisition of the characteristic amount of the saturation enhancement index S (step 420) are obtained. The hardware configuration to be executed constitutes the evaluation means, and the latter part of the program for converting the image data (step S440) and the latter part of the program constitute the image processing means.

【0151】また、上述したコントラスト補正、明度補
正、彩度強調のそれぞれについて、画像処理を行うかを
判断している。しかし、必ずしも画像処理を行うか否か
の二者択一の判断を行う必要はない。すなわち、それぞ
れにおいて強調程度を設定しており、このようにして設
定した強調程度で画像処理を行うようにしても良い。
In each of the above-described contrast correction, lightness correction, and saturation enhancement, it is determined whether to perform image processing. However, it is not always necessary to determine whether to perform image processing. That is, the degree of emphasis is set for each, and image processing may be performed with the degree of emphasis set in this way.

【0152】次に、上記構成からなる本実施形態の動作
を説明する。
Next, the operation of the present embodiment having the above configuration will be described.

【0153】写真画像をスキャナ11で読み込み、プリ
ンタ31にて印刷する場合を想定する。すると、まず、
コンピュータ21にてオペレーティングシステム21a
が稼働しているもとで、画像処理アプリケーション21
dを起動させ、スキャナ11に対して写真の読み取りを
開始させる。読み取られた画像データが同オペレーティ
ングシステム21aを介して画像処理アプリケーション
21dに取り込まれたら、処理対象画素を初期位置に設
定する。続いて、ステップS110にて(1)式〜
(3)式に基づいてエッジ度を判定し、ステップS12
0ではしきい値と同エッジ度とを比較する。そして、エ
ッジ度の方が大きい場合には処理対象画素がエッジ画素
であると判断し、ステップS130にて当該画素の画像
データをワークエリアに保存する。また、ステップS1
40では当該処理対象画素が均等サンプリングの対象で
あるか否かを判断し、対象である場合はステップS15
0で当該画素の画像データを別のワークエリアに保存す
る。以上の処理をステップS160にて処理対象画素を
移動させながらステップS170にて全画素について実
行したと判断されるまで繰り返す。
Assume that a photographic image is read by the scanner 11 and printed by the printer 31. Then, first,
Operating system 21a on computer 21
Is running, the image processing application 21
d is started, and the scanner 11 starts reading a photograph. When the read image data is captured by the image processing application 21d via the operating system 21a, the processing target pixel is set to the initial position. Subsequently, in step S110, equations (1) to
The edge degree is determined based on equation (3), and step S12 is performed.
At 0, the threshold is compared with the same edge degree. If the edge degree is higher, it is determined that the pixel to be processed is an edge pixel, and the image data of the pixel is stored in the work area in step S130. Step S1
In 40, it is determined whether or not the pixel to be processed is a target of uniform sampling.
If 0, the image data of the pixel is stored in another work area. The above process is repeated while moving the pixel to be processed in step S160 until it is determined in step S170 that all pixels have been executed.

【0154】本実施形態においては、ワークエリアに画
像データそのものを保存するようにしたが、メモリ容量
や処理時間の面から考えると必ずしも画像データそのも
のをワークエリアに保存しておく必要はない。すなわ
ち、最終的にはサンプリング対象の画素について輝度分
布や彩度代替値分布のヒストグラムを作成することにな
るので、予めステップS120,S150にてヒストグ
ラムの情報を蓄積していくようにすればよい。
In this embodiment, the image data itself is stored in the work area. However, it is not always necessary to store the image data itself in the work area from the viewpoint of memory capacity and processing time. That is, since a histogram of the luminance distribution and the saturation alternative value distribution is finally created for the sampling target pixel, the information of the histogram may be accumulated in advance in steps S120 and S150.

【0155】全画素について集計処理を終えたら、コン
トラスト補正と明度補正を実行すべく、ステップS31
0にて均等サンプリングによる集計結果Dist_av
eと、エッジ画素サンプリングによる集計結果Dist
_edgとしての輝度分布のヒストグラムを求め、ステ
ップS320にて前者のヒストグラムに基づき(16)
(17)式を用いてコントラスト拡大処理のためのパラ
メータを決定する。そして、ステップS330において
は、後者のヒストグラムに基づき(18)〜(21)式
を用いて明度補正のためのパラメータを決定する。この
後、ステップS340ではこれらのパラメータを所定の
しきい値と比較し、画像処理すべきと判断すればステッ
プS350にて上記パラメータに基づいて輝度変換す
る。この場合、演算量を減らすために最初に図17に示
す輝度の変換テーブルを作成しておき、(22)〜(2
4)式に基づいて画像データを変換する。
After the summation processing is completed for all the pixels, step S31 is executed to execute contrast correction and lightness correction.
Total result Dist_av by equal sampling at 0
e and the aggregation result Dist by edge pixel sampling
A histogram of the luminance distribution as _edg is obtained, and in step S320, based on the former histogram (16)
Using the equation (17), parameters for the contrast enlargement processing are determined. Then, in step S330, parameters for lightness correction are determined using equations (18) to (21) based on the latter histogram. Thereafter, in step S340, these parameters are compared with a predetermined threshold value. If it is determined that image processing is to be performed, luminance conversion is performed based on the parameters in step S350. In this case, a luminance conversion table shown in FIG. 17 is first created in order to reduce the amount of calculation, and (22) to (2)
4) Convert the image data based on the equation.

【0156】この後、画像処理された画像データをディ
スプレイドライバ21cを介してディスプレイ32に表
示し、良好であればプリンタドライバ21bを介してプ
リンタ31にて印刷させる。すなわち、同プリンタドラ
イバ21bは補正されたRGBの階調データを入力し、
所定の解像度変換を経てプリンタ31の印字ヘッド領域
に対応したラスタライズを行なうとともに、ラスタライ
ズデータをRGBからCMYKへ色変換し、その後でC
MYKの階調データから二値データへ変換してプリンタ
31へ出力する。
Thereafter, the image data subjected to the image processing is displayed on the display 32 via the display driver 21c. If the image data is good, the image data is printed by the printer 31 via the printer driver 21b. That is, the printer driver 21b inputs the corrected RGB gradation data,
After a predetermined resolution conversion, the rasterization corresponding to the print head area of the printer 31 is performed, and the rasterized data is color-converted from RGB to CMYK.
MYK gradation data is converted into binary data and output to the printer 31.

【0157】以上の処理により、スキャナ11を介して
読み込まれた写真の画像データは自動的に最適なコント
ラスト補正と明度補正を施されてディスプレイ32に表
示された後、プリンタ31にて印刷される。すなわち、
複数の評価基準を採用して複数の特徴量を取得し、コン
トラスト補正や明度補正という画像処理方法に応じて特
徴量を使い分けて最適な画像処理を実現することができ
る。
According to the above processing, the image data of the photograph read through the scanner 11 is automatically subjected to optimal contrast correction and brightness correction, displayed on the display 32, and printed by the printer 31. . That is,
A plurality of feature amounts are acquired by employing a plurality of evaluation criteria, and optimal image processing can be realized by selectively using the feature amounts according to an image processing method such as contrast correction or brightness correction.

【0158】一方、このようなコントラスト補正や明度
補正に限らず、彩度強調の場合にも、当該彩度強調処理
に応じて適当な評価基準で彩度をサンプリングして特徴
量を取得するとともに、当該特徴量に基づいて画像処理
するようにしたため、最適な画像処理を実現することが
できる。
On the other hand, not only in such contrast correction and lightness correction, but also in the case of saturation enhancement, the saturation is sampled with an appropriate evaluation criterion in accordance with the saturation enhancement processing to acquire a feature amount. Since the image processing is performed based on the feature amount, optimal image processing can be realized.

【0159】このように、画像処理の中枢をなすコンピ
ュータ21はステップS310にて異なる評価基準でサ
ンプリングされた集計結果に基づく輝度分布ヒストグラ
ムを求めるとともに、ステップS320およびステップ
S330にてそれぞれ別個の輝度分布ヒストグラムから
別個の特徴量を得て、ステップS350にて各々の特徴
量に基づいて画像データを変換するようにしたため、最
適な画像処理を実現することができる。
As described above, the computer 21, which is the center of the image processing, obtains the luminance distribution histogram based on the totaled results sampled with different evaluation criteria in step S310, and separates the luminance distribution histogram in steps S320 and S330. Since individual feature values are obtained from the histogram and the image data is converted based on each feature value in step S350, optimal image processing can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態にかかる画像処理装置を適
用した画像処理システムのブロック図である。
FIG. 1 is a block diagram of an image processing system to which an image processing device according to an embodiment of the present invention is applied.

【図2】同画像処理装置の具体的ハードウェアのブロッ
ク図である。
FIG. 2 is a block diagram of specific hardware of the image processing apparatus.

【図3】本発明の画像処理装置の他の適用例を示す概略
ブロック図である。
FIG. 3 is a schematic block diagram illustrating another application example of the image processing apparatus of the present invention.

【図4】本発明の画像処理装置の他の適用例を示す概略
ブロック図である。
FIG. 4 is a schematic block diagram illustrating another application example of the image processing apparatus of the present invention.

【図5】本発明の画像処理装置におけるサンプリング処
理部分を示すフローチャートである。
FIG. 5 is a flowchart showing a sampling processing part in the image processing apparatus of the present invention.

【図6】画像データの大きさと処理対象画素を移動させ
ていく状態を示す図である。
FIG. 6 is a diagram illustrating the size of image data and a state in which a processing target pixel is moved.

【図7】画像の変化度合いを直交座標の各成分値で表す
場合の説明図である。
FIG. 7 is an explanatory diagram in a case where the degree of change of an image is represented by each component value of rectangular coordinates.

【図8】画像の変化度合いを縦軸方向と横軸方向の隣接
画素における差分値で求める場合の説明図である。
FIG. 8 is an explanatory diagram in a case where the degree of change of an image is obtained by a difference value between adjacent pixels in a vertical axis direction and a horizontal axis direction.

【図9】隣接する全画素間で画像の変化度合いを求める
場合の説明図である。
FIG. 9 is an explanatory diagram in a case where the degree of change of an image is obtained between all adjacent pixels.

【図10】しきい値を変化させる領域を示す図である。FIG. 10 is a diagram showing a region where a threshold value is changed.

【図11】サンプリング周期を示す図である。FIG. 11 is a diagram showing a sampling cycle.

【図12】サンプリング画素数を示す図である。FIG. 12 is a diagram showing the number of sampling pixels.

【図13】変換元の画像とサンプリングされる画素の関
係を示す図である。
FIG. 13 is a diagram illustrating a relationship between a conversion source image and pixels to be sampled.

【図14】特徴量の取得処理部分と画像処理部分を示す
フローチャートである。
FIG. 14 is a flowchart showing a feature value acquisition processing part and an image processing part.

【図15】輝度分布の端部処理と端部処理にて得られる
端部を示す図である。
FIG. 15 is a diagram showing edge processing of a luminance distribution and an edge obtained by the edge processing.

【図16】輝度分布の拡大と再現可能な輝度の範囲を示
す図である。
FIG. 16 is a diagram showing an enlarged luminance distribution and a reproducible luminance range.

【図17】輝度分布を拡大する際の変換テーブルを示す
図である。
FIG. 17 is a diagram showing a conversion table when expanding a luminance distribution.

【図18】γ補正で明るくする概念を示す図である。FIG. 18 is a diagram illustrating a concept of increasing brightness by γ correction.

【図19】γ補正で暗くする概念を示す図である。FIG. 19 is a diagram showing a concept of darkening by γ correction.

【図20】γ補正で変更される輝度の対応関係を示す図
である。
FIG. 20 is a diagram illustrating a correspondence relationship of luminance changed by γ correction.

【図21】彩度強調する場合のフローチャートである。FIG. 21 is a flowchart in the case where saturation is emphasized.

【図22】彩度分布の集計状態の概略図である。FIG. 22 is a schematic diagram of a tallying state of a saturation distribution.

【図23】彩度Aと彩度強調指数Sとの関係を示す図で
ある。
FIG. 23 is a diagram illustrating a relationship between a saturation A and a saturation enhancement index S.

【符号の説明】[Explanation of symbols]

10…画像入力装置 20…画像処理装置 21…コンピュータ 21a…オペレーティングシステム 21b…プリンタドライバ 21c…ディスプレイドライバ 21d…画像処理アプリケーション 22…ハードディスク 23…キーボード 24…CD−ROMドライブ 25…フロッピーディスクドライブ 26…モデム 30…画像出力装置 Reference Signs List 10 image input device 20 image processing device 21 computer 21a operating system 21b printer driver 21c display driver 21d image processing application 22 hard disk 23 keyboard 24 CD-ROM drive 25 floppy disk drive 26 modem 30 ... Image output device

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 ドットマトリクス状の画素からなる実写
画像の画像データを入力し、各画素の画像データを集計
しつつ所定の評価基準で特徴量を得て、当該特徴量に基
づいて画像処理する画像処理装置であって、 複数の評価基準に従って上記特徴量を得る評価手段と、 複数の手法で上記画像データを変換可能であるととも
に、各手法に応じて上記評価手段にて得られた特徴量を
使い分ける画像処理手段とを具備することを特徴とする
画像処理装置。
An image data of a photographed image composed of pixels in a dot matrix form is input, a feature amount is obtained based on a predetermined evaluation criterion while totalizing the image data of each pixel, and image processing is performed based on the feature amount. An image processing apparatus, comprising: an evaluation unit that obtains the feature amount according to a plurality of evaluation criteria; and a feature amount that is capable of converting the image data by a plurality of methods and that is obtained by the evaluation unit according to each method. An image processing device comprising: an image processing unit that selectively uses the image processing.
【請求項2】 上記請求項1に記載の画像処理装置にお
いて、上記評価手段は、実写画像内のオブジェクトを抽
出して当該オブジェクトの画素の画像データを集計して
特徴量を得る評価基準を有するとともに、上記画像処理
手段は、一の画像処理の手法において上記画像データの
中心部分の特徴量を使用する際に上記オブジェクトの画
素から得られた特徴量を使用することを特徴とする画像
処理装置。
2. The image processing apparatus according to claim 1, wherein the evaluation unit has an evaluation criterion for extracting an object in the real image and summing up image data of pixels of the object to obtain a feature amount. An image processing apparatus, wherein the image processing means uses a feature amount obtained from a pixel of the object when using a feature amount of a central portion of the image data in one image processing method. .
【請求項3】 上記請求項2に記載の画像処理装置にお
いて、上記評価手段は、各画素における隣接画素との画
像データの変化度合いに基づいて同変化度合いの大きな
画素をオブジェクトとして抽出することを特徴とする画
像処理装置。
3. The image processing apparatus according to claim 2, wherein the evaluation unit extracts a pixel having a large change degree as an object based on a change degree of image data between each pixel and an adjacent pixel. Characteristic image processing device.
【請求項4】 上記請求項2に記載の画像処理装置にお
いて、上記評価手段は、各画素における色度が所定範囲
内にある画素をオブジェクトとして抽出することを特徴
とする画像処理装置。
4. The image processing apparatus according to claim 2, wherein said evaluation means extracts pixels whose chromaticity of each pixel is within a predetermined range as an object.
【請求項5】 上記請求項1〜請求項4のいずれかに記
載の画像処理装置において、上記評価手段は、上記画像
データの各画素を均等にサンプリングして集計して特徴
量を得る評価基準を有するとともに、上記画像処理手段
は、一の画像処理の手法において実写画像の平均的な特
徴量を使用する際に上記均等にサンプリングして得られ
た特徴量を使用することを特徴とする画像処理装置。
5. An image processing apparatus according to claim 1, wherein said evaluation means samples each pixel of said image data uniformly and sums up to obtain a feature amount. And the image processing means uses the feature amount obtained by uniformly sampling when using the average feature amount of the actual photographed image in one image processing method. Processing equipment.
【請求項6】 上記請求項1〜請求項5のいずれかに記
載の画像処理装置において、上記評価手段は、上記画像
データの各画素を均等にサンプリングして集計して特徴
量を得る評価基準を有するとともに、上記画像処理手段
は、一の画像処理の手法において実写画像の特徴量分布
の端部を使用する際に上記均等にサンプリングして得ら
れた特徴量を使用することを特徴とする画像処理装置。
6. An image processing apparatus according to claim 1, wherein said evaluation means samples each pixel of said image data uniformly and sums up to obtain a feature amount. And wherein the image processing means uses the feature amount obtained by uniformly sampling when using the end of the feature amount distribution of the real image in one image processing method. Image processing device.
【請求項7】 ドットマトリクス状の画素からなる実写
画像の画像データを入力し、各画素の画像データを集計
しつつ所定の評価基準で特徴量を得て、当該特徴量に基
づいて画像処理する画像処理方法であって、 複数の評価基準に従って上記特徴量を得て、 複数の手法で上記画像データを変換するにあたり、各手
法に応じて上記評価手段にて得られた特徴量を使い分け
ることを特徴とする画像処理方法。
7. An image data of a photographed image composed of pixels in a dot matrix form is input, a feature amount is obtained based on a predetermined evaluation criterion while summing up image data of each pixel, and image processing is performed based on the feature amount. An image processing method, comprising: obtaining the feature amount according to a plurality of evaluation criteria; and converting the image data by a plurality of methods, selectively using the feature amount obtained by the evaluation means according to each method. Characteristic image processing method.
【請求項8】 ドットマトリクス状の画素からなる実写
画像の画像データを入力し、各画素の画像データを集計
しつつ所定の評価基準で特徴量を得て、当該特徴量に基
づいて画像処理する画像処理制御プログラムを記録した
媒体であって、 複数の評価基準に従って上記特徴量を得て、 複数の手法で上記画像データを変換するにあたり、各手
法に応じて上記評価手段にて得られた特徴量を使い分け
ることを特徴とする画像処理制御プログラムを記録した
媒体。
8. An image data of a real image composed of pixels in a dot matrix form is input, a feature amount is obtained based on a predetermined evaluation criterion while summing up image data of each pixel, and image processing is performed based on the feature amount. A medium in which an image processing control program is recorded, wherein the feature amount is obtained according to a plurality of evaluation criteria, and the image data is converted by a plurality of methods. A medium in which an image processing control program characterized by using different amounts is recorded.
JP9294051A 1997-06-09 1997-10-27 Picture processor, picture processing method and medium recording picture processing control program Pending JPH11136514A (en)

Priority Applications (11)

Application Number Priority Date Filing Date Title
JP9294051A JPH11136514A (en) 1997-10-27 1997-10-27 Picture processor, picture processing method and medium recording picture processing control program
US09/093,094 US6738527B2 (en) 1997-06-09 1998-06-08 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, and image evaluation method and a medium on which an image evaluation program is recorded
EP10158002A EP2199973A3 (en) 1997-06-09 1998-06-08 An image processing apparatus and method, and an image evaluation device and method
EP98304509A EP0891075A3 (en) 1997-06-09 1998-06-08 An image processing apparatus and method, and an image evaluation device and method
US10/742,718 US7259894B2 (en) 1997-06-09 2003-12-22 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US11/491,305 US7755801B2 (en) 1997-06-09 2006-07-24 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US11/491,278 US7940426B2 (en) 1997-06-09 2006-07-24 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US11/739,858 US7508548B2 (en) 1997-06-09 2007-04-25 Image processing method and image processing apparatus
US13/081,027 US8553285B2 (en) 1997-06-09 2011-04-06 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US13/455,575 US8867099B2 (en) 1997-06-09 2012-04-25 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US13/719,602 US8681380B2 (en) 1997-06-09 2012-12-19 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9294051A JPH11136514A (en) 1997-10-27 1997-10-27 Picture processor, picture processing method and medium recording picture processing control program

Related Child Applications (3)

Application Number Title Priority Date Filing Date
JP2002207957A Division JP3570416B2 (en) 2002-07-17 2002-07-17 Image processing apparatus, image processing method, and medium recording image processing control program
JP2002207927A Division JP3458855B2 (en) 2002-07-17 2002-07-17 Image processing apparatus, image processing method, and medium recording image processing control program
JP2002207937A Division JP3705250B2 (en) 2002-07-17 2002-07-17 Image processing apparatus, image processing method, and medium on which image processing control program is recorded

Publications (1)

Publication Number Publication Date
JPH11136514A true JPH11136514A (en) 1999-05-21

Family

ID=17802653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9294051A Pending JPH11136514A (en) 1997-06-09 1997-10-27 Picture processor, picture processing method and medium recording picture processing control program

Country Status (1)

Country Link
JP (1) JPH11136514A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005332375A (en) * 2004-04-19 2005-12-02 Fuji Photo Film Co Ltd Image processing method, apparatus, and program
US8351737B2 (en) 2008-11-11 2013-01-08 Seiko Epson Corporation Image processing apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005332375A (en) * 2004-04-19 2005-12-02 Fuji Photo Film Co Ltd Image processing method, apparatus, and program
US8351737B2 (en) 2008-11-11 2013-01-08 Seiko Epson Corporation Image processing apparatus

Similar Documents

Publication Publication Date Title
JP3828210B2 (en) Image contrast enhancement method
JPH10198802A (en) Image processor, image processing method, and medium recording image processing program
JP4243362B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
JPH11146219A (en) Image processing device and method and medium recording image processing program
JPH118768A (en) Image processor, image processing method and medium recording image processing control program
JP4993028B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JP3921737B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JPH11136514A (en) Picture processor, picture processing method and medium recording picture processing control program
JP3501151B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JP3570416B2 (en) Image processing apparatus, image processing method, and medium recording image processing control program
JP3573143B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JP3705250B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP3698205B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JP3458855B2 (en) Image processing apparatus, image processing method, and medium recording image processing control program
JP3558073B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JPH10210299A (en) Image processor, image processing method and medium recorded with image processing program
JP3731573B2 (en) Image processing apparatus, image evaluation apparatus, image processing method, image evaluation method, and recording medium recording image processing program
JP4123387B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JP3596614B2 (en) Image processing apparatus, image processing method, and medium recording image processing program
JP4941575B2 (en) Image processing method, medium storing image processing program, and image processing apparatus
JP4475316B2 (en) Image processing apparatus, recording medium storing image processing program, and image processing method
JP5029779B2 (en) Image processing method, medium storing image processing program, and image processing apparatus
JP2003051000A (en) Device and method for image processing and medium with recorded image processing program
JP2003069826A (en) Image processor, image processing method and medium having image processing program recorded thereon
JP2003085552A (en) Device and method for processing image and memory medium with image processing program recoded

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041015

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070423

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070619