JPH118768A - Image processor, image processing method and medium recording image processing control program - Google Patents

Image processor, image processing method and medium recording image processing control program

Info

Publication number
JPH118768A
JPH118768A JP9160159A JP16015997A JPH118768A JP H118768 A JPH118768 A JP H118768A JP 9160159 A JP9160159 A JP 9160159A JP 16015997 A JP16015997 A JP 16015997A JP H118768 A JPH118768 A JP H118768A
Authority
JP
Japan
Prior art keywords
image processing
image
feature amount
weighting
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9160159A
Other languages
Japanese (ja)
Other versions
JP4019204B2 (en
Inventor
Naoki Kuwata
直樹 鍬田
Yoshihiro Nakami
至宏 中見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP16015997A priority Critical patent/JP4019204B2/en
Priority to EP10158002A priority patent/EP2199973A3/en
Priority to EP98304509A priority patent/EP0891075A3/en
Priority to US09/093,094 priority patent/US6738527B2/en
Publication of JPH118768A publication Critical patent/JPH118768A/en
Priority to US10/742,718 priority patent/US7259894B2/en
Priority to US11/491,305 priority patent/US7755801B2/en
Priority to US11/491,278 priority patent/US7940426B2/en
Priority to US11/739,858 priority patent/US7508548B2/en
Application granted granted Critical
Publication of JP4019204B2 publication Critical patent/JP4019204B2/en
Priority to US13/081,027 priority patent/US8553285B2/en
Priority to US13/455,575 priority patent/US8867099B2/en
Priority to US13/719,602 priority patent/US8681380B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To automatically execute an optimum image processing by easily considering importance in real projection image data. SOLUTION: By summing up the distribution of luminance which is a feature amount for respective areas while uniformly selecting pixels (S110) and then performing reevaluation according to the weighting, which is determined for each area (S120), a computer 21 for forming the center of an image processing obtains the luminance distribution strongly affected by the luminance distribution of an original object even while uniformly performing sampling, and since the strength of the image processing or the like is decided, based on the luminance distribution and then image data are converted, executes the image processing by optimum strength while lightening processings (S160).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、デジタル写真画像
のような実写画像データに対して最適な画像処理を自動
的に実行する画像処理装置、画像処理方法、画像処理制
御プログラムを記録した媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, an image processing method, and a medium in which an image processing control program for automatically executing optimum image processing on photographed image data such as digital photographic images. .

【0002】[0002]

【従来の技術】ディジタル画像データに対して各種の画
像処理が行われている。例えば、コントラストを拡大す
るものであるとか、色調を補正するものであるとか、明
るさを補正するといった画像処理である。これらの画像
処理は、通常、マイクロコンピュータで実行可能となっ
ており、操作者がモニタ上で画像を確認して必要な画像
処理を選択したり、画像処理のパラメータなどを決定し
ている。
2. Description of the Related Art Various types of image processing are performed on digital image data. For example, it is an image processing for expanding the contrast, correcting the color tone, or correcting the brightness. Normally, these image processings can be executed by a microcomputer, and an operator checks an image on a monitor and selects necessary image processing, or determines parameters of the image processing.

【0003】[0003]

【発明が解決しようとする課題】近年、画像処理の技法
については各種のものが提案され、実際に効果を発揮し
ている。しかしながら、どの程度の処理を行うかとなる
と、依然、人間が関与しなければならない。これは、画
像処理の対象となるディジタル画像データにおいて、ど
こが重要であるのかを判断することができなかったため
である。
In recent years, various image processing techniques have been proposed and have actually been effective. However, humans still have to be involved in how much processing to perform. This is because it is not possible to determine where the digital image data to be subjected to image processing is important.

【0004】例えば、明るさを補正する画像処理を考え
た場合、画面全体の平均が暗ければ明るく補正し、逆に
平均が明るければ暗く補正するという自動処理を考えた
とする。ここで、夜間撮影した人物像の実写画像データ
があるとする。背景は殆ど真っ暗に近いものの、人物自
体は良好に撮影できていたとする。この実写画像データ
を自動補正すると、背景が真っ暗であるがために画像全
体の平均は暗くなり、明るく補正してしまうので昼間の
画像のようになってしまう。
[0004] For example, in consideration of image processing for correcting brightness, it is assumed that automatic processing is performed in which, if the average of the entire screen is dark, the image is corrected to be bright, and if the average is bright, the image is corrected to be dark. Here, it is assumed that there is real image data of a person image taken at night. It is assumed that although the background is almost completely dark, the person itself has been well photographed. When the real image data is automatically corrected, the average of the entire image is darkened because the background is completely dark, and the image is corrected to be bright, so that the image looks like a daytime image.

【0005】この場合、人間が関与していれば背景が暗
いことについては余り重きを置かずに考慮し、人物像の
部分だけに注目する。そして、人物像が暗ければ明るく
補正するし、逆に、フラッシュなどの効果で明る過ぎれ
ば暗くする補正を選択する。
In this case, if a human is involved, the dark background is considered without giving too much weight, and attention is paid only to the part of the human image. Then, if the person image is dark, the image is corrected to be bright, and conversely, if the image is too bright due to the effect of the flash or the like, the image is darkened.

【0006】このように、従来の画像処理では実写画像
データの中の部分ごとに応じた重要度を判断することが
できないため、人間が関与しなければならないという課
題があった。
As described above, in the conventional image processing, it is not possible to determine the degree of importance corresponding to each part in the actual image data, so that there is a problem that a human must be involved.

【0007】一方、何らかの手法で画像の重要度を判断
できるとしても、画素単位で判定していく作業であるか
ら、リアルタイムに重要度を変えて作業を進めていくの
は演算量の増大を招いてしまう。
On the other hand, even if the degree of importance of an image can be determined by some method, it is an operation to determine the degree of importance on a pixel-by-pixel basis. I will.

【0008】本発明は、上記課題にかんがみてなされた
もので、デジタル写真画像のような実写画像データにお
いて比較的簡易に重要度を考慮し、自動的に最適な画像
処理を実行することが可能な画像処理装置、画像処理方
法、画像処理制御プログラムを記録した媒体の提供を目
的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is possible to relatively easily easily consider the importance of actual photographed image data such as a digital photographic image and automatically execute optimal image processing. It is an object of the present invention to provide a medium storing an image processing apparatus, an image processing method, and an image processing control program.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するた
め、請求項1にかかる発明は、ドットマトリクス状の画
素からなる実写画像データを入力して所定の画像処理を
行う画像処理装置であって、画像処理強度を判定するに
あたって必要な各画素の特徴量を全画面にわたって均等
に抽出する特徴量均等抽出手段と、この特徴量均等抽出
手段で抽出した特徴量を所定の重み付けによって再評価
する特徴量重み付け再評価手段と、この再評価された特
徴量に基づいて画像処理強度を決定して画像処理する処
理手段とを具備する構成としてある。
According to a first aspect of the present invention, there is provided an image processing apparatus for inputting real image data consisting of pixels in a dot matrix and performing predetermined image processing. A feature amount equalizing means for uniformly extracting the feature amount of each pixel necessary for determining the image processing intensity over the entire screen, and a feature for re-evaluating the feature amount extracted by the feature amount equalizing means by predetermined weighting. It is configured to include a quantity weighting reevaluation unit and a processing unit that determines an image processing intensity based on the reevaluated feature amount and performs image processing.

【0010】上記のように構成した請求項1にかかる発
明においては、実写画像データがドットマトリクス状の
画素からなり、特徴量均等抽出手段は画像処理強度を判
定するにあたって必要な各画素の特徴量を全画面にわた
って均等に抽出する。そして、特徴量重み付け再評価手
段は、この特徴量均等抽出手段で抽出した特徴量を所定
の重み付けによって再評価する。そして、処理手段は、
このようにして再評価によって得られた特徴量に基づい
て画像処理強度を決定して画像処理する。
In the first aspect of the present invention, the actual photographed image data is composed of pixels in a dot matrix, and the characteristic amount uniform extraction means determines the characteristic amount of each pixel necessary for determining the image processing intensity. Is equally extracted over the entire screen. Then, the characteristic amount weighting re-evaluation means re-evaluates the characteristic amount extracted by the characteristic amount equalizing extraction means by predetermined weighting. And the processing means,
The image processing intensity is determined based on the feature amount obtained by the reevaluation in this way, and the image processing is performed.

【0011】すなわち、抽出段階では全画面にわたって
均等に行ない、抽出後に所定の重み付けを行なうので、
結果として得られる特徴量は画像全体にわたって均等に
得られたものとは異なるものとなる。
That is, in the extraction stage, the data is uniformly distributed over the entire screen, and a predetermined weight is applied after the extraction.
The resulting feature will differ from that obtained uniformly over the entire image.

【0012】特徴量均等抽出手段は画像処理強度を判定
するにあたって必要な各画素の特徴量を抽出するもので
あり、全画面にわたって均等に抽出する。この場合、全
画面の全画素について抽出するものであってもよいし、
また、全画素ではなくても均等に抽出すればよい。後者
の一例として、請求項2にかかる発明は、請求項1に記
載の画像処理装置において、上記特徴量均等抽出手段
は、全画素に対して所定の基準で均等に間引きして選択
した画素について上記特徴量を抽出する構成としてあ
る。
The feature value equalizing extraction means extracts the feature value of each pixel necessary for determining the image processing intensity, and extracts the feature value uniformly over the entire screen. In this case, it may be one that extracts all pixels of the entire screen,
In addition, even if not all pixels, it is sufficient to extract the pixels equally. As an example of the latter, in the invention according to claim 2, in the image processing apparatus according to claim 1, the feature amount uniform extraction means is configured to select pixels which are uniformly thinned out and selected based on a predetermined standard for all pixels. The feature amount is extracted.

【0013】上記のように構成した請求項2にかかる発
明においては、全画素に対して所定の基準で均等に間引
きすることにより、処理される画素数が減り、この減っ
た画素に対して上記特徴量を抽出する。
[0013] In the invention according to claim 2 configured as described above, the number of pixels to be processed is reduced by uniformly thinning out all the pixels based on a predetermined criterion. Extract feature values.

【0014】この場合、均等な間引きには、一定周期で
間引いて選択するものも含まれるし、ランダムに選択し
て間引きするものも含まれる。
In this case, the uniform thinning includes a method of thinning out and selecting at a fixed cycle, and a method of randomly selecting and thinning out.

【0015】特徴量重み付け再評価手段は抽出された特
徴量を所定の重み付けによって再評価するが、抽出され
る特徴量が画素単位であるのに対応して画素単位の重み
付けを行っても良いし、適当なひとまとまりごとに重み
付けを行っても良い。後者の一例として、請求項3にか
かる発明は、請求項1または請求項2のいずれかに記載
の画像処理装置において、上記特徴量均等抽出手段は、
画像を所定の基準で分割した領域単位で特徴量の抽出を
行ない、上記特徴量重み付け再評価手段は、同領域毎に
重み付けを設定して上記特徴量を再評価する構成として
ある。
The feature value weighting re-evaluation means re-evaluates the extracted feature value by predetermined weighting. However, the extracted feature value may be weighted in pixel units corresponding to the extracted feature value in pixel units. Alternatively, weighting may be performed for each appropriate group. As an example of the latter, the invention according to claim 3 is the image processing apparatus according to any one of claims 1 and 2, wherein the feature amount uniform extraction means includes:
The feature amount is extracted in units of regions obtained by dividing the image based on a predetermined standard, and the feature amount weighting re-evaluating means is configured to set a weight for each region and reevaluate the feature amount.

【0016】上記のように構成した請求項3にかかる発
明においては、画像を所定の基準で分割した領域単位の
重み付けを前提としており、特徴量均等抽出手段はこの
ような領域単位で特徴量の抽出を行なうし、上記特徴量
重み付け再評価手段は同領域毎に設定されている重み付
けで各領域ごとの特徴量を再評価する。
In the invention according to claim 3 configured as described above, it is premised that the image is divided on the basis of a predetermined criterion, and weighting is performed on a region basis. The extraction is performed, and the feature value weighting re-evaluation means re-evaluates the feature value for each region with the weight set for each region.

【0017】このような領域の分割は、常に一定であっ
ても良いし、画像毎に変化させても良い。この場合、画
像の内容に応じて分割方法を変えるようにしても良い。
Such division of the area may be always constant, or may be changed for each image. In this case, the division method may be changed according to the content of the image.

【0018】この重み付け手法は各種のものを採用可能
であり、単なる均等なサンプリングにとどまらないよう
な再評価が行われるものであればよい。
Various weighting methods can be employed, and any weighting method may be used as long as re-evaluation is performed in addition to simple equal sampling.

【0019】その一例として、請求項4にかかる発明
は、請求項1〜請求項3のいずれかに記載の画像処理装
置において、上記特徴量重み付け再評価手段は、画像に
対する各画素の位置によって定まる対応関係で上記重み
付けを変化させる構成としてある。
As an example, the invention according to claim 4 is the image processing apparatus according to any one of claims 1 to 3, wherein the feature weighting re-evaluation means is determined by the position of each pixel with respect to the image. The weighting is changed according to the correspondence.

【0020】写真の構図を考えた場合、人物像は中央に
位置させることが多い。従って、画像全体から特徴量を
均等に抽出した後、中央部分の特徴量の重みを重くして
重み付けすると、結果的に人物像の画素から抽出された
特徴量は大きく評価される。
When considering the composition of a photograph, a human image is often positioned at the center. Therefore, if the feature amount is extracted from the whole image evenly, and the feature amount in the central portion is weighted more heavily, the feature amount extracted from the pixels of the human image is greatly evaluated.

【0021】上記のように構成した請求項4にかかる発
明においては、例えば画像の中央部分の重み付けを重く
するとともに、周囲の重み付けを軽くするように決めて
おいた場合、特徴量重み付け再評価手段は画像に対する
各画素の位置を判断し、この位置によって変化する重み
付けを利用して再評価する。
In the invention according to claim 4 configured as described above, for example, when it is determined that the weight of the central portion of the image is increased and the weight of the surroundings is reduced, the feature weighting re-evaluation means Judge the position of each pixel with respect to the image, and re-evaluate using the weighting that changes according to this position.

【0022】また、重み付け手法の他の一例として、請
求項5にかかる発明は、請求項1〜請求項4のいずれか
に記載の画像処理装置において、上記特徴量重み付け再
評価手段は、画像の変化度合いを求めるとともに、画像
の変化度合いが大きい部分で上記重み付けを重くする構
成としてある。
As another example of the weighting method, the invention according to claim 5 is directed to the image processing apparatus according to any one of claims 1 to 4, wherein the feature amount weighting re-evaluation means includes: The degree of change is determined, and the weighting is increased in a portion where the degree of change of the image is large.

【0023】上記のように構成した請求項5にかかる発
明においては、特徴量重み付け再評価手段が再評価を行
う前に画像の変化度合いを求める。画像の変化度合いは
画像のシャープさともいえ、ピントがあっている画像ほ
ど輪郭部分がはっきりしているので変化度合いは大き
い。逆にピントが合っていないと画像の輪郭部分では徐
々に画像が変化することになり、変化度合いは小さくな
る。写真などであればピントが合っている部分が本来的
な被写体であってピントがあっていない部分は背景など
と同等と考えられる。このため、画像の変化度合いが大
きな所は本来的な被写体と考えられ、特徴量重み付け再
評価手段はこのような画像の変化度合いの大きい部分で
重み付けを重くして評価することにより、多くの特徴量
を抽出したのと同等の結果を得る。
In the invention according to claim 5 configured as described above, the degree of change of the image is obtained before the feature weighting re-evaluation means performs re-evaluation. The degree of change of the image can be said to be the sharpness of the image, and the degree of change is large because the contour of an image that is in focus is clearer. Conversely, if the image is out of focus, the image gradually changes in the outline portion of the image, and the degree of change becomes small. In the case of a photograph or the like, a focused portion is an original subject, and an out-of-focus portion is considered to be equivalent to a background or the like. For this reason, a place where the degree of change of the image is large is considered to be an original subject, and the feature value weighting re-evaluation means evaluates the part with a large degree of change of the image by increasing the weight and evaluating it. The result is equivalent to extracting the amount.

【0024】また、さらなる他の一例として、請求項6
にかかる発明は、請求項1〜請求項5のいずれかに記載
の画像処理装置において、上記特徴量重み付け再評価手
段は、各画素の色度を求めるとともに、同色度が特徴量
を抽出しようとするターゲットの色度の範囲に入る画素
数を求め、この画素数が多い部分で上記重み付けを重く
する構成としてある。
Further, as still another example, claim 6
According to the invention, in the image processing apparatus according to any one of claims 1 to 5, the feature amount weighting re-evaluation means seeks the chromaticity of each pixel and extracts the feature amount having the same chromaticity. The number of pixels falling within the range of the chromaticity of the target to be calculated is obtained, and the weighting is increased in a portion where the number of pixels is large.

【0025】上記のように構成した請求項6にかかる発
明においては、特徴量重み付け再評価手段は各画素の色
度を求める。画像処理では特定の色によって物体を特定
できることがある。例えば、人物であれば肌色の部分を
探すことによってターゲットと判断して差し支えない。
しかしながら、通常の色画像データであれば明るさの要
素も含まれているので肌色を特定することは難しい。こ
れに対して色度は色の刺激値の絶対的な割合を表してお
り、明るさには左右されない。従って、肌色の取りうる
色度の範囲に入っていれば人物像の画素と判断できる。
むろん、肌色以外にも、木々の緑色の取りうる範囲であ
るとか青空の青色が取りうる範囲といったものでも同様
のことが言える。
In the invention according to claim 6 configured as described above, the feature value weighting re-evaluation means obtains the chromaticity of each pixel. In image processing, an object may sometimes be specified by a specific color. For example, a person may be judged as a target by searching for a skin color portion.
However, it is difficult to specify the skin color in the case of ordinary color image data because it includes a brightness element. On the other hand, the chromaticity represents the absolute ratio of the color stimulus value, and is not affected by the brightness. Therefore, if it is within the range of chromaticity that can be taken for flesh color, it can be determined that the pixel is a person image.
Needless to say, the same applies to the range in which trees can take green color and the range in which blue sky takes blue color, in addition to skin color.

【0026】このような背景のもとで、特徴量重み付け
再評価手段は各画素について求めた色度が特徴量を抽出
しようとするターゲットの色度の範囲に入る場合に画素
数をカウントし、この画素数が多い部分はターゲットで
あると判断して重み付けを重くし、ターゲットから多く
の特徴量を抽出したのと同様の結果を得る。
Under such a background, the feature value weighting re-evaluation means counts the number of pixels when the chromaticity obtained for each pixel falls within the range of the chromaticity of the target from which the feature value is to be extracted. The portion having a large number of pixels is determined to be the target, and the weight is increased, thereby obtaining the same result as that of extracting many feature amounts from the target.

【0027】以上のような重み付けの手法は必ずしも択
一的なものではないが、重複適用する場合の好適な一例
として、請求項7にかかる発明は、請求項1〜請求項6
のいずれかに記載の画像処理装置において、上記特徴量
重み付け再評価手段は、複数の要素に基づいて個別に仮
の重み付け係数を求めるとともに、さらに、これらを重
要度に応じた重み付けで加算して最終的な重み付け係数
として適用する構成としてある。
Although the above-mentioned weighting method is not always an alternative, the invention according to claim 7 is a preferred example in the case of overlapping application.
In the image processing device according to any one of the above, the feature amount weighting re-evaluating means obtains temporary weighting factors individually based on a plurality of elements, and further adds these by weighting according to importance. It is configured to be applied as a final weighting coefficient.

【0028】上記のように構成した請求項7にかかる発
明においては、特徴量重み付け再評価手段は、複数の要
素に基づいて個別に仮の重み付け係数を求める。そし
て、さらに、これらを重要度に応じた重み付けで加算
し、最終的な重み付け係数として抽出した特徴量を再評
価する。従って、一つの重み付け手法によって評価され
た段階では大きな重み付けを与えられたとしても、その
重み付け手法の重要度が低ければ結果としては大きな重
み付けは与えられないということもある。また、重み付
け手法毎に大きな差のあるものに対して全般的に平均以
上に重み付けを評価されたものが最終的な重み付けも多
いといったようなことが起こる。
In the invention according to claim 7 configured as described above, the feature value weighting re-evaluation means individually obtains temporary weighting coefficients based on a plurality of elements. Then, these are added by weighting according to the degree of importance, and the feature amount extracted as the final weighting coefficient is reevaluated. Therefore, even if a large weight is given at the stage evaluated by one weighting method, a large weight may not be given as a result if the importance of the weighting method is low. In addition, there is a case where, for a method having a large difference for each weighting method, a method in which the weight is evaluated above the average as a whole has a large final weight.

【0029】抽出段階では全画面にわたって均等に行な
い、抽出後に所定の重み付けを行なう手法は、必ずしも
実体のある装置に限られる必要もなく、その一例とし
て、請求項8にかかる発明は、ドットマトリクス状の画
素からなる実写画像データを入力して所定の画像処理を
行う画像処理方法であって、画像処理強度を判定するに
あたって必要な各画素の特徴量を全画面にわたって均等
に抽出する工程と、この抽出した特徴量を所定の重み付
けによって再評価する工程と、この再評価された特徴量
に基づいて画像処理強度を決定して画像処理する工程と
を備えた構成としてある。
In the extraction stage, the method of performing the same weighting over the entire screen and performing the predetermined weighting after the extraction is not necessarily limited to a substantial device. As an example, the invention according to claim 8 An image processing method for inputting real image data consisting of pixels of a given image and performing predetermined image processing, wherein a feature amount of each pixel required to determine the image processing intensity is evenly extracted over the entire screen. It is configured to include a step of re-evaluating the extracted feature amount by predetermined weighting, and a step of determining an image processing intensity based on the re-evaluated feature amount and performing image processing.

【0030】すなわち、必ずしも実体のある装置に限ら
ず、その方法としても有効であることに相違はない。
That is, there is no difference that the present invention is not necessarily limited to a substantial device but is also effective as a method.

【0031】ところで、上述したように重み付けで特徴
量を再評価して画像処理する画像処理装置は単独で存在
する場合もあるし、ある機器に組み込まれた状態で利用
されることもあるなど、発明の思想としては各種の態様
を含むものである。また、ハードウェアで実現された
り、ソフトウェアで実現されるなど、適宜、変更可能で
ある。
As described above, an image processing apparatus that re-evaluates a feature value by weighting and performs image processing may exist alone, or may be used while being incorporated in a certain device. The concept of the invention includes various aspects. Further, it can be appropriately changed, for example, by hardware or software.

【0032】発明の思想の具現化例として画像処理装置
を制御するソフトウェアとなる場合には、かかるソフト
ウェアを記録した記録媒体上においても当然に存在し、
利用されるといわざるをえない。
When the software for controlling the image processing apparatus is realized as an embodiment of the idea of the present invention, the software naturally exists on a recording medium on which such software is recorded.
I have to say that it is used.

【0033】その一例として、請求項9にかかる発明
は、コンピュータにてドットマトリクス状の画素からな
る実写画像データを入力して所定の画像処理を行う画像
処理制御プログラムを記録した媒体であって、画像処理
強度を判定するにあたって必要な各画素の特徴量を全画
面にわたって均等に抽出するとともに、この抽出した特
徴量を所定の重み付けによって再評価し、この再評価さ
れた特徴量に基づいて画像処理強度を決定して画像処理
する構成としてある。
As one example, the invention according to claim 9 is a medium in which an image processing control program for performing a predetermined image processing by inputting real image data composed of dot matrix pixels by a computer is provided. The feature amount of each pixel necessary for determining the image processing intensity is extracted evenly over the entire screen, and the extracted feature amount is reevaluated by a predetermined weight, and image processing is performed based on the reevaluated feature amount. The image processing is performed by determining the intensity.

【0034】むろん、その記録媒体は、磁気記録媒体で
あってもよいし光磁気記録媒体であってもよいし、今後
開発されるいかなる記録媒体においても全く同様に考え
ることができる。また、一次複製品、二次複製品などの
複製段階については全く問う余地無く同等である。その
他、供給方法として通信回線を利用して行う場合でも本
発明が利用されていることには変わりないし、半導体チ
ップに書き込まれたようなものであっても同様である。
Of course, the recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium to be developed in the future. Also, the duplication stages of the primary duplicated product, the secondary duplicated product, and the like are equivalent without any question. In addition, the present invention is still used even when the supply method is performed using a communication line, and the same applies to a case where the information is written on a semiconductor chip.

【0035】さらに、一部がソフトウェアであって、一
部がハードウェアで実現されている場合においても発明
の思想において全く異なるものはなく、一部を記録媒体
上に記憶しておいて必要に応じて適宜読み込まれるよう
な形態のものとしてあってもよい。
Further, even when a part is implemented by software and a part is implemented by hardware, there is no difference in the concept of the present invention, and it is necessary to store a part on a recording medium. It may be in a form that is appropriately read in accordance with it.

【0036】[0036]

【発明の効果】以上説明したように本発明は、抽出段階
では全画面にわたって均等に行なうので演算処理量を多
くせず、また、抽出後に所定の重み付けを行なうことに
よって単に均等に抽出してしまった場合のような的外れ
な評価を行うことが無くなり、自動的に最適な画像処理
を行うことが可能な画像処理装置を提供することができ
る。
As described above, according to the present invention, the amount of calculation is not increased because the extraction is performed uniformly over the entire screen, and the extraction is performed evenly simply by performing a predetermined weighting after the extraction. It is possible to provide an image processing apparatus capable of automatically performing optimal image processing without performing an inappropriate evaluation as in the case where the image processing is performed.

【0037】また、請求項2にかかる発明によれば、均
等に特徴量を抽出する時点で画素を間引いているため、
処理量を減らすことができる。
According to the second aspect of the present invention, since the pixels are thinned out at the time of extracting the feature amounts evenly,
The processing amount can be reduced.

【0038】さらに、請求項3にかかる発明によれば、
領域毎に重み付けを変化させるので、演算が比較的容易
となる。
Further, according to the invention of claim 3,
Since the weight is changed for each area, the calculation becomes relatively easy.

【0039】さらに、請求項4にかかる発明によれば、
重み付けが画素の位置によって決まるため、演算が比較
的容易となる。
Further, according to the invention according to claim 4,
Since the weighting is determined by the position of the pixel, the calculation is relatively easy.

【0040】さらに、請求項5にかかる発明によれば、
画像のシャープさによって重み付けを変えるため、個々
の画像によって異なるターゲットを正確に判別して特徴
量を抽出することができる。
Further, according to the invention of claim 5,
Since the weighting is changed depending on the sharpness of the image, a different target can be accurately determined for each image to extract a feature amount.

【0041】さらに、請求項6にかかる発明によれば、
色度によって特定の対象を選別できるので、個々の画像
によって異なるターゲットを正確に判別して特徴量を抽
出することができる。
Further, according to the invention of claim 6,
Since a specific target can be selected based on chromaticity, it is possible to accurately determine a different target depending on each image and extract a feature amount.

【0042】さらに、請求項7にかかる発明によれば、
複数の重み付け手法を適宜組み合わせてより好適な特徴
量の評価を行うことができる。
According to the seventh aspect of the present invention,
More suitable evaluation of the feature amount can be performed by appropriately combining a plurality of weighting methods.

【0043】さらに、請求項8にかかる発明によれば、
演算量が少なく、かつ、最適な評価で画像処理を行うこ
とが可能な画像処理方法を提供でき、請求項9にかかる
発明によれば、同様の効果を得られる画像処理制御プロ
グラムを記録した媒体を提供できる。
Further, according to the invention of claim 8,
An image processing method capable of performing an image processing with a small amount of calculation and performing an optimal evaluation, and according to the invention according to claim 9, recording an image processing control program capable of obtaining the same effect Can be provided.

【0044】[0044]

【発明の実施の形態】以下、図面にもとづいて本発明の
実施形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0045】図1は、本発明の一実施形態にかかる画像
処理装置を適用した画像処理システムをブロック図によ
り示しており、図2は具体的ハードウェア構成例を概略
ブロック図により示している。
FIG. 1 is a block diagram showing an image processing system to which an image processing apparatus according to an embodiment of the present invention is applied, and FIG. 2 is a schematic block diagram showing an example of a specific hardware configuration.

【0046】図1において、画像入力装置10は写真な
どをドットマトリクス状の画素として表した実写画像デ
ータを画像処理装置20へ出力し、同画像処理装置20
は所定の処理を経て画像処理の強調程度を決定してから
画像処理を実行する。同画像処理装置20は画像処理し
た画像データを画像出力装置30へ出力し、画像出力装
置30は画像処理された画像をドットマトリクス状の画
素で出力する。ここにおいて、画像処理装置20が出力
する画像データは、各画素から所定の基準で均等に特徴
量を抽出した後、所定の重み付けで特徴量を再評価し、
再評価された特徴量に応じて決定された強調程度で画像
処理されたものである。従って、画像処理装置20は、
このようにして特徴量を均等に抽出する特徴量均等抽出
手段と、抽出された特徴量を所定の重み付けで再評価す
る特徴量重み付け再評価手段と、再評価された特徴量に
応じた強調程度で画像処理する処理手段とを備えてい
る。
In FIG. 1, an image input device 10 outputs actual image data representing a photograph or the like as pixels in a dot matrix form to an image processing device 20.
Performs the image processing after determining the degree of enhancement of the image processing through a predetermined process. The image processing device 20 outputs the image-processed image data to the image output device 30, and the image output device 30 outputs the image-processed image as pixels in a dot matrix. Here, the image data output by the image processing apparatus 20 is obtained by equally extracting a feature amount from each pixel based on a predetermined reference, and then re-evaluating the feature amount with a predetermined weight.
The image has been image-processed with the degree of enhancement determined according to the re-evaluated feature amount. Therefore, the image processing device 20
In this manner, a feature amount equal extraction means for evenly extracting the feature amount, a feature amount weighting re-evaluation means for re-evaluating the extracted feature amount with a predetermined weight, and an emphasis degree according to the re-evaluated feature amount And a processing means for performing image processing.

【0047】画像入力装置10の具体例は図2における
スキャナ11やデジタルスチルカメラ12あるいはビデ
オカメラ14などが該当し、画像処理装置20の具体例
はコンピュータ21とハードディスク22とキーボード
23とCD−ROMドライブ24とフロッピーディスク
ドライブ25とモデム26などからなるコンピュータシ
ステムが該当し、画像出力装置30の具体例はプリンタ
31やディスプレイ32等が該当する。本実施形態の場
合、画像処理としてオブジェクトを見つけて適切な画像
処理を行なうものであるため、画像データとしては写真
などの実写データが好適である。なお、モデム26につ
いては公衆通信回線に接続され、外部のネットワークに
同公衆通信回線を介して接続し、ソフトウェアやデータ
をダウンロードして導入可能となっている。
A specific example of the image input device 10 corresponds to the scanner 11, the digital still camera 12, or the video camera 14 in FIG. 2, and a specific example of the image processing device 20 is a computer 21, a hard disk 22, a keyboard 23, a CD-ROM. A computer system including a drive 24, a floppy disk drive 25, a modem 26, and the like corresponds to the computer system. Specific examples of the image output device 30 correspond to a printer 31, a display 32, and the like. In the case of the present embodiment, since an object is found as image processing and appropriate image processing is performed, actual image data such as a photograph is suitable as image data. The modem 26 is connected to a public communication line, is connected to an external network via the public communication line, and can download and install software and data.

【0048】本実施形態においては、画像入力装置10
としてのスキャナ11やデジタルスチルカメラ12が画
像データとしてRGB(緑、青、赤)の階調データを出
力するとともに、画像出力装置30としてのプリンタ3
1は階調データとしてCMY(シアン、マゼンダ、イエ
ロー)あるいはこれに黒を加えたCMYKの二値データ
を入力として必要とするし、ディスプレイ32はRGB
の階調データを入力として必要とする。一方、コンピュ
ータ21内ではオペレーティングシステム21aが稼働
しており、プリンタ31やディスプレイ32に対応した
プリンタドライバ21bやディスプレイドライバ21c
が組み込まれている。また、画像処理アプリケーション
21dはオペレーティングシステム21aにて処理の実
行を制御され、必要に応じてプリンタドライバ21bや
ディスプレイドライバ21cと連携して所定の画像処理
を実行する。従って、画像処理装置20としてのこのコ
ンピュータ21の具体的役割は、RGBの階調データを
入力して最適な画像処理を施したRGBの階調データを
作成し、ディスプレイドライバ21cを介してディスプ
レイ32に表示させるとともに、プリンタドライバ21
bを介してCMY(あるいはCMYK)の二値データに
変換してプリンタ31に印刷させることになる。
In this embodiment, the image input device 10
The scanner 11 and the digital still camera 12 output RGB (green, blue, red) gradation data as image data, and the printer 3 as the image output device 30.
1 requires CMY (cyan, magenta, yellow) or CMYK binary data obtained by adding black to the input as gradation data, and the display 32 has RGB data.
Is required as an input. On the other hand, an operating system 21a is running in the computer 21, and a printer driver 21b and a display driver 21c corresponding to the printer 31 and the display 32 are provided.
Is incorporated. The image processing application 21d is controlled by the operating system 21a to execute processing, and executes predetermined image processing in cooperation with the printer driver 21b and the display driver 21c as necessary. Therefore, the specific role of the computer 21 as the image processing apparatus 20 is to input RGB gradation data, create RGB gradation data subjected to optimal image processing, and display the RGB data through the display driver 21c. And the printer driver 21
The data is converted into binary data of CMY (or CMYK) via b and printed by the printer 31.

【0049】このように、本実施形態においては、画像
の入出力装置の間にコンピュータシステムを組み込んで
画像処理を行うようにしているが、必ずしもかかるコン
ピュータシステムを必要とするわけではなく、画像デー
タに対して各種の画像処理を行うシステムであればよ
い。例えば、図3に示すようにデジタルスチルカメラ1
2a内にオブジェクトを判断して画像処理する画像処理
装置を組み込み、変換した画像データを用いてディスプ
レイ32aに表示させたりプリンタ31aに印字させる
ようなシステムであっても良い。また、図4に示すよう
に、コンピュータシステムを介することなく画像データ
を入力して印刷するプリンタ31bにおいては、スキャ
ナ11bやデジタルスチルカメラ12bあるいはモデム
26b等を介して入力される画像データから自動的にオ
ブジェクトを判断して画像処理するように構成すること
も可能である。
As described above, in the present embodiment, a computer system is incorporated between image input / output devices to perform image processing. However, such a computer system is not necessarily required. Any system can be used as long as it performs various types of image processing. For example, as shown in FIG.
An image processing apparatus that determines an object and performs image processing on the object may be incorporated in 2a, and the converted image data may be used to display on the display 32a or print on the printer 31a. As shown in FIG. 4, in a printer 31b that inputs and prints image data without passing through a computer system, the printer 31b automatically receives image data input through a scanner 11b, a digital still camera 12b, a modem 26b, or the like. It is also possible to adopt a configuration in which an object is determined and image processing is performed.

【0050】上述したオブジェクトの判断とそれに伴う
画像処理は、具体的には上記コンピュータ21内にて図
5などに示すフローチャートに対応した画像処理プログ
ラムで行っている。同図に示すフローチャートにおいて
は、画像のコントラストを調整する画像処理を行うもの
であり、ステップS110にて画像全体から均等に画素
を間引きしながら特徴量である輝度を抽出した後、ステ
ップS120にて所定の重み付けを行って同特徴量を再
評価し、ステップS130〜S160にて輝度を調整す
る画像処理を行っている。
The above-described determination of an object and the accompanying image processing are performed by the image processing program corresponding to the flowchart shown in FIG. In the flowchart shown in the drawing, image processing for adjusting the contrast of an image is performed. In step S110, luminance as a feature amount is extracted while uniformly thinning out pixels from the entire image, and then in step S120. The same feature amount is re-evaluated by performing predetermined weighting, and image processing for adjusting the luminance is performed in steps S130 to S160.

【0051】ステップS110は図6に示すように縦横
方向のドットマトリクス状の画像データを対象として各
画素の輝度を求めてヒストグラムを生成していく。この
場合、全画素について行えば正確ともいえるが、後述す
るように集計結果は重み付けをして再評価されるため、
必ずしも正確である必要はない。従って、ある誤差の範
囲内となる程度に輝度を抽出する画素を間引き、処理量
を低減して高速化することが可能である。統計的誤差に
よれば、サンプル数Nに対する誤差は概ね1/(N**
(1/2))と表せる。ただし、**は累乗を表してい
る。従って、1%程度の誤差で処理を行うためにはN=
10000となる。
In step S110, as shown in FIG. 6, a histogram is generated by obtaining the luminance of each pixel for the dot matrix image data in the vertical and horizontal directions. In this case, it can be said that it is accurate if it is performed for all pixels, but as will be described later, since the aggregation result is weighted and re-evaluated,
It does not have to be accurate. Therefore, it is possible to thin out the pixels from which the luminance is extracted so as to fall within a certain error range, reduce the processing amount, and increase the speed. According to the statistical error, the error with respect to the number of samples N is approximately 1 / (N **
(1/2)). Here, ** indicates a power. Therefore, in order to perform processing with an error of about 1%, N =
10,000.

【0052】ここにおいて、図6に示すビットマップ画
面は(width)×(height)の画素数とな
り、サンプリング周期ratioは、 ratio=min(width,height)/A+1 …(1) とする。ここにおいて、min(width,heig
ht)はwidthとheightのいずれか小さい方
であり、Aは定数とする。また、ここでいうサンプリン
グ周期ratioは何画素ごとにサンプリングするかを
表しており、図7の○印の画素はサンプリング周期ra
tio=2の場合を示している。すなわち、縦方向及び
横方向に二画素ごとに一画素のサンプリングであり、一
画素おきにサンプリングしている。A=200としたと
きの1ライン中のサンプリング画素数は図8に示すよう
になる。
Here, the bit map screen shown in FIG. 6 has the number of pixels of (width) × (height), and the sampling period ratio is ratio = min (width, height) / A + 1 (1). Here, min (width, height)
ht) is the smaller of width and height, and A is a constant. Further, the sampling period ratio here indicates how many pixels are sampled. Pixels marked with a circle in FIG.
The case where tio = 2 is shown. In other words, one pixel is sampled every two pixels in the vertical direction and the horizontal direction, and sampling is performed every other pixel. The number of sampling pixels in one line when A = 200 is as shown in FIG.

【0053】同図から明らかなように、サンプリングし
ないことになるサンプリング周期ratio=1の場合
を除いて、200画素以上の幅があるときには最低でも
サンプル数は100画素以上となることが分かる。従っ
て、縦方向と横方向について200画素以上の場合には
(100画素)×(100画素)=(10000画素)
が確保され、誤差を1%以下にできる。
As is apparent from FIG. 6, except for the case where the sampling period ratio = 1 where sampling is not performed, when the width is 200 pixels or more, at least the number of samples becomes 100 pixels or more. Therefore, when the number of pixels is 200 or more in the vertical and horizontal directions, (100 pixels) × (100 pixels) = (10000 pixels)
Is ensured, and the error can be reduced to 1% or less.

【0054】ここにおいてmin(width,hei
ght)を基準としているのは次のような理由による。
例えば、図9(a)に示すビットマップ画像のように、
width>>heightであるとすると、長い方の
widthでサンプリング周期ratioを決めてしま
った場合には、同図(b)に示すように、縦方向には上
端と下端の2ラインしか画素を抽出されないといったこ
とが起こりかねない。しかしながら、min(widt
h,height)として、小さい方に基づいてサンプ
リング周期ratioを決めるようにすれば同図(c)
に示すように少ない方の縦方向においても中間部を含む
ような間引きを行うことができるようになる。すなわ
ち、所定の抽出数を確保したサンプリングが可能とな
る。
Here, min (width, hei)
(ght) is based on the following reason.
For example, as shown in a bitmap image shown in FIG.
Assuming that width >> height, if the sampling period ratio is determined by the longer width, as shown in FIG. 4B, only two lines, the upper and lower lines, are extracted in the vertical direction. That can happen. However, min (widt
h, height), if the sampling period ratio is determined based on the smaller one, FIG.
As shown in FIG. 7, thinning including the intermediate portion can be performed even in the smaller vertical direction. That is, it is possible to perform sampling while securing a predetermined number of extractions.

【0055】このように画素を間引いて抽出するのは輝
度である。上述したように、本実施形態においてはコン
ピュータ21が扱うのはRGBの階調データであり、直
接には輝度の値を持っていない。輝度を求めるためにL
uv表色空間に色変換することも可能であるが、演算量
などの問題から得策ではない。このため、テレビジョン
などの場合に利用されているRGBから輝度を直に求め
る次式の変換式を利用する。
The luminance is extracted by thinning out the pixels as described above. As described above, in the present embodiment, the computer 21 handles RGB gradation data, and does not directly have a luminance value. L to find the brightness
Although it is possible to perform color conversion to the uv color space, this is not advisable due to problems such as the amount of calculation. For this reason, the following conversion formula for directly obtaining luminance from RGB used in the case of a television or the like is used.

【0056】 Y=0.30R+0.59G+0.11B …(2) また、輝度のヒストグラムは一つの画像についてまとめ
て集計するのではなく、図10に示すように、入力画像
を横3ブロック、縦5ブロックの合計15ブロックに分
けて個別に集計する。本実施形態においてはこのような
15ブロックとしているが、むろん、ブロックの分割方
法は任意である。特に、プリンタドライバなどではアプ
リケーションからブロック毎に画像データを受け取るこ
とになるが、重み付けのための領域分割をこのブロック
を利用して行っても良い。
Y = 0.30R + 0.59G + 0.11B (2) In addition, the luminance histogram is not totalized for one image, but as shown in FIG. The blocks are divided into a total of 15 blocks and totaled individually. In the present embodiment, such 15 blocks are used, but a block division method is of course arbitrary. In particular, a printer driver or the like receives image data for each block from an application, but area division for weighting may be performed using this block.

【0057】このようにブロック毎に集計するのは処理
量の低減のためである。ステップS120にて重み付け
をして再評価するという意味では必ずしもブロック毎に
集計する必要はなく、選択した画素毎に重み付けを考慮
し、ヒストグラムとして集計していくことも可能であ
る。また、ブロック毎といっても集計結果に対する重み
付けを変える意味であるから、ブロックに応じた重み付
けを使用して一つのヒストグラムで集計していくことも
可能である。図11はブロックBiの輝度分布の一例を
示す図である。
The reason for summing up each block is to reduce the amount of processing. In the sense that weighting is performed in step S120 and re-evaluation is performed, it is not always necessary to perform totalization for each block. It is also possible to perform totalization as a histogram in consideration of weighting for each selected pixel. In addition, since the weight of the tally result is changed for each block, it is possible to perform tallying with one histogram by using the weight according to the block. FIG. 11 is a diagram illustrating an example of the luminance distribution of the block Bi.

【0058】各ブロック毎に集計をしていく場合には、
ステップS120にて領域別の重み付けをして再評価す
ることになる。図12と図13は各ブロックに重み付け
を与える例を示している。一般の写真画像を想定すれ
ば、通常、中央部分に本来の被写体が入るような構図を
取る。この意味では、画像データの中央部分の画像に重
きをおいて特徴量を評価すべきである。一方、別の構図
として建物の前で記念撮影をするような例を考えると、
人物像は中央の下方に位置させて撮影する。というのは
地面の高さが画像の下の方に位置させるのが普通だから
である。従って、この場合は画像の中央下方に重みをお
いて特徴量を評価すべきといえる。図12の例は前者の
ものに対応し、図13は後者のものに対応している。
In the case of totaling for each block,
In step S120, weighting is performed for each area and reevaluation is performed. FIG. 12 and FIG. 13 show examples in which weights are given to each block. Assuming a general photographic image, the composition is usually such that the original subject is located at the center. In this sense, the feature amount should be evaluated with emphasis on the image in the central part of the image data. On the other hand, considering another example of taking a commemorative photo in front of a building,
The human image is photographed while being positioned below the center. Because the height of the ground is usually located at the bottom of the image. Therefore, in this case, it can be said that the feature value should be evaluated with a weight below the center of the image. The example of FIG. 12 corresponds to the former, and FIG. 13 corresponds to the latter.

【0059】各ブロックの重み付けをWi(i=1〜1
5)とし、重み付けして再評価された輝度分布をDYと
し、
Each block is weighted by Wi (i = 1 to 1).
5), and the weighted and reevaluated luminance distribution is DY,

【0060】[0060]

【数1】 (Equation 1)

【0061】とするとともに、 Ki=Wi/SP …(4) とすると、And Ki = Wi / SP (4)

【0062】[0062]

【数2】 (Equation 2)

【0063】として求められる。Is obtained as follows.

【0064】このようにして再評価された輝度分布のヒ
ストグラムを得たら、この特徴量から画像処理の強度を
求める。すなわち、コントラストを拡大するための幅を
決定する。拡大幅を決定するにあたり、輝度分布の両端
を求めることを考える。写真画像の輝度分布は図14に
示すように概ね山形に表れる。むろん、その位置、形状
についてはさまざまである。輝度分布の幅はこの両端を
どこに決めるかによって決定されるが、単に裾野が延び
て分布数が「0」となる点を両端とすることはできな
い。裾野部分では分布数が「0」付近で変移する場合が
あるし、統計的に見れば限りなく「0」に近づきながら
推移していくからである。
When the re-evaluated histogram of the luminance distribution is obtained in this way, the intensity of image processing is obtained from the feature amount. That is, the width for increasing the contrast is determined. In determining the enlargement width, consider obtaining both ends of the luminance distribution. As shown in FIG. 14, the luminance distribution of the photographic image generally appears in a mountain shape. Of course, the position and shape are various. The width of the luminance distribution is determined depending on where the both ends are determined. However, the point where the number of distributions becomes “0” by extending the base cannot be set as the both ends. This is because the number of distributions may change around “0” in the tail part, and the number of distributions changes while approaching “0” without limit statistically.

【0065】このため、分布範囲において最も輝度の大
きい側と小さい側からある分布割合だけ内側に経た部分
を分布の両端とする。本実施形態においては、同図に示
すように、この分布割合を0.5%に設定している。む
ろん、この割合については、適宜、変更することが可能
である。このように、ある分布割合だけ上端と下端をカ
ットすることにより、ノイズなどに起因して生じている
白点や黒点を無視することもできる。すなわち、このよ
うな処理をしなければ一点でも白点や黒点があればそれ
が輝度分布の両端となってしまうので、255階調の輝
度値であれば、多くの場合において最下端は階調「0」
であるし、最上端は階調「255」となってしまうが、
上端部分から0.5%の画素数だけ内側に入った部分を
端部とすることにより、このようなことが無くなる。
For this reason, the portions extending inward by a certain distribution ratio from the side with the highest luminance and the side with the lowest luminance in the distribution range are defined as both ends of the distribution. In the present embodiment, as shown in the figure, the distribution ratio is set to 0.5%. Of course, this ratio can be changed as appropriate. In this manner, by cutting the upper and lower ends by a certain distribution ratio, white points and black points caused by noise or the like can be ignored. That is, if such processing is not performed, even if there is even one point, a white point or a black point will be at both ends of the luminance distribution. "0"
And the uppermost end is the gradation “255”,
Such a problem is eliminated by setting a portion which is 0.5% of the number of pixels inside from the upper end portion as an end portion.

【0066】実際の処理では再評価して得られたヒスト
グラムに基づいて画素数に対する0.5%を演算し、再
現可能な輝度分布における上端の輝度値及び下端の輝度
値から順番に内側に向かいながらそれぞれの分布数を累
積し、0.5%の値となった輝度値を求める。以後、こ
の上端側をymaxと呼び、下端側をyminと呼ぶ。
また、本実施形態においては、コントラストの拡大とと
もに明度の修正も行なうこととしており、そのために必
要なメジアンymedも上記再評価されたヒストグラム
に基づいて決定する。以上の処理をステップS130に
て行なう。
In the actual processing, 0.5% of the number of pixels is calculated based on the histogram obtained by re-evaluation, and the luminance value at the upper end and the luminance value at the lower end in the reproducible luminance distribution are sequentially turned inward. Then, the respective distribution numbers are accumulated, and a luminance value having a value of 0.5% is obtained. Hereinafter, this upper end is called ymax, and the lower end is called ymin.
Further, in the present embodiment, the brightness is corrected together with the expansion of the contrast, and the median ymed necessary for that is also determined based on the reevaluated histogram. The above processing is performed in step S130.

【0067】再現可能な輝度の範囲を「0」〜「25
5」としたときに、変換前の輝度yと輝度の分布範囲の
最大値ymaxと最小値yminから変換先の輝度Yを
次式に基づいて求める。
The reproducible luminance range is from “0” to “25”.
When “5” is set, the luminance Y of the conversion destination is obtained from the luminance y before the conversion and the maximum value ymax and the minimum value ymin of the luminance distribution range based on the following equation.

【0068】 Y=ay+b …(6) ただし a=255/(ymax−ymin) …(7) b=−a・yminあるいは255−a・ymax …(8) また、上記変換式にてY<0ならばY=0とし、Y>2
55ならばY=255とする。ここにおける、aは傾き
であり、bはオフセットといえる。この変換式によれ
ば、図15に示すように、あるせまい幅を持った輝度分
布を再現可能な範囲まで広げることができる。ただし、
再現可能な範囲を最大限に利用して輝度分布の拡大を図
った場合、ハイライト部分が白く抜けてしまったり、ハ
イシャドウ部分が黒くつぶれてしまうことが起こる。こ
れを防止するため本実施形態においては、再現可能な範
囲を制限している。すなわち、再現可能な範囲の上端と
下端に拡大しない範囲として輝度値で「5」だけ残して
いる。この結果、変換式のパラメータは次式のようにな
る。
Y = ay + b (6) where a = 255 / (ymax−ymin) (7) b = −a · ymin or 255−a · ymax (8) In the above conversion formula, Y <0 Then, Y = 0 and Y> 2
If 55, Y = 255. Here, “a” is a slope, and “b” is an offset. According to this conversion formula, as shown in FIG. 15, a luminance distribution having a certain narrow width can be expanded to a reproducible range. However,
When the luminance distribution is expanded by maximizing the reproducible range, a highlight portion may be lost in white, or a high shadow portion may be lost in black. In order to prevent this, in the present embodiment, the reproducible range is limited. That is, the luminance value “5” is left as a range that does not expand to the upper and lower ends of the reproducible range. As a result, the parameters of the conversion equation are as follows.

【0069】 a=245/(ymax−ymin) …(9) b=5−a・yminあるいは250−a・ymax …(10) そして、この場合にはy<yminと、y>ymaxの範囲に
おいては変換を行わないようにする。
A = 245 / (ymax−ymin) (9) b = 5-a · ymin or 250−a · ymax (10) In this case, in the range of y <ymin and y> ymax Causes no conversion.

【0070】ただし、このままの拡大率(aに対応)を
適用してしまうと、非常に大きな拡大率が得られる場合
も生じてしまう。例えば、夕方のような薄暮の状態では
最も明るい部分から暗い部分までのコントラストの幅が
狭くて当然であるのに、この画像についてコントラスト
を大きく拡大しようとする結果、昼間の画像のように変
換されてしまいかねない。このような変換は希望されな
いので、拡大率には制限を設けておき、aが1.5(〜
2)以上とはならないように制限する。これにより、薄
暮は薄暮なりに表現されるようになる。なお、この場合
は輝度分布の中心位置がなるべく変化しないような処理
を行っておく。ステップS140では、このようにして
拡大率a及び傾きbを求める処理を実行する。
However, if the enlargement ratio (corresponding to a) is applied as it is, a very large enlargement ratio may be obtained. For example, in a twilight state such as in the evening, the width of the contrast from the brightest part to the dark part is naturally narrow, but as a result of trying to greatly increase the contrast of this image, it is converted like a daytime image. I could end up. Since such conversion is not desired, a limit is set for the enlargement ratio, and a is set to 1.5 (to
2) Restrict it so that it does not exceed the above. Thereby, twilight comes to be expressed as twilight. In this case, processing is performed so that the center position of the luminance distribution does not change as much as possible. In step S140, the processing for obtaining the enlargement factor a and the inclination b in this manner is executed.

【0071】ところで、輝度の変換時に、毎回、上記変
換式(Y=ay+b)を実行するのは非合理的である。
というのは、輝度yの取りうる範囲が「0」〜「25
5」でしかあり得ないため、予め輝度yが取りうる全て
の値に対応して変換後の輝度Yを求めておくことも可能
である。従って、図16に示すようなテーブルとして記
憶しておく。
By the way, it is irrational to execute the above conversion formula (Y = ay + b) every time the luminance is converted.
That is, the possible range of the luminance y is “0” to “25”.
Since it can be only 5 ", the converted luminance Y can be obtained in advance for all possible values of the luminance y. Therefore, it is stored as a table as shown in FIG.

【0072】このような輝度の範囲の拡大によってコン
トラストを強調するだけでなく、合わせて明るさを調整
することも極めて有効であるため、画像の明るさを判断
して補正のためのパラメータも生成する。
Since it is extremely effective not only to enhance the contrast by expanding the range of brightness but also to adjust the brightness together, it is also necessary to determine the brightness of the image and generate parameters for correction. I do.

【0073】例えば、図17にて実線で示すように輝度
分布の山が全体的に暗い側に寄っている場合には波線で
示すように全体的に明るい側に山を移動させると良い
し、逆に、図18にて実線で示すように輝度分布の山が
全体的に明るい側に寄っている場合には波線で示すよう
に全体的に暗い側に山を移動させると良い。
For example, in the case where the peaks of the luminance distribution are entirely on the dark side as shown by the solid line in FIG. 17, it is preferable to move the peaks to the overall bright side as shown by the wavy line. Conversely, when the peaks of the luminance distribution are generally shifted to the bright side as shown by the solid line in FIG. 18, it is preferable to move the peaks to the dark side as a whole as indicated by the wavy line.

【0074】各種の実験を行った結果、本実施形態にお
いては、輝度分布におけるメジアンymedを求め、同
メジアンymedが「85」未満である場合に暗い画像
と判断して以下のγ値に対応するγ補正で明るくする。
As a result of conducting various experiments, in this embodiment, the median ymed in the luminance distribution is obtained, and when the median ymed is less than “85”, the image is determined to be a dark image and corresponds to the following γ value. Brighten with gamma correction.

【0075】 γ=ymed/85 …(11) あるいは、 γ=(ymed/85)**(1/2) …(12) とする。Γ = ymed / 85 (11) or γ = (ymed / 85) ** (1/2) (12)

【0076】この場合、γ<0.7となっても、γ=
0.7とする。このような限界を設けておかないと夜の
画像が昼間のようになってしまうからである。なお、明
るくしすぎると全体的に白っぽい画像になってコントラ
ストが弱い画像になりやすいため、彩度を合わせて強調
するなどの処理が好適である。
In this case, even if γ <0.7, γ =
0.7. Unless such a limit is set, a night image looks like daytime. If the image is made too bright, the image becomes whitish as a whole and the image tends to have a low contrast. Therefore, a process such as emphasizing with saturation is preferable.

【0077】一方、メジアンymedが「128」より
大きい場合に明るい画像と判断して以下のγ値に対応す
るγ補正で暗くする。
On the other hand, when the median ymed is larger than “128”, the image is determined to be a bright image and darkened by γ correction corresponding to the following γ value.

【0078】 γ=ymed/128 …(13) あるいは、 γ=(ymed/128)**(1/2) …(14) とする。この場合、γ>1.3となっても、γ=1.3
として暗くなり過ぎないように限界を設けておく。
Γ = ymed / 128 (13) Alternatively, γ = (ymed / 128) ** (1/2) (14) In this case, even if γ> 1.3, γ = 1.3.
A limit is set so as not to be too dark.

【0079】なお、このγ補正は変換前の輝度分布に対
して行っても良いし、変換後の輝度分布に対して行って
も良い。γ補正をした場合における対応関係を図19に
示しており、γ<1であれば上方に膨らむカーブとな
り、γ>1であれば下方に膨らむカーブとなる。むろ
ん、かかるγ補正の結果も図16に示すテーブル内に反
映させておけばよく、テーブルデータに対して同補正を
行っておく。ステップS150ではこのような変換テー
ブルを生成する処理を実行する。
Note that this γ correction may be performed on the luminance distribution before conversion or on the luminance distribution after conversion. FIG. 19 shows a correspondence relationship when the γ correction is performed. If γ <1, the curve expands upward, and if γ> 1, the curve expands downward. Of course, the result of the γ correction may be reflected in the table shown in FIG. 16, and the correction is performed on the table data. In step S150, processing for generating such a conversion table is executed.

【0080】この後、(6)式に基づく変換を行うが、
同式の変換式は、RGBの成分値との対応関係において
も当てはめることができ、変換前の成分値(R0 ,G0
,B0 )に対して変換後の成分値(R,G,B)は、 R=a・R0 +b …(15) G=a・G0 +b …(16) B=a・B0 +b …(17) として求めることもできる。ここで、輝度y,Yが階調
「0」〜階調「255」であるのに対応してRGBの各
成分値(R0 ,G0 ,B0 ),(R,G,B )も同じ範
囲となっており、上述した輝度y,Yの変換テーブルを
そのまま利用すればよいといえる。
Thereafter, conversion based on the equation (6) is performed.
The same conversion equation can be applied to the correspondence relationship with the RGB component values, and the component values before conversion (R0, G0
, B0), the converted component values (R, G, B) are: R = a · R0 + b (15) G = a · G0 + b (16) B = a · B0 + b (17) Can also be sought. Here, corresponding to the luminance y, Y being the gradation "0" to the gradation "255", the RGB component values (R0, G0, B0) and (R, G, B) are also in the same range. It can be said that the conversion table of the luminances y and Y described above may be used as it is.

【0081】従って、ステップS160では全画素の画
像データ(R0 ,G0 ,B0 )について(15)〜(1
7)式に対応する変換テーブルを参照し、変換後の画像
データ(R,G,B )を得るという処理を繰り返すこと
になる。
Therefore, in step S160, the image data (R0, G0, B0) of all the pixels are (15) to (1).
The process of obtaining the converted image data (R, G, B) by referring to the conversion table corresponding to the expression (7) is repeated.

【0082】むろん、これらのステップS130〜ステ
ップS160を実行するハードウェア構成とソフトウェ
アとによって処理手段を構成することになる。なお、本
実施形態においては、画像処理としてコントラストの拡
大処理や明度の修正処理を実行しているが、他の画像強
調処理などにおいても全く同様に適用可能であることは
いうまでもない。
Of course, the processing means is constituted by the hardware configuration and software for executing steps S130 to S160. Note that, in the present embodiment, a contrast enlargement process and a brightness correction process are executed as image processing, but it is needless to say that the same can be applied to other image enhancement processes and the like.

【0083】以上の処理では、画像の中での位置に応じ
た重み付けによって特徴量が再評価されるものであっ
た。しかしながら、重み付けの基準はこれに限られるも
のではなく、各種の態様が可能である。図20はその一
例として画像の変化度合いから本来の被写体を検出し、
重み付けを変化させる場合のフローチャートを示してい
る。
In the above processing, the feature value is reevaluated by weighting according to the position in the image. However, the criterion for weighting is not limited to this, and various modes are possible. FIG. 20 shows an example in which the original subject is detected from the degree of change in the image,
5 shows a flowchart in the case of changing the weight.

【0084】ステップS210は、上述したステップS
110に代わるものであり、均等に間引いた画素につい
て輝度を集計する。しかし、輝度だけの集計ではなく、
次に示すようなエッジ量も集計する。
Step S210 is the same as step S210 described above.
It is an alternative to 110 and counts the luminance for pixels that have been evenly thinned. However, instead of just counting the brightness,
The following edge amounts are also totaled.

【0085】入力画像のうちの背景は濃淡変化が緩やか
であるといえるし、本来の被写体はシャープであるがゆ
えに輝度の変化が激しいといえる。従って、図21に示
すようにある一つの画素を注目画素としてその周縁の画
素との濃度差を求めることとし、この濃度差をその注目
画素のエッジ量とする。この濃度差はフィルタを適用し
て演算することができ、図22(a)〜(f)はこのよ
うなフィルタの数例を示しており、注目画素と周縁の八
画素について各画素の輝度を重み付け加算する際の重み
付け係数を示している。ここにおいて、同図(a)の場
合は九画素についての重み付け加算であるから、各画素
でのエッジ量を求めるためには九回の乗算と八回の加算
が必要になる。この演算量は画像が大きくなってくるに
つれて無視できなくなるため、同図(b)(c)では五
回の乗算と四回の加算で済ませ、同図(d)(e)では
三回の乗算と二回の加算で済ませ、同図(f)では二回
の乗算と一回の加算で済ませるようにしている。
The background of the input image can be said to have a gradual change in shading, and the original subject can be said to have a sharp change in luminance because it is sharp. Therefore, as shown in FIG. 21, a certain pixel is set as a target pixel, and a density difference between the target pixel and a peripheral pixel is determined, and this density difference is set as an edge amount of the target pixel. This density difference can be calculated by applying a filter, and FIGS. 22A to 22F show several examples of such a filter. The luminance of each pixel is calculated for the target pixel and the eight peripheral pixels. The weighting coefficient at the time of weighting addition is shown. Here, in the case of FIG. 11A, weighted addition is performed for nine pixels, and thus, in order to obtain the edge amount at each pixel, nine multiplications and eight additions are required. Since the amount of calculation cannot be ignored as the size of the image increases, only five multiplications and four additions are required in FIGS. 9B and 9C, and three multiplications are required in FIGS. 9D and 9E. And two additions, and in FIG. 3F, only two multiplications and one addition are required.

【0086】これらの例では注目画素に対してこれを一
重に取り囲む画素とだけ比較しているが、いわゆるアン
シャープマスクを使用してより広範囲な画素のデータを
使用して注目画素でのシャープさを求めることは可能で
ある。ただし、本実施形態におけるエッジ量は、あくま
でもブロック毎の重み付けを評価するためのものである
から演算量を少なくしたこれらの例のフィルタのもので
も十分である。
In these examples, the target pixel is compared only with the pixel surrounding the target pixel in a single manner. However, the sharpness of the target pixel is determined using a wider range of pixel data using a so-called unsharp mask. It is possible to ask for However, the edge amount in the present embodiment is only for evaluating the weight for each block, and therefore, the filters of these examples in which the calculation amount is reduced are sufficient.

【0087】エッジ量の集計は各ブロック毎に各画素で
求めたエッジ量を集計していっても良いし、このエッジ
量の絶対値が所定のしきい値よりも大きい場合にエッジ
画素と判定し、各ブロック毎のエッジ画素総数を集計し
ていくようにしても良い。各ブロックでのエッジ量をE
Ri(i=1〜15)とすると、その総量SEは、
The edge amount may be calculated by summing the edge amounts obtained for each pixel for each block, or when the absolute value of the edge amount is larger than a predetermined threshold value, the pixel is determined to be an edge pixel. Alternatively, the total number of edge pixels for each block may be counted. The edge amount in each block is E
If Ri (i = 1 to 15), the total amount SE is

【0088】[0088]

【数3】 (Equation 3)

【0089】となるから、重み付け係数KEi自体は、 KEi=ERi/SE …(19) で表される。従って、この場合の重み付けして再評価さ
れた輝度分布DYは、
Thus, the weighting coefficient KEi itself is expressed by KEi = ERi / SE (19). Therefore, the weighted and re-evaluated luminance distribution DY in this case is

【0090】[0090]

【数4】 (Equation 4)

【0091】として求められる。また、各ブロックでの
エッジ画素総数をENi(i=1〜15)とすると、そ
の総量SEは、
Is obtained. If the total number of edge pixels in each block is ENi (i = 1 to 15), the total amount SE is

【0092】[0092]

【数5】 (Equation 5)

【0093】となるから、重み付け係数KEi自体は、 KEi=ENi/SE …(22) で表され、(20)式を利用して再評価された輝度分布
DYを得ることができる。いずれの場合においても、ス
テップS220では(20)式の演算式に基づいて輝度
分布DYを再評価する。
Thus, the weighting coefficient KEi itself is expressed by KEi = ENi / SE (22), and the luminance distribution DY re-evaluated can be obtained by using the equation (20). In any case, in step S220, the luminance distribution DY is reevaluated based on the arithmetic expression of Expression (20).

【0094】この例においては、エッジ画素と判定され
た画素の輝度をサンプリングして利用するというわけで
はなく、エッジ量やエッジ画素総数をブロックの重み付
け係数の決定に使用しているだけである。すなわち、特
定の性質(エッジ)を持つ画素のみの特徴量を集計して
いるわけではなく、そのブロックにおいて偏らない平均
的な特徴量を得ることができる。
In this example, the luminance of the pixel determined to be an edge pixel is not sampled and used, but the edge amount and the total number of edge pixels are merely used for determining the weighting coefficient of the block. That is, the feature amounts of only pixels having a specific property (edge) are not counted, and an average feature amount that is not biased in the block can be obtained.

【0095】なお、このようにして輝度分布を再評価し
たら上述したステップS130〜S160の処理を経て
コントラストを拡大するとともに明度を修正すればよ
い。
When the luminance distribution is re-evaluated in this way, the contrast may be increased and the brightness may be corrected through the above-described processing in steps S130 to S160.

【0096】さらに、本来の被写体が人物像であること
が多いことを考慮すると、肌色の画素が多いブロックに
重きをおいて再評価するといったことも可能である。図
23はこのような特定の色に注目してブロックの重み付
け係数を決定するフローチャートを示している。
Furthermore, considering that the original subject is often a human image, it is possible to re-evaluate the block with a large number of skin color pixels. FIG. 23 shows a flowchart for determining a weighting coefficient of a block by focusing on such a specific color.

【0097】ステップS110に対応するステップS3
10では、同様の間引き処理で輝度を集計するととも
に、各画素の色度に基づいて肌色らしき画素であるかを
判定し、肌色画素数の集計を行う。色度については各画
素についてのx−y色度を計算する。いま、対象画素の
RGB表色系におけるRGB階調データが(R,G,
B)であるとするときに、 r=R/(R+G+B) …(23) g=G/(R+G+B) …(24) とおくとすると、XYZ表色系における色度座標x,y
との間には、 x=(1.1302+1.6387r+0.6215g) /(6.7846−3.0157r−0.3857g) …(25) y=(0.0601+0.9399r+4.5306g) /(6.7846−3.0157r−0.3857g) …(26) なる対応関係が成立する。ここにおいて、色度は明るさ
に左右されることなく色の刺激値の絶対的な割合を表す
ものであるから、色度からその画素がどのような対象物
かを判断することができるといえる。肌色の場合は、 0.35<x<0.40 …(27) 0.33<y<0.36 …(28) というような範囲に含まれているから、各画素の色度を
求めたときにこの範囲内であればその画素は人間の肌を
示す画素と考え、ブロック内の肌色画素数を一つ増加す
る。
Step S3 corresponding to step S110
In step 10, the luminance is totaled by the same thinning-out processing, and it is determined whether or not the pixel is a skin color pixel based on the chromaticity of each pixel, and the number of skin color pixels is totaled. As for the chromaticity, the xy chromaticity of each pixel is calculated. Now, the RGB gradation data in the RGB color system of the target pixel is (R, G,
B), r = R / (R + G + B) (23) g = G / (R + G + B) (24) Then, chromaticity coordinates x, y in the XYZ color system
X = (1.1302 + 1.6387r + 0.6215g) / (6.7846-3.0157r-0.3857g) (25) y = (0.0601 + 0.9399r + 4.5306g) / (6. 7846-3.0157r-0.3857g) (26) Here, since the chromaticity represents the absolute ratio of the color stimulus value without being influenced by the brightness, it can be said that it is possible to determine what kind of object the pixel is based on the chromaticity. . Since the skin color is included in the range of 0.35 <x <0.40 (27) 0.33 <y <0.36 (28), the chromaticity of each pixel was obtained. Sometimes, if it is within this range, the pixel is considered as a pixel indicating human skin, and the number of skin color pixels in the block is increased by one.

【0098】このようにして肌色画素数が得られたら、
次のステップS320では上述したエッジ画素数の場合
と同様にして重み付け係数を決定し、輝度分布DYを再
評価する。すなわち、各ブロックでの肌色画素数をCN
i(i=1〜15)とすると、その総量SCは、
When the number of skin color pixels is obtained in this way,
In the next step S320, a weighting coefficient is determined in the same manner as in the case of the number of edge pixels described above, and the luminance distribution DY is reevaluated. That is, the number of skin color pixels in each block is set to CN
If i (i = 1 to 15), the total amount SC is

【0099】[0099]

【数6】 (Equation 6)

【0100】となるから、重み付けKCi自体は、 KCi=CNi/SC …(30) で表され、この場合の重み付けして再評価された輝度分
布DYは、
Thus, the weighting KCi itself is expressed by KCi = CNi / SC (30), and the weighted and reevaluated luminance distribution DY in this case is

【0101】[0101]

【数7】 (Equation 7)

【0102】として求められる。この例においても、肌
色の画素と判定された画素の輝度をサンプリングして利
用するというわけではなく、肌色画素の総数をブロック
の重み付け係数の決定に使用しているだけである。従っ
て、そのブロックにおいて偏らない平均的な特徴量を得
ることができる。この場合も、このようにして輝度分布
を再評価したら上述したステップS130〜S160の
処理を経てコントラストを拡大するとともに明度を修正
すればよい。図24に示す写真の場合、中央付近に女の
子が写っており、顔、手足の画素で肌色画素と判断され
ることになる。むろん、他の色についての色度を求めて
画素数を集計するようにしても良い。
Is obtained. Also in this example, the luminance of the pixel determined to be a flesh-colored pixel is not sampled and used, but the total number of flesh-colored pixels is simply used for determining the weighting coefficient of the block. Therefore, it is possible to obtain an average feature amount that is not biased in the block. In this case as well, if the luminance distribution is re-evaluated in this way, the contrast may be expanded and the brightness may be corrected through the above-described processes of steps S130 to S160. In the case of the photo shown in FIG. 24, a girl is shown near the center, and pixels of the face and limbs are determined to be flesh-colored pixels. Of course, the chromaticity of other colors may be obtained and the number of pixels may be totaled.

【0103】ところで、これまでは重み付け係数を一つ
の要因によって決定していたが、それぞれの要因の重要
度を加味して重複して適用することもできる。個々の要
因j(1:画像の中での位置、2:エッジ量、3:肌色
画素数)について各ブロックBi(i=1〜15)の重
み付け係数をTjiとした場合、要因毎の各ブロックに
分配した重み付けTjiは仮の重み付けとなり、
By the way, the weighting coefficient has been determined by one factor, but it is also possible to apply the weighting factor redundantly in consideration of the importance of each factor. When the weighting coefficient of each block Bi (i = 1 to 15) for each factor j (1: position in the image, 2: edge amount, 3: skin color pixel number) is Tji, each block for each factor Are temporary weights, and the weights Tji distributed to

【0104】[0104]

【数8】 (Equation 8)

【0105】とするとともに、 Kji=Tji/Sj …(33) とすると、ブロックBiにおける真の重み付け係数Ki
は、
And Kji = Tji / Sj (33), the true weighting coefficient Ki in the block Bi
Is

【0106】[0106]

【数9】 (Equation 9)

【0107】で表される。ここにおいて、Ajは各要因
毎の重要度を表す係数であり、総数が1となる範囲で適
宜決定する。一例として、肌色重視とするならば、A1
=0.2、A2=0.2、A3=0.6といった設定な
どが可能である。
Is represented by Here, Aj is a coefficient indicating the degree of importance of each factor, and is appropriately determined in a range where the total number is 1. As an example, if emphasis is placed on skin color, A1
= 0.2, A2 = 0.2, A3 = 0.6, etc.

【0108】次に、上記構成からなる本実施形態の動作
を説明する。最初に、先の実施形態に沿って説明する。
Next, the operation of this embodiment having the above configuration will be described. First, a description will be given along the previous embodiment.

【0109】写真画像をスキャナ11で読み込み、プリ
ンタ31にて印刷する場合を想定する。すると、まず、
コンピュータ21にてオペレーティングシステム21a
が稼働しているもとで、画像処理アプリケーション21
dを起動させ、スキャナ11に対して写真の読み取りを
開始させる。読み取られた画像データが同オペレーティ
ングシステム21aを介して画像処理アプリケーション
21dに取り込まれたら、ステップS110にて間引き
しながら各画素の輝度を集計する。集計された輝度分布
dYiは、ステップS120にて図12あるいは図13
に示すブロック毎の位置に対応して決定される重み付け
に基づいて再評価し、再評価された輝度分布DYに基づ
いてステップS130ではymax,ymin,yme
dを求める。
Assume that a photographic image is read by the scanner 11 and printed by the printer 31. Then, first,
Operating system 21a on computer 21
Is running, the image processing application 21
d is started, and the scanner 11 starts reading a photograph. When the read image data is captured by the image processing application 21d via the operating system 21a, the luminance of each pixel is totalized while thinning out in step S110. The aggregated luminance distribution dYi is obtained at step S120 in FIG.
Is re-evaluated based on the weight determined corresponding to the position of each block shown in FIG. 5, and in step S130, based on the re-evaluated luminance distribution DY, ymax, ymin, yme
Find d.

【0110】次なるステップS140では、(9)式あ
るいは(10)式に基づいて強調パラメータである傾き
aとオフセットbとを算出するとともに、(11)式〜
(14)式に基づいて明度修正に要するγ補正のγ値を
求め、ステップS150では図6に示す変換テーブルを
作成する。そして、最後に、ステップS160では全画
素についての画像データを同変換テーブルを参照して変
換する。
In the next step S140, the slope a and the offset b, which are the emphasis parameters, are calculated based on the equation (9) or (10), and the equations (11) to (11) are used.
The γ value of the γ correction required for the brightness correction is obtained based on the equation (14), and in step S150, the conversion table shown in FIG. 6 is created. Finally, in step S160, the image data for all pixels is converted with reference to the conversion table.

【0111】図12に示す重み付けを使用する場合に
は、中央に近いブロックほど重み付けが重いので、集計
された輝度分布も中央に近いものほど大きく評価され
る。例えば、夜間にフラッシュを使用して人物像を撮影
したとする。人物像についての輝度分布はフラッシュの
効果もあって図25(a)に示すように概ね良好な輝度
分布が得られたとしても、人物の周囲は暗く、同図
(b)に示すような暗い側に偏った輝度分布が得られ
る。この場合、単純に平均化すれば同図(c)に示すよ
うに全体的に暗い側に偏った輝度分布が得られる。従っ
て、このままコントラストや明度を修正すれば暗い画像
を無理やり明るくしてしまい、良好な画像は得られな
い。
In the case where the weighting shown in FIG. 12 is used, the weighting is heavier as the block is closer to the center, so that the aggregated luminance distribution is evaluated higher as the block is closer to the center. For example, suppose that a person image was shot using a flash at night. Due to the flash effect, the luminance distribution of the person image is generally dark, as shown in FIG. 25B, even though a good luminance distribution is obtained as shown in FIG. A luminance distribution biased to the side is obtained. In this case, simply averaging results in a luminance distribution that is entirely biased toward the dark side as shown in FIG. Therefore, if the contrast or brightness is corrected as it is, a dark image is forcibly brightened, and a good image cannot be obtained.

【0112】しかしながら、図12に示すようにして中
央のブロックに重み付けを重くするようにすると、図2
5(d)に示すように画像の中央部分で得られた輝度分
布の影響を強く受けた輝度分布DYが得られる。従っ
て、かかる輝度分布に基づいて決定される画像処理の強
度は過度にコントラストを拡大したり明度を修正したり
するようなものではなくなる。
However, as shown in FIG. 12, if the weight of the central block is increased,
As shown in FIG. 5D, a luminance distribution DY strongly influenced by the luminance distribution obtained in the central portion of the image is obtained. Therefore, the intensity of the image processing determined based on the luminance distribution does not excessively increase the contrast or modify the brightness.

【0113】逆に、逆光の状態で人物を撮影すると、顔
が暗く、背景が明るくなってしまうが、画像全体で見れ
ば良好な輝度分布ともなりかねない。しかしながら、こ
のような場合でも図12に示すようにして暗い顔が写っ
ている中央のブロックでの輝度分布に重きをおいて評価
することにより、暗い輝度分布が反映され、コントラス
トを拡大したり画像を明るくしたりする画像処理を実行
することができるようになる。
On the other hand, when a person is photographed in a backlight state, the face becomes dark and the background becomes bright. However, when viewed as a whole image, a good luminance distribution may result. However, even in such a case, as shown in FIG. 12, by evaluating the luminance distribution in the central block where the dark face is shown with emphasis, the dark luminance distribution is reflected, and the contrast is enlarged or the image is enlarged. Image processing to make the image brighter.

【0114】以上の処理により、スキャナ11を介して
読み込まれた写真の画像データは自動的に最適な強度で
画像処理を施され、ディスプレイ32に表示された後、
プリンタ31にて印刷される。
With the above processing, the image data of the photograph read via the scanner 11 is automatically subjected to image processing at an optimum intensity, and is displayed on the display 32.
The image is printed by the printer 31.

【0115】このように、画像処理の中枢をなすコンピ
ュータ21はステップS110にて均等に画素を選択し
ながら特徴量である輝度の分布を領域毎に集計した後、
ステップS120では各領域毎に決められた重み付けで
再評価することにより、均等にサンプリングを行いなが
らも本来の被写体の輝度分布の影響を強く受けた輝度分
布を得ることができ、ステップS130〜S150にて
かかる輝度分布に基づいて画像処理の強度などを決定し
た後、ステップS160で画像データを変換するため、
処理を軽くしつつ最適な強度で画像処理を実行すること
ができる。
As described above, the computer 21, which is the center of the image processing, sums up the distribution of the luminance, which is the characteristic amount, for each region while equally selecting the pixels in step S110.
In step S120, by performing re-evaluation with the weight determined for each region, it is possible to obtain a luminance distribution strongly influenced by the original luminance distribution of the subject while performing uniform sampling, and to perform steps S130 to S150. After determining the intensity of image processing and the like based on the luminance distribution, the image data is converted in step S160.
Image processing can be executed with optimal intensity while reducing processing.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態にかかる画像処理装置を適
用した画像処理システムのブロック図である。
FIG. 1 is a block diagram of an image processing system to which an image processing device according to an embodiment of the present invention is applied.

【図2】同画像処理装置の具体的ハードウェアのブロッ
ク図である。
FIG. 2 is a block diagram of specific hardware of the image processing apparatus.

【図3】本発明の画像処理装置の他の適用例を示す概略
ブロック図である。
FIG. 3 is a schematic block diagram illustrating another application example of the image processing apparatus of the present invention.

【図4】本発明の画像処理装置の他の適用例を示す概略
ブロック図である。
FIG. 4 is a schematic block diagram illustrating another application example of the image processing apparatus of the present invention.

【図5】本発明の画像処理装置における画像処理を示す
フローチャートである。
FIG. 5 is a flowchart illustrating image processing in the image processing apparatus of the present invention.

【図6】処理対象画素を移動させていく状態を示す図で
ある。
FIG. 6 is a diagram illustrating a state in which a processing target pixel is moved.

【図7】サンプリング周期を示す図である。FIG. 7 is a diagram showing a sampling cycle.

【図8】サンプリング画素数を示す図である。FIG. 8 is a diagram showing the number of sampling pixels.

【図9】変換元の画像とサンプリングされる画素の関係
を示す図である。
FIG. 9 is a diagram illustrating a relationship between a conversion source image and pixels to be sampled.

【図10】画像を領域分割したブロックの配置を示す図
である。
FIG. 10 is a diagram showing an arrangement of blocks obtained by dividing an image into regions.

【図11】各ブロックでの輝度分布の例を示す図であ
る。
FIG. 11 is a diagram illustrating an example of a luminance distribution in each block.

【図12】ブロック毎の重み付けの一例を示す図であ
る。
FIG. 12 is a diagram illustrating an example of weighting for each block.

【図13】ブロック毎の重み付けの他の一例を示す図で
ある。
FIG. 13 is a diagram illustrating another example of weighting for each block.

【図14】輝度分布の端部処理と端部処理にて得られる
端部を示す図である。
FIG. 14 is a diagram illustrating edge processing of a luminance distribution and an edge obtained by the edge processing.

【図15】輝度分布の拡大と再現可能な輝度の範囲を示
す図である。
FIG. 15 is a diagram showing an enlarged luminance distribution and a reproducible luminance range.

【図16】輝度分布を拡大する際の変換テーブルを示す
図である。
FIG. 16 is a diagram showing a conversion table when expanding a luminance distribution.

【図17】γ補正で明るくする概念を示す図である。FIG. 17 is a diagram showing a concept of increasing brightness by γ correction.

【図18】γ補正で暗くする概念を示す図である。FIG. 18 is a diagram showing a concept of darkening by γ correction.

【図19】γ補正で変更される輝度の対応関係を示す図
である。
FIG. 19 is a diagram showing a correspondence relationship of luminance changed by γ correction.

【図20】エッジ量に基づいて特徴量を再評価する場合
のフローチャートである。
FIG. 20 is a flowchart in the case of re-evaluating a feature amount based on an edge amount.

【図21】エッジ量を判断するための注目画素と周縁画
素との関係を示す図である。
FIG. 21 is a diagram illustrating a relationship between a target pixel and peripheral pixels for determining an edge amount.

【図22】エッジ量を算出するためのフィルタの例を示
す図である。
FIG. 22 is a diagram illustrating an example of a filter for calculating an edge amount.

【図23】所定の色の画素数に基づいて特徴量を再評価
する場合のフローチャートである。
FIG. 23 is a flowchart in the case of re-evaluating a feature amount based on the number of pixels of a predetermined color.

【図24】写真画像の一例を示す図である。FIG. 24 is a diagram illustrating an example of a photographic image.

【図25】夜間に撮影した写真画像の輝度分布を示す図
である。
FIG. 25 is a diagram showing a luminance distribution of a photographic image taken at night.

【符号の説明】[Explanation of symbols]

10…画像入力装置 20…画像処理装置 21…コンピュータ 21a…オペレーティングシステム 21b…プリンタドライバ 21c…ディスプレイドライバ 21d…画像処理アプリケーション 30…画像出力装置 Reference Signs List 10 image input device 20 image processing device 21 computer 21a operating system 21b printer driver 21c display driver 21d image processing application 30 image output device

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 ドットマトリクス状の画素からなる実写
画像データを入力して所定の画像処理を行う画像処理装
置であって、 画像処理強度を判定するにあたって必要な各画素の特徴
量を全画面にわたって均等に抽出する特徴量均等抽出手
段と、 この特徴量均等抽出手段で抽出した特徴量を所定の重み
付けによって再評価する特徴量重み付け再評価手段と、 この再評価された特徴量に基づいて画像処理強度を決定
して画像処理する処理手段とを具備することを特徴とす
る画像処理装置。
1. An image processing apparatus for inputting real image data composed of pixels in a dot matrix and performing predetermined image processing, wherein a feature amount of each pixel required for determining an image processing intensity is determined over an entire screen. A feature value uniform extraction means for evenly extracting the feature value; a feature value weighted re-evaluation means for re-evaluating the feature value extracted by the feature value equal extraction means by predetermined weighting; Processing means for determining intensity and performing image processing.
【請求項2】 上記請求項1に記載の画像処理装置にお
いて、 上記特徴量均等抽出手段は、全画素に対して所定の基準
で均等に間引きして選択した画素について上記特徴量を
抽出することを特徴とする画像処理装置。
2. The image processing apparatus according to claim 1, wherein the feature amount uniform extraction means extracts the feature amount for a pixel selected by uniformly thinning out all pixels on a predetermined basis. An image processing apparatus characterized by the above-mentioned.
【請求項3】 上記請求項1または請求項2のいずれか
に記載の画像処理装置において、 上記特徴量均等抽出手段は、画像を所定の基準で分割し
た領域単位で特徴量の抽出を行ない、 上記特徴量重み付け再評価手段は、同領域毎に重み付け
を設定して上記特徴量を再評価することを特徴とする画
像処理装置。
3. The image processing apparatus according to claim 1, wherein the feature amount uniform extraction means extracts a feature amount in units of an area obtained by dividing the image based on a predetermined standard. The image processing apparatus, wherein the feature amount weighting re-evaluating means re-evaluates the feature amount by setting a weight for each area.
【請求項4】 上記請求項1〜請求項3のいずれかに記
載の画像処理装置において、 上記特徴量重み付け再評価手段は、画像に対する各画素
の位置によって定まる対応関係で上記重み付けを変化さ
せることを特徴とする画像処理装置。
4. The image processing apparatus according to claim 1, wherein the feature amount weighting re-evaluating means changes the weighting in a correspondence determined by a position of each pixel with respect to the image. An image processing apparatus characterized by the above-mentioned.
【請求項5】 上記請求項1〜請求項4のいずれかに記
載の画像処理装置において、 上記特徴量重み付け再評価手段は、画像の変化度合いを
求めるとともに、画像の変化度合いが大きい部分で上記
重み付けを重くすることを特徴とする画像処理装置。
5. The image processing apparatus according to claim 1, wherein the feature value weighted re-evaluation means obtains a degree of change in the image, and determines the degree of change in the image in a portion where the degree of change in the image is large. An image processing apparatus characterized in that weighting is increased.
【請求項6】 上記請求項1〜請求項5のいずれかに記
載の画像処理装置において、 上記特徴量重み付け再評価手段は、各画素の色度を求め
るとともに、同色度が特徴量を抽出しようとするターゲ
ットの色度の範囲に入る画素数を求め、この画素数が多
い部分で上記重み付けを重くすることを特徴とする画像
処理装置。
6. The image processing apparatus according to claim 1, wherein said feature amount weighting re-evaluation means calculates a chromaticity of each pixel and extracts a feature amount having the same chromaticity. An image processing apparatus, wherein the number of pixels falling within the range of the chromaticity of a target to be calculated is obtained, and the weight is increased in a portion where the number of pixels is large.
【請求項7】 上記請求項1〜請求項6のいずれかに記
載の画像処理装置において、 上記特徴量重み付け再評価手段は、複数の要素に基づい
て個別に仮の重み付け係数を求めるとともに、さらに、
これらを重要度に応じた重み付けで加算して最終的な重
み付け係数として適用することを特徴とする画像処理装
置。
7. The image processing apparatus according to claim 1, wherein said feature amount weighting re-evaluation means obtains temporary weighting coefficients individually based on a plurality of elements, and further comprises: ,
An image processing apparatus characterized in that these are added by weighting according to importance and applied as a final weighting coefficient.
【請求項8】 ドットマトリクス状の画素からなる実写
画像データを入力して所定の画像処理を行う画像処理方
法であって、 画像処理強度を判定するにあたって必要な各画素の特徴
量を全画面にわたって均等に抽出する工程と、 この抽出した特徴量を所定の重み付けによって再評価す
る工程と、 この再評価された特徴量に基づいて画像処理強度を決定
して画像処理する工程とを具備することを特徴とする画
像処理方法。
8. An image processing method for inputting real image data consisting of pixels in a dot matrix form and performing predetermined image processing, wherein a feature amount of each pixel necessary for determining the image processing intensity is determined over the entire screen. A step of uniformly extracting, a step of re-evaluating the extracted feature amount by predetermined weighting, and a step of determining an image processing intensity based on the re-evaluated feature amount and performing image processing. Characteristic image processing method.
【請求項9】 コンピュータにてドットマトリクス状の
画素からなる実写画像データを入力して所定の画像処理
を行う画像処理制御プログラムを記録した媒体であっ
て、画像処理強度を判定するにあたって必要な各画素の
特徴量を全画面にわたって均等に抽出するとともに、こ
の抽出した特徴量を所定の重み付けによって再評価し、
この再評価された特徴量に基づいて画像処理強度を決定
して画像処理することを特徴とする画像処理制御プログ
ラムを記録した媒体。
9. A medium storing an image processing control program for performing predetermined image processing by inputting actual image data composed of dot matrix pixels by a computer, wherein each medium is necessary for determining image processing intensity. While extracting the feature amount of the pixel uniformly over the entire screen, the extracted feature amount is reevaluated by predetermined weighting,
A medium in which an image processing control program is recorded, wherein the image processing intensity is determined based on the re-evaluated feature amount and image processing is performed.
JP16015997A 1997-06-09 1997-06-17 Image processing apparatus, image processing method, and medium on which image processing control program is recorded Expired - Lifetime JP4019204B2 (en)

Priority Applications (11)

Application Number Priority Date Filing Date Title
JP16015997A JP4019204B2 (en) 1997-06-17 1997-06-17 Image processing apparatus, image processing method, and medium on which image processing control program is recorded
EP10158002A EP2199973A3 (en) 1997-06-09 1998-06-08 An image processing apparatus and method, and an image evaluation device and method
EP98304509A EP0891075A3 (en) 1997-06-09 1998-06-08 An image processing apparatus and method, and an image evaluation device and method
US09/093,094 US6738527B2 (en) 1997-06-09 1998-06-08 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, and image evaluation method and a medium on which an image evaluation program is recorded
US10/742,718 US7259894B2 (en) 1997-06-09 2003-12-22 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US11/491,278 US7940426B2 (en) 1997-06-09 2006-07-24 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US11/491,305 US7755801B2 (en) 1997-06-09 2006-07-24 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US11/739,858 US7508548B2 (en) 1997-06-09 2007-04-25 Image processing method and image processing apparatus
US13/081,027 US8553285B2 (en) 1997-06-09 2011-04-06 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US13/455,575 US8867099B2 (en) 1997-06-09 2012-04-25 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US13/719,602 US8681380B2 (en) 1997-06-09 2012-12-19 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16015997A JP4019204B2 (en) 1997-06-17 1997-06-17 Image processing apparatus, image processing method, and medium on which image processing control program is recorded

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2002208431A Division JP3573143B2 (en) 2002-07-17 2002-07-17 Image processing apparatus, image processing method, medium recording image processing control program
JP2002215392A Division JP3558073B2 (en) 2002-07-24 2002-07-24 Image processing apparatus, image processing method, medium recording image processing control program

Publications (2)

Publication Number Publication Date
JPH118768A true JPH118768A (en) 1999-01-12
JP4019204B2 JP4019204B2 (en) 2007-12-12

Family

ID=15709152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16015997A Expired - Lifetime JP4019204B2 (en) 1997-06-09 1997-06-17 Image processing apparatus, image processing method, and medium on which image processing control program is recorded

Country Status (1)

Country Link
JP (1) JP4019204B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003046778A (en) * 2001-08-01 2003-02-14 Olympus Optical Co Ltd Image processing system
JP2006352431A (en) * 2005-06-15 2006-12-28 Olympus Corp Imaging apparatus
JP2008033966A (en) * 2007-10-12 2008-02-14 Fujitsu Ltd Image processing program
JP2008099008A (en) * 2006-10-12 2008-04-24 Canon Inc Image signal processing apparatus and image signal processing method
JP2009112047A (en) * 2009-01-22 2009-05-21 Canon Inc Image processing apparatus and method thereof
US7593590B2 (en) 2000-12-28 2009-09-22 Fujitsu Limited Image status estimating method, image correcting method, image correction apparatus, and storage medium
US7620246B2 (en) 2002-07-30 2009-11-17 Fujifilm Corporation Method and apparatus for image processing
JP2010027077A (en) * 2009-11-02 2010-02-04 Seiko Epson Corp Camera, and method and program for adjusting image brightness
US7952617B2 (en) 2002-11-15 2011-05-31 Seiko Epson Corporation Automatic image quality adjustment according to brightness of subject
JP2011147139A (en) * 2011-02-04 2011-07-28 Canon Inc Image processing apparatus and method thereof
JP4888485B2 (en) * 2006-07-06 2012-02-29 株式会社ニコン Gradation correction characteristic evaluation apparatus, image processing apparatus, gradation correction characteristic evaluation method, image processing method, gradation correction characteristic evaluation program, and image processing program

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7593590B2 (en) 2000-12-28 2009-09-22 Fujitsu Limited Image status estimating method, image correcting method, image correction apparatus, and storage medium
JP2003046778A (en) * 2001-08-01 2003-02-14 Olympus Optical Co Ltd Image processing system
JP4499317B2 (en) * 2001-08-01 2010-07-07 オリンパス株式会社 Image processing system
US7620246B2 (en) 2002-07-30 2009-11-17 Fujifilm Corporation Method and apparatus for image processing
US7952617B2 (en) 2002-11-15 2011-05-31 Seiko Epson Corporation Automatic image quality adjustment according to brightness of subject
US8040397B2 (en) 2002-11-15 2011-10-18 Seiko Epson Corporation Automatic image quality adjustment according to brightness of subject
JP4526445B2 (en) * 2005-06-15 2010-08-18 オリンパス株式会社 Imaging device
US7889250B2 (en) 2005-06-15 2011-02-15 Olympus Corporation Image-acquisition apparatus
JP2006352431A (en) * 2005-06-15 2006-12-28 Olympus Corp Imaging apparatus
JP4888485B2 (en) * 2006-07-06 2012-02-29 株式会社ニコン Gradation correction characteristic evaluation apparatus, image processing apparatus, gradation correction characteristic evaluation method, image processing method, gradation correction characteristic evaluation program, and image processing program
US8379938B2 (en) 2006-07-06 2013-02-19 Nikon Corporation Gradation correction characteristics evaluation device, image processing device, gradation correction characteristics evaluation method, image processing method, and computer-readable computer program product
JP2008099008A (en) * 2006-10-12 2008-04-24 Canon Inc Image signal processing apparatus and image signal processing method
JP2008033966A (en) * 2007-10-12 2008-02-14 Fujitsu Ltd Image processing program
JP4640850B2 (en) * 2007-10-12 2011-03-02 富士通株式会社 Image processing program
JP2009112047A (en) * 2009-01-22 2009-05-21 Canon Inc Image processing apparatus and method thereof
JP2010027077A (en) * 2009-11-02 2010-02-04 Seiko Epson Corp Camera, and method and program for adjusting image brightness
JP2011147139A (en) * 2011-02-04 2011-07-28 Canon Inc Image processing apparatus and method thereof

Also Published As

Publication number Publication date
JP4019204B2 (en) 2007-12-12

Similar Documents

Publication Publication Date Title
US7155060B2 (en) Image processing system, image processing method, and medium having an image processing control program recorded thereon
JP4069333B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JP4019204B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP4243362B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
JP4993028B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JP3921737B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP3573143B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JPH10271524A (en) Image processor, image processing method, and medium recorded with image processing program
JP3558073B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JP3817371B2 (en) Image processing method, apparatus, and recording medium
JP3501151B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JP3698205B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JP3570416B2 (en) Image processing apparatus, image processing method, and medium recording image processing control program
JPH11136514A (en) Picture processor, picture processing method and medium recording picture processing control program
JP3705250B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP3596614B2 (en) Image processing apparatus, image processing method, and medium recording image processing program
JP3731573B2 (en) Image processing apparatus, image evaluation apparatus, image processing method, image evaluation method, and recording medium recording image processing program
JP4123387B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JP2003125213A5 (en)
JP5029779B2 (en) Image processing method, medium storing image processing program, and image processing apparatus
JP2003069826A (en) Image processor, image processing method and medium having image processing program recorded thereon
JP3985147B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JP3458855B2 (en) Image processing apparatus, image processing method, and medium recording image processing control program
JP2003092687A5 (en)
JP2003085552A5 (en)

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070129

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070518

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070910

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101005

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101005

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111005

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121005

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121005

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131005

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term