JP5203159B2 - Image processing method, image processing system, and image processing program - Google Patents

Image processing method, image processing system, and image processing program Download PDF

Info

Publication number
JP5203159B2
JP5203159B2 JP2008310692A JP2008310692A JP5203159B2 JP 5203159 B2 JP5203159 B2 JP 5203159B2 JP 2008310692 A JP2008310692 A JP 2008310692A JP 2008310692 A JP2008310692 A JP 2008310692A JP 5203159 B2 JP5203159 B2 JP 5203159B2
Authority
JP
Japan
Prior art keywords
image
region
image processing
area
original image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2008310692A
Other languages
Japanese (ja)
Other versions
JP2009050035A (en
Inventor
譲二 田島
正人 塚田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2008310692A priority Critical patent/JP5203159B2/en
Publication of JP2009050035A publication Critical patent/JP2009050035A/en
Application granted granted Critical
Publication of JP5203159B2 publication Critical patent/JP5203159B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)

Description

本発明は画像処理方法、画像処理システムおよび画像処理プログラムに関し、特に、画
像を画像内容に応じて高画質化する画像処理方法、画像処理システムおよび画像処理プロ
グラムに関する。
The present invention relates to an image processing method, an image processing system, and an image processing program, and more particularly, to an image processing method, an image processing system, and an image processing program for improving the image quality of an image according to the image content.

従来、デジタル画像処理技術により画像の性質を解析し、人の視覚に対して高画質な画
像に変換する方法が知られている。例えば、特許番号第2692531号の「画像の鮮鋭
化方法及び装置」では画像の鮮鋭化を行なう場合に、すべての画像について画一的なシャ
ープニングを行なうのでなく、画像ごとにエッジ領域を検出し、その領域における高周波
成分または高周波帯域成分の強度の積分値をエッジ領域の面積で正規化した値に基づいて
鮮鋭化の程度を調整する。同様にして、画像のコントラストや彩度を画像に適応して最適
値に調整する方法も知られている。
2. Description of the Related Art Conventionally, there has been known a method of analyzing the properties of an image using a digital image processing technique and converting the image into a high quality image for human vision. For example, in Japanese Patent No. 2692531, “Image Sharpening Method and Apparatus”, when sharpening an image, instead of performing uniform sharpening for all images, an edge region is detected for each image. The degree of sharpening is adjusted based on the value obtained by normalizing the integrated value of the intensity of the high-frequency component or high-frequency band component in the region with the area of the edge region. Similarly, a method of adjusting the contrast and saturation of an image to an optimum value by adapting to the image is also known.

特許番号第2692531号公報(第9―16頁)Japanese Patent No. 2692531 (pages 9-16)

しかし、従来の技術では、画像全体について上記のような性質の解析を行ない、その結
果に応じて処理を決定するために、1枚の画像中に異なった性質の対象が存在している場
合に、対象に応じた高画質化を実行することができなかった。例えば、ビル街の上に青空
が広がっているような画像に対して、鮮鋭度を調節する場合、主観的に、ビル街等の人工
物の画像部分については鮮鋭度が高い画像が高画質と判断され、青空の画像部分について
はよりなだらかな輝度値の変化の画像が高画質と判断される。シャープニング処理は、画
像のノイズを増幅する効果があるため、青空の領域では、その影響により画質が劣化した
と判断される場合もある。そのように、最適なシャープニングの程度は異なっている。し
かし画像全体について一様に同じシャープニングを適用する場合には、平均的な値が使用
されることになるために効果が上がらないことがあった。
However, in the conventional technique, the above-described property analysis is performed on the entire image, and in order to determine the processing according to the result, there is a case where there are objects with different properties in one image. Therefore, it was not possible to execute high image quality according to the target. For example, when adjusting the sharpness for an image in which a blue sky spreads over a building street, subjectively, an image with a high sharpness for an image portion of an artifact such as a building street has a high image quality. As a result, for the image part of the blue sky, it is determined that an image with a more gentle change in luminance value has a high image quality. Since the sharpening process has an effect of amplifying image noise, it may be determined that the image quality has deteriorated due to the influence in the blue sky region. As such, the optimum degree of sharpening is different. However, when the same sharpening is uniformly applied to the entire image, the average value is used, so that the effect may not be improved.

本発明の目的は、上記の課題を解決し、画像の部分領域を分類し、領域毎に最適な画像
処理を行なうことによって、画像全体を高画質化する方法、システムおよびプログラムを
提供することにある。
An object of the present invention is to provide a method, system, and program for solving the above-described problems, classifying partial areas of an image, and performing optimum image processing for each area, thereby improving the image quality of the entire image. is there.

本発明の画像処理方法は、原画像に1つあるいは複数の対象が含まれていることを識別
して対象領域を設定し、該対象領域には前記対象に応じた画像処理を適用し、処理結果を
得ることを特徴とする。
The image processing method of the present invention identifies that an original image includes one or a plurality of targets, sets a target region, applies image processing according to the target to the target region, It is characterized by obtaining results.

また、本発明の画像処理方法は、原画像の各位置について、1つあるいは複数の対象が
含まれている対象領域らしさを求め、該対象領域らしさに応じて前記対象に応じた画像処
理を適用し、処理結果を得ることを特徴とする。
The image processing method of the present invention obtains the likelihood of a target area including one or a plurality of targets for each position of the original image, and applies image processing according to the target according to the target area likelihood. And processing results are obtained.

さらに、本発明の画像処理方法は、原画像に対して1つあるいは複数の対象の画像に適
した画像処理を適用した1つあるいは複数の対象向け処理結果画像を作成し、前記原画像
の各位置について、前記対象が含まれている対象領域らしさを求め、該対象領域らしさに
応じて対象向け処理結果画像を統合することにより最終画像を得ることを特徴とする。
Furthermore, the image processing method of the present invention creates one or a plurality of target processing result images obtained by applying image processing suitable for one or a plurality of target images to the original image, and each of the original images For the position, the target image including the target is obtained, and a final image is obtained by integrating the processing result images for the target according to the target region.

さらに、本発明の画像処理方法は、前記対象が、人物あるいは顔、空・雲、人工物、草
木、集合人物、自然風景の少なくとも1つを含むことを特徴とする。
Furthermore, the image processing method of the present invention is characterized in that the object includes at least one of a person or a face, sky / clouds, an artifact, a plant, a collective person, and a natural landscape.

さらに、本発明の画像処理方法は、前記画像処理が鮮鋭化処理、コントラスト強調処理
、彩度強調処理、ホワイトバランス処理の少なくとも1つを含むことを特徴とする。
Furthermore, the image processing method of the present invention is characterized in that the image processing includes at least one of sharpening processing, contrast enhancement processing, saturation enhancement processing, and white balance processing.

さらに、本発明の画像処理システムは、原画像の各部分において、1つあるいは複数の
対象領域らしさを計算する領域指数計算手段と、該領域指数計算手段により得られた領域
指数に応じて原画像に画像変換処理を適用する画像変換手段を含むことを特徴とする。
Furthermore, the image processing system of the present invention includes a region index calculating unit that calculates the likelihood of one or a plurality of target regions in each part of the original image, and the original image according to the region index obtained by the region index calculating unit. And an image conversion means for applying an image conversion process.

さらに、本発明の画像処理システムは、原画像に対して1つあるいは複数の対象の画像
に適した画像処理を適用した1つあるいは複数の対象向け処理結果画像を作成する画像変
換手段と、前記原画像の各位置について前記対象が含まれている対象領域らしさを領域指
数として計算する領域指数計算手段と、該領域指数に応じて前記対象向け処理結果画像を
統合する画像統合手段を含むことを特徴とする。
Furthermore, the image processing system of the present invention includes an image conversion unit that creates one or a plurality of target processing result images obtained by applying image processing suitable for one or a plurality of target images to the original image, A region index calculation unit that calculates a target region probability that the target is included for each position of the original image as a region index, and an image integration unit that integrates the processing result images for the target according to the region index. Features.

さらに、本発明の画像処理システムは、前記対象が、人物あるいは顔、空・雲、人工物
、草木、集合人物、自然風景の少なくとも1つを含むことを特徴とする。
Furthermore, the image processing system of the present invention is characterized in that the object includes at least one of a person or a face, sky / clouds, an artifact, a plant, a collective person, and a natural landscape.

さらに、本発明の画像処理システムは、前記画像処理が鮮鋭化処理、コントラスト強調
処理、彩度強調処理、ホワイトバランス処理の少なくとも1つを含むことを特徴とする。
Furthermore, the image processing system of the present invention is characterized in that the image processing includes at least one of sharpening processing, contrast enhancement processing, saturation enhancement processing, and white balance processing.

本発明の構成をとることによって、画像全体の性質に基づいて、高画質化処理が行われ
ていた従来の方法に対して、画像領域に応じた高画質化処理が可能となり、人の視覚に対
してより高画質な画像に変換することが可能となる。
By adopting the configuration of the present invention, it is possible to perform high image quality processing according to the image area, compared with the conventional method in which high image quality processing has been performed based on the properties of the entire image. On the other hand, it is possible to convert to a higher quality image.

次に、本発明の実施の形態について図面を参照して詳細に説明する。   Next, embodiments of the present invention will be described in detail with reference to the drawings.

本発明の第1の実施の形態をブロックで示す図1を参照して、この実施の形態の画像処
理システムの動作を説明する。
The operation of the image processing system of this embodiment will be described with reference to FIG. 1 which shows the first embodiment of the present invention in block form.

原画像1の例としては、図2の模式図のようなものであるとする。原画像1には、前景
に人物、背景に家や木などの風景や空が撮影されている。本実施の形態は、この原画像1
について、
(1)人物の肌については、シャープニングは弱くかける。
(2)空や雲については、シャープニングはかけない。青空の部分は彩度を高くする。
(3)人物の服、背景については、シャープニングを強くかける。コントラストや彩度も
メリハリがつくように強調する。
のような処理を行ない、人の視覚に対して画像を高画質化する。即ち、原画像1に対して
領域識別手段11が人物の肌領域を識別する。そして、識別された領域が“1”、それ以
外が“0”である二値画像である領域画像13が作成される。図2の例に対しては、図3
に“白”で示す部分が識別された肌領域である“1”の部分である。画像変換手段15は
、原画像1の領域画像13が“1”である部分に対して、肌領域に適した高画質化処理を
適用する。同様に、領域識別手段12が空・雲の領域を識別し、領域画像14が作成され
る。画像変換手段16は、原画像1の領域画像14が“1”である部分に対して、空・雲
領域に適した高画質化処理を適用する。また、原画像1の全体に対して、一般的な高画質
化処理が画像変換手段17により適用される。画像合成手段18は、画像変換手段17の
出力に対し、“肌”の領域画像13が“1”である部分については、画像変換手段15の
出力を、“空・雲”に領域画像14が“1”である部分については、画像変換手段16の
出力を合成する。画素ごとに画像を合成すると、領域の繋ぎ目で画質が急に変化し、不自
然な画像が生成されることがあるので、画像合成手段18は、領域間のぼかし処理を含む
のが適当である。
An example of the original image 1 is assumed to be as shown in the schematic diagram of FIG. In the original image 1, a person in the foreground and a landscape such as a house and a tree and the sky are photographed in the background. In the present embodiment, the original image 1
about,
(1) For human skin, apply sharpening weakly.
(2) Do not sharpen the sky or clouds. The blue sky increases the saturation.
(3) Sharpen the person's clothes and background strongly. Emphasize the contrast and saturation so that they are sharp.
To improve the image quality for human vision. That is, the area identifying unit 11 identifies the skin area of the person with respect to the original image 1. Then, a region image 13 which is a binary image in which the identified region is “1” and the others are “0” is created. For the example of FIG.
The portion indicated by “white” is the portion “1” that is the identified skin region. The image conversion means 15 applies a high image quality process suitable for the skin area to the portion where the area image 13 of the original image 1 is “1”. Similarly, the area identifying means 12 identifies the sky / cloud area, and the area image 14 is created. The image conversion means 16 applies a high image quality process suitable for the sky / cloud region to the portion where the region image 14 of the original image 1 is “1”. Further, a general image quality enhancement process is applied to the entire original image 1 by the image conversion means 17. In contrast to the output of the image conversion means 17, the image composition means 18 outputs the output of the image conversion means 15 for the part where the “skin” area image 13 is “1”, and the area image 14 is “sky / cloud”. For the portion of “1”, the output of the image conversion means 16 is synthesized. When an image is synthesized for each pixel, the image quality may change abruptly at the joint between the regions, and an unnatural image may be generated. Therefore, it is appropriate that the image synthesis unit 18 includes a blurring process between the regions. is there.

なお、本明細書では、識別すべき対象を、人物、空・雲として説明しているが、目標と
する画質が異なる対象ごとに別々の処理が行なわれる実施形態が望ましく、その他に人工
物や建物、山などの自然風景、集合人物等、よく画像が撮影される状況を識別し、それぞ
れの状況における高画質化処理を行なうことが可能である。
In this specification, the target to be identified is described as a person, sky, or cloud. However, an embodiment in which separate processing is performed for each target with different target image quality is desirable. It is possible to identify situations in which images are often taken, such as buildings, natural scenery such as mountains, gathering people, etc., and perform image quality enhancement processing in each situation.

また、本明細書では、適用される画像処理を‘鮮鋭化’、‘コントラスト強調’、‘彩
度強調’としているが、‘ホワイトバランス処理’、‘記憶色への色変更処理’などを含
んでもよい。
In this specification, the applied image processing is “sharpening”, “contrast emphasis”, and “saturation emphasis”, but includes “white balance processing”, “color change processing to memory color”, etc. But you can.

第1の実施の形態は理想的であるが、通常、対象の識別は完全ではないので、誤った画
像変換が適用される領域が生じることがある。それを踏まえて、第2の実施の形態を図4
に基づいて説明する。まず、原画像1は、第1、第2の領域指数計算手段21、22によ
って、各画素毎に規定された性質を持っているかを解析する。領域の性質としては、例え
ば第1、第2の領域指数計算手段21、22は、それぞれ、人肌、空・雲の2つの領域の
性質を評価する。
The first embodiment is ideal, but usually the identification of the object is not perfect, so there may be areas where incorrect image transformation is applied. Based on this, the second embodiment is shown in FIG.
Based on First, the original image 1 is analyzed by the first and second region index calculation means 21 and 22 to determine whether or not it has a property defined for each pixel. As the region properties, for example, the first and second region index calculating means 21 and 22 evaluate the properties of two regions of human skin and sky / cloud, respectively.

それぞれの領域指数計算手段21、22は、その領域らしさを画像から判断し、その領
域らしさを例えば0〜1の値をとる指数として出力する。図5を参照して人肌領域らしさ
を各画素の色から計算する領域指数計算手段21の機能を示す。ここでは、画素の色を(
R,G,B)値で示す。黒を(0,0,0)、白を(1,1,1)とすると、RGB色空
間において、すべての色は図5のような立方体に含まれる。この中で、最も肌色らしい領
域211に‘1’、その周囲の尤度が低い領域212に‘0.7’、その更に周囲の領域
213に‘0.3’、それ以外には‘0’の指数を予め設定する。各画素値は、これらの
領域に含まれているかどうかを調べられ、対応する指数F1が出力される。勿論、指数は
図5のように離散的な値を設定する代わりに、正規分布関数のような連続的に変化するよ
うに設定しても構わない。
Each area index calculating means 21 and 22 determines the likelihood of the area from the image, and outputs the area likelihood as an index having a value of 0 to 1, for example. With reference to FIG. 5, the function of the area | region index calculation means 21 which calculates human skin area-likeness from the color of each pixel is shown. Here, the color of the pixel (
R, G, B) values. If black is (0, 0, 0) and white is (1, 1, 1), all colors are included in a cube as shown in FIG. 5 in the RGB color space. Among these, the region 211 that seems to be the most skin color is “1”, the surrounding region 212 is “0.7”, the surrounding region 213 is “0.3”, and the others are “0”. The index of is preset. Each pixel value is examined to see if it is included in these areas, and the corresponding index F1 is output. Of course, instead of setting discrete values as shown in FIG. 5, the index may be set so as to change continuously like a normal distribution function.

次に、図6を参照して、人肌の内、特に顔領域らしさを判定する領域指数計算手段21
の実施例を説明する。画像データが、まず画像スケーリング手段214に入力される。こ
れは、画像に撮像されている顔の大きさの変化に対応するためである。画像データは、ま
ず第1の変倍手段2151によって、例えば0.8倍のサイズに縮小される。縮小された
画像データは、第1の類似度判定手段2161に出力されると同時に、第2の変倍手段2
152にも出力される。第2の変倍手段2152は、同様に、画像を0.8倍のサイズ(
原画からは0.64倍のサイズ)に縮小する。この結果は第2の類似度判定手段2162
に出力されると同時に、第3の変倍手段2153にも出力される。これを必要なだけ繰り
返し、顔の大きさのバリエーションに対応する。類似度判定手段2161〜2163は、
状況に応じて画像の輝度の正規化を行ない、顔テンプレート217との類似度を0〜1の
値として計算する。顔が存在する場合、サイズがテンプレートと合っている類似度判定手
段に高い出力が得られるので、最大値選択手段218は、類似度判定手段2161〜21
63の出力の最大値を顔領域指数F2として出力する。
Next, referring to FIG. 6, region index calculating means 21 for determining the likelihood of a human skin, particularly a face region.
Examples will be described. Image data is first input to the image scaling means 214. This is to cope with a change in the size of the face captured in the image. The image data is first reduced to a size of, for example, 0.8 times by the first scaling unit 2151. The reduced image data is output to the first similarity determination unit 2161 and at the same time, the second scaling unit 2
Also output to 152. Similarly, the second scaling unit 2152 reduces the size of the image by 0.8 times (
The original image is reduced to 0.64 times the size). The result is the second similarity determination means 2162.
Are simultaneously output to the third scaling unit 2153. This is repeated as necessary to cope with variations in face size. The similarity determination means 2161 to 2163
The brightness of the image is normalized according to the situation, and the similarity with the face template 217 is calculated as a value of 0-1. When a face is present, a high output is obtained in the similarity determination unit whose size matches the template, so that the maximum value selection unit 218 is configured to use the similarity determination unit 2161-21.
The maximum value of output 63 is output as the face area index F2.

尚、顔領域指数の計算の際に、前記の人肌領域指数F1の計算も同時に行ない、その判
定精度を高めることもできる。その場合には、前記人肌領域指数F1と顔領域指数F2を
組み合わせた計算で、新しい顔領域指数Fを求めることが可能である。例えば、式(1)
や式(2)のような実現方法が可能であるが、これに制限されるものではない。
When calculating the face area index, the human skin area index F1 is also calculated at the same time, and the determination accuracy can be increased. In that case, a new face area index F can be obtained by a combination of the human skin area index F1 and the face area index F2. For example, the formula (1)
An implementation method such as (2) or (2) is possible, but is not limited thereto.

F=F1・F2 (1)
F=(F1+F2)/2 (2)
F = F1 ・ F2 (1)
F = (F1 + F2) / 2 (2)

同様にして、空・雲の領域らしさを示す領域指数Cを計算する領域指数計算手段22の
実施例を図7を参照して説明する。色相彩度計算手段221が各画素の値から、その画素
の色相H、彩度S、明度Vを計算する。例えば、公知のHSV空間への変換を式3に従っ
て行なう。
Similarly, an embodiment of the area index calculating means 22 for calculating the area index C indicating the sky-cloud area likelihood will be described with reference to FIG. Hue saturation calculation means 221 calculates the hue H, saturation S, and brightness V of the pixel from the value of each pixel. For example, conversion to a known HSV space is performed according to Equation 3.


Figure 0005203159

Figure 0005203159

ここで、   here,


Figure 0005203159

Figure 0005203159

すると、図8のような輝度を除いた二次元の表現で、例えばRからの角度として色相H
が、中心からの距離として彩度Sが定義できる。ここで、領域227を空や雲の色領域ら
しさC1=0.3、領域228をC1=0.6、領域229をC1=0.9として定義す
る。色度評価手段222は、この計算を行ないC1を出力する。
Then, in a two-dimensional expression excluding luminance as shown in FIG.
However, the saturation S can be defined as the distance from the center. Here, the region 227 is defined as the color region likelihood C1 = 0.3 of the sky or cloud, the region 228 is defined as C1 = 0.6, and the region 229 is defined as C1 = 0.9. The chromaticity evaluation means 222 performs this calculation and outputs C1.

また、一様度計算手段223は、各画素について、その周囲からの色の変化の一様度C
2を評価する。例えば式(4)により評価できるが、これに制限されるものではない。
In addition, the uniformity calculation means 223 calculates the uniformity C of the color change from the periphery of each pixel.
2 is evaluated. For example, although it can evaluate by Formula (4), it is not restrict | limited to this.


Figure 0005203159

Figure 0005203159

ここで、VはR,G,B。   Here, V is R, G, B.

指数合成手段224は、上記で得られたC1とC2から空・雲領域指数Cを計算する。
計算方法は、式(5)又は式(6)で実現できるが、これに制限されるものではない。
The index composition means 224 calculates the sky / cloud area index C from C1 and C2 obtained above.
The calculation method can be realized by Equation (5) or Equation (6), but is not limited to this.

C=C1・C2 (5)
C=(C1+C2)/2 (6)
C = C1 ・ C2 (5)
C = (C1 + C2) / 2 (6)

さて、領域指数計算手段21から顔領域指数Fが、領域指数計算手段22から空・雲領
域指数Cが各画素毎に出力され、それぞれ、領域指数画像31及び領域指数画像32とな
る。
The area index calculation means 21 outputs the face area index F and the area index calculation means 22 outputs the sky / cloud area index C for each pixel, which becomes the area index image 31 and the area index image 32, respectively.

画像変換手段4は、原画像1と領域指数画像31、32を入力とし、領域に応じた高画
質化処理を適用し、結果の画像を出力する。図9を参照して、画像変換手段4の実施例を
説明する。鮮鋭化手段41、コントラスト強調手段42、彩度強調手段43が原画像1に
対して画像処理を行なうが、それぞれの処理の程度は鮮鋭化量計算手段44、コントラス
ト強調量計算手段45、彩度強調量計算手段46で計算する。
The image conversion means 4 receives the original image 1 and the area index images 31 and 32, applies image quality enhancement processing according to the area, and outputs the resulting image. With reference to FIG. 9, an embodiment of the image conversion means 4 will be described. The sharpening means 41, the contrast enhancement means 42, and the saturation enhancement means 43 perform image processing on the original image 1, and the degree of each processing is the sharpening amount calculation means 44, the contrast enhancement amount calculation means 45, and the saturation. Calculation is performed by the enhancement amount calculation means 46.

例えば、鮮鋭化手段41が、鮮鋭化を式(7)のように行ない、鮮鋭化量はαで調整さ
れる場合、
For example, when the sharpening means 41 performs sharpening as shown in Equation (7) and the sharpening amount is adjusted by α,


Figure 0005203159

Figure 0005203159

ここで、   here,


Figure 0005203159

Figure 0005203159

一般の領域では、α=1とするが、顔領域では鮮鋭化量を少なめに、空・雲領域では全
くかけない方が高画質になるとき、例えば、鮮鋭化量計算手段44はαを式(8)のよう
に計算する。
In the general region, α = 1, but when the amount of sharpening is small in the face region and the image is not applied at all in the sky / cloud region, the sharpening amount calculating means 44, for example, calculates α Calculate as in (8).

α=1−0.5F−C (8)   α = 1-0.5F-C (8)

尚、ここではFとCが同時に値を持たないことを仮定している。   Here, it is assumed that F and C have no value at the same time.

また、コントラスト強調手段42が、原画像1のコントラストを式(9)のように計測
し、原コントラスト値Kを得、目標のコントラスト値K’に式(10)により変換すると
する。
Further, it is assumed that the contrast emphasizing means 42 measures the contrast of the original image 1 as shown in Expression (9), obtains the original contrast value K, and converts it into the target contrast value K ′ by Expression (10).


Figure 0005203159

Figure 0005203159

ここで、   here,


Figure 0005203159

Figure 0005203159

空・雲領域では、一般と同様にコントラストを強調するが、顔領域では顔色を変えない
ほうが高画質になる場合、コントラスト強調量計算手段45は、強調量βを式(11)の
ように計算する。
In the sky / cloud region, contrast is enhanced in the same manner as in general, but in the face region, when the face color is not changed, the contrast enhancement amount calculation unit 45 calculates the enhancement amount β as shown in Expression (11). To do.

β=1−F (11)   β = 1−F (11)

彩度強調量計算手段46も、同様に、公知の画像に対する彩度強調を行なう彩度強調手
段43に対しての彩度強調量を、領域指数の値に応じて計算するように構成される。
Similarly, the saturation enhancement amount calculation unit 46 is configured to calculate the saturation enhancement amount for the saturation enhancement unit 43 that performs saturation enhancement on a known image in accordance with the value of the region index. .

続いて、図10を参照して本発明の第3の実施の形態を説明する。求める結果画像が第
2の実施の形態と同等であると考えると、領域指数画像31、領域指数画像32の各画素
には、それぞれ、顔領域指数、空・雲領域指数が格納される。それに対応して、画像変換
手段410は、原画像1全体に顔領域に適した画像変換処理を適用する。同様に、画像変
換手段420は、原画像1全体に空・雲領域に適した画像変換処理を適用する。また、画
像変換手段430は、原画像全体に一般的な画像変換処理を適用する。画像変換手段41
0の構成例を図11に示す。画像変換手段410は、画像変換手段4と似た処理手段であ
る、鮮鋭化手段411、コントラスト強調手段412、彩度強調手段413を持つ。画像
変換手段4は、この強調量を計算して求めるが、画像変換手段410は、顔領域向けの画
像変換手段であるので、それに最適な強調量で画像変換を行ない、変換された画像を出力
する。画像変換手段420は、同様の構成で、空・雲領域に適した画像変換を行ない、処
理結果を出力する。画像変換手段430は、それ以外の一般の領域に適した画像変換を行
ない処理結果を出力する。
Subsequently, a third embodiment of the present invention will be described with reference to FIG. If it is considered that the result image to be obtained is equivalent to that of the second embodiment, a face area index and a sky / cloud area index are stored in each pixel of the area index image 31 and the area index image 32, respectively. Correspondingly, the image conversion means 410 applies image conversion processing suitable for the face area to the entire original image 1. Similarly, the image conversion means 420 applies image conversion processing suitable for the sky / cloud region to the entire original image 1. The image conversion unit 430 applies general image conversion processing to the entire original image. Image conversion means 41
A configuration example of 0 is shown in FIG. The image conversion unit 410 includes a sharpening unit 411, a contrast enhancement unit 412, and a saturation enhancement unit 413, which are processing units similar to the image conversion unit 4. The image conversion means 4 calculates and obtains this enhancement amount. Since the image conversion means 410 is an image conversion means for the face area, it performs image conversion with the optimum enhancement amount and outputs the converted image. To do. The image conversion means 420 performs image conversion suitable for the sky / cloud region with the same configuration, and outputs the processing result. The image conversion means 430 performs image conversion suitable for other general areas and outputs a processing result.

画像統合手段5は、それぞれの画像変換が適用された画像を統合する。例えば、画像変
換手段410、420、430の出力画像をそれぞれg1(x,y)、g2(x,y)、
g3(x,y)、領域指数画像31、32を、それぞれF(x,y),C(x,y)とす
る。画像統合手段5は、各画素ごとに式(12)を計算し、結果画像result(x、
y)を出力する。
The image integration unit 5 integrates the images to which the respective image conversions are applied. For example, the output images of the image conversion means 410, 420, and 430 are respectively g1 (x, y), g2 (x, y),
Let g3 (x, y) and the region index images 31 and 32 be F (x, y) and C (x, y), respectively. The image integration means 5 calculates Expression (12) for each pixel, and results image result (x,
y) is output.

result(x、y)=F(x,y)g1(x,y)+C(x,y)g2(x,y)
+(1−F−C)g3(x,y) (12)
result (x, y) = F (x, y) g1 (x, y) + C (x, y) g2 (x, y)
+ (1-FC) g3 (x, y) (12)

なお、ここでもF(x,y)とC(x,y)は同時に値を持たないと仮定している。しかし、実施にあたっては、F(x,y)とC(x,y)が同時に値を持つように構成することも可能である。その際には、式(8)のαあるいは式(12)の右辺の第3項の(1−F−C)が負の値をとらないように制限を設けるなどの工夫が必要である。   It is assumed here that F (x, y) and C (x, y) do not have values at the same time. However, in implementation, F (x, y) and C (x, y) can be configured to have values simultaneously. In that case, it is necessary to devise such a restriction that α in Expression (8) or (1-FC) in the third term on the right side of Expression (12) does not take a negative value.

この画像統合処理により、それぞれの領域に応じた画像変換が行なわれた結果画像が生
成される。
By this image integration processing, a result image is generated by performing image conversion corresponding to each region.

上記の実施の形態では、それぞれの処理手段を本発明の構成要素としているが、それぞれの処理をコンピュータプログラムで実現することも可能である。その場合の本発明の第4の実施の形態を、図12を参照して説明する。処理が開始されると、まず領域指数計算ステップ23が実行される。領域指数計算ステップ23は原画像1を入力とし、例えば原画像1の各画素において顔領域らしさの計算をプログラムにより実行する。その結果、各画素に式(1)または式(2)で示された顔領域指数を持つ領域指数画像31が出力される。次に領域指数計算ステップ24が実行される。領域指数計算ステップ24は原画像1を入力とし、例えば原画像1の各画素において空・雲の領域らしさの計算をプログラムにより実行する。その結果、各画素に式(5)または式(6)で示された空・雲領域指数を持つ領域指数画像32が出力される。続いて画像変換ステップ6が実行される。画像変換ステップ6はさらに鮮鋭化ステップ61、コントラスト強調ステップ62、彩度強調ステップ63から成っており、それぞれの画像処理が、原画像1に対して領域指数画像31、領域指数画像32に格納された領域指数に従って、処理の程度を式(7)、式(10)のように調整されて実行され、その結果が結果画像7として出力される。 In the above embodiment, each processing means is a component of the present invention, but each processing can also be realized by a computer program. A fourth embodiment of the present invention in that case will be described with reference to FIG. When the process Ru is started, first region index calculation step 23 is executed. In the region index calculation step 23, the original image 1 is input, and for example, the facial region likelihood calculation is executed by a program in each pixel of the original image 1. As a result, the area index image 31 having the face area index indicated by the expression (1) or (2) is output to each pixel. Next, a region index calculation step 24 is executed. In the region index calculation step 24, the original image 1 is input, and, for example, calculation of the sky / cloud region likelihood in each pixel of the original image 1 is executed by a program. As a result, the region index image 32 having the sky / cloud region index represented by the equation (5) or the equation (6) is output to each pixel. Subsequently, an image conversion step 6 is executed. The image conversion step 6 further includes a sharpening step 61, a contrast enhancement step 62, and a saturation enhancement step 63. The respective image processes are stored in the region index image 31 and the region index image 32 for the original image 1. In accordance with the region index, the degree of processing is adjusted and executed as in equations (7) and (10), and the result is output as a result image 7.

それぞれの処理をコンピュータプログラムとして実現する本発明の別の実施の形態とし
て、第5の実施の形態を図13を参照して説明する。ここではまず、原画像1に対して、
例えば、顔領域らしさを計算する領域指数計算ステップ23が実行され、領域指数画像3
1が生成される。次に、顔領域向きの画像変換である画像変換ステップ83が原画像1に
対して実行され、処理結果画像33が生成される。同様に、例えば、空・雲領域らしさを
計算する領域指数計算ステップ24が実行され、領域指数画像32が生成され、空・雲領
域向きの画像変換を行なう画像変換ステップ84が実行され、処理結果画像34が生成さ
れる。続いて、一般の領域に対する画像変換処理を行なう画像変換ステップ85が原画像
1に対して実行され、処理結果画像35が生成される。最後に、それぞれの処理結果画像
33,34,35を各画素における領域指数画像31,32の領域指数に応じて合成する画
像統合ステップ9が実行され、最終的な結果画像7が出力される。この場合、2つの領域
指数計算ステップ23,24と、3つの画像変換ステップ83,84,85の処理内容は
全く独立であるので、その実行順序は任意であり、コンピュータによっては並行処理によ
り高速実行することも可能である。
As another embodiment of the present invention for realizing each processing as a computer program, a fifth embodiment will be described with reference to FIG. First, for the original image 1,
For example, a region index calculation step 23 for calculating the likelihood of a face region is executed, and the region index image 3
1 is generated. Next, an image conversion step 83 that is an image conversion for the face area is performed on the original image 1 to generate a processing result image 33. Similarly, for example, the region index calculation step 24 for calculating the likelihood of the sky / cloud region is executed, the region index image 32 is generated, and the image conversion step 84 for performing image conversion for the sky / cloud region is executed, and the processing result An image 34 is generated. Subsequently, an image conversion step 85 for performing an image conversion process on a general region is executed on the original image 1 to generate a processing result image 35. Finally, an image integration step 9 for combining the respective processing result images 33, 34, and 35 in accordance with the region index of the region index images 31 and 32 in each pixel is executed, and a final result image 7 is output. In this case, since the processing contents of the two region index calculation steps 23 and 24 and the three image conversion steps 83, 84, and 85 are completely independent, the execution order is arbitrary, and depending on the computer, high-speed execution is performed by parallel processing. It is also possible to do.

本発明の第1の実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of the 1st Embodiment of this invention. 本発明の第1の実施の形態の機能を説明するための画像例を示す図である。It is a figure which shows the example of an image for demonstrating the function of the 1st Embodiment of this invention. 本発明の第1の実施の形態の白で示す部分が識別された肌領域であることを示す図である。It is a figure which shows that the part shown with white of the 1st Embodiment of this invention is the identified skin area | region. 本発明の第2の実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of the 2nd Embodiment of this invention. 本発明の第2の実施の形態の人肌領域らしさを各画素の色から計算する領域指数計算手段の機能を説明する図である。It is a figure explaining the function of the area | region index calculation means which calculates the human skin area | region likeness from the color of each pixel of the 2nd Embodiment of this invention. 本発明の第2の実施の形態における人肌の内、特に顔領域らしさを判定する領域指数計算手段の実施例を説明する図である。It is a figure explaining the Example of the area | region index | exponent calculation means which determines especially the face area | region likeness in the human skin in the 2nd Embodiment of this invention. 本発明の第2の実施の形態の空・雲の領域らしさを示す領域指数を計算する領域指数計算手段の構成を示すブロック図である。It is a block diagram which shows the structure of the area | region index calculation means which calculates the area | region index which shows the area | region likeness of the sky and the cloud of the 2nd Embodiment of this invention. 本発明の第2の実施の形態における空・雲の領域らしさを示す領域指数を計算する領域指数計算手段の実施例を説明する図である。It is a figure explaining the Example of the area | region index calculation means which calculates the area | region index which shows the area | region likeness of the sky and the cloud in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における画像変換手段の実施例の構成を示すブロック図である。It is a block diagram which shows the structure of the Example of the image conversion means in the 2nd Embodiment of this invention. 本発明の第3の実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of the 3rd Embodiment of this invention. 本発明の第3の実施の形態における画像変換手段の構成を示すブロック図である。It is a block diagram which shows the structure of the image conversion means in the 3rd Embodiment of this invention. 本発明の第4の実施の形態を説明する流れ図である。It is a flowchart explaining the 4th Embodiment of this invention. 本発明の第5の実施の形態を説明する流れ図である。It is a flowchart explaining the 5th Embodiment of this invention.

符号の説明Explanation of symbols

1 原画像
11,12 領域識別手段
13,14 領域画像
15,16,17 画像変換手段
18 画像合成手段
21,22 領域指数計算手段
23,24 領域指数計算ステップ
31,32 領域指数画像
33,34,35 処理結果画像
4,410,420,430 画像変換手段
41 鮮鋭化手段
42 コントラスト強調手段
43 彩度強調手段
44 鮮鋭化量計算手段
45 コントラスト強調量計算手段
46 彩度強調量計算手段
5 画像統合手段
6,83,84,85 画像変換ステップ
7 結果画像
9 画像統合ステップ
DESCRIPTION OF SYMBOLS 1 Original image 11, 12 Area identification means 13, 14 Area image 15, 16, 17 Image conversion means 18 Image composition means 21, 22 Area index calculation means 23, 24 Area index calculation steps 31, 32 Area index images 33, 34, 35 processing result image 4,410,420,430 image conversion means 41 sharpening means 42 contrast enhancement means 43 saturation enhancement means 44 sharpening amount calculation means 45 contrast enhancement amount calculation means 46 saturation enhancement amount calculation means 5 image integration means 6, 83, 84, 85 Image conversion step 7 Result image 9 Image integration step

Claims (6)

原画像の各部分について、画素の色および周囲からの色の変化の一様度を用いて、複数種類の対象領域らしさを求め、前記原画像の各部分について複数種類の対象領域らしさに応じた画像処理を適用し、処理結果を得ることを特徴とする画像処理方法。 For each part of the original image, the color of the pixel and the uniformity of the color change from the surroundings are used to obtain a plurality of types of target areas, and each part of the original image is determined according to the types of target areas. An image processing method characterized by applying image processing and obtaining a processing result. 前記原画像は、空・雲を対象に含むことを特徴とする請求項1に記載の画像処理方法。 The image processing method according to claim 1, wherein the original image includes sky and clouds as targets . 原画像の各部分について、画素の色および周囲からの色の変化の一様度を用いて、複数種類の対象領域らしさを示す領域指数を計算する領域指数計算手段と、前記原画像の各部分について前記領域指数計算手段により得られた複数の領域指数に応じて画像変換処理を適用する画像変換手段を含むことを特徴とする画像処理システム。 A region index calculating means for calculating a region index indicating a plurality of types of target regions by using the pixel color and the uniformity of color change from the surroundings for each part of the original image, and each part of the original image An image processing system comprising: image conversion means for applying image conversion processing in accordance with a plurality of area indices obtained by the area index calculation means. 前記原画像は、空・雲を対象に含むことを特徴とする請求項3に記載の画像処理システム。 The image processing system according to claim 3, wherein the original image includes sky and clouds as targets . 原画像の各部分について、画素の色および周囲からの色の変化の一様度を用いて、複数種類の対象領域らしさを示す領域指数を計算する領域指数計算ステップと、前記原画像の各部分について前記領域指数計算手段により得られた複数の領域指数に応じて画像変換処理を適用する画像変換ステップをコンピュータに実行させることを特徴とする画像処理プログラム。 For each part of the original image, a region index calculating step for calculating a region index indicating the likelihood of a plurality of types of target areas using the pixel color and the uniformity of color change from the surroundings , and each part of the original image An image processing program for causing a computer to execute an image conversion step of applying an image conversion process according to a plurality of region indexes obtained by the region index calculation means. 前記原画像は、空・雲を対象に含むことを特徴とする請求項5に記載の画像処理プログラム。

The image processing program according to claim 5, wherein the original image includes sky and clouds as targets .

JP2008310692A 2008-12-05 2008-12-05 Image processing method, image processing system, and image processing program Expired - Lifetime JP5203159B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008310692A JP5203159B2 (en) 2008-12-05 2008-12-05 Image processing method, image processing system, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008310692A JP5203159B2 (en) 2008-12-05 2008-12-05 Image processing method, image processing system, and image processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007133876A Division JP4742068B2 (en) 2007-05-21 2007-05-21 Image processing method, image processing system, and image processing program

Publications (2)

Publication Number Publication Date
JP2009050035A JP2009050035A (en) 2009-03-05
JP5203159B2 true JP5203159B2 (en) 2013-06-05

Family

ID=40501730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008310692A Expired - Lifetime JP5203159B2 (en) 2008-12-05 2008-12-05 Image processing method, image processing system, and image processing program

Country Status (1)

Country Link
JP (1) JP5203159B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9025873B2 (en) 2011-11-10 2015-05-05 Canon Kabushiki Kaisha Image processing apparatus and control method therefor
JP2019149805A (en) * 2019-03-28 2019-09-05 株式会社ニコン Electronic apparatus and image processing method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3207690B2 (en) * 1994-10-27 2001-09-10 シャープ株式会社 Image processing device
JPH09154026A (en) * 1995-11-29 1997-06-10 Sharp Corp Color picture processor
JP3918257B2 (en) * 1997-11-13 2007-05-23 セイコーエプソン株式会社 Image processing apparatus, image processing method, and medium storing image processing program
JP2001144962A (en) * 1999-11-11 2001-05-25 Fuji Xerox Co Ltd Image processing unit
JP2002281327A (en) * 2001-03-15 2002-09-27 Minolta Co Ltd Device, method and program for image processing
JP2003244620A (en) * 2002-02-19 2003-08-29 Fuji Photo Film Co Ltd Image processing method and apparatus, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11455864B2 (en) 2018-07-25 2022-09-27 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Also Published As

Publication number Publication date
JP2009050035A (en) 2009-03-05

Similar Documents

Publication Publication Date Title
Li et al. A multi-scale fusion scheme based on haze-relevant features for single image dehazing
US20140079319A1 (en) Methods for enhancing images and apparatuses using the same
JP6818463B2 (en) Image processing equipment, image processing methods and programs
JP2006508460A (en) Image signal processing method
JP5870598B2 (en) Image white balance processing method and apparatus
JP2016170628A (en) Image processor and image processing method
CN113344836A (en) Face image processing method and device, computer readable storage medium and terminal
JP5203159B2 (en) Image processing method, image processing system, and image processing program
Abebe et al. Towards an automatic correction of over-exposure in photographs: Application to tone-mapping
JP4742068B2 (en) Image processing method, image processing system, and image processing program
US9053552B2 (en) Image processing apparatus, image processing method and non-transitory computer readable medium
Al-Ameen et al. Fast and Efficient Algorithm for Contrast Enhancement of Color Images.
US20190051028A1 (en) Digital signal processing for image filtering field
Lee et al. Ramp distribution-based contrast enhancement techniques and over-contrast measure
KR20120042988A (en) Image processing method, image processing device, and program
JP2011076302A (en) Device, contour extraction method program, and contour extraction
JP2005094452A (en) Method, system, and program for processing image
JP7437921B2 (en) Image processing device, image processing method, and program
JP4996554B2 (en) Image quality improvement device, method and program
JP7365206B2 (en) Image processing device, image processing method, and program
CN108986052B (en) Self-adaptive image illumination removing method and system
US10319131B2 (en) Digital signal processing for image filtering field
Choudhury et al. Perceptually motivated automatic color contrast enhancement based on color constancy estimation
JP4171354B2 (en) Color image processing apparatus and method
Chong et al. Dual image fusion technique for underwater image contrast enhancement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081205

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20090512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110603

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20110705

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120123

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120131

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20120330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130213

R150 Certificate of patent or registration of utility model

Ref document number: 5203159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

EXPY Cancellation because of completion of term