JP5203159B2 - Image processing method, image processing system, and image processing program - Google Patents
Image processing method, image processing system, and image processing program Download PDFInfo
- Publication number
- JP5203159B2 JP5203159B2 JP2008310692A JP2008310692A JP5203159B2 JP 5203159 B2 JP5203159 B2 JP 5203159B2 JP 2008310692 A JP2008310692 A JP 2008310692A JP 2008310692 A JP2008310692 A JP 2008310692A JP 5203159 B2 JP5203159 B2 JP 5203159B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- image processing
- area
- original image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000003672 processing method Methods 0.000 title claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 50
- 238000004364 calculation method Methods 0.000 claims description 35
- 238000000034 method Methods 0.000 claims description 16
- 238000010586 diagram Methods 0.000 description 7
- 230000010354 integration Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000003707 image sharpening Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
Description
本発明は画像処理方法、画像処理システムおよび画像処理プログラムに関し、特に、画
像を画像内容に応じて高画質化する画像処理方法、画像処理システムおよび画像処理プロ
グラムに関する。
The present invention relates to an image processing method, an image processing system, and an image processing program, and more particularly, to an image processing method, an image processing system, and an image processing program for improving the image quality of an image according to the image content.
従来、デジタル画像処理技術により画像の性質を解析し、人の視覚に対して高画質な画
像に変換する方法が知られている。例えば、特許番号第2692531号の「画像の鮮鋭
化方法及び装置」では画像の鮮鋭化を行なう場合に、すべての画像について画一的なシャ
ープニングを行なうのでなく、画像ごとにエッジ領域を検出し、その領域における高周波
成分または高周波帯域成分の強度の積分値をエッジ領域の面積で正規化した値に基づいて
鮮鋭化の程度を調整する。同様にして、画像のコントラストや彩度を画像に適応して最適
値に調整する方法も知られている。
2. Description of the Related Art Conventionally, there has been known a method of analyzing the properties of an image using a digital image processing technique and converting the image into a high quality image for human vision. For example, in Japanese Patent No. 2692531, “Image Sharpening Method and Apparatus”, when sharpening an image, instead of performing uniform sharpening for all images, an edge region is detected for each image. The degree of sharpening is adjusted based on the value obtained by normalizing the integrated value of the intensity of the high-frequency component or high-frequency band component in the region with the area of the edge region. Similarly, a method of adjusting the contrast and saturation of an image to an optimum value by adapting to the image is also known.
しかし、従来の技術では、画像全体について上記のような性質の解析を行ない、その結
果に応じて処理を決定するために、1枚の画像中に異なった性質の対象が存在している場
合に、対象に応じた高画質化を実行することができなかった。例えば、ビル街の上に青空
が広がっているような画像に対して、鮮鋭度を調節する場合、主観的に、ビル街等の人工
物の画像部分については鮮鋭度が高い画像が高画質と判断され、青空の画像部分について
はよりなだらかな輝度値の変化の画像が高画質と判断される。シャープニング処理は、画
像のノイズを増幅する効果があるため、青空の領域では、その影響により画質が劣化した
と判断される場合もある。そのように、最適なシャープニングの程度は異なっている。し
かし画像全体について一様に同じシャープニングを適用する場合には、平均的な値が使用
されることになるために効果が上がらないことがあった。
However, in the conventional technique, the above-described property analysis is performed on the entire image, and in order to determine the processing according to the result, there is a case where there are objects with different properties in one image. Therefore, it was not possible to execute high image quality according to the target. For example, when adjusting the sharpness for an image in which a blue sky spreads over a building street, subjectively, an image with a high sharpness for an image portion of an artifact such as a building street has a high image quality. As a result, for the image part of the blue sky, it is determined that an image with a more gentle change in luminance value has a high image quality. Since the sharpening process has an effect of amplifying image noise, it may be determined that the image quality has deteriorated due to the influence in the blue sky region. As such, the optimum degree of sharpening is different. However, when the same sharpening is uniformly applied to the entire image, the average value is used, so that the effect may not be improved.
本発明の目的は、上記の課題を解決し、画像の部分領域を分類し、領域毎に最適な画像
処理を行なうことによって、画像全体を高画質化する方法、システムおよびプログラムを
提供することにある。
An object of the present invention is to provide a method, system, and program for solving the above-described problems, classifying partial areas of an image, and performing optimum image processing for each area, thereby improving the image quality of the entire image. is there.
本発明の画像処理方法は、原画像に1つあるいは複数の対象が含まれていることを識別
して対象領域を設定し、該対象領域には前記対象に応じた画像処理を適用し、処理結果を
得ることを特徴とする。
The image processing method of the present invention identifies that an original image includes one or a plurality of targets, sets a target region, applies image processing according to the target to the target region, It is characterized by obtaining results.
また、本発明の画像処理方法は、原画像の各位置について、1つあるいは複数の対象が
含まれている対象領域らしさを求め、該対象領域らしさに応じて前記対象に応じた画像処
理を適用し、処理結果を得ることを特徴とする。
The image processing method of the present invention obtains the likelihood of a target area including one or a plurality of targets for each position of the original image, and applies image processing according to the target according to the target area likelihood. And processing results are obtained.
さらに、本発明の画像処理方法は、原画像に対して1つあるいは複数の対象の画像に適
した画像処理を適用した1つあるいは複数の対象向け処理結果画像を作成し、前記原画像
の各位置について、前記対象が含まれている対象領域らしさを求め、該対象領域らしさに
応じて対象向け処理結果画像を統合することにより最終画像を得ることを特徴とする。
Furthermore, the image processing method of the present invention creates one or a plurality of target processing result images obtained by applying image processing suitable for one or a plurality of target images to the original image, and each of the original images For the position, the target image including the target is obtained, and a final image is obtained by integrating the processing result images for the target according to the target region.
さらに、本発明の画像処理方法は、前記対象が、人物あるいは顔、空・雲、人工物、草
木、集合人物、自然風景の少なくとも1つを含むことを特徴とする。
Furthermore, the image processing method of the present invention is characterized in that the object includes at least one of a person or a face, sky / clouds, an artifact, a plant, a collective person, and a natural landscape.
さらに、本発明の画像処理方法は、前記画像処理が鮮鋭化処理、コントラスト強調処理
、彩度強調処理、ホワイトバランス処理の少なくとも1つを含むことを特徴とする。
Furthermore, the image processing method of the present invention is characterized in that the image processing includes at least one of sharpening processing, contrast enhancement processing, saturation enhancement processing, and white balance processing.
さらに、本発明の画像処理システムは、原画像の各部分において、1つあるいは複数の
対象領域らしさを計算する領域指数計算手段と、該領域指数計算手段により得られた領域
指数に応じて原画像に画像変換処理を適用する画像変換手段を含むことを特徴とする。
Furthermore, the image processing system of the present invention includes a region index calculating unit that calculates the likelihood of one or a plurality of target regions in each part of the original image, and the original image according to the region index obtained by the region index calculating unit. And an image conversion means for applying an image conversion process.
さらに、本発明の画像処理システムは、原画像に対して1つあるいは複数の対象の画像
に適した画像処理を適用した1つあるいは複数の対象向け処理結果画像を作成する画像変
換手段と、前記原画像の各位置について前記対象が含まれている対象領域らしさを領域指
数として計算する領域指数計算手段と、該領域指数に応じて前記対象向け処理結果画像を
統合する画像統合手段を含むことを特徴とする。
Furthermore, the image processing system of the present invention includes an image conversion unit that creates one or a plurality of target processing result images obtained by applying image processing suitable for one or a plurality of target images to the original image, A region index calculation unit that calculates a target region probability that the target is included for each position of the original image as a region index, and an image integration unit that integrates the processing result images for the target according to the region index. Features.
さらに、本発明の画像処理システムは、前記対象が、人物あるいは顔、空・雲、人工物
、草木、集合人物、自然風景の少なくとも1つを含むことを特徴とする。
Furthermore, the image processing system of the present invention is characterized in that the object includes at least one of a person or a face, sky / clouds, an artifact, a plant, a collective person, and a natural landscape.
さらに、本発明の画像処理システムは、前記画像処理が鮮鋭化処理、コントラスト強調
処理、彩度強調処理、ホワイトバランス処理の少なくとも1つを含むことを特徴とする。
Furthermore, the image processing system of the present invention is characterized in that the image processing includes at least one of sharpening processing, contrast enhancement processing, saturation enhancement processing, and white balance processing.
本発明の構成をとることによって、画像全体の性質に基づいて、高画質化処理が行われ
ていた従来の方法に対して、画像領域に応じた高画質化処理が可能となり、人の視覚に対
してより高画質な画像に変換することが可能となる。
By adopting the configuration of the present invention, it is possible to perform high image quality processing according to the image area, compared with the conventional method in which high image quality processing has been performed based on the properties of the entire image. On the other hand, it is possible to convert to a higher quality image.
次に、本発明の実施の形態について図面を参照して詳細に説明する。 Next, embodiments of the present invention will be described in detail with reference to the drawings.
本発明の第1の実施の形態をブロックで示す図1を参照して、この実施の形態の画像処
理システムの動作を説明する。
The operation of the image processing system of this embodiment will be described with reference to FIG. 1 which shows the first embodiment of the present invention in block form.
原画像1の例としては、図2の模式図のようなものであるとする。原画像1には、前景
に人物、背景に家や木などの風景や空が撮影されている。本実施の形態は、この原画像1
について、
(1)人物の肌については、シャープニングは弱くかける。
(2)空や雲については、シャープニングはかけない。青空の部分は彩度を高くする。
(3)人物の服、背景については、シャープニングを強くかける。コントラストや彩度も
メリハリがつくように強調する。
のような処理を行ない、人の視覚に対して画像を高画質化する。即ち、原画像1に対して
領域識別手段11が人物の肌領域を識別する。そして、識別された領域が“1”、それ以
外が“0”である二値画像である領域画像13が作成される。図2の例に対しては、図3
に“白”で示す部分が識別された肌領域である“1”の部分である。画像変換手段15は
、原画像1の領域画像13が“1”である部分に対して、肌領域に適した高画質化処理を
適用する。同様に、領域識別手段12が空・雲の領域を識別し、領域画像14が作成され
る。画像変換手段16は、原画像1の領域画像14が“1”である部分に対して、空・雲
領域に適した高画質化処理を適用する。また、原画像1の全体に対して、一般的な高画質
化処理が画像変換手段17により適用される。画像合成手段18は、画像変換手段17の
出力に対し、“肌”の領域画像13が“1”である部分については、画像変換手段15の
出力を、“空・雲”に領域画像14が“1”である部分については、画像変換手段16の
出力を合成する。画素ごとに画像を合成すると、領域の繋ぎ目で画質が急に変化し、不自
然な画像が生成されることがあるので、画像合成手段18は、領域間のぼかし処理を含む
のが適当である。
An example of the original image 1 is assumed to be as shown in the schematic diagram of FIG. In the original image 1, a person in the foreground and a landscape such as a house and a tree and the sky are photographed in the background. In the present embodiment, the original image 1
about,
(1) For human skin, apply sharpening weakly.
(2) Do not sharpen the sky or clouds. The blue sky increases the saturation.
(3) Sharpen the person's clothes and background strongly. Emphasize the contrast and saturation so that they are sharp.
To improve the image quality for human vision. That is, the area identifying unit 11 identifies the skin area of the person with respect to the original image 1. Then, a
The portion indicated by “white” is the portion “1” that is the identified skin region. The image conversion means 15 applies a high image quality process suitable for the skin area to the portion where the
なお、本明細書では、識別すべき対象を、人物、空・雲として説明しているが、目標と
する画質が異なる対象ごとに別々の処理が行なわれる実施形態が望ましく、その他に人工
物や建物、山などの自然風景、集合人物等、よく画像が撮影される状況を識別し、それぞ
れの状況における高画質化処理を行なうことが可能である。
In this specification, the target to be identified is described as a person, sky, or cloud. However, an embodiment in which separate processing is performed for each target with different target image quality is desirable. It is possible to identify situations in which images are often taken, such as buildings, natural scenery such as mountains, gathering people, etc., and perform image quality enhancement processing in each situation.
また、本明細書では、適用される画像処理を‘鮮鋭化’、‘コントラスト強調’、‘彩
度強調’としているが、‘ホワイトバランス処理’、‘記憶色への色変更処理’などを含
んでもよい。
In this specification, the applied image processing is “sharpening”, “contrast emphasis”, and “saturation emphasis”, but includes “white balance processing”, “color change processing to memory color”, etc. But you can.
第1の実施の形態は理想的であるが、通常、対象の識別は完全ではないので、誤った画
像変換が適用される領域が生じることがある。それを踏まえて、第2の実施の形態を図4
に基づいて説明する。まず、原画像1は、第1、第2の領域指数計算手段21、22によ
って、各画素毎に規定された性質を持っているかを解析する。領域の性質としては、例え
ば第1、第2の領域指数計算手段21、22は、それぞれ、人肌、空・雲の2つの領域の
性質を評価する。
The first embodiment is ideal, but usually the identification of the object is not perfect, so there may be areas where incorrect image transformation is applied. Based on this, the second embodiment is shown in FIG.
Based on First, the original image 1 is analyzed by the first and second region index calculation means 21 and 22 to determine whether or not it has a property defined for each pixel. As the region properties, for example, the first and second region index calculating means 21 and 22 evaluate the properties of two regions of human skin and sky / cloud, respectively.
それぞれの領域指数計算手段21、22は、その領域らしさを画像から判断し、その領
域らしさを例えば0〜1の値をとる指数として出力する。図5を参照して人肌領域らしさ
を各画素の色から計算する領域指数計算手段21の機能を示す。ここでは、画素の色を(
R,G,B)値で示す。黒を(0,0,0)、白を(1,1,1)とすると、RGB色空
間において、すべての色は図5のような立方体に含まれる。この中で、最も肌色らしい領
域211に‘1’、その周囲の尤度が低い領域212に‘0.7’、その更に周囲の領域
213に‘0.3’、それ以外には‘0’の指数を予め設定する。各画素値は、これらの
領域に含まれているかどうかを調べられ、対応する指数F1が出力される。勿論、指数は
図5のように離散的な値を設定する代わりに、正規分布関数のような連続的に変化するよ
うに設定しても構わない。
Each area index calculating means 21 and 22 determines the likelihood of the area from the image, and outputs the area likelihood as an index having a value of 0 to 1, for example. With reference to FIG. 5, the function of the area | region index calculation means 21 which calculates human skin area-likeness from the color of each pixel is shown. Here, the color of the pixel (
R, G, B) values. If black is (0, 0, 0) and white is (1, 1, 1), all colors are included in a cube as shown in FIG. 5 in the RGB color space. Among these, the
次に、図6を参照して、人肌の内、特に顔領域らしさを判定する領域指数計算手段21
の実施例を説明する。画像データが、まず画像スケーリング手段214に入力される。こ
れは、画像に撮像されている顔の大きさの変化に対応するためである。画像データは、ま
ず第1の変倍手段2151によって、例えば0.8倍のサイズに縮小される。縮小された
画像データは、第1の類似度判定手段2161に出力されると同時に、第2の変倍手段2
152にも出力される。第2の変倍手段2152は、同様に、画像を0.8倍のサイズ(
原画からは0.64倍のサイズ)に縮小する。この結果は第2の類似度判定手段2162
に出力されると同時に、第3の変倍手段2153にも出力される。これを必要なだけ繰り
返し、顔の大きさのバリエーションに対応する。類似度判定手段2161〜2163は、
状況に応じて画像の輝度の正規化を行ない、顔テンプレート217との類似度を0〜1の
値として計算する。顔が存在する場合、サイズがテンプレートと合っている類似度判定手
段に高い出力が得られるので、最大値選択手段218は、類似度判定手段2161〜21
63の出力の最大値を顔領域指数F2として出力する。
Next, referring to FIG. 6, region index calculating means 21 for determining the likelihood of a human skin, particularly a face region.
Examples will be described. Image data is first input to the image scaling means 214. This is to cope with a change in the size of the face captured in the image. The image data is first reduced to a size of, for example, 0.8 times by the first scaling unit 2151. The reduced image data is output to the first similarity determination unit 2161 and at the same time, the second scaling unit 2
Also output to 152. Similarly, the second scaling unit 2152 reduces the size of the image by 0.8 times (
The original image is reduced to 0.64 times the size). The result is the second similarity determination means 2162.
Are simultaneously output to the third scaling unit 2153. This is repeated as necessary to cope with variations in face size. The similarity determination means 2161 to 2163
The brightness of the image is normalized according to the situation, and the similarity with the face template 217 is calculated as a value of 0-1. When a face is present, a high output is obtained in the similarity determination unit whose size matches the template, so that the maximum value selection unit 218 is configured to use the similarity determination unit 2161-21.
The maximum value of
尚、顔領域指数の計算の際に、前記の人肌領域指数F1の計算も同時に行ない、その判
定精度を高めることもできる。その場合には、前記人肌領域指数F1と顔領域指数F2を
組み合わせた計算で、新しい顔領域指数Fを求めることが可能である。例えば、式(1)
や式(2)のような実現方法が可能であるが、これに制限されるものではない。
When calculating the face area index, the human skin area index F1 is also calculated at the same time, and the determination accuracy can be increased. In that case, a new face area index F can be obtained by a combination of the human skin area index F1 and the face area index F2. For example, the formula (1)
An implementation method such as (2) or (2) is possible, but is not limited thereto.
F=F1・F2 (1)
F=(F1+F2)/2 (2)
F = F1 ・ F2 (1)
F = (F1 + F2) / 2 (2)
同様にして、空・雲の領域らしさを示す領域指数Cを計算する領域指数計算手段22の
実施例を図7を参照して説明する。色相彩度計算手段221が各画素の値から、その画素
の色相H、彩度S、明度Vを計算する。例えば、公知のHSV空間への変換を式3に従っ
て行なう。
Similarly, an embodiment of the area index calculating means 22 for calculating the area index C indicating the sky-cloud area likelihood will be described with reference to FIG. Hue saturation calculation means 221 calculates the hue H, saturation S, and brightness V of the pixel from the value of each pixel. For example, conversion to a known HSV space is performed according to Equation 3.
ここで、 here,
すると、図8のような輝度を除いた二次元の表現で、例えばRからの角度として色相H
が、中心からの距離として彩度Sが定義できる。ここで、領域227を空や雲の色領域ら
しさC1=0.3、領域228をC1=0.6、領域229をC1=0.9として定義す
る。色度評価手段222は、この計算を行ないC1を出力する。
Then, in a two-dimensional expression excluding luminance as shown in FIG.
However, the saturation S can be defined as the distance from the center. Here, the region 227 is defined as the color region likelihood C1 = 0.3 of the sky or cloud, the region 228 is defined as C1 = 0.6, and the region 229 is defined as C1 = 0.9. The chromaticity evaluation means 222 performs this calculation and outputs C1.
また、一様度計算手段223は、各画素について、その周囲からの色の変化の一様度C
2を評価する。例えば式(4)により評価できるが、これに制限されるものではない。
In addition, the uniformity calculation means 223 calculates the uniformity C of the color change from the periphery of each pixel.
2 is evaluated. For example, although it can evaluate by Formula (4), it is not restrict | limited to this.
ここで、VはR,G,B。 Here, V is R, G, B.
指数合成手段224は、上記で得られたC1とC2から空・雲領域指数Cを計算する。
計算方法は、式(5)又は式(6)で実現できるが、これに制限されるものではない。
The index composition means 224 calculates the sky / cloud area index C from C1 and C2 obtained above.
The calculation method can be realized by Equation (5) or Equation (6), but is not limited to this.
C=C1・C2 (5)
C=(C1+C2)/2 (6)
C = C1 ・ C2 (5)
C = (C1 + C2) / 2 (6)
さて、領域指数計算手段21から顔領域指数Fが、領域指数計算手段22から空・雲領
域指数Cが各画素毎に出力され、それぞれ、領域指数画像31及び領域指数画像32とな
る。
The area index calculation means 21 outputs the face area index F and the area index calculation means 22 outputs the sky / cloud area index C for each pixel, which becomes the
画像変換手段4は、原画像1と領域指数画像31、32を入力とし、領域に応じた高画
質化処理を適用し、結果の画像を出力する。図9を参照して、画像変換手段4の実施例を
説明する。鮮鋭化手段41、コントラスト強調手段42、彩度強調手段43が原画像1に
対して画像処理を行なうが、それぞれの処理の程度は鮮鋭化量計算手段44、コントラス
ト強調量計算手段45、彩度強調量計算手段46で計算する。
The image conversion means 4 receives the original image 1 and the
例えば、鮮鋭化手段41が、鮮鋭化を式(7)のように行ない、鮮鋭化量はαで調整さ
れる場合、
For example, when the sharpening
ここで、 here,
一般の領域では、α=1とするが、顔領域では鮮鋭化量を少なめに、空・雲領域では全
くかけない方が高画質になるとき、例えば、鮮鋭化量計算手段44はαを式(8)のよう
に計算する。
In the general region, α = 1, but when the amount of sharpening is small in the face region and the image is not applied at all in the sky / cloud region, the sharpening amount calculating means 44, for example, calculates α Calculate as in (8).
α=1−0.5F−C (8) α = 1-0.5F-C (8)
尚、ここではFとCが同時に値を持たないことを仮定している。 Here, it is assumed that F and C have no value at the same time.
また、コントラスト強調手段42が、原画像1のコントラストを式(9)のように計測
し、原コントラスト値Kを得、目標のコントラスト値K’に式(10)により変換すると
する。
Further, it is assumed that the contrast emphasizing means 42 measures the contrast of the original image 1 as shown in Expression (9), obtains the original contrast value K, and converts it into the target contrast value K ′ by Expression (10).
ここで、 here,
空・雲領域では、一般と同様にコントラストを強調するが、顔領域では顔色を変えない
ほうが高画質になる場合、コントラスト強調量計算手段45は、強調量βを式(11)の
ように計算する。
In the sky / cloud region, contrast is enhanced in the same manner as in general, but in the face region, when the face color is not changed, the contrast enhancement amount calculation unit 45 calculates the enhancement amount β as shown in Expression (11). To do.
β=1−F (11) β = 1−F (11)
彩度強調量計算手段46も、同様に、公知の画像に対する彩度強調を行なう彩度強調手
段43に対しての彩度強調量を、領域指数の値に応じて計算するように構成される。
Similarly, the saturation enhancement amount calculation unit 46 is configured to calculate the saturation enhancement amount for the saturation enhancement unit 43 that performs saturation enhancement on a known image in accordance with the value of the region index. .
続いて、図10を参照して本発明の第3の実施の形態を説明する。求める結果画像が第
2の実施の形態と同等であると考えると、領域指数画像31、領域指数画像32の各画素
には、それぞれ、顔領域指数、空・雲領域指数が格納される。それに対応して、画像変換
手段410は、原画像1全体に顔領域に適した画像変換処理を適用する。同様に、画像変
換手段420は、原画像1全体に空・雲領域に適した画像変換処理を適用する。また、画
像変換手段430は、原画像全体に一般的な画像変換処理を適用する。画像変換手段41
0の構成例を図11に示す。画像変換手段410は、画像変換手段4と似た処理手段であ
る、鮮鋭化手段411、コントラスト強調手段412、彩度強調手段413を持つ。画像
変換手段4は、この強調量を計算して求めるが、画像変換手段410は、顔領域向けの画
像変換手段であるので、それに最適な強調量で画像変換を行ない、変換された画像を出力
する。画像変換手段420は、同様の構成で、空・雲領域に適した画像変換を行ない、処
理結果を出力する。画像変換手段430は、それ以外の一般の領域に適した画像変換を行
ない処理結果を出力する。
Subsequently, a third embodiment of the present invention will be described with reference to FIG. If it is considered that the result image to be obtained is equivalent to that of the second embodiment, a face area index and a sky / cloud area index are stored in each pixel of the
A configuration example of 0 is shown in FIG. The
画像統合手段5は、それぞれの画像変換が適用された画像を統合する。例えば、画像変
換手段410、420、430の出力画像をそれぞれg1(x,y)、g2(x,y)、
g3(x,y)、領域指数画像31、32を、それぞれF(x,y),C(x,y)とす
る。画像統合手段5は、各画素ごとに式(12)を計算し、結果画像result(x、
y)を出力する。
The image integration unit 5 integrates the images to which the respective image conversions are applied. For example, the output images of the image conversion means 410, 420, and 430 are respectively g1 (x, y), g2 (x, y),
Let g3 (x, y) and the
y) is output.
result(x、y)=F(x,y)g1(x,y)+C(x,y)g2(x,y)
+(1−F−C)g3(x,y) (12)
result (x, y) = F (x, y) g1 (x, y) + C (x, y) g2 (x, y)
+ (1-FC) g3 (x, y) (12)
なお、ここでもF(x,y)とC(x,y)は同時に値を持たないと仮定している。しかし、実施にあたっては、F(x,y)とC(x,y)が同時に値を持つように構成することも可能である。その際には、式(8)のαあるいは式(12)の右辺の第3項の(1−F−C)が負の値をとらないように制限を設けるなどの工夫が必要である。 It is assumed here that F (x, y) and C (x, y) do not have values at the same time. However, in implementation, F (x, y) and C (x, y) can be configured to have values simultaneously. In that case, it is necessary to devise such a restriction that α in Expression (8) or (1-FC) in the third term on the right side of Expression (12) does not take a negative value.
この画像統合処理により、それぞれの領域に応じた画像変換が行なわれた結果画像が生
成される。
By this image integration processing, a result image is generated by performing image conversion corresponding to each region.
上記の実施の形態では、それぞれの処理手段を本発明の構成要素としているが、それぞれの処理をコンピュータプログラムで実現することも可能である。その場合の本発明の第4の実施の形態を、図12を参照して説明する。処理が開始されると、まず領域指数計算ステップ23が実行される。領域指数計算ステップ23は原画像1を入力とし、例えば原画像1の各画素において顔領域らしさの計算をプログラムにより実行する。その結果、各画素に式(1)または式(2)で示された顔領域指数を持つ領域指数画像31が出力される。次に領域指数計算ステップ24が実行される。領域指数計算ステップ24は原画像1を入力とし、例えば原画像1の各画素において空・雲の領域らしさの計算をプログラムにより実行する。その結果、各画素に式(5)または式(6)で示された空・雲領域指数を持つ領域指数画像32が出力される。続いて画像変換ステップ6が実行される。画像変換ステップ6はさらに鮮鋭化ステップ61、コントラスト強調ステップ62、彩度強調ステップ63から成っており、それぞれの画像処理が、原画像1に対して領域指数画像31、領域指数画像32に格納された領域指数に従って、処理の程度を式(7)、式(10)のように調整されて実行され、その結果が結果画像7として出力される。
In the above embodiment, each processing means is a component of the present invention, but each processing can also be realized by a computer program. A fourth embodiment of the present invention in that case will be described with reference to FIG. When the process Ru is started, first region index calculation step 23 is executed. In the region index calculation step 23, the original image 1 is input, and for example, the facial region likelihood calculation is executed by a program in each pixel of the original image 1. As a result, the
それぞれの処理をコンピュータプログラムとして実現する本発明の別の実施の形態とし
て、第5の実施の形態を図13を参照して説明する。ここではまず、原画像1に対して、
例えば、顔領域らしさを計算する領域指数計算ステップ23が実行され、領域指数画像3
1が生成される。次に、顔領域向きの画像変換である画像変換ステップ83が原画像1に
対して実行され、処理結果画像33が生成される。同様に、例えば、空・雲領域らしさを
計算する領域指数計算ステップ24が実行され、領域指数画像32が生成され、空・雲領
域向きの画像変換を行なう画像変換ステップ84が実行され、処理結果画像34が生成さ
れる。続いて、一般の領域に対する画像変換処理を行なう画像変換ステップ85が原画像
1に対して実行され、処理結果画像35が生成される。最後に、それぞれの処理結果画像
33,34,35を各画素における領域指数画像31,32の領域指数に応じて合成する画
像統合ステップ9が実行され、最終的な結果画像7が出力される。この場合、2つの領域
指数計算ステップ23,24と、3つの画像変換ステップ83,84,85の処理内容は
全く独立であるので、その実行順序は任意であり、コンピュータによっては並行処理によ
り高速実行することも可能である。
As another embodiment of the present invention for realizing each processing as a computer program, a fifth embodiment will be described with reference to FIG. First, for the original image 1,
For example, a region index calculation step 23 for calculating the likelihood of a face region is executed, and the region index image 3
1 is generated. Next, an image conversion step 83 that is an image conversion for the face area is performed on the original image 1 to generate a processing result image 33. Similarly, for example, the region index calculation step 24 for calculating the likelihood of the sky / cloud region is executed, the
1 原画像
11,12 領域識別手段
13,14 領域画像
15,16,17 画像変換手段
18 画像合成手段
21,22 領域指数計算手段
23,24 領域指数計算ステップ
31,32 領域指数画像
33,34,35 処理結果画像
4,410,420,430 画像変換手段
41 鮮鋭化手段
42 コントラスト強調手段
43 彩度強調手段
44 鮮鋭化量計算手段
45 コントラスト強調量計算手段
46 彩度強調量計算手段
5 画像統合手段
6,83,84,85 画像変換ステップ
7 結果画像
9 画像統合ステップ
DESCRIPTION OF SYMBOLS 1 Original image 11, 12 Area identification means 13, 14
Claims (6)
The image processing program according to claim 5, wherein the original image includes sky and clouds as targets .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008310692A JP5203159B2 (en) | 2008-12-05 | 2008-12-05 | Image processing method, image processing system, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008310692A JP5203159B2 (en) | 2008-12-05 | 2008-12-05 | Image processing method, image processing system, and image processing program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007133876A Division JP4742068B2 (en) | 2007-05-21 | 2007-05-21 | Image processing method, image processing system, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009050035A JP2009050035A (en) | 2009-03-05 |
JP5203159B2 true JP5203159B2 (en) | 2013-06-05 |
Family
ID=40501730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008310692A Expired - Lifetime JP5203159B2 (en) | 2008-12-05 | 2008-12-05 | Image processing method, image processing system, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5203159B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10878657B2 (en) | 2018-07-25 | 2020-12-29 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
US11521460B2 (en) | 2018-07-25 | 2022-12-06 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9025873B2 (en) | 2011-11-10 | 2015-05-05 | Canon Kabushiki Kaisha | Image processing apparatus and control method therefor |
JP2019149805A (en) * | 2019-03-28 | 2019-09-05 | 株式会社ニコン | Electronic apparatus and image processing method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3207690B2 (en) * | 1994-10-27 | 2001-09-10 | シャープ株式会社 | Image processing device |
JPH09154026A (en) * | 1995-11-29 | 1997-06-10 | Sharp Corp | Color picture processor |
JP3918257B2 (en) * | 1997-11-13 | 2007-05-23 | セイコーエプソン株式会社 | Image processing apparatus, image processing method, and medium storing image processing program |
JP2001144962A (en) * | 1999-11-11 | 2001-05-25 | Fuji Xerox Co Ltd | Image processing unit |
JP2002281327A (en) * | 2001-03-15 | 2002-09-27 | Minolta Co Ltd | Device, method and program for image processing |
JP2003244620A (en) * | 2002-02-19 | 2003-08-29 | Fuji Photo Film Co Ltd | Image processing method and apparatus, and program |
-
2008
- 2008-12-05 JP JP2008310692A patent/JP5203159B2/en not_active Expired - Lifetime
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10878657B2 (en) | 2018-07-25 | 2020-12-29 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
US11455864B2 (en) | 2018-07-25 | 2022-09-27 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
US11521460B2 (en) | 2018-07-25 | 2022-12-06 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
Also Published As
Publication number | Publication date |
---|---|
JP2009050035A (en) | 2009-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | A multi-scale fusion scheme based on haze-relevant features for single image dehazing | |
US20140079319A1 (en) | Methods for enhancing images and apparatuses using the same | |
JP6818463B2 (en) | Image processing equipment, image processing methods and programs | |
JP2006508460A (en) | Image signal processing method | |
JP5870598B2 (en) | Image white balance processing method and apparatus | |
JP2016170628A (en) | Image processor and image processing method | |
CN113344836A (en) | Face image processing method and device, computer readable storage medium and terminal | |
JP5203159B2 (en) | Image processing method, image processing system, and image processing program | |
Abebe et al. | Towards an automatic correction of over-exposure in photographs: Application to tone-mapping | |
JP4742068B2 (en) | Image processing method, image processing system, and image processing program | |
US9053552B2 (en) | Image processing apparatus, image processing method and non-transitory computer readable medium | |
Al-Ameen et al. | Fast and Efficient Algorithm for Contrast Enhancement of Color Images. | |
US20190051028A1 (en) | Digital signal processing for image filtering field | |
Lee et al. | Ramp distribution-based contrast enhancement techniques and over-contrast measure | |
KR20120042988A (en) | Image processing method, image processing device, and program | |
JP2011076302A (en) | Device, contour extraction method program, and contour extraction | |
JP2005094452A (en) | Method, system, and program for processing image | |
JP7437921B2 (en) | Image processing device, image processing method, and program | |
JP4996554B2 (en) | Image quality improvement device, method and program | |
JP7365206B2 (en) | Image processing device, image processing method, and program | |
CN108986052B (en) | Self-adaptive image illumination removing method and system | |
US10319131B2 (en) | Digital signal processing for image filtering field | |
Choudhury et al. | Perceptually motivated automatic color contrast enhancement based on color constancy estimation | |
JP4171354B2 (en) | Color image processing apparatus and method | |
Chong et al. | Dual image fusion technique for underwater image contrast enhancement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081205 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20090512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100803 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101001 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110603 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20110705 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120123 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20120131 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20120330 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5203159 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160222 Year of fee payment: 3 |
|
EXPY | Cancellation because of completion of term |