JP2005094452A - Method, system, and program for processing image - Google Patents
Method, system, and program for processing image Download PDFInfo
- Publication number
- JP2005094452A JP2005094452A JP2003326076A JP2003326076A JP2005094452A JP 2005094452 A JP2005094452 A JP 2005094452A JP 2003326076 A JP2003326076 A JP 2003326076A JP 2003326076 A JP2003326076 A JP 2003326076A JP 2005094452 A JP2005094452 A JP 2005094452A
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing
- target
- region
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title description 16
- 238000006243 chemical reaction Methods 0.000 claims description 52
- 238000004364 calculation method Methods 0.000 claims description 36
- 238000003672 processing method Methods 0.000 claims description 12
- 230000010354 integration Effects 0.000 claims description 9
- 238000007796 conventional method Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000003707 image sharpening Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Abstract
Description
本発明は画像処理方法、画像処理システムおよび画像処理プログラムに関し、特に、画像を画像内容に応じて高画質化する画像処理方法、画像処理システムおよび画像処理プログラムに関する。 The present invention relates to an image processing method, an image processing system, and an image processing program, and more particularly, to an image processing method, an image processing system, and an image processing program for improving the image quality of an image according to the image content.
従来、デジタル画像処理技術により画像の性質を解析し、人の視覚に対して高画質な画像に変換する方法が知られている。例えば、特許番号第2692531号の「画像の鮮鋭化方法及び装置」では画像の鮮鋭化を行なう場合に、すべての画像について画一的なシャープニングを行なうのでなく、画像ごとにエッジ領域を検出し、その領域における高周波成分または高周波帯域成分の強度の積分値をエッジ領域の面積で正規化した値に基づいて鮮鋭化の程度を調整する。同様にして、画像のコントラストや彩度を画像に適応して最適値に調整する方法も知られている。 2. Description of the Related Art Conventionally, there has been known a method of analyzing the properties of an image using a digital image processing technique and converting the image into a high-quality image for human vision. For example, in Japanese Patent No. 2692531, “Image Sharpening Method and Apparatus”, when sharpening an image, instead of performing uniform sharpening for all images, an edge region is detected for each image. The degree of sharpening is adjusted based on the value obtained by normalizing the integrated value of the intensity of the high-frequency component or high-frequency band component in the region with the area of the edge region. Similarly, a method of adjusting the contrast and saturation of an image to an optimum value by adapting to the image is also known.
しかし、従来の技術では、画像全体について上記のような性質の解析を行ない、その結果に応じて処理を決定するために、1枚の画像中に異なった性質の対象が存在している場合に、対象に応じた高画質化を実行することができなかった。例えば、ビル街の上に青空が広がっているような画像に対して、鮮鋭度を調節する場合、主観的に、ビル街等の人工物の画像部分については鮮鋭度が高い画像が高画質と判断され、青空の画像部分についてはよりなだらかな輝度値の変化の画像が高画質と判断される。シャープニング処理は、画像のノイズを増幅する効果があるため、青空の領域では、その影響により画質が劣化したと判断される場合もある。そのように、最適なシャープニングの程度は異なっている。しかし画像全体について一様に同じシャープニングを適用する場合には、平均的な値が使用されることになるために効果が上がらないことがあった。 However, in the conventional technique, the above-described property analysis is performed on the entire image, and in order to determine the processing according to the result, there is a case where there are objects with different properties in one image. Therefore, it was not possible to execute high image quality according to the target. For example, when adjusting the sharpness for an image in which a blue sky spreads over a building street, subjectively, an image with a high sharpness for an image portion of an artifact such as a building street has a high image quality. As a result, for the image part of the blue sky, it is determined that an image with a more gentle change in luminance value has a high image quality. Since the sharpening process has an effect of amplifying image noise, it may be determined that the image quality has deteriorated due to the influence in the blue sky region. As such, the optimum degree of sharpening is different. However, when the same sharpening is uniformly applied to the entire image, the average value is used, so that the effect may not be improved.
本発明の目的は、上記の課題を解決し、画像の部分領域を分類し、領域毎に最適な画像処理を行なうことによって、画像全体を高画質化する方法、システムおよびプログラムを提供することにある。 An object of the present invention is to provide a method, system, and program for solving the above-described problems, classifying partial areas of an image, and performing optimum image processing for each area, thereby improving the image quality of the entire image. is there.
本発明の画像処理方法は、原画像に1つあるいは複数の対象が含まれていることを識別して対象領域を設定し、該対象領域には前記対象に応じた画像処理を適用し、処理結果を得ることを特徴とする。 The image processing method of the present invention identifies that an original image includes one or a plurality of targets, sets a target region, applies image processing according to the target to the target region, It is characterized by obtaining results.
また、本発明の画像処理方法は、原画像の各位置について、1つあるいは複数の対象が含まれている対象領域らしさを求め、該対象領域らしさに応じて前記対象に応じた画像処理を適用し、処理結果を得ることを特徴とする。 The image processing method of the present invention obtains the likelihood of a target area including one or a plurality of targets for each position of the original image, and applies image processing according to the target according to the target area likelihood. And processing results are obtained.
さらに、本発明の画像処理方法は、原画像に対して1つあるいは複数の対象の画像に適した画像処理を適用した1つあるいは複数の対象向け処理結果画像を作成し、前記原画像の各位置について、前記対象が含まれている対象領域らしさを求め、該対象領域らしさに応じて対象向け処理結果画像を統合することにより最終画像を得ることを特徴とする。 Furthermore, the image processing method of the present invention creates one or a plurality of target processing result images obtained by applying image processing suitable for one or a plurality of target images to the original image, and each of the original images For the position, the target image including the target is obtained, and a final image is obtained by integrating the processing result images for the target according to the target region.
さらに、本発明の画像処理方法は、前記対象が、人物あるいは顔、空・雲、人工物、草木、集合人物、自然風景の少なくとも1つを含むことを特徴とする。 Furthermore, the image processing method of the present invention is characterized in that the object includes at least one of a person or a face, sky / clouds, an artifact, a plant, a collective person, and a natural landscape.
さらに、本発明の画像処理方法は、前記画像処理が鮮鋭化処理、コントラスト強調処理、彩度強調処理、ホワイトバランス処理の少なくとも1つを含むことを特徴とする。 Furthermore, the image processing method of the present invention is characterized in that the image processing includes at least one of sharpening processing, contrast enhancement processing, saturation enhancement processing, and white balance processing.
さらに、本発明の画像処理システムは、原画像の各部分において、1つあるいは複数の対象領域らしさを計算する領域指数計算手段と、該領域指数計算手段により得られた領域指数に応じて原画像に画像変換処理を適用する画像変換手段を含むことを特徴とする。 Furthermore, the image processing system of the present invention includes a region index calculating unit that calculates the likelihood of one or a plurality of target regions in each part of the original image, and the original image according to the region index obtained by the region index calculating unit. And an image conversion means for applying an image conversion process.
さらに、本発明の画像処理システムは、原画像に対して1つあるいは複数の対象の画像に適した画像処理を適用した1つあるいは複数の対象向け処理結果画像を作成する画像変換手段と、前記原画像の各位置について前記対象が含まれている対象領域らしさを領域指数として計算する領域指数計算手段と、該領域指数に応じて前記対象向け処理結果画像を統合する画像統合手段を含むことを特徴とする。 Furthermore, the image processing system of the present invention includes an image conversion unit that creates one or a plurality of target processing result images obtained by applying image processing suitable for one or a plurality of target images to the original image, A region index calculation unit that calculates a target region probability that the target is included for each position of the original image as a region index, and an image integration unit that integrates the processing result images for the target according to the region index. Features.
さらに、本発明の画像処理システムは、前記対象が、人物あるいは顔、空・雲、人工物、草木、集合人物、自然風景の少なくとも1つを含むことを特徴とする。 Furthermore, the image processing system of the present invention is characterized in that the object includes at least one of a person or a face, sky / clouds, an artifact, a plant, a collective person, and a natural landscape.
さらに、本発明の画像処理システムは、前記画像処理が鮮鋭化処理、コントラスト強調処理、彩度強調処理、ホワイトバランス処理の少なくとも1つを含むことを特徴とする。 Furthermore, the image processing system of the present invention is characterized in that the image processing includes at least one of sharpening processing, contrast enhancement processing, saturation enhancement processing, and white balance processing.
本発明の構成をとることによって、画像全体の性質に基づいて、高画質化処理が行われていた従来の方法に対して、画像領域に応じた高画質化処理が可能となり、人の視覚に対してより高画質な画像に変換することが可能となる。 By adopting the configuration of the present invention, it is possible to perform high image quality processing according to the image area, compared with the conventional method in which high image quality processing has been performed based on the properties of the entire image. On the other hand, it is possible to convert to a higher quality image.
次に、本発明の実施の形態について図面を参照して詳細に説明する。 Next, embodiments of the present invention will be described in detail with reference to the drawings.
本発明の第1の実施の形態をブロックで示す図1を参照して、この実施の形態の画像処理システムの動作を説明する。 The operation of the image processing system of this embodiment will be described with reference to FIG. 1 which shows the first embodiment of the present invention in block form.
原画像1の例としては、図2の模式図のようなものであるとする。原画像1には、前景に人物、背景に家や木などの風景や空が撮影されている。本実施の形態は、この原画像1について、
(1)人物の肌については、シャープニングは弱くかける。
(2)空や雲については、シャープニングはかけない。青空の部分は彩度を高くする。
(3)人物の服、背景については、シャープニングを強くかける。コントラストや彩度もメリハリがつくように強調する。
のような処理を行ない、人の視覚に対して画像を高画質化する。即ち、原画像1に対して領域識別手段11が人物の肌領域を識別する。そして、識別された領域が“1”、それ以外が“0”である二値画像である領域画像13が作成される。図2の例に対しては、図3に“白”で示す部分が識別された肌領域である“1”の部分である。画像変換手段15は、原画像1の領域画像13が“1”である部分に対して、肌領域に適した高画質化処理を適用する。同様に、領域識別手段12が空・雲の領域を識別し、領域画像14が作成される。画像変換手段16は、原画像1の領域画像14が“1”である部分に対して、空・雲領域に適した高画質化処理を適用する。また、原画像1の全体に対して、一般的な高画質化処理が画像変換手段17により適用される。画像合成手段18は、画像変換手段17の出力に対し、“肌”の領域画像13が“1”である部分については、画像変換手段15の出力を、“空・雲”に領域画像14が“1”である部分については、画像変換手段16の出力を合成する。画素ごとに画像を合成すると、領域の繋ぎ目で画質が急に変化し、不自然な画像が生成されることがあるので、画像合成手段18は、領域間のぼかし処理を含むのが適当である。
An example of the original image 1 is assumed to be as shown in the schematic diagram of FIG. In the original image 1, a person in the foreground and a landscape such as a house and a tree and the sky are photographed in the background. In the present embodiment, for the original image 1,
(1) For human skin, apply sharpening weakly.
(2) Do not sharpen the sky or clouds. The blue sky increases the saturation.
(3) Sharpen the person's clothes and background strongly. Emphasize the contrast and saturation so that they are sharp.
To improve the image quality for human vision. That is, the area identifying unit 11 identifies the skin area of the person with respect to the original image 1. Then, a
なお、本明細書では、識別すべき対象を、人物、空・雲として説明しているが、目標とする画質が異なる対象ごとに別々の処理が行なわれる実施形態が望ましく、その他に人工物や建物、山などの自然風景、集合人物等、よく画像が撮影される状況を識別し、それぞれの状況における高画質化処理を行なうことが可能である。 In this specification, the target to be identified is described as a person, sky, or cloud. However, an embodiment in which separate processing is performed for each target with different target image quality is desirable. It is possible to identify situations in which images are often taken, such as buildings, natural scenery such as mountains, gathering people, etc., and perform image quality enhancement processing in each situation.
また、本明細書では、適用される画像処理を‘鮮鋭化’、‘コントラスト強調’、‘彩度強調’としているが、‘ホワイトバランス処理’、‘記憶色への色変更処理’などを含んでもよい。 In this specification, the applied image processing is “sharpening”, “contrast emphasis”, and “saturation emphasis”, but includes “white balance processing”, “color change processing to memory color”, etc. But you can.
第1の実施の形態は理想的であるが、通常、対象の識別は完全ではないので、誤った画像変換が適用される領域が生じることがある。それを踏まえて、第2の実施の形態を図4に基づいて説明する。まず、原画像1は、第1、第2の領域指数計算手段21、22によって、各画素毎に規定された性質を持っているかを解析する。領域の性質としては、例えば第1、第2の領域指数計算手段21、22は、それぞれ、人肌、空・雲の2つの領域の性質を評価する。 The first embodiment is ideal, but usually the identification of the object is not perfect, so there may be areas where incorrect image transformation is applied. Based on this, the second embodiment will be described with reference to FIG. First, the original image 1 is analyzed by the first and second region index calculation means 21 and 22 to determine whether or not it has a property defined for each pixel. As the region properties, for example, the first and second region index calculating means 21 and 22 evaluate the properties of two regions of human skin and sky / cloud, respectively.
それぞれの領域指数計算手段21、22は、その領域らしさを画像から判断し、その領域らしさを例えば0〜1の値をとる指数として出力する。図5を参照して人肌領域らしさを各画素の色から計算する領域指数計算手段21の機能を示す。ここでは、画素の色を(R,G,B)値で示す。黒を(0,0,0)、白を(1,1,1)とすると、RGB色空間において、すべての色は図5のような立方体に含まれる。この中で、最も肌色らしい領域211に‘1’、その周囲の尤度が低い領域212に‘0.7’、その更に周囲の領域213に‘0.3’、それ以外には‘0’の指数を予め設定する。各画素値は、これらの領域に含まれているかどうかを調べられ、対応する指数F1が出力される。勿論、指数は図5のように離散的な値を設定する代わりに、正規分布関数のような連続的に変化するように設定しても構わない。
Each area index calculating means 21 and 22 determines the likelihood of the area from the image, and outputs the area likelihood as an index having a value of 0 to 1, for example. With reference to FIG. 5, the function of the area | region index calculation means 21 which calculates human skin area-likeness from the color of each pixel is shown. Here, the color of the pixel is indicated by an (R, G, B) value. If black is (0, 0, 0) and white is (1, 1, 1), all colors are included in a cube as shown in FIG. 5 in the RGB color space. Among these, the
次に、図6を参照して、人肌の内、特に顔領域らしさを判定する領域指数計算手段21の実施例を説明する。画像データが、まず画像スケーリング手段214に入力される。これは、画像に撮像されている顔の大きさの変化に対応するためである。画像データは、まず第1の変倍手段2151によって、例えば0.8倍のサイズに縮小される。縮小された画像データは、第1の類似度判定手段2161に出力されると同時に、第2の変倍手段2152にも出力される。第2の変倍手段2152は、同様に、画像を0.8倍のサイズ(原画からは0.64倍のサイズ)に縮小する。この結果は第2の類似度判定手段2162に出力されると同時に、第3の変倍手段2153にも出力される。これを必要なだけ繰り返し、顔の大きさのバリエーションに対応する。類似度判定手段2161〜2163は、状況に応じて画像の輝度の正規化を行ない、顔テンプレート217との類似度を0〜1の値として計算する。顔が存在する場合、サイズがテンプレートと合っている類似度判定手段に高い出力が得られるので、最大値選択手段218は、類似度判定手段2161〜2163の出力の最大値を顔領域指数F2として出力する。
Next, with reference to FIG. 6, an embodiment of the area index calculating means 21 for determining the likelihood of human skin, particularly the face area, will be described. Image data is first input to the image scaling means 214. This is to cope with a change in the size of the face captured in the image. The image data is first reduced to a size of, for example, 0.8 times by the first scaling unit 2151. The reduced image data is output to the first similarity determining unit 2161 and simultaneously to the second scaling unit 2152. Similarly, the second scaling unit 2152 reduces the image to a size of 0.8 times (a size of 0.64 times from the original image). This result is output to the second similarity determination unit 2162 and simultaneously output to the third scaling unit 2153. This is repeated as necessary to cope with variations in face size. The similarity determination means 2161 to 2163 normalizes the luminance of the image according to the situation, and calculates the similarity with the
尚、顔領域指数の計算の際に、前記の人肌領域指数F1の計算も同時に行ない、その判定精度を高めることもできる。その場合には、前記人肌領域指数F1と顔領域指数F2を組み合わせた計算で、新しい顔領域指数Fを求めることが可能である。例えば、式(1)や式(2)のような実現方法が可能であるが、これに制限されるものではない。 When calculating the face area index, the human skin area index F1 is also calculated at the same time, and the determination accuracy can be increased. In that case, a new face area index F can be obtained by a combination of the human skin area index F1 and the face area index F2. For example, an implementation method such as Equation (1) or Equation (2) is possible, but is not limited thereto.
F=F1・F2 (1)
F=(F1+F2)/2 (2)
同様にして、空・雲の領域らしさを示す領域指数Cを計算する領域指数計算手段22の実施例を図7を参照して説明する。色相彩度計算手段221が各画素の値から、その画素の色相H、彩度S、明度Vを計算する。例えば、公知のHSV空間への変換を式3に従って行なう。
F = F1 ・ F2 (1)
F = (F1 + F2) / 2 (2)
Similarly, an embodiment of the area index calculating means 22 for calculating the area index C indicating the sky-cloud area likelihood will be described with reference to FIG. Hue saturation calculation means 221 calculates the hue H, saturation S, and brightness V of the pixel from the value of each pixel. For example, conversion to a known HSV space is performed according to Equation 3.
ここで、
here,
すると、図8のような輝度を除いた二次元の表現で、例えばRからの角度として色相Hが、中心からの距離として彩度Sが定義できる。ここで、領域227を空や雲の色領域らしさC1=0.3、領域228をC1=0.6、領域229をC1=0.9として定義する。色度評価手段222は、この計算を行ないC1を出力する。 Then, in a two-dimensional expression excluding luminance as shown in FIG. 8, for example, hue H can be defined as an angle from R, and saturation S as a distance from the center. Here, the region 227 is defined as the color region likelihood C1 = 0.3 of the sky or cloud, the region 228 is defined as C1 = 0.6, and the region 229 is defined as C1 = 0.9. The chromaticity evaluation means 222 performs this calculation and outputs C1.
また、一様度計算手段223は、各画素について、その周囲からの色の変化の一様度C2を評価する。例えば式(4)により評価できるが、これに制限されるものではない。
Further, the uniformity calculation means 223 evaluates the uniformity C2 of the color change from the periphery of each pixel. For example, although it can evaluate by Formula (4), it is not restrict | limited to this.
ここで、VはR,G,B。 Here, V is R, G, B.
指数合成手段224は、上記で得られたC1とC2から空・雲領域指数Cを計算する。計算方法は、式(5)又は式(6)で実現できるが、これに制限されるものではない。 The index composition means 224 calculates the sky / cloud area index C from C1 and C2 obtained above. The calculation method can be realized by Equation (5) or Equation (6), but is not limited to this.
C=C1・C2 (5)
C=(C1+C2)/2 (6)
さて、領域指数計算手段21から顔領域指数Fが、領域指数計算手段22から空・雲領域指数Cが各画素毎に出力され、それぞれ、領域指数画像31及び領域指数画像32となる。
C = C1 ・ C2 (5)
C = (C1 + C2) / 2 (6)
The area index calculating means 21 outputs the face area index F, and the area index calculating means 22 outputs the sky / cloud area index C for each pixel, which becomes the
画像変換手段4は、原画像1と領域指数画像31、32を入力とし、領域に応じた高画質化処理を適用し、結果の画像を出力する。図9を参照して、画像変換手段4の実施例を説明する。鮮鋭化手段41、コントラスト強調手段42、彩度強調手段43が原画像1に対して画像処理を行なうが、それぞれの処理の程度は鮮鋭化量計算手段44、コントラスト強調量計算手段45、彩度強調量計算手段46で計算する。
The image conversion means 4 receives the original image 1 and the
例えば、鮮鋭化手段41が、鮮鋭化を式(7)のように行ない、鮮鋭化量はαで調整される場合、
For example, when the sharpening
ここで、
here,
一般の領域では、α=1とするが、顔領域では鮮鋭化量を少なめに、空・雲領域では全くかけない方が高画質になるとき、例えば、鮮鋭化量計算手段44はαを式(8)のように計算する。 In the general region, α = 1, but when the amount of sharpening is small in the face region and the image is not applied at all in the sky / cloud region, the sharpening amount calculating means 44, for example, calculates α Calculate as in (8).
α=1−0.5F−C (8)
尚、ここではFとCが同時に値を持たないことを仮定している。
α = 1-0.5F-C (8)
Here, it is assumed that F and C have no value at the same time.
また、コントラスト強調手段42が、原画像1のコントラストを式(9)のように計測し、原コントラスト値Kを得、目標のコントラスト値K’に式(10)により変換するとする。
Further, it is assumed that the contrast emphasizing means 42 measures the contrast of the original image 1 as shown in Expression (9), obtains the original contrast value K, and converts it into the target contrast value K ′ by Expression (10).
ここで、
here,
空・雲領域では、一般と同様にコントラストを強調するが、顔領域では顔色を変えないほうが高画質になる場合、コントラスト強調量計算手段45は、強調量βを式(11)のように計算する。 In the sky / cloud region, contrast is enhanced in the same manner as in general, but in the face region, when the face color is not changed, the contrast enhancement amount calculation unit 45 calculates the enhancement amount β as shown in Expression (11). To do.
β=1−F (11)
彩度強調量計算手段46も、同様に、公知の画像に対する彩度強調を行なう彩度強調手段43に対しての彩度強調量を、領域指数の値に応じて計算するように構成される。
β = 1−F (11)
Similarly, the saturation enhancement
続いて、図10を参照して本発明の第3の実施の形態を説明する。求める結果画像が第2の実施の形態と同等であると考えると、領域指数画像31、領域指数画像32の各画素には、それぞれ、顔領域指数、空・雲領域指数が格納される。それに対応して、画像変換手段410は、原画像1全体に顔領域に適した画像変換処理を適用する。同様に、画像変換手段420は、原画像1全体に空・雲領域に適した画像変換処理を適用する。また、画像変換手段430は、原画像全体に一般的な画像変換処理を適用する。画像変換手段410の構成例を図11に示す。画像変換手段410は、画像変換手段4と似た処理手段である、鮮鋭化手段411、コントラスト強調手段412、彩度強調手段413を持つ。画像変換手段4は、この強調量を計算して求めるが、画像変換手段410は、顔領域向けの画像変換手段であるので、それに最適な強調量で画像変換を行ない、変換された画像を出力する。画像変換手段420は、同様の構成で、空・雲領域に適した画像変換を行ない、処理結果を出力する。画像変換手段430は、それ以外の一般の領域に適した画像変換を行ない処理結果を出力する。
Subsequently, a third embodiment of the present invention will be described with reference to FIG. If it is considered that the result image to be obtained is equivalent to that of the second embodiment, a face area index and a sky / cloud area index are stored in each pixel of the
画像統合手段5は、それぞれの画像変換が適用された画像を統合する。例えば、画像変換手段410、420、430の出力画像をそれぞれg1(x,y)、g2(x,y)、g3(x,y)、領域指数画像31、32を、それぞれF(x,y),C(x,y)とする。画像統合手段5は、各画素ごとに式(12)を計算し、結果画像result(x、y)を出力する。
The image integration unit 5 integrates the images to which the respective image conversions are applied. For example, the output images of the
result(x、y)=F(x,y)g1(x,y)+C(x,y)g2(x,y)
+(1−F−C)g3(x,y) (12)
なお、ここでもF(x,y)とC(x,y)は同時に値を持たないと仮定している。しかし、実施にあたっては、F(x,y)とC(x,y)が同時に値を持つように構成することも可能である。その際には、式(8)のαあるいは式(12)の右辺の第3項の(1−F−C)が負の値をとらないように制限を設けるなどの工夫が必要である。
result (x, y) = F (x, y) g 1 (x, y) + C (x, y) g 2 (x, y)
+ (1-F-C) g 3 (x, y) (12)
It is assumed here that F (x, y) and C (x, y) do not have values at the same time. However, in implementation, F (x, y) and C (x, y) can be configured to have values simultaneously. In that case, it is necessary to devise such a restriction that α in Expression (8) or (1-FC) in the third term on the right side of Expression (12) does not take a negative value.
この画像統合処理により、それぞれの領域に応じた画像変換が行なわれた結果画像が生成される。 By this image integration processing, a result image is generated by performing image conversion corresponding to each region.
上記の実施の形態では、それぞれの処理手段を本発明の構成要素としているが、それぞれの処理をコンピュータプログラムで実現することも可能である。その場合の本発明の第4の実施の形態を、図12を参照して説明する。処理が開始すると、まず領域指数計算ステップ23が実行される。領域指数計算ステップ23は原画像1を入力とし、例えば原画像1の各画素において顔領域らしさの計算をプログラムにより実行する。その結果、各画素に式(1)または式(2)で示された顔領域指数を持つ領域指数画像31が出力される。次に領域指数計算ステップ24が実行される。領域指数計算ステップ24は原画像1を入力とし、例えば原画像1の各画素において空・雲の領域らしさの計算をプログラムにより実行する。その結果、各画素に式(5)または式(6)で示された空・雲領域指数を持つ領域指数画像32が出力される。続いて画像変換ステップ6が実行される。画像変換ステップ6はさらに鮮鋭化ステップ61、コントラスト強調ステップ62、彩度強調ステップ63から成っており、それぞれの画像処理が、原画像1に対して領域指数画像31、領域指数画像32に格納された領域指数に従って、処理の程度を式(7)、式(10)のように調整されて実行され、その結果が結果画像7として出力される。
In the above embodiment, each processing means is a component of the present invention, but each processing can also be realized by a computer program. A fourth embodiment of the present invention in that case will be described with reference to FIG. When the process starts, first, an area index calculation step 23 is executed. In the region index calculation step 23, the original image 1 is input, and for example, the facial region likelihood calculation is executed by a program in each pixel of the original image 1. As a result, the
それぞれの処理をコンピュータプログラムとして実現する本発明の別の実施の形態として、第5の実施の形態を図13を参照して説明する。ここではまず、原画像1に対して、例えば、顔領域らしさを計算する領域指数計算ステップ23が実行され、領域指数画像31が生成される。次に、顔領域向きの画像変換である画像変換ステップ83が原画像1に対して実行され、処理結果画像33が生成される。同様に、例えば、空・雲領域らしさを計算する領域指数計算ステップ24が実行され、領域指数画像32が生成され、空・雲領域向きの画像変換を行なう画像変換ステップ84が実行され、処理結果画像34が生成される。続いて、一般の領域に対する画像変換処理を行なう画像変換ステップ85が原画像1に対して実行され、処理結果画像35が生成される。最後に、それぞれの処理結果画像33,34,35を各画素における領域指数画像31,32の領域指数に応じて合成する画像統合ステップ9が実行され、最終的な結果画像7が出力される。この場合、2つの領域指数計算ステップ23,24と、3つの画像変換ステップ83,84,85の処理内容は全く独立であるので、その実行順序は任意であり、コンピュータによっては並行処理により高速実行することも可能である。
As another embodiment of the present invention for realizing each processing as a computer program, a fifth embodiment will be described with reference to FIG. Here, first, for example, a region index calculation step 23 for calculating the likelihood of a face region is executed on the original image 1 to generate a
1 原画像
11,12 領域識別手段
13,14 領域画像
15,16,17 画像変換手段
18 画像合成手段
21,22 領域指数計算手段
23,24 領域指数計算ステップ
31,32 領域指数画像
33,34,35 処理結果画像
4,410,420,430 画像変換手段
41 鮮鋭化手段
42 コントラスト強調手段
43 彩度強調手段
44 鮮鋭化量計算手段
45 コントラスト強調量計算手段
46 彩度強調量計算手段
5 画像統合手段
6,83,84,85 画像変換ステップ
7 結果画像
9 画像統合ステップ
DESCRIPTION OF SYMBOLS 1
Claims (11)
An image conversion step for generating one or a plurality of target processing result image data obtained by applying image processing suitable for one or a plurality of target images to the original image data; and the target for each position of the original image An image processing program, comprising: an area index calculating step for calculating a target area including the image as an area index; and image integration means for integrating the processing result image data for the object according to the area index.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003326076A JP2005094452A (en) | 2003-09-18 | 2003-09-18 | Method, system, and program for processing image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003326076A JP2005094452A (en) | 2003-09-18 | 2003-09-18 | Method, system, and program for processing image |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007133876A Division JP4742068B2 (en) | 2007-05-21 | 2007-05-21 | Image processing method, image processing system, and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005094452A true JP2005094452A (en) | 2005-04-07 |
Family
ID=34456355
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003326076A Pending JP2005094452A (en) | 2003-09-18 | 2003-09-18 | Method, system, and program for processing image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005094452A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008113850A (en) * | 2006-11-06 | 2008-05-22 | Ge Medical Systems Global Technology Co Llc | Method and device for processing x-ray ct image |
JP2010152518A (en) * | 2008-12-24 | 2010-07-08 | Toshiba Corp | Image processor and image processing method |
US20200250795A1 (en) * | 2019-01-31 | 2020-08-06 | Samsung Electronics Co., Ltd. | Electronic device and method for processing image |
CN111985492A (en) * | 2019-05-24 | 2020-11-24 | 浙江能脉新能源科技有限公司 | Cloud identification method |
-
2003
- 2003-09-18 JP JP2003326076A patent/JP2005094452A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008113850A (en) * | 2006-11-06 | 2008-05-22 | Ge Medical Systems Global Technology Co Llc | Method and device for processing x-ray ct image |
JP2010152518A (en) * | 2008-12-24 | 2010-07-08 | Toshiba Corp | Image processor and image processing method |
JP4528857B2 (en) * | 2008-12-24 | 2010-08-25 | 株式会社東芝 | Image processing apparatus and image processing method |
US7983454B2 (en) | 2008-12-24 | 2011-07-19 | Kabushiki Kaisha Toshiba | Image processing apparatus and image processing method for processing a flesh-colored area |
US20200250795A1 (en) * | 2019-01-31 | 2020-08-06 | Samsung Electronics Co., Ltd. | Electronic device and method for processing image |
US11488284B2 (en) * | 2019-01-31 | 2022-11-01 | Samsung Electronics Co., Ltd. | Electronic device and method for processing image |
CN111985492A (en) * | 2019-05-24 | 2020-11-24 | 浙江能脉新能源科技有限公司 | Cloud identification method |
CN111985492B (en) * | 2019-05-24 | 2024-03-26 | 浙江能脉新能源科技有限公司 | Cloud identification method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20140079319A1 (en) | Methods for enhancing images and apparatuses using the same | |
JP6818463B2 (en) | Image processing equipment, image processing methods and programs | |
JP2006508460A (en) | Image signal processing method | |
JP2001126075A (en) | Method and device for picture processing, and recording medium | |
JPH11313202A (en) | Image processing unit and image processing method | |
CN113344836B (en) | Face image processing method and device, computer readable storage medium and terminal | |
JP2016170628A (en) | Image processor and image processing method | |
Abebe et al. | Towards an automatic correction of over-exposure in photographs: Application to tone-mapping | |
JP5203159B2 (en) | Image processing method, image processing system, and image processing program | |
JP4742068B2 (en) | Image processing method, image processing system, and image processing program | |
Kwok et al. | Design of unsharp masking filter kernel and gain using particle swarm optimization | |
Al-Ameen et al. | Fast and Efficient Algorithm for Contrast Enhancement of Color Images. | |
JP5286215B2 (en) | Outline extracting apparatus, outline extracting method, and outline extracting program | |
KR20120042988A (en) | Image processing method, image processing device, and program | |
JP2005094452A (en) | Method, system, and program for processing image | |
JP7437921B2 (en) | Image processing device, image processing method, and program | |
CN113591630A (en) | Certificate photo automatic processing method, system, terminal equipment and storage medium | |
JP7365206B2 (en) | Image processing device, image processing method, and program | |
Yadav et al. | Fusion-based backlit image enhancement and analysis of results using contrast measure and SSIM | |
JP4171354B2 (en) | Color image processing apparatus and method | |
JP2008294969A (en) | Video image conversion apparatus, method, and program | |
JP7400198B2 (en) | Image processing device, image processing method, and program | |
CN118571161B (en) | Display control method, device and equipment of LED display screen and storage medium | |
JP2003248824A (en) | Device and method for image processing | |
JP7383891B2 (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20050315 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050518 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20070118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070320 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070521 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070828 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071024 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080318 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080519 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20080529 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20080604 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20080725 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20090508 |