JP2005094452A - Method, system, and program for processing image - Google Patents

Method, system, and program for processing image Download PDF

Info

Publication number
JP2005094452A
JP2005094452A JP2003326076A JP2003326076A JP2005094452A JP 2005094452 A JP2005094452 A JP 2005094452A JP 2003326076 A JP2003326076 A JP 2003326076A JP 2003326076 A JP2003326076 A JP 2003326076A JP 2005094452 A JP2005094452 A JP 2005094452A
Authority
JP
Japan
Prior art keywords
image
processing
target
region
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003326076A
Other languages
Japanese (ja)
Inventor
Joji Tajima
譲二 田島
Masato Tsukada
正人 塚田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2003326076A priority Critical patent/JP2005094452A/en
Publication of JP2005094452A publication Critical patent/JP2005094452A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem wherein an image mixedly containing objects having different properties cannot be appropriately changed into high quality since high image quality is realized according to properties in an entire image in a conventional method for improving the quality of images. <P>SOLUTION: By processing recognization of a region, such as a face, sky, and cloud in images, the likelihood of the region is calculated and image processing for an image region is performed according to the likelihood of the region, thus executing processing for improving image quality corresponding to the object in the image. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は画像処理方法、画像処理システムおよび画像処理プログラムに関し、特に、画像を画像内容に応じて高画質化する画像処理方法、画像処理システムおよび画像処理プログラムに関する。   The present invention relates to an image processing method, an image processing system, and an image processing program, and more particularly, to an image processing method, an image processing system, and an image processing program for improving the image quality of an image according to the image content.

従来、デジタル画像処理技術により画像の性質を解析し、人の視覚に対して高画質な画像に変換する方法が知られている。例えば、特許番号第2692531号の「画像の鮮鋭化方法及び装置」では画像の鮮鋭化を行なう場合に、すべての画像について画一的なシャープニングを行なうのでなく、画像ごとにエッジ領域を検出し、その領域における高周波成分または高周波帯域成分の強度の積分値をエッジ領域の面積で正規化した値に基づいて鮮鋭化の程度を調整する。同様にして、画像のコントラストや彩度を画像に適応して最適値に調整する方法も知られている。   2. Description of the Related Art Conventionally, there has been known a method of analyzing the properties of an image using a digital image processing technique and converting the image into a high-quality image for human vision. For example, in Japanese Patent No. 2692531, “Image Sharpening Method and Apparatus”, when sharpening an image, instead of performing uniform sharpening for all images, an edge region is detected for each image. The degree of sharpening is adjusted based on the value obtained by normalizing the integrated value of the intensity of the high-frequency component or high-frequency band component in the region with the area of the edge region. Similarly, a method of adjusting the contrast and saturation of an image to an optimum value by adapting to the image is also known.

特許番号第2692531号公報(第9―16頁)Japanese Patent No. 2692531 (pages 9-16)

しかし、従来の技術では、画像全体について上記のような性質の解析を行ない、その結果に応じて処理を決定するために、1枚の画像中に異なった性質の対象が存在している場合に、対象に応じた高画質化を実行することができなかった。例えば、ビル街の上に青空が広がっているような画像に対して、鮮鋭度を調節する場合、主観的に、ビル街等の人工物の画像部分については鮮鋭度が高い画像が高画質と判断され、青空の画像部分についてはよりなだらかな輝度値の変化の画像が高画質と判断される。シャープニング処理は、画像のノイズを増幅する効果があるため、青空の領域では、その影響により画質が劣化したと判断される場合もある。そのように、最適なシャープニングの程度は異なっている。しかし画像全体について一様に同じシャープニングを適用する場合には、平均的な値が使用されることになるために効果が上がらないことがあった。   However, in the conventional technique, the above-described property analysis is performed on the entire image, and in order to determine the processing according to the result, there is a case where there are objects with different properties in one image. Therefore, it was not possible to execute high image quality according to the target. For example, when adjusting the sharpness for an image in which a blue sky spreads over a building street, subjectively, an image with a high sharpness for an image portion of an artifact such as a building street has a high image quality. As a result, for the image part of the blue sky, it is determined that an image with a more gentle change in luminance value has a high image quality. Since the sharpening process has an effect of amplifying image noise, it may be determined that the image quality has deteriorated due to the influence in the blue sky region. As such, the optimum degree of sharpening is different. However, when the same sharpening is uniformly applied to the entire image, the average value is used, so that the effect may not be improved.

本発明の目的は、上記の課題を解決し、画像の部分領域を分類し、領域毎に最適な画像処理を行なうことによって、画像全体を高画質化する方法、システムおよびプログラムを提供することにある。   An object of the present invention is to provide a method, system, and program for solving the above-described problems, classifying partial areas of an image, and performing optimum image processing for each area, thereby improving the image quality of the entire image. is there.

本発明の画像処理方法は、原画像に1つあるいは複数の対象が含まれていることを識別して対象領域を設定し、該対象領域には前記対象に応じた画像処理を適用し、処理結果を得ることを特徴とする。   The image processing method of the present invention identifies that an original image includes one or a plurality of targets, sets a target region, applies image processing according to the target to the target region, It is characterized by obtaining results.

また、本発明の画像処理方法は、原画像の各位置について、1つあるいは複数の対象が含まれている対象領域らしさを求め、該対象領域らしさに応じて前記対象に応じた画像処理を適用し、処理結果を得ることを特徴とする。   The image processing method of the present invention obtains the likelihood of a target area including one or a plurality of targets for each position of the original image, and applies image processing according to the target according to the target area likelihood. And processing results are obtained.

さらに、本発明の画像処理方法は、原画像に対して1つあるいは複数の対象の画像に適した画像処理を適用した1つあるいは複数の対象向け処理結果画像を作成し、前記原画像の各位置について、前記対象が含まれている対象領域らしさを求め、該対象領域らしさに応じて対象向け処理結果画像を統合することにより最終画像を得ることを特徴とする。   Furthermore, the image processing method of the present invention creates one or a plurality of target processing result images obtained by applying image processing suitable for one or a plurality of target images to the original image, and each of the original images For the position, the target image including the target is obtained, and a final image is obtained by integrating the processing result images for the target according to the target region.

さらに、本発明の画像処理方法は、前記対象が、人物あるいは顔、空・雲、人工物、草木、集合人物、自然風景の少なくとも1つを含むことを特徴とする。   Furthermore, the image processing method of the present invention is characterized in that the object includes at least one of a person or a face, sky / clouds, an artifact, a plant, a collective person, and a natural landscape.

さらに、本発明の画像処理方法は、前記画像処理が鮮鋭化処理、コントラスト強調処理、彩度強調処理、ホワイトバランス処理の少なくとも1つを含むことを特徴とする。   Furthermore, the image processing method of the present invention is characterized in that the image processing includes at least one of sharpening processing, contrast enhancement processing, saturation enhancement processing, and white balance processing.

さらに、本発明の画像処理システムは、原画像の各部分において、1つあるいは複数の対象領域らしさを計算する領域指数計算手段と、該領域指数計算手段により得られた領域指数に応じて原画像に画像変換処理を適用する画像変換手段を含むことを特徴とする。   Furthermore, the image processing system of the present invention includes a region index calculating unit that calculates the likelihood of one or a plurality of target regions in each part of the original image, and the original image according to the region index obtained by the region index calculating unit. And an image conversion means for applying an image conversion process.

さらに、本発明の画像処理システムは、原画像に対して1つあるいは複数の対象の画像に適した画像処理を適用した1つあるいは複数の対象向け処理結果画像を作成する画像変換手段と、前記原画像の各位置について前記対象が含まれている対象領域らしさを領域指数として計算する領域指数計算手段と、該領域指数に応じて前記対象向け処理結果画像を統合する画像統合手段を含むことを特徴とする。   Furthermore, the image processing system of the present invention includes an image conversion unit that creates one or a plurality of target processing result images obtained by applying image processing suitable for one or a plurality of target images to the original image, A region index calculation unit that calculates a target region probability that the target is included for each position of the original image as a region index, and an image integration unit that integrates the processing result images for the target according to the region index. Features.

さらに、本発明の画像処理システムは、前記対象が、人物あるいは顔、空・雲、人工物、草木、集合人物、自然風景の少なくとも1つを含むことを特徴とする。   Furthermore, the image processing system of the present invention is characterized in that the object includes at least one of a person or a face, sky / clouds, an artifact, a plant, a collective person, and a natural landscape.

さらに、本発明の画像処理システムは、前記画像処理が鮮鋭化処理、コントラスト強調処理、彩度強調処理、ホワイトバランス処理の少なくとも1つを含むことを特徴とする。   Furthermore, the image processing system of the present invention is characterized in that the image processing includes at least one of sharpening processing, contrast enhancement processing, saturation enhancement processing, and white balance processing.

本発明の構成をとることによって、画像全体の性質に基づいて、高画質化処理が行われていた従来の方法に対して、画像領域に応じた高画質化処理が可能となり、人の視覚に対してより高画質な画像に変換することが可能となる。   By adopting the configuration of the present invention, it is possible to perform high image quality processing according to the image area, compared with the conventional method in which high image quality processing has been performed based on the properties of the entire image. On the other hand, it is possible to convert to a higher quality image.

次に、本発明の実施の形態について図面を参照して詳細に説明する。   Next, embodiments of the present invention will be described in detail with reference to the drawings.

本発明の第1の実施の形態をブロックで示す図1を参照して、この実施の形態の画像処理システムの動作を説明する。   The operation of the image processing system of this embodiment will be described with reference to FIG. 1 which shows the first embodiment of the present invention in block form.

原画像1の例としては、図2の模式図のようなものであるとする。原画像1には、前景に人物、背景に家や木などの風景や空が撮影されている。本実施の形態は、この原画像1について、
(1)人物の肌については、シャープニングは弱くかける。
(2)空や雲については、シャープニングはかけない。青空の部分は彩度を高くする。
(3)人物の服、背景については、シャープニングを強くかける。コントラストや彩度もメリハリがつくように強調する。
のような処理を行ない、人の視覚に対して画像を高画質化する。即ち、原画像1に対して領域識別手段11が人物の肌領域を識別する。そして、識別された領域が“1”、それ以外が“0”である二値画像である領域画像13が作成される。図2の例に対しては、図3に“白”で示す部分が識別された肌領域である“1”の部分である。画像変換手段15は、原画像1の領域画像13が“1”である部分に対して、肌領域に適した高画質化処理を適用する。同様に、領域識別手段12が空・雲の領域を識別し、領域画像14が作成される。画像変換手段16は、原画像1の領域画像14が“1”である部分に対して、空・雲領域に適した高画質化処理を適用する。また、原画像1の全体に対して、一般的な高画質化処理が画像変換手段17により適用される。画像合成手段18は、画像変換手段17の出力に対し、“肌”の領域画像13が“1”である部分については、画像変換手段15の出力を、“空・雲”に領域画像14が“1”である部分については、画像変換手段16の出力を合成する。画素ごとに画像を合成すると、領域の繋ぎ目で画質が急に変化し、不自然な画像が生成されることがあるので、画像合成手段18は、領域間のぼかし処理を含むのが適当である。
An example of the original image 1 is assumed to be as shown in the schematic diagram of FIG. In the original image 1, a person in the foreground and a landscape such as a house and a tree and the sky are photographed in the background. In the present embodiment, for the original image 1,
(1) For human skin, apply sharpening weakly.
(2) Do not sharpen the sky or clouds. The blue sky increases the saturation.
(3) Sharpen the person's clothes and background strongly. Emphasize the contrast and saturation so that they are sharp.
To improve the image quality for human vision. That is, the area identifying unit 11 identifies the skin area of the person with respect to the original image 1. Then, a region image 13 which is a binary image in which the identified region is “1” and the others are “0” is created. For the example of FIG. 2, the portion indicated by “white” in FIG. 3 is the portion “1” that is the identified skin region. The image conversion means 15 applies a high image quality process suitable for the skin area to the portion where the area image 13 of the original image 1 is “1”. Similarly, the area identifying means 12 identifies the sky / cloud area, and the area image 14 is created. The image conversion means 16 applies a high image quality process suitable for the sky / cloud region to the portion where the region image 14 of the original image 1 is “1”. Further, a general image quality enhancement process is applied to the entire original image 1 by the image conversion means 17. In contrast to the output of the image conversion means 17, the image composition means 18 outputs the output of the image conversion means 15 for the part where the “skin” area image 13 is “1”, and the area image 14 is “sky / cloud”. For the portion of “1”, the output of the image conversion means 16 is synthesized. If an image is synthesized for each pixel, the image quality may change abruptly at the joint between regions, and an unnatural image may be generated. Therefore, it is appropriate that the image synthesis means 18 includes a blurring process between the regions. is there.

なお、本明細書では、識別すべき対象を、人物、空・雲として説明しているが、目標とする画質が異なる対象ごとに別々の処理が行なわれる実施形態が望ましく、その他に人工物や建物、山などの自然風景、集合人物等、よく画像が撮影される状況を識別し、それぞれの状況における高画質化処理を行なうことが可能である。   In this specification, the target to be identified is described as a person, sky, or cloud. However, an embodiment in which separate processing is performed for each target with different target image quality is desirable. It is possible to identify situations in which images are often taken, such as buildings, natural scenery such as mountains, gathering people, etc., and perform image quality enhancement processing in each situation.

また、本明細書では、適用される画像処理を‘鮮鋭化’、‘コントラスト強調’、‘彩度強調’としているが、‘ホワイトバランス処理’、‘記憶色への色変更処理’などを含んでもよい。   In this specification, the applied image processing is “sharpening”, “contrast emphasis”, and “saturation emphasis”, but includes “white balance processing”, “color change processing to memory color”, etc. But you can.

第1の実施の形態は理想的であるが、通常、対象の識別は完全ではないので、誤った画像変換が適用される領域が生じることがある。それを踏まえて、第2の実施の形態を図4に基づいて説明する。まず、原画像1は、第1、第2の領域指数計算手段21、22によって、各画素毎に規定された性質を持っているかを解析する。領域の性質としては、例えば第1、第2の領域指数計算手段21、22は、それぞれ、人肌、空・雲の2つの領域の性質を評価する。   The first embodiment is ideal, but usually the identification of the object is not perfect, so there may be areas where incorrect image transformation is applied. Based on this, the second embodiment will be described with reference to FIG. First, the original image 1 is analyzed by the first and second region index calculation means 21 and 22 to determine whether or not it has a property defined for each pixel. As the region properties, for example, the first and second region index calculating means 21 and 22 evaluate the properties of two regions of human skin and sky / cloud, respectively.

それぞれの領域指数計算手段21、22は、その領域らしさを画像から判断し、その領域らしさを例えば0〜1の値をとる指数として出力する。図5を参照して人肌領域らしさを各画素の色から計算する領域指数計算手段21の機能を示す。ここでは、画素の色を(R,G,B)値で示す。黒を(0,0,0)、白を(1,1,1)とすると、RGB色空間において、すべての色は図5のような立方体に含まれる。この中で、最も肌色らしい領域211に‘1’、その周囲の尤度が低い領域212に‘0.7’、その更に周囲の領域213に‘0.3’、それ以外には‘0’の指数を予め設定する。各画素値は、これらの領域に含まれているかどうかを調べられ、対応する指数F1が出力される。勿論、指数は図5のように離散的な値を設定する代わりに、正規分布関数のような連続的に変化するように設定しても構わない。   Each area index calculating means 21 and 22 determines the likelihood of the area from the image, and outputs the area likelihood as an index having a value of 0 to 1, for example. With reference to FIG. 5, the function of the area | region index calculation means 21 which calculates human skin area-likeness from the color of each pixel is shown. Here, the color of the pixel is indicated by an (R, G, B) value. If black is (0, 0, 0) and white is (1, 1, 1), all colors are included in a cube as shown in FIG. 5 in the RGB color space. Among these, the region 211 that seems to be the most skin color is “1”, the surrounding region 212 is “0.7”, the surrounding region 213 is “0.3”, and the others are “0”. The index of is preset. Each pixel value is examined to see if it is included in these areas, and the corresponding index F1 is output. Of course, instead of setting discrete values as shown in FIG. 5, the index may be set so as to change continuously like a normal distribution function.

次に、図6を参照して、人肌の内、特に顔領域らしさを判定する領域指数計算手段21の実施例を説明する。画像データが、まず画像スケーリング手段214に入力される。これは、画像に撮像されている顔の大きさの変化に対応するためである。画像データは、まず第1の変倍手段2151によって、例えば0.8倍のサイズに縮小される。縮小された画像データは、第1の類似度判定手段2161に出力されると同時に、第2の変倍手段2152にも出力される。第2の変倍手段2152は、同様に、画像を0.8倍のサイズ(原画からは0.64倍のサイズ)に縮小する。この結果は第2の類似度判定手段2162に出力されると同時に、第3の変倍手段2153にも出力される。これを必要なだけ繰り返し、顔の大きさのバリエーションに対応する。類似度判定手段2161〜2163は、状況に応じて画像の輝度の正規化を行ない、顔テンプレート217との類似度を0〜1の値として計算する。顔が存在する場合、サイズがテンプレートと合っている類似度判定手段に高い出力が得られるので、最大値選択手段218は、類似度判定手段2161〜2163の出力の最大値を顔領域指数F2として出力する。   Next, with reference to FIG. 6, an embodiment of the area index calculating means 21 for determining the likelihood of human skin, particularly the face area, will be described. Image data is first input to the image scaling means 214. This is to cope with a change in the size of the face captured in the image. The image data is first reduced to a size of, for example, 0.8 times by the first scaling unit 2151. The reduced image data is output to the first similarity determining unit 2161 and simultaneously to the second scaling unit 2152. Similarly, the second scaling unit 2152 reduces the image to a size of 0.8 times (a size of 0.64 times from the original image). This result is output to the second similarity determination unit 2162 and simultaneously output to the third scaling unit 2153. This is repeated as necessary to cope with variations in face size. The similarity determination means 2161 to 2163 normalizes the luminance of the image according to the situation, and calculates the similarity with the face template 217 as a value between 0 and 1. If there is a face, a high output is obtained in the similarity determination unit whose size matches the template, so the maximum value selection unit 218 uses the maximum value of the output of the similarity determination unit 2161 to 2163 as the face area index F2. Output.

尚、顔領域指数の計算の際に、前記の人肌領域指数F1の計算も同時に行ない、その判定精度を高めることもできる。その場合には、前記人肌領域指数F1と顔領域指数F2を組み合わせた計算で、新しい顔領域指数Fを求めることが可能である。例えば、式(1)や式(2)のような実現方法が可能であるが、これに制限されるものではない。   When calculating the face area index, the human skin area index F1 is also calculated at the same time, and the determination accuracy can be increased. In that case, a new face area index F can be obtained by a combination of the human skin area index F1 and the face area index F2. For example, an implementation method such as Equation (1) or Equation (2) is possible, but is not limited thereto.

F=F1・F2 (1)
F=(F1+F2)/2 (2)
同様にして、空・雲の領域らしさを示す領域指数Cを計算する領域指数計算手段22の実施例を図7を参照して説明する。色相彩度計算手段221が各画素の値から、その画素の色相H、彩度S、明度Vを計算する。例えば、公知のHSV空間への変換を式3に従って行なう。

Figure 2005094452
F = F1 ・ F2 (1)
F = (F1 + F2) / 2 (2)
Similarly, an embodiment of the area index calculating means 22 for calculating the area index C indicating the sky-cloud area likelihood will be described with reference to FIG. Hue saturation calculation means 221 calculates the hue H, saturation S, and brightness V of the pixel from the value of each pixel. For example, conversion to a known HSV space is performed according to Equation 3.

Figure 2005094452

ここで、

Figure 2005094452
here,

Figure 2005094452

すると、図8のような輝度を除いた二次元の表現で、例えばRからの角度として色相Hが、中心からの距離として彩度Sが定義できる。ここで、領域227を空や雲の色領域らしさC1=0.3、領域228をC1=0.6、領域229をC1=0.9として定義する。色度評価手段222は、この計算を行ないC1を出力する。 Then, in a two-dimensional expression excluding luminance as shown in FIG. 8, for example, hue H can be defined as an angle from R, and saturation S as a distance from the center. Here, the region 227 is defined as the color region likelihood C1 = 0.3 of the sky or cloud, the region 228 is defined as C1 = 0.6, and the region 229 is defined as C1 = 0.9. The chromaticity evaluation means 222 performs this calculation and outputs C1.

また、一様度計算手段223は、各画素について、その周囲からの色の変化の一様度C2を評価する。例えば式(4)により評価できるが、これに制限されるものではない。

Figure 2005094452
Further, the uniformity calculation means 223 evaluates the uniformity C2 of the color change from the periphery of each pixel. For example, although it can evaluate by Formula (4), it is not restrict | limited to this.

Figure 2005094452

ここで、VはR,G,B。 Here, V is R, G, B.

指数合成手段224は、上記で得られたC1とC2から空・雲領域指数Cを計算する。計算方法は、式(5)又は式(6)で実現できるが、これに制限されるものではない。   The index composition means 224 calculates the sky / cloud area index C from C1 and C2 obtained above. The calculation method can be realized by Equation (5) or Equation (6), but is not limited to this.

C=C1・C2 (5)
C=(C1+C2)/2 (6)
さて、領域指数計算手段21から顔領域指数Fが、領域指数計算手段22から空・雲領域指数Cが各画素毎に出力され、それぞれ、領域指数画像31及び領域指数画像32となる。
C = C1 ・ C2 (5)
C = (C1 + C2) / 2 (6)
The area index calculating means 21 outputs the face area index F, and the area index calculating means 22 outputs the sky / cloud area index C for each pixel, which becomes the area index image 31 and the area index image 32, respectively.

画像変換手段4は、原画像1と領域指数画像31、32を入力とし、領域に応じた高画質化処理を適用し、結果の画像を出力する。図9を参照して、画像変換手段4の実施例を説明する。鮮鋭化手段41、コントラスト強調手段42、彩度強調手段43が原画像1に対して画像処理を行なうが、それぞれの処理の程度は鮮鋭化量計算手段44、コントラスト強調量計算手段45、彩度強調量計算手段46で計算する。   The image conversion means 4 receives the original image 1 and the area index images 31 and 32, applies image quality enhancement processing according to the area, and outputs the resulting image. With reference to FIG. 9, an embodiment of the image conversion means 4 will be described. The sharpening means 41, the contrast enhancement means 42, and the saturation enhancement means 43 perform image processing on the original image 1, and the degree of each processing is the sharpening amount calculation means 44, the contrast enhancement amount calculation means 45, and the saturation. Calculation is performed by the enhancement amount calculation means 46.

例えば、鮮鋭化手段41が、鮮鋭化を式(7)のように行ない、鮮鋭化量はαで調整される場合、

Figure 2005094452
For example, when the sharpening means 41 performs sharpening as shown in Equation (7) and the sharpening amount is adjusted by α,

Figure 2005094452

ここで、

Figure 2005094452
here,

Figure 2005094452

一般の領域では、α=1とするが、顔領域では鮮鋭化量を少なめに、空・雲領域では全くかけない方が高画質になるとき、例えば、鮮鋭化量計算手段44はαを式(8)のように計算する。   In the general region, α = 1, but when the amount of sharpening is small in the face region and the image is not applied at all in the sky / cloud region, the sharpening amount calculating means 44, for example, calculates α Calculate as in (8).

α=1−0.5F−C (8)
尚、ここではFとCが同時に値を持たないことを仮定している。
α = 1-0.5F-C (8)
Here, it is assumed that F and C have no value at the same time.

また、コントラスト強調手段42が、原画像1のコントラストを式(9)のように計測し、原コントラスト値Kを得、目標のコントラスト値K’に式(10)により変換するとする。

Figure 2005094452
Further, it is assumed that the contrast emphasizing means 42 measures the contrast of the original image 1 as shown in Expression (9), obtains the original contrast value K, and converts it into the target contrast value K ′ by Expression (10).

Figure 2005094452

ここで、

Figure 2005094452
here,

Figure 2005094452

空・雲領域では、一般と同様にコントラストを強調するが、顔領域では顔色を変えないほうが高画質になる場合、コントラスト強調量計算手段45は、強調量βを式(11)のように計算する。   In the sky / cloud region, contrast is enhanced in the same manner as in general, but in the face region, when the face color is not changed, the contrast enhancement amount calculation unit 45 calculates the enhancement amount β as shown in Expression (11). To do.

β=1−F (11)
彩度強調量計算手段46も、同様に、公知の画像に対する彩度強調を行なう彩度強調手段43に対しての彩度強調量を、領域指数の値に応じて計算するように構成される。
β = 1−F (11)
Similarly, the saturation enhancement amount calculation unit 46 is configured to calculate the saturation enhancement amount for the saturation enhancement unit 43 that performs saturation enhancement on a known image in accordance with the value of the region index. .

続いて、図10を参照して本発明の第3の実施の形態を説明する。求める結果画像が第2の実施の形態と同等であると考えると、領域指数画像31、領域指数画像32の各画素には、それぞれ、顔領域指数、空・雲領域指数が格納される。それに対応して、画像変換手段410は、原画像1全体に顔領域に適した画像変換処理を適用する。同様に、画像変換手段420は、原画像1全体に空・雲領域に適した画像変換処理を適用する。また、画像変換手段430は、原画像全体に一般的な画像変換処理を適用する。画像変換手段410の構成例を図11に示す。画像変換手段410は、画像変換手段4と似た処理手段である、鮮鋭化手段411、コントラスト強調手段412、彩度強調手段413を持つ。画像変換手段4は、この強調量を計算して求めるが、画像変換手段410は、顔領域向けの画像変換手段であるので、それに最適な強調量で画像変換を行ない、変換された画像を出力する。画像変換手段420は、同様の構成で、空・雲領域に適した画像変換を行ない、処理結果を出力する。画像変換手段430は、それ以外の一般の領域に適した画像変換を行ない処理結果を出力する。   Subsequently, a third embodiment of the present invention will be described with reference to FIG. If it is considered that the result image to be obtained is equivalent to that of the second embodiment, a face area index and a sky / cloud area index are stored in each pixel of the area index image 31 and the area index image 32, respectively. Correspondingly, the image conversion means 410 applies image conversion processing suitable for the face area to the entire original image 1. Similarly, the image conversion means 420 applies image conversion processing suitable for the sky / cloud region to the entire original image 1. The image conversion unit 430 applies general image conversion processing to the entire original image. A configuration example of the image conversion means 410 is shown in FIG. The image conversion unit 410 includes a sharpening unit 411, a contrast enhancement unit 412, and a saturation enhancement unit 413, which are processing units similar to the image conversion unit 4. The image conversion means 4 calculates and obtains this enhancement amount. Since the image conversion means 410 is an image conversion means for the face area, it performs image conversion with the optimum enhancement amount and outputs the converted image. To do. The image conversion means 420 performs image conversion suitable for the sky / cloud region with the same configuration, and outputs the processing result. The image conversion means 430 performs image conversion suitable for other general areas and outputs a processing result.

画像統合手段5は、それぞれの画像変換が適用された画像を統合する。例えば、画像変換手段410、420、430の出力画像をそれぞれg(x,y)、g(x,y)、g(x,y)、領域指数画像31、32を、それぞれF(x,y),C(x,y)とする。画像統合手段5は、各画素ごとに式(12)を計算し、結果画像result(x、y)を出力する。 The image integration unit 5 integrates the images to which the respective image conversions are applied. For example, the output images of the image conversion units 410, 420, and 430 are respectively converted into g 1 (x, y), g 2 (x, y), g 3 (x, y), and region index images 31 and 32 as F ( x, y) and C (x, y). The image integration unit 5 calculates Expression (12) for each pixel and outputs a result image result (x, y).

result(x、y)=F(x,y)g(x,y)+C(x,y)g(x,y)
+(1−F−C)g(x,y) (12)
なお、ここでもF(x,y)とC(x,y)は同時に値を持たないと仮定している。しかし、実施にあたっては、F(x,y)とC(x,y)が同時に値を持つように構成することも可能である。その際には、式(8)のαあるいは式(12)の右辺の第3項の(1−F−C)が負の値をとらないように制限を設けるなどの工夫が必要である。
result (x, y) = F (x, y) g 1 (x, y) + C (x, y) g 2 (x, y)
+ (1-F-C) g 3 (x, y) (12)
It is assumed here that F (x, y) and C (x, y) do not have values at the same time. However, in implementation, F (x, y) and C (x, y) can be configured to have values simultaneously. In that case, it is necessary to devise such a restriction that α in Expression (8) or (1-FC) in the third term on the right side of Expression (12) does not take a negative value.

この画像統合処理により、それぞれの領域に応じた画像変換が行なわれた結果画像が生成される。   By this image integration processing, a result image is generated by performing image conversion corresponding to each region.

上記の実施の形態では、それぞれの処理手段を本発明の構成要素としているが、それぞれの処理をコンピュータプログラムで実現することも可能である。その場合の本発明の第4の実施の形態を、図12を参照して説明する。処理が開始すると、まず領域指数計算ステップ23が実行される。領域指数計算ステップ23は原画像1を入力とし、例えば原画像1の各画素において顔領域らしさの計算をプログラムにより実行する。その結果、各画素に式(1)または式(2)で示された顔領域指数を持つ領域指数画像31が出力される。次に領域指数計算ステップ24が実行される。領域指数計算ステップ24は原画像1を入力とし、例えば原画像1の各画素において空・雲の領域らしさの計算をプログラムにより実行する。その結果、各画素に式(5)または式(6)で示された空・雲領域指数を持つ領域指数画像32が出力される。続いて画像変換ステップ6が実行される。画像変換ステップ6はさらに鮮鋭化ステップ61、コントラスト強調ステップ62、彩度強調ステップ63から成っており、それぞれの画像処理が、原画像1に対して領域指数画像31、領域指数画像32に格納された領域指数に従って、処理の程度を式(7)、式(10)のように調整されて実行され、その結果が結果画像7として出力される。   In the above embodiment, each processing means is a component of the present invention, but each processing can also be realized by a computer program. A fourth embodiment of the present invention in that case will be described with reference to FIG. When the process starts, first, an area index calculation step 23 is executed. In the region index calculation step 23, the original image 1 is input, and for example, the facial region likelihood calculation is executed by a program in each pixel of the original image 1. As a result, the area index image 31 having the face area index indicated by the expression (1) or (2) is output to each pixel. Next, a region index calculation step 24 is executed. In the region index calculation step 24, the original image 1 is input, and, for example, calculation of the sky / cloud region likelihood in each pixel of the original image 1 is executed by a program. As a result, the region index image 32 having the sky / cloud region index represented by the equation (5) or the equation (6) is output to each pixel. Subsequently, an image conversion step 6 is executed. The image conversion step 6 further includes a sharpening step 61, a contrast enhancement step 62, and a saturation enhancement step 63. The respective image processes are stored in the region index image 31 and the region index image 32 for the original image 1. In accordance with the region index, the degree of processing is adjusted and executed as in equations (7) and (10), and the result is output as a result image 7.

それぞれの処理をコンピュータプログラムとして実現する本発明の別の実施の形態として、第5の実施の形態を図13を参照して説明する。ここではまず、原画像1に対して、例えば、顔領域らしさを計算する領域指数計算ステップ23が実行され、領域指数画像31が生成される。次に、顔領域向きの画像変換である画像変換ステップ83が原画像1に対して実行され、処理結果画像33が生成される。同様に、例えば、空・雲領域らしさを計算する領域指数計算ステップ24が実行され、領域指数画像32が生成され、空・雲領域向きの画像変換を行なう画像変換ステップ84が実行され、処理結果画像34が生成される。続いて、一般の領域に対する画像変換処理を行なう画像変換ステップ85が原画像1に対して実行され、処理結果画像35が生成される。最後に、それぞれの処理結果画像33,34,35を各画素における領域指数画像31,32の領域指数に応じて合成する画像統合ステップ9が実行され、最終的な結果画像7が出力される。この場合、2つの領域指数計算ステップ23,24と、3つの画像変換ステップ83,84,85の処理内容は全く独立であるので、その実行順序は任意であり、コンピュータによっては並行処理により高速実行することも可能である。   As another embodiment of the present invention for realizing each processing as a computer program, a fifth embodiment will be described with reference to FIG. Here, first, for example, a region index calculation step 23 for calculating the likelihood of a face region is executed on the original image 1 to generate a region index image 31. Next, an image conversion step 83 that is an image conversion for the face area is performed on the original image 1 to generate a processing result image 33. Similarly, for example, the region index calculation step 24 for calculating the likelihood of the sky / cloud region is executed, the region index image 32 is generated, and the image conversion step 84 for performing image conversion for the sky / cloud region is executed, and the processing result An image 34 is generated. Subsequently, an image conversion step 85 for performing an image conversion process on a general region is executed on the original image 1 to generate a processing result image 35. Finally, an image integration step 9 for combining the respective processing result images 33, 34, and 35 in accordance with the region index of the region index images 31 and 32 in each pixel is executed, and a final result image 7 is output. In this case, since the processing contents of the two region index calculation steps 23 and 24 and the three image conversion steps 83, 84, and 85 are completely independent, the execution order is arbitrary, and depending on the computer, high-speed execution is performed by parallel processing. It is also possible to do.

本発明の第1の実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of the 1st Embodiment of this invention. 本発明の第1の実施の形態の機能を説明するための画像例を示す図である。It is a figure which shows the example of an image for demonstrating the function of the 1st Embodiment of this invention. 本発明の第1の実施の形態の白で示す部分が識別された肌領域であることを示す図である。It is a figure which shows that the part shown with white of the 1st Embodiment of this invention is the identified skin area | region. 本発明の第2の実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of the 2nd Embodiment of this invention. 本発明の第2の実施の形態の人肌領域らしさを各画素の色から計算する領域指数計算手段の機能を説明する図である。It is a figure explaining the function of the area | region index calculation means which calculates the human skin area | region likeness from the color of each pixel of the 2nd Embodiment of this invention. 本発明の第2の実施の形態における人肌の内、特に顔領域らしさを判定する領域指数計算手段の実施例を説明する図である。It is a figure explaining the Example of the area | region index | exponent calculation means which determines especially the face area | region likeness in the human skin in the 2nd Embodiment of this invention. 本発明の第2の実施の形態の空・雲の領域らしさを示す領域指数を計算する領域指数計算手段の構成を示すブロック図である。It is a block diagram which shows the structure of the area | region index calculation means which calculates the area | region index which shows the area | region likeness of the sky and the cloud of the 2nd Embodiment of this invention. 本発明の第2の実施の形態における空・雲の領域らしさを示す領域指数を計算する領域指数計算手段の実施例を説明する図である。It is a figure explaining the Example of the area | region index calculation means which calculates the area | region index which shows the area | region likeness of the sky and the cloud in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における画像変換手段の実施例の構成を示すブロック図である。It is a block diagram which shows the structure of the Example of the image conversion means in the 2nd Embodiment of this invention. 本発明の第3の実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of the 3rd Embodiment of this invention. 本発明の第3の実施の形態における画像変換手段の構成を示すブロック図である。It is a block diagram which shows the structure of the image conversion means in the 3rd Embodiment of this invention. 本発明の第4の実施の形態を説明する流れ図である。It is a flowchart explaining the 4th Embodiment of this invention. 本発明の第5の実施の形態を説明する流れ図である。It is a flowchart explaining the 5th Embodiment of this invention.

符号の説明Explanation of symbols

1 原画像
11,12 領域識別手段
13,14 領域画像
15,16,17 画像変換手段
18 画像合成手段
21,22 領域指数計算手段
23,24 領域指数計算ステップ
31,32 領域指数画像
33,34,35 処理結果画像
4,410,420,430 画像変換手段
41 鮮鋭化手段
42 コントラスト強調手段
43 彩度強調手段
44 鮮鋭化量計算手段
45 コントラスト強調量計算手段
46 彩度強調量計算手段
5 画像統合手段
6,83,84,85 画像変換ステップ
7 結果画像
9 画像統合ステップ
DESCRIPTION OF SYMBOLS 1 Original image 11, 12 Area identification means 13, 14 Area image 15, 16, 17 Image conversion means 18 Image composition means 21, 22 Area index calculation means 23, 24 Area index calculation steps 31, 32 Area index images 33, 34, 35 processing result image 4,410,420,430 image conversion means 41 sharpening means 42 contrast enhancement means 43 saturation enhancement means 44 sharpening amount calculation means 45 contrast enhancement amount calculation means 46 saturation enhancement amount calculation means 5 image integration means 6, 83, 84, 85 Image conversion step 7 Result image 9 Image integration step

Claims (11)

原画像に1つあるいは複数の対象が含まれていることを識別して対象領域を設定し、該対象領域には前記対象に応じた画像処理を適用し、処理結果を得ることを特徴とする画像処理方法。 A target region is set by identifying that an original image includes one or a plurality of targets, and image processing corresponding to the target is applied to the target region to obtain a processing result. Image processing method. 原画像の各位置について、1つあるいは複数の対象が含まれている対象領域らしさを求め、該対象領域らしさに応じて前記対象に応じた画像処理を適用し、処理結果を得ることを特徴とする画像処理方法。 For each position of the original image, a target area that includes one or a plurality of targets is obtained, image processing according to the target is applied according to the target area, and a processing result is obtained. Image processing method. 原画像に対して1つあるいは複数の対象の画像に適した画像処理を適用した1つあるいは複数の対象向け処理結果画像を作成し、前記原画像の各位置について、前記対象が含まれている対象領域らしさを求め、該対象領域らしさに応じて対象向け処理結果画像を統合することにより最終画像を得ることを特徴とする画像処理方法。 One or a plurality of target processing result images obtained by applying image processing suitable for one or a plurality of target images to the original image, and the target is included for each position of the original image An image processing method characterized in that a final image is obtained by obtaining a target region likelihood and integrating target processing result images according to the target region likelihood. 前記対象が、人物あるいは顔、空・雲、人工物、草木、集合人物、自然風景の少なくとも1つを含むことを特徴とする請求項1〜3のいずれか1項記載の画像処理方法。 The image processing method according to claim 1, wherein the target includes at least one of a person or a face, sky / clouds, artifacts, vegetation, a collective person, and a natural landscape. 前記画像処理が鮮鋭化処理、コントラスト強調処理、彩度強調処理、ホワイトバランス処理の少なくとも1つを含むことを特徴とする請求項1〜3のいずれか1項記載の画像処理方法。 The image processing method according to claim 1, wherein the image processing includes at least one of sharpening processing, contrast enhancement processing, saturation enhancement processing, and white balance processing. 原画像の各部分において、1つあるいは複数の対象領域らしさを計算する領域指数計算手段と、該領域指数計算手段により得られた領域指数に応じて原画像に画像変換処理を適用する画像変換手段を含むことを特徴とする画像処理システム。 Region index calculation means for calculating the likelihood of one or a plurality of target areas in each part of the original image, and image conversion means for applying image conversion processing to the original image according to the area index obtained by the area index calculation means An image processing system comprising: 原画像に対して1つあるいは複数の対象の画像に適した画像処理を適用した1つあるいは複数の対象向け処理結果画像を作成する画像変換手段と、前記原画像の各位置について前記対象が含まれている対象領域らしさを領域指数として計算する領域指数計算手段と、該領域指数に応じて前記対象向け処理結果画像を統合する画像統合手段を含むことを特徴とする画像処理システム。 Image conversion means for creating one or a plurality of target processing result images obtained by applying image processing suitable for one or a plurality of target images to the original image, and the target for each position of the original image An image processing system comprising: a region index calculation unit that calculates the target region likelihood as a region index; and an image integration unit that integrates the target processing result images according to the region index. 前記対象が、人物あるいは顔、空・雲、人工物、草木、集合人物、自然風景の少なくとも1つを含むことを特徴とする、請求項6または7記載の画像処理システム。 The image processing system according to claim 6 or 7, wherein the object includes at least one of a person or a face, sky / clouds, artifacts, vegetation, a collective person, and a natural landscape. 前記画像処理が鮮鋭化処理、コントラスト強調処理、彩度強調処理、ホワイトバランス処理の少なくとも1つを含むことを特徴とする請求項6または7記載の画像処理システム。 The image processing system according to claim 6, wherein the image processing includes at least one of sharpening processing, contrast enhancement processing, saturation enhancement processing, and white balance processing. 原画像データの各部分において、1つあるいは複数の対象領域らしさを計算する領域指数計算ステップと、該領域指数計算ステップにより得られた領域指数に応じて原画像データに画像変換処理を適用する画像変換ステップを含むことを特徴とする画像処理プログラム。 An area index calculation step for calculating the likelihood of one or a plurality of target areas in each part of the original image data, and an image for applying image conversion processing to the original image data according to the area index obtained by the area index calculation step An image processing program comprising a conversion step. 原画像データに対して1つあるいは複数の対象の画像に適した画像処理を適用した1つあるいは複数の対象向け処理結果画像データを作成する画像変換ステップと、前記原画像の各位置について前記対象が含まれている対象領域らしさを領域指数として計算する領域指数計算ステップと、該領域指数に応じて前記対象向け処理結果画像データを統合する画像統合手段を含むことを特徴とする画像処理プログラム。
An image conversion step for generating one or a plurality of target processing result image data obtained by applying image processing suitable for one or a plurality of target images to the original image data; and the target for each position of the original image An image processing program, comprising: an area index calculating step for calculating a target area including the image as an area index; and image integration means for integrating the processing result image data for the object according to the area index.
JP2003326076A 2003-09-18 2003-09-18 Method, system, and program for processing image Pending JP2005094452A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003326076A JP2005094452A (en) 2003-09-18 2003-09-18 Method, system, and program for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003326076A JP2005094452A (en) 2003-09-18 2003-09-18 Method, system, and program for processing image

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007133876A Division JP4742068B2 (en) 2007-05-21 2007-05-21 Image processing method, image processing system, and image processing program

Publications (1)

Publication Number Publication Date
JP2005094452A true JP2005094452A (en) 2005-04-07

Family

ID=34456355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003326076A Pending JP2005094452A (en) 2003-09-18 2003-09-18 Method, system, and program for processing image

Country Status (1)

Country Link
JP (1) JP2005094452A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008113850A (en) * 2006-11-06 2008-05-22 Ge Medical Systems Global Technology Co Llc Method and device for processing x-ray ct image
JP2010152518A (en) * 2008-12-24 2010-07-08 Toshiba Corp Image processor and image processing method
US20200250795A1 (en) * 2019-01-31 2020-08-06 Samsung Electronics Co., Ltd. Electronic device and method for processing image
CN111985492A (en) * 2019-05-24 2020-11-24 浙江能脉新能源科技有限公司 Cloud identification method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008113850A (en) * 2006-11-06 2008-05-22 Ge Medical Systems Global Technology Co Llc Method and device for processing x-ray ct image
JP2010152518A (en) * 2008-12-24 2010-07-08 Toshiba Corp Image processor and image processing method
JP4528857B2 (en) * 2008-12-24 2010-08-25 株式会社東芝 Image processing apparatus and image processing method
US7983454B2 (en) 2008-12-24 2011-07-19 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method for processing a flesh-colored area
US20200250795A1 (en) * 2019-01-31 2020-08-06 Samsung Electronics Co., Ltd. Electronic device and method for processing image
US11488284B2 (en) * 2019-01-31 2022-11-01 Samsung Electronics Co., Ltd. Electronic device and method for processing image
CN111985492A (en) * 2019-05-24 2020-11-24 浙江能脉新能源科技有限公司 Cloud identification method
CN111985492B (en) * 2019-05-24 2024-03-26 浙江能脉新能源科技有限公司 Cloud identification method

Similar Documents

Publication Publication Date Title
US20140079319A1 (en) Methods for enhancing images and apparatuses using the same
JP6818463B2 (en) Image processing equipment, image processing methods and programs
JP2006508460A (en) Image signal processing method
JP2001126075A (en) Method and device for picture processing, and recording medium
JPH11313202A (en) Image processing unit and image processing method
CN113344836B (en) Face image processing method and device, computer readable storage medium and terminal
JP2016170628A (en) Image processor and image processing method
Abebe et al. Towards an automatic correction of over-exposure in photographs: Application to tone-mapping
JP5203159B2 (en) Image processing method, image processing system, and image processing program
JP4742068B2 (en) Image processing method, image processing system, and image processing program
Kwok et al. Design of unsharp masking filter kernel and gain using particle swarm optimization
Al-Ameen et al. Fast and Efficient Algorithm for Contrast Enhancement of Color Images.
JP5286215B2 (en) Outline extracting apparatus, outline extracting method, and outline extracting program
KR20120042988A (en) Image processing method, image processing device, and program
JP2005094452A (en) Method, system, and program for processing image
JP7437921B2 (en) Image processing device, image processing method, and program
CN113591630A (en) Certificate photo automatic processing method, system, terminal equipment and storage medium
JP7365206B2 (en) Image processing device, image processing method, and program
Yadav et al. Fusion-based backlit image enhancement and analysis of results using contrast measure and SSIM
JP4171354B2 (en) Color image processing apparatus and method
JP2008294969A (en) Video image conversion apparatus, method, and program
JP7400198B2 (en) Image processing device, image processing method, and program
CN118571161B (en) Display control method, device and equipment of LED display screen and storage medium
JP2003248824A (en) Device and method for image processing
JP7383891B2 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050315

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050518

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20070118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071024

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080519

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080529

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20080604

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20080725

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20090508