JPH11250227A - Method and device for correcting face area and record medium for recording face area correction program - Google Patents

Method and device for correcting face area and record medium for recording face area correction program

Info

Publication number
JPH11250227A
JPH11250227A JP10053026A JP5302698A JPH11250227A JP H11250227 A JPH11250227 A JP H11250227A JP 10053026 A JP10053026 A JP 10053026A JP 5302698 A JP5302698 A JP 5302698A JP H11250227 A JPH11250227 A JP H11250227A
Authority
JP
Japan
Prior art keywords
color space
image
space conversion
input image
face area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10053026A
Other languages
Japanese (ja)
Other versions
JP3539665B2 (en
Inventor
Harumi Kawamura
春美 川村
Takaaki Akimoto
高明 秋本
Satoshi Suzuki
智 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP05302698A priority Critical patent/JP3539665B2/en
Publication of JPH11250227A publication Critical patent/JPH11250227A/en
Application granted granted Critical
Publication of JP3539665B2 publication Critical patent/JP3539665B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate the face image of a smooth skin without fine ruggedness without manual intervention by performing inverse color space conversion of respective pixel values in the synthetic image of a color space converted input image and a smoothing processed image to pixel values on the same color space as the input image and outputting that image. SOLUTION: The inverse color space conversion of pixel values in an image on an HVC color space synthesized by an image synthesizing part 105 to pixel values of color image composed of RGB or black-and-white image is performed by a color space converting part 103. After the color space conversion, the color image or the like is transferred to an image storage part 102. A smoothing processing part 104 performs smoothing processing to the image in the image storage part 102 after the color space conversion by means of the color space converting part 103. After smoothing processing, the image is transferred to the image storage part 102. The image synthesizing part 105 synthesizes images in the image storage part 102 before and after smoothing processing and transfers the result to the image storage part 102. An image output part 106 outputs the image stored in the image storage part 102 to output equipment.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、顔領域補正方法、
顔領域補正装置および顔領域補正プログラムを記録した
記録媒体に係わり、特に、顔領域を含むカラーもしくは
白黒の画像に対して、肌表面の細かい凹凸を滑らかにす
る顔領域補正方法、顔領域補正装置および顔領域補正プ
ログラムを記録した記録媒体に関する。
The present invention relates to a face area correcting method,
The present invention relates to a face area correction device and a recording medium storing a face area correction program, and more particularly to a face area correction method and a face area correction apparatus for smoothing fine irregularities on the skin surface of a color or monochrome image including a face area. And a recording medium on which a face area correction program is recorded.

【0002】[0002]

【従来の技術】例えば、カメラ等の入力機器で撮像した
顔画像に対して、眼鏡、髪型、化粧等の装着シミュレー
ションを行い、自分の顔がどのように見えるかをシミュ
レーションするシステムにおいて、肌表面の細かな凹凸
を滑らかに補正した顔画像をCRTやプリンタなどの出
力機器に出力する場合に、肌表面の細かな凹凸を滑らか
に補正する技術が必要となる。従来、この肌表面の細か
な凹凸を滑らかにする顔領域補正方法としては、(一)
手動で処理対象領域を指定し、当該領域に対して平滑化
処理を行う方法、(二)顔領域全体に平滑化処理を行う
方法等が知られている。
2. Description of the Related Art For example, in a system for simulating the appearance of one's face by simulating wearing of eyeglasses, hairstyle, makeup, etc. on a face image captured by an input device such as a camera, When a face image in which fine irregularities are smoothly corrected is output to an output device such as a CRT or a printer, a technique for smoothly correcting fine irregularities on the skin surface is required. Conventionally, the face area correction method for smoothing the fine irregularities on the skin surface includes (1)
There are known a method of manually specifying a processing target region and performing a smoothing process on the region, (2) a method of performing a smoothing process on the entire face region, and the like.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、前記
(一)の方法では、人間の関与が必要であり、顔領域の
中から処理対象領域を選択する操作が煩雑であるという
問題点があった。また、前記(二)の方法では、顔領域
全体に平滑化処理を行うため、眉や眼等、肌とは明らか
に異なる領域との境界が不明瞭となり、全体的にぼけた
画像になるという問題点があった。
However, in the method (1), there is a problem in that human involvement is required, and the operation of selecting a processing target area from the face area is complicated. In the method (2), since the entire face region is subjected to the smoothing process, the boundary between the region that is clearly different from the skin, such as the eyebrows and eyes, becomes unclear, resulting in an overall blurred image. There was a problem.

【0004】本発明は、前記従来技術の問題点を解決す
るためになされたものであり、本発明の目的は、顔領域
補正方法および顔領域補正装置において、人手を介さず
に、かつ、異なる色領域間の境界を明瞭な状態に保った
まま、画像中の細かな凹凸が除去された滑らかな肌をも
つ顔画像を生成することが可能となる技術を提供するこ
とにある。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems of the prior art, and an object of the present invention is to provide a face area correction method and a face area correction apparatus which are different from each other without human intervention. It is an object of the present invention to provide a technique capable of generating a face image having smooth skin from which fine irregularities in an image have been removed, while keeping a boundary between color regions clear.

【0005】また、本発明の他の目的は、前記顔領域補
正方法をコンピュータに実行させるための顔領域補正プ
ログラムが記録された記録媒体を提供することにある。
It is another object of the present invention to provide a recording medium in which a face area correction program for causing a computer to execute the face area correction method is recorded.

【0006】本発明の前記ならびにその他の目的と新規
な特徴は、本明細書の記述及び添付図面によって明らか
にする。
[0006] The above and other objects and novel features of the present invention will become apparent from the description of the present specification and the accompanying drawings.

【0007】[0007]

【課題を解決するための手段】本願において開示される
発明のうち、代表的なものの概要を簡単に説明すれば、
下記の通りである。
SUMMARY OF THE INVENTION Among the inventions disclosed in the present application, the outline of a representative one will be briefly described.
It is as follows.

【0008】即ち、本発明は、入力画像の各画素値を人
間の知覚に近い色空間上の値に色空間変換し、当該色空
間変換された入力画像の各画素に対して平滑化処理を施
した後、前記色空間変換された入力画像と、前記平滑化
処理が施された画像とを合成し、この合成画像の各画素
値を、入力画像と同一の色空間上の画素値に逆色空間変
換し、当該逆色空間変換された画像を出力することを特
徴とする。
That is, according to the present invention, each pixel value of an input image is color-space-converted to a value on a color space close to human perception, and a smoothing process is performed on each pixel of the color-converted input image. After that, the input image subjected to the color space conversion and the image subjected to the smoothing process are combined, and each pixel value of the combined image is inverted to a pixel value on the same color space as the input image. The color space conversion is performed, and the inverse color space converted image is output.

【0009】また、本発明は、入力画像の各画素値を人
間の知覚に近い色空間上の値に色空間変換し、当該色空
間変換された入力画像の各画素に対して、平滑化処理を
実行するか否かを判定し、当該平滑化処理を実行すると
判定された画素に対して、平滑化処理を施し、前記色空
間変換された後に平滑化処理部で平滑化処理が施された
第1の画素と、前記第1の画素以外の画素が前記色空間
変換された第2の画素とで構成される画像の各画素値
を、入力画像と同一の色空間上の画素値に逆色空間変換
し、当該逆色空間変換された画像を出力することを特徴
とする。
The present invention also provides a color space conversion of each pixel value of an input image to a value on a color space that is close to human perception, and performs a smoothing process on each pixel of the input image subjected to the color space conversion. It is determined whether or not to perform the smoothing process, the smoothing process is performed on the pixels determined to perform the smoothing process, and the smoothing process is performed by the smoothing process unit after the color space conversion. Invert each pixel value of an image composed of a first pixel and a second pixel whose pixels other than the first pixel are subjected to the color space conversion to pixel values on the same color space as the input image. The color space conversion is performed, and the inverse color space converted image is output.

【0010】[0010]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0011】なお、実施の形態を説明するための全図に
おいて、同一機能を有するものは同一符号を付け、その
繰り返しの説明は省略する。
In all the drawings for describing the embodiments, those having the same functions are denoted by the same reference numerals, and their repeated description will be omitted.

【0012】[実施の形態1]図1は、本発明の実施の
形態1の顔領域補正装置の概略構成を示すブロック図で
ある。同図において、101は画像入力部、102は画
像蓄積部、103は色空間変換部、104は平滑化処理
部、105は画像合成部、106は画像出力部である。
画像入力部101は、カメラ等の入力装置から入力され
るカラー画像もしくは白黒画像を受け取り、画像蓄積部
102へ転送する。ここで、カラー画像の画素値は、R
(赤),G(緑),B(青)の三色の組合せで表現され
るとし、白黒画像の画素値は、W(白)からBk(黒)
までの明るさレベルを表す数値とする。画像蓄積部10
2は、入力画像、色空間変換後の画像等補正処理の過程
で生成される画像、および補正処理後の画像を蓄積す
る。
[First Embodiment] FIG. 1 is a block diagram showing a schematic configuration of a face area correcting apparatus according to a first embodiment of the present invention. In the figure, 101 is an image input unit, 102 is an image storage unit, 103 is a color space conversion unit, 104 is a smoothing processing unit, 105 is an image synthesis unit, and 106 is an image output unit.
The image input unit 101 receives a color image or a black-and-white image input from an input device such as a camera, and transfers the image to the image storage unit 102. Here, the pixel value of the color image is R
(Red), G (Green), and B (Blue) are represented by a combination of three colors, and the pixel values of the black and white image are changed from W (White) to Bk (Black).
Up to the brightness level. Image storage unit 10
Reference numeral 2 stores an input image, an image generated in the course of correction processing such as an image after color space conversion, and an image after correction processing.

【0013】色空間変換部103は、入力画像がカラー
画像である場合に、各RGB値(画素値)を式(1)に
したがって、測色的色空間の一つである、CIE XY
Z三刺激値に変換し、更に、人間の知覚にあった色空間
上の値に変換する。
When the input image is a color image, the color space conversion unit 103 converts each RGB value (pixel value) into CIE XY, which is one of the colorimetric color spaces, according to equation (1).
It is converted to a Z tristimulus value, and further to a value in a color space that matches human perception.

【0014】[0014]

【数1】 X=0.608・R+0.174・G+0.200・B Y=0.299・R+0.587・G+0.114・B Z=0.0662・G+1.112・B ・・・(1) なお、本実施の形態においては、各画素値を色相
(H)、彩度(C)、明度(V)という三属性で表現す
るHVC色空間を用いる場合について説明するが、人間
の知覚に近い色空間であれば、どのような空間であって
も構わない。図2は、HVC色空間の構造を示す図であ
り、この図2に示すように、HVC色空間は、明度
(V)軸を中心とする円柱型をなし、明度軸からの距離
が彩度(C)、即ち、色の彩やかさを表し、明度軸上の
色は、無彩色(白、灰・黒)である。また、明度軸を中
心とする円周方向は、赤(R)→黄(Y)→緑(G)→
青(B)→紫(P)→赤(R)のように巡回し、色相
(H)を表す。HVC色空間として、例えば、マンセル
色空間、CIELUV,CIELABなどの均等色空間
から得られる色の三属性などを用いることができる。
X = 0.608 · R + 0.174 · G + 0.200 · B Y = 0.299 · R + 0.587 · G + 0.114 · B Z = 0.0662 · G + 1.112 · B (1 In the present embodiment, a case will be described in which an HVC color space in which each pixel value is represented by three attributes of hue (H), saturation (C), and lightness (V) is used. Any space may be used as long as it is a close color space. FIG. 2 is a diagram showing the structure of the HVC color space. As shown in FIG. 2, the HVC color space has a columnar shape centered on the lightness (V) axis, and the distance from the lightness axis is the saturation. (C), that is, represents the vividness of the color, and the color on the lightness axis is an achromatic color (white, gray / black). In the circumferential direction around the brightness axis, red (R) → yellow (Y) → green (G) →
The color circulates in the order of blue (B) → purple (P) → red (R) to represent the hue (H). As the HVC color space, for example, three attributes of colors obtained from a uniform color space such as a Munsell color space and CIELUV and CIELAB can be used.

【0015】XYZ三刺激値からマンセル色空間への変
換は、Yxyと三属性のHVC値とがテーブルで与えら
れている(JIS Z8721、”三属性による色の表
示方法”、付表1参照)ので、それらのデータを補間す
ることによって行う。Yxyのxyは、三刺激値XYZ
の総和に対する相対的なX,Yの比であり、式(2)で
表される。
The conversion from the XYZ tristimulus values to the Munsell color space is performed because Yxy and the HVC values of the three attributes are given in a table (see JIS Z8721, "Color Display Method by Three Attributes", Appendix 1). By interpolating those data. Xy of Yxy is tristimulus value XYZ
Is a relative ratio of X and Y to the total sum of, and is expressed by equation (2).

【0016】[0016]

【数2】 x=X/(X+Y+Z) y=Y/(X+Y+Z) ・・・(2) また、XYZ三刺激値からCIELAB,CIELUV
のような均等色空間を介してのHVC値への変換は、以
下のように行う。まず、XYZ三刺激値から(L* *
* )、または(L* * * )へ変換する(JIS
Z8729、”L* * * 表色系及びL* * *
色系による物体色の表示方法”参照)。次に、明度指数
* をV、a* およびb* またはu* およびv* で表さ
れる二次元平面上において、原点からの距離をC(式
(3)参照)、a* またはu* 軸とのなす角をHとする
ことによって、均等色空間からHVC値への変換を行
う。なお、式(3)において、Cabは(L* * *
空間における彩度C、Cuvは(L* * * )空間にお
ける彩度Cを表す。
X = X / (X + Y + Z) y = Y / (X + Y + Z) (2) Moreover, CIELAB and CIELUV are obtained from the XYZ tristimulus values.
The conversion to the HVC value through the uniform color space as described above is performed as follows. First, from the XYZ tristimulus values, (L * a *
b * ) Or (L * u * v * ) (JIS)
Z8729, "L * a * b * Color system and L * u * v * Method of Displaying Object Color by Color System "). Next, the lightness index L * To V, a * And b * Or u * And v * On the two-dimensional plane represented by, the distance from the origin is C (see equation (3)), a * Or u * The conversion from the uniform color space to the HVC value is performed by setting the angle formed by the axis to H. In equation (3), C ab is (L * a * b * )
The saturations C and C uv in the space are (L * u * v * ) Represents the saturation C in space.

【0017】[0017]

【数3】 (Equation 3)

【0018】入力画像が白黒画像である場合には、各画
素値がカラー画像における輝度、即ち、XYZ空間上の
Y成分であると見なすことができるので、これをHVC
空間上のV成分(明度)に変換する。また、この色空間
変換部103は、後述する画像合成部105で合成され
たHVC色空間上での画像の画素値を、RGBから成る
カラー画像、あるいは白黒画像の画素値に逆色空間変換
する。この色空間変換部103で色空間変換された色空
間変換後のカラー画像もしくは白黒画像は、画像蓄積部
102へ転送される。平滑化処理部104は、画像蓄積
部102内の、色空間変換部103で色空間変換された
色空間変換後の画像に対して、平滑化処理を行う。本実
施の形態では、画像の各画素に対して、3×3のマトリ
ックスM(式(4)参照)を用いて平滑化を行う場合を
説明する。
When the input image is a monochrome image, each pixel value can be regarded as the luminance in the color image, that is, the Y component in the XYZ space.
It is converted into a V component (lightness) on the space. Further, the color space conversion unit 103 performs inverse color space conversion of pixel values of an image on the HVC color space synthesized by the image synthesis unit 105 described later into pixel values of a color image composed of RGB or a monochrome image. . The color image or the black-and-white image after the color space conversion by the color space conversion unit 103 is transferred to the image storage unit 102. The smoothing processing unit 104 performs a smoothing process on the image after the color space conversion in the image storage unit 102 that has been color space converted by the color space conversion unit 103. In the present embodiment, a case will be described in which smoothing is performed on each pixel of an image using a 3 × 3 matrix M (see Equation (4)).

【0019】[0019]

【数4】 0.1 0.1 0.1 M= 0.1 0.2 0.1 0.1 0.1 0.1 ・・・(4) 画素(i,j)に対し、画素値x(i,j)を平滑化処
理する場合、処理後の画素値x’(i,j)は次式で表
される。
## EQU00004 ## 0.1 0.1 0.1 M = 0.1 0.2 0.1 0.1 0.1 0.1 0.1 (4) Pixel value for pixel (i, j) When performing smoothing processing on x (i, j), the pixel value x ′ (i, j) after processing is represented by the following equation.

【0020】[0020]

【数5】 (Equation 5)

【0021】カラー画像の場合には、上記の操作を各属
性に対して行い、白黒画像の場合には、明度(V)に対
して行う。また、人間の知覚は、特に、色相や彩度に比
較して明度に感度が高いので、カラー画像の場合には、
明度のみに処理を行っても構わない。なお、本実施の形
態で使用するマトリックスMのサイズは3×3である
が、平滑化の効果をより大きくするためには、サイズを
5×5や7×7のように大きくすればよく、その場合
に、Mの要素の合計が1になるように設定する。平滑化
処理部104で得られる平滑化処理後の画像は、画像蓄
積部102へ転送される。
In the case of a color image, the above operation is performed for each attribute, and in the case of a monochrome image, the above operation is performed for lightness (V). In addition, human perception is particularly sensitive to lightness compared to hue and saturation, so in the case of a color image,
The processing may be performed only for the brightness. Although the size of the matrix M used in the present embodiment is 3 × 3, in order to further increase the effect of smoothing, the size may be increased to 5 × 5 or 7 × 7. In this case, the sum of the elements of M is set to 1. The image after the smoothing process obtained by the smoothing processing unit 104 is transferred to the image storage unit 102.

【0022】画像合成部105は、画像蓄積部102内
の、平滑化処理前と処理後の画像を下記(6)式にした
がって合成し、その結果を画像蓄積部102へ転送す
る。画素(i,j)における平滑化処理前の画素値をx
(i,j)、処理後の画素値をx’(i,j)とすると
き、合成画像の画素値x”(i,j)は、次式で表され
る。
The image synthesizing unit 105 synthesizes the images before and after the smoothing processing in the image storage unit 102 according to the following equation (6), and transfers the result to the image storage unit 102. The pixel value of the pixel (i, j) before the smoothing process is x
When (i, j) and the pixel value after processing are x ′ (i, j), the pixel value x ″ (i, j) of the composite image is represented by the following equation.

【0023】[0023]

【数6】 x”(i,j)=a・x(i,j)+(1−a)・x’(i,j) ・・・(6) 但し、aは0以上1以下の重み係数とする。画像出力部
106は、画像蓄積部102に蓄積されている画像をC
RTやプリンタ等の出力機器に出力する。
X ”(i, j) = a · x (i, j) + (1−a) · x ′ (i, j) (6) where a is a weight of 0 or more and 1 or less. The image output unit 106 converts the image stored in the image storage unit 102 into C
Output to an output device such as an RT or a printer.

【0024】[実施の形態2]図3は、本発明の実施の
形態2の顔領域補正装置の概略構成を示すブロック図で
ある。同図において、201は画像入力部、202は画
像蓄積部、203は色空間変換部、204は平滑化判定
部、205は平滑化処理部、206は画像出力部であ
る。画像入力部201は、前記実施の形態1の画像入力
部101と同様、カメラ等の入力装置から入力されるカ
ラー画像もしくは白黒画像を受け取り、画像蓄積部10
2へ転送する。画像蓄積部202も、前記実施の形態1
の画像蓄積部102と同様、入力画像、色空間変換後の
画像等補正処理の過程で生成される画像、および補正処
理後の画像を蓄積する。色空間変換部203は、前記実
施の形態1の色空間変換部103と同様、入力画像がカ
ラー画像である場合に、各RGB値(画素値)を前記式
(1)にしたがって、測色的色空間の一つである、CI
E XYZ三刺激値に変換し、更に、人間の知覚にあっ
た色空間上の値に変換する。前記実施の形態で説明した
ように、このような色空間には、例えば、画素値が色
相、彩度および明度の三属性からなるHVC色空間(図
2、式(2),(3))や、各画素値を輝度と色度のよ
うに明るさ成分と色み成分で表す色空間などがある。入
力画像が白黒画像である場合には、各画素値を輝度、即
ち、XYZ空間上のY成分であると見なし、HVC色空
間上のV成分(明度)に変換する。また、この色空間変
換部203は、後述する平滑処理部205で合成された
HVC色空間上での画像の画素値を、RGBから成るカ
ラー画像、あるいは白黒画像の画素値に逆変換する。こ
の色空間変換部203で、色空間変換された色空間変換
後のカラー画像もしくは白黒画像は、画像蓄積部202
へ転送される。
[Second Embodiment] FIG. 3 is a block diagram showing a schematic configuration of a face area correcting apparatus according to a second embodiment of the present invention. In the figure, 201 is an image input unit, 202 is an image storage unit, 203 is a color space conversion unit, 204 is a smoothing determination unit, 205 is a smoothing processing unit, and 206 is an image output unit. The image input unit 201 receives a color image or a black and white image input from an input device such as a camera, similarly to the image input unit 101 of the first embodiment, and
Transfer to 2. The image storage unit 202 is also the same as in the first embodiment.
The image storage unit 102 stores an input image, an image generated in the course of correction processing such as an image after color space conversion, and an image after the correction processing. Similar to the color space conversion unit 103 according to the first embodiment, when the input image is a color image, the color space conversion unit 203 converts each RGB value (pixel value) into a colorimetric CI, one of the color spaces
The image data is converted into E XYZ tristimulus values, and further converted into values in a color space suitable for human perception. As described in the above embodiment, such a color space includes, for example, an HVC color space in which a pixel value has three attributes of hue, saturation, and brightness (FIG. 2, equations (2) and (3)). And a color space in which each pixel value is represented by a brightness component and a color component such as luminance and chromaticity. When the input image is a black and white image, each pixel value is regarded as a luminance, that is, a Y component in an XYZ space, and is converted into a V component (lightness) in an HVC color space. Further, the color space conversion unit 203 inversely converts the pixel values of the image in the HVC color space synthesized by the smoothing processing unit 205 described later into the pixel values of the RGB color image or the monochrome image. The color image or the black-and-white image after the color space conversion by the color space conversion unit 203 is converted into an image by the image storage unit 202.
Transferred to

【0025】平滑化判定部204は、画像蓄積部202
に格納されている、色空間変換部203で色空間変換さ
れた色空間変換後の画像に対して、画素毎に平滑化処理
をするか否かを判定し、その結果を平滑化処理部205
へ転送する。平滑化処理の有無は、周辺画素の画素値の
分散に基づいて判定する。分散が大きい場合には、周辺
画素中に互いに異なる色領域が存在する可能性が高いた
め、”処理をしない”と判定し、逆に、分散が小さい場
合には、似た色が周辺にあることを表し、”処理をす
る”と判定する。
The smoothing judging section 204 includes an image accumulating section 202
It is determined whether or not to perform a smoothing process for each pixel on the image after the color space conversion performed by the color space conversion unit 203 stored in the color space conversion unit 203, and the result is determined by the smoothing processing unit 205.
Transfer to The presence or absence of the smoothing process is determined based on the variance of the pixel values of the peripheral pixels. If the variance is large, there is a high possibility that different color regions exist in the peripheral pixels. Therefore, it is determined that “no processing is performed”. Conversely, if the variance is small, a similar color exists in the periphery. Is determined, and "processed" is determined.

【0026】以下、周辺画素の分散を求める手法につい
て説明する。なお、ここでは、周辺の3×3画素を対象
とする場合について説明する。下記式(7)、(8)に
示すように、まず、平均(バーx)を求め、次に、各画
素値の平均値に対する誤差の自乗平均を分散Vとして求
める。
Hereinafter, a method for determining the variance of the peripheral pixels will be described. Here, a case in which surrounding 3 × 3 pixels are targeted will be described. As shown in the following equations (7) and (8), first, the average (bar x) is obtained, and then the mean square of the error with respect to the average value of each pixel value is obtained as the variance V.

【0027】[0027]

【数7】 (Equation 7)

【0028】カラー画像において、各画素値を三属性と
して表す場合、属性毎に上記の操作を行い、画素値を明
るさ成分と色み成分に分ける場合には、明るさ成分に対
しては上述の操作を、色み成分に対しては2次元データ
であるため、以下のようにして分散Vを求める。まず、
画素(i,j)の色み成分をx1 (i,j)、x
2 (i,j)とし、下記(9)式に示すように、成分毎
に平均を求める。
In a color image, when each pixel value is represented as three attributes, the above operation is performed for each attribute, and when the pixel value is divided into a brightness component and a color component, the brightness component is described above. Since the operation of (2) is two-dimensional data for the color component, the variance V is obtained as follows. First,
The color component of the pixel (i, j) is x 1 (i, j), x
2 (i, j), and an average is calculated for each component as shown in the following equation (9).

【0029】[0029]

【数8】 (Equation 8)

【0030】次に、下記式(10)に示すように、2種
類の色み成分を軸とする2次元平面上で、各色み成分と
平均の色み成分のユークリッド距離の自乗和の平均を分
散Vとして求める。
Next, as shown in the following equation (10), the average of the sum of the squares of the Euclidean distances of the respective color components and the average color component on a two-dimensional plane having two types of color components as axes. Obtained as variance V.

【0031】[0031]

【数9】 (Equation 9)

【0032】平滑化処理部205は、平滑化判定部20
4において”処理をする”と判定された画素に対し、平
滑化処理を行う。この処理は、例えば、前記実施の形態
1の平滑化処理部104と同様、前記式(4)のマトリ
ックスMを用い、前記式(5)に示すように、周辺の画
素値との重みづけ平均により求めることができる。平滑
化処理部205で得られた平滑化処理後の画像は、画像
蓄積部202へ転送される。
The smoothing processing unit 205 includes a smoothing determination unit 20
A smoothing process is performed on the pixels determined to be “processed” in 4. This processing uses, for example, the matrix M of the above equation (4) and the weighted average with the neighboring pixel values as shown in the above equation (5), similarly to the smoothing processing unit 104 of the first embodiment. Can be obtained by The image after the smoothing processing obtained by the smoothing processing unit 205 is transferred to the image storage unit 202.

【0033】画像出力部206は、画像蓄積部202に
格納されている画像をCRTやプリンタ等の出力機器に
出力する。
The image output section 206 outputs the image stored in the image storage section 202 to an output device such as a CRT or a printer.

【0034】[実施の形態3]図4は、本発明の実施の
形態3の顔領域補正方法の処理手順を示すフローチャー
トである。以下、図4を用いて、本実施の形態の顔領域
補正方法について説明する。始めに、カラー画像を入力
し(ステップ301)、カラー画像中の各RGB値(画
素値)を色相(H)、彩度(C)および明度(V)から
なる色の三属性値に変換する(ステップ302)。この
色空間変換処理(RGB→HCV)は、前記実施の形態
1の色空間変換部103における処理(式(1)−
(3))と同様な処理を行えばよい。なお、入力画像が
白黒画像の場合には、画素値を明度に変換すればよい。
次に、全ての画素に対して平滑化処理を施し、さらに、
平滑化処理前および平滑処理後の画像の合成を行う(ス
テップ303〜ステップ309)。この平滑化処理、並
びに、平滑化処理前および平滑処理後の画像の合成は、
三種類の属性(HCV)毎に行う。平滑化処理は、例え
ば、前記実施の形態1の平滑化処理部104における処
理と同様、各画素値の属性に対して、前記式(4)のマ
トリックスMを用いて、前記式(5)により、周辺の画
素値との重みづけ平均により求める。また、平滑化処理
前および平滑処理後の画像の合成は、平滑化処理前と平
滑化処理後の画像を、前記式(6)にしたがって合成す
る操作である。
[Third Embodiment] FIG. 4 is a flowchart showing a processing procedure of a face area correcting method according to a third embodiment of the present invention. Hereinafter, the face area correction method according to the present embodiment will be described with reference to FIG. First, a color image is input (step 301), and each RGB value (pixel value) in the color image is converted into three attribute values of a color including hue (H), saturation (C), and lightness (V). (Step 302). This color space conversion processing (RGB → HCV) is performed by the processing (formula (1) −
The same processing as (3) may be performed. When the input image is a black and white image, the pixel value may be converted to brightness.
Next, a smoothing process is performed on all the pixels,
The images before and after the smoothing process are combined (steps 303 to 309). This smoothing process, and the synthesis of the images before and after the smoothing process,
This is performed for each of the three types of attributes (HCV). In the smoothing process, for example, similarly to the process in the smoothing processing unit 104 of the first embodiment, the attribute of each pixel value is calculated by using the matrix M of the formula (4) and the formula (5). , And a weighted average with the peripheral pixel values. The synthesis of the images before and after the smoothing process is an operation of synthesizing the images before and after the smoothing process in accordance with the above-described equation (6).

【0035】その後、色空間を入力時の色空間に戻し
(HCV→RGB;ステップ310)、CRTやプリン
タなどの出力機器に出力する(ステップ311)。
Thereafter, the color space is returned to the color space at the time of input (HCV → RGB; step 310), and output to an output device such as a CRT or a printer (step 311).

【0036】[実施の形態4]図5は、本発明の実施の
形態4の顔領域補正方法の処理手順を示すフローチャー
トである。以下、図5を用いて、本実施の形態の顔領域
補正方法について説明する。始めに、画像を入力し(ス
テップ401)、画像中の各RGB値(画素値)を色相
(H)、彩度(C)および明度(V)からなる色の三属
性値に変換する(ステップ402)。この色空間変換処
理(RGB→HCV)は、前記実施の形態1の色空間変
換部103における処理(式(1)−(3))と同様な
処理を行えばよい。次に、前記式(7),(8)によ
り、各画素に対して、属性毎に周辺画素の分散を求め
(ステップ404)、平滑化処理を行うか否かを判定す
る(ステップ405)。前記判定において、処理を行う
と判定された画素に対して、平滑化処理を行う(ステッ
プ406)。この平滑化処理は、例えば、前記実施の形
態1の平滑化処理部104における処理と同様、各画素
値の属性に対して、前記式(4)のマトリックスMを用
いて、前記式(5)により、周辺の画素値との重みづけ
平均により求める。前記各画素における周辺画素の分
散、および平滑化処理の判定は、ステップ403乃至ス
テップ410により、全画素について、かつ、各属性毎
に行う。その後、色空間を入力時の色空間に戻し(ステ
ップ411)、CRTやプリンタなどの出力機器に出力
する(ステップ412)。
[Fourth Embodiment] FIG. 5 is a flowchart showing a processing procedure of a face area correcting method according to a fourth embodiment of the present invention. Hereinafter, the face area correction method according to the present embodiment will be described with reference to FIG. First, an image is input (Step 401), and each RGB value (pixel value) in the image is converted into three attribute values of a color including hue (H), saturation (C), and lightness (V) (Step 401). 402). This color space conversion processing (RGB → HCV) may be the same as the processing (Equations (1)-(3)) in the color space conversion unit 103 of the first embodiment. Next, the variances of the peripheral pixels are obtained for each pixel for each attribute according to the equations (7) and (8) (step 404), and it is determined whether or not to perform a smoothing process (step 405). In the above-described determination, a smoothing process is performed on the pixel determined to be processed (step 406). In the smoothing process, for example, similarly to the process in the smoothing processing unit 104 of the first embodiment, the attribute of each pixel value is expressed by using the matrix M of the expression (4) and the expression (5). To obtain a weighted average with peripheral pixel values. The determination of the dispersion of the peripheral pixels in each pixel and the smoothing process are performed for all pixels and for each attribute in steps 403 to 410. Thereafter, the color space is returned to the color space at the time of input (step 411), and output to an output device such as a CRT or a printer (step 412).

【0037】[実施の形態5]図6は、本発明の実施の
形態5の顔領域補正方法の処理手順を示すフローチャー
トである。以下、図6を用いて、本実施の形態の顔領域
補正方法について説明する。始めに、画像を入力し(ス
テップ501)、画像中の各RGB値(画素値)を明る
さ成分(L* )と色み成分(u’,v’)の値に分解
(色空間変換)する(ステップ502)。この処理は、
前記(1)、(2)式により、RGB空間をYxy空間
に変換した後、下記式(11)にしたがって、YをL*
に、(x,y)を(u’,v’)に変換することによっ
て行う。また、白黒画像の場合には、各画素値がYxy
空間のYであるとし、下記式(11)によりL* を求め
る。
[Fifth Embodiment] FIG. 6 is a flowchart showing a processing procedure of a face area correcting method according to a fifth embodiment of the present invention. Hereinafter, the face area correction method according to the present embodiment will be described with reference to FIG. First, an image is input (step 501), and each RGB value (pixel value) in the image is converted to a brightness component (L * ) . ) And the color components (u ′, v ′) are separated (color space conversion) (step 502). This process
After converting the RGB space into the Yxy space according to the above equations (1) and (2), Y is converted to L * according to the following equation (11) .
By converting (x, y) to (u ′, v ′). In the case of a monochrome image, each pixel value is Yxy
Let Y be the space, and L * Ask for.

【0038】[0038]

【数10】 (Equation 10)

【0039】次に、前記式(9),(10)により、各
画素に対して、属性毎に周辺画素の分散を求め(ステッ
プ504)、平滑化処理を行うか否かを判定する(ステ
ップ505)。前記判定において、処理を行うと判定さ
れた画素の成分に対して、平滑化処理を行う(ステップ
506)。
Next, the variances of the peripheral pixels are obtained for each attribute for each pixel by the above equations (9) and (10) (step 504), and it is determined whether or not to perform a smoothing process (step 504). 505). In the determination, a smoothing process is performed on the pixel components determined to be processed (step 506).

【0040】この平滑化処理は、例えば、前記実施の形
態1の平滑化処理部104における処理と同様、各画素
値の属性に対して、前記式(4)のマトリックスMを用
いて、前記式(5)により、周辺の画素値との重みづけ
平均により求める。前記各画素における周辺画素の分
散、および平滑化処理の判定は、ステップ503乃至ス
テップ510により、全画素について、かつ、各属性毎
に行う。その後、色成分を合成して画像入力時の色空間
に変換し(ステップ511)、CRTやプリンタなどの
出力機器に出力する(ステップ512)。
In the smoothing process, for example, similar to the process in the smoothing processing unit 104 of the first embodiment, the attribute of each pixel value is calculated by using the matrix M of the formula (4). According to (5), it is obtained by weighted average with peripheral pixel values. The determination of the dispersion of the peripheral pixels in each pixel and the determination of the smoothing process are performed for all pixels and for each attribute in steps 503 to 510. Thereafter, the color components are combined and converted into a color space at the time of image input (step 511), and output to an output device such as a CRT or a printer (step 512).

【0041】なお、本実施の形態の顔領域補正方法にお
いては、色空間変換部(103,203)、平滑化処理
部(104,205)、画像合成部105および平滑化
判定部204がそれぞれ専用のハードウェアで構成され
る場合について説明したが、本発明はこれに限定される
ものではなく、例えば、コンピュータのソフトウェア処
理で実行することも可能である。この場合に、本実施の
形態の顔領域補正方法は、図7に示す中央処理装置(C
PU)610が、主メモリ602に読み込まれた顔領域
補正プログラムを実行することにより行われる。この場
合に、色空間変換部(103,203)、平滑化処理部
(104,205)、画像合成部105および平滑化判
定部204は、図7に示す色空間変換部611、平滑化
処理部612、画像合成部613および平滑化判定部6
14のように、中央処理装置(CPU)610により実
現される機能手段となる。なお、図7は、本実施の形態
の顔領域補正プログラムを実行するコンピュータの概略
構成を示すブロック図である。同図において、601は
画像を入力するための画像入力装置、602は主メモ
リ、603はキーボード・マウス等の入力装置、604
は補助記憶装置、605は出力装置、606はバスライ
ン、610は中央処理装置(CPU)である。前記顔領
域補正プログラムは、例えば、フロッピーディスク、C
D−ROM、光磁気ディスク等の記録媒体により提供さ
れ主メモリ602に読み込まれるか、あるいは、例え
ば、補助記憶装置604に格納される。
In the face area correction method according to the present embodiment, the color space conversion units (103, 203), the smoothing processing units (104, 205), the image synthesis unit 105, and the smoothing determination unit 204 are dedicated. Has been described, but the present invention is not limited to this. For example, the present invention can be executed by software processing of a computer. In this case, the face area correction method according to the present embodiment uses the central processing unit (C) shown in FIG.
PU) 610 by executing the face area correction program read into the main memory 602. In this case, the color space conversion units (103, 203), the smoothing processing units (104, 205), the image synthesizing unit 105, and the smoothing determination unit 204 include a color space conversion unit 611, a smoothing processing unit shown in FIG. 612, image synthesis unit 613, and smoothing determination unit 6
As shown in FIG. 14, the function means is realized by a central processing unit (CPU) 610. FIG. 7 is a block diagram illustrating a schematic configuration of a computer that executes the face area correction program according to the present embodiment. In the figure, 601 is an image input device for inputting an image, 602 is a main memory, 603 is an input device such as a keyboard and mouse, and 604.
Is an auxiliary storage device, 605 is an output device, 606 is a bus line, and 610 is a central processing unit (CPU). The face area correction program includes, for example, a floppy disk, C
The data is provided by a recording medium such as a D-ROM or a magneto-optical disk and is read into the main memory 602 or stored in, for example, the auxiliary storage device 604.

【0042】以上、本発明者によってなされた発明を、
前記実施の形態に基づき具体的に説明したが、本発明
は、前記実施の形態に限定されるものではなく、その要
旨を逸脱しない範囲において種々変更可能であることは
勿論である。
As described above, the invention made by the present inventor is:
Although a specific description has been given based on the above-described embodiment, the present invention is not limited to the above-described embodiment, and it is needless to say that various modifications can be made without departing from the gist of the invention.

【0043】[0043]

【発明の効果】本願において開示される発明のうち代表
的なものによって得られる効果を簡単に説明すれば、下
記の通りである。
The effects obtained by typical ones of the inventions disclosed in the present application will be briefly described as follows.

【0044】本発明によれば、人手を介さずに、かつ、
異なる色領域間の境界を明瞭な状態に保ったまま、画像
中の細かな凹凸が除去された滑らかな肌をもつ顔画像
を、自動的に生成することが可能となる。
According to the present invention, without human intervention,
It is possible to automatically generate a face image having smooth skin from which fine irregularities in an image have been removed, while keeping the boundaries between different color regions in a clear state.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1の顔領域補正装置の概略
構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a schematic configuration of a face area correction device according to a first embodiment of the present invention.

【図2】HVC色空間の構造を示す図である。FIG. 2 is a diagram showing a structure of an HVC color space.

【図3】本発明の実施の形態2の顔領域補正装置の概略
構成を示すブロック図である。
FIG. 3 is a block diagram illustrating a schematic configuration of a face area correction device according to a second embodiment of the present invention.

【図4】本発明の実施の形態3の顔領域補正方法の処理
手順を示すフローチャートである。
FIG. 4 is a flowchart showing a processing procedure of a face area correction method according to a third embodiment of the present invention.

【図5】本発明の実施の形態4の顔領域補正方法の処理
手順を示すフローチャートである。
FIG. 5 is a flowchart illustrating a processing procedure of a face area correction method according to a fourth embodiment of the present invention.

【図6】本発明の実施の形態5の顔領域補正方法の処理
手順を示すフローチャートである。
FIG. 6 is a flowchart illustrating a processing procedure of a face area correction method according to the fifth embodiment of the present invention.

【図7】本実施の形態の顔領域補正プログラムを実行す
るコンピュータの概略構成を示すブロック図である。
FIG. 7 is a block diagram illustrating a schematic configuration of a computer that executes a face area correction program according to the present embodiment.

【符号の説明】[Explanation of symbols]

101,201…画像入力部、102,202…画像蓄
積部、103,203,611…色空間変換部、10
4,205,612…平滑化処理部、105,613…
画像合成部、106,206…画像出力部、204,6
14…平滑化判定部、601…画像入力装置、602…
主メモリ、603…キーボード・マウス等の入力装置、
604…補助記憶装置、605…出力装置、606…バ
スライン、610…中央処理装置(CPU)。
101, 201: image input unit, 102, 202: image storage unit, 103, 203, 611: color space conversion unit, 10
4, 205, 612... Smoothing processing unit, 105, 613.
Image synthesizing units, 106, 206... Image output units, 204, 6
14: smoothing determination unit, 601: image input device, 602 ...
Main memory, 603 input devices such as a keyboard and a mouse,
604: auxiliary storage device, 605: output device, 606: bus line, 610: central processing unit (CPU).

─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成10年3月9日[Submission date] March 9, 1998

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項9[Correction target item name] Claim 9

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【手続補正2】[Procedure amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項10[Correction target item name] Claim 10

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 画像中の顔領域に対して補正処理を行う
顔領域補正装置において、 画像を入力する画像入力部と、 入力画像、顔領域補正処理の過程で生成される画像、あ
るいは顔領域補正後の画像を蓄積する画像蓄積部と、 入力画像の各画素値を人間の知覚に近い色空間上の値に
色空間変換、あるいは、色空間変換された画像における
人間の知覚に近い色空間上の値を持つ各画素値を入力画
像と同一の色空間上の値に逆色空間変換する色空間変換
部と、 前記色空間変換部で色空間変換された入力画像の各画素
に対して平滑化処理を施す平滑化処理部と、 前記色空間変換部で色空間変換された入力画像と、前記
平滑化処理部で平滑化処理が施された画像とを合成する
画像合成部と、 前記色空間変換部で、各画素値が入力画像と同一の色空
間上の画素値に逆色空間変換された、前記画像合成部で
合成された画像を出力する画像出力部とを有することを
特徴とする顔領域補正装置。
An image input unit for inputting an image, an input image, an image generated in a process of the face area correction processing, or a face area. An image storage unit for storing the corrected image, and a color space conversion of each pixel value of the input image to a value in a color space close to human perception, or a color space close to human perception in the color space converted image A color space conversion unit that performs inverse color space conversion of each pixel value having the above value to a value on the same color space as the input image, and for each pixel of the input image color space converted by the color space conversion unit. A smoothing processing unit that performs a smoothing process, an image combining unit that combines the input image that has been subjected to the color space conversion by the color space converting unit, and the image that has been subjected to the smoothing process by the smoothing processing unit, In the color space conversion unit, each pixel value is in the same color space as the input image. And an image output unit that outputs an image synthesized by the image synthesis unit, which is subjected to inverse color space conversion to the pixel value of
【請求項2】 画像中の顔領域に対して補正処理を行う
顔領域補正装置において、 画像を入力する画像入力部と、 入力画像、顔領域補正処理の過程で生成される画像およ
び顔領域補正後の画像を蓄積する画像蓄積部と、 入力画像の各画素値を人間の知覚に近い色空間上の値に
色空間変換、あるいは、色空間変換された画像における
人間の知覚に近い色空間上の値を持つ各画素値を入力画
像と同一の色空間上の値に逆色空間変換する色空間変換
部と、 前記色空間変換部で色空間変換された入力画像の各画素
に対して、平滑化処理を実行するか否かを判定する平滑
化判定部と、 前記平滑化判定部で平滑化処理を実行すると判定された
画素に対して、平滑化処理を施す平滑化処理部と、 前記色空間変換部で、各画素値が入力画像と同一の色空
間上の画素値に逆色空間変換された、前記色空間変換部
で色空間変換された後に平滑化処理部で平滑化処理が施
された第1の画素と、前記第1の画素以外の画素が前記
色空間変換部で色空間変換された第2の画素とで構成さ
れる画像を出力する画像出力部とを有することを特徴と
する顔領域補正装置。
2. A face area correction apparatus for performing a correction process on a face area in an image, comprising: an image input unit for inputting an image; an input image; an image generated in a process of the face area correction processing; An image storage unit for storing the subsequent image; and a color space conversion of each pixel value of the input image to a value in a color space close to human perception, or a color space close to human perception in the color space converted image. A color space conversion unit that performs inverse color space conversion of each pixel value having a value of the same color space as that of the input image, and for each pixel of the input image color space converted by the color space conversion unit, A smoothing determination unit that determines whether to perform a smoothing process, a smoothing processing unit that performs a smoothing process on a pixel determined to perform the smoothing process by the smoothing determination unit, In the color space conversion unit, each pixel value is in the same color space as the input image. A first pixel that has been subjected to inverse color space conversion to a pixel value of, has undergone color space conversion by the color space conversion section, and has been subjected to smoothing processing by the smoothing processing section, and a pixel other than the first pixel. An image output unit for outputting an image composed of the second pixels subjected to the color space conversion by the color space conversion unit.
【請求項3】 前記色空間変換部は、入力画像の各画素
値を、色相、彩度および明度の三属性値に色空間変換
し、 また、前記平滑化処理部は、三種類の属性毎に平滑化処
理を施すことを特徴とする請求項1または請求項2に記
載の顔領域補正装置。
3. The color space conversion unit performs color space conversion of each pixel value of the input image into three attribute values of hue, saturation, and lightness. 3. The face area correction apparatus according to claim 1, wherein the face area correction apparatus performs a smoothing process.
【請求項4】 前記色空間変換部は、入力画像の各画素
値を、明るさ成分と色み成分との値に分離し、 また、前記平滑化処理部は、二種類の成分毎に平滑化処
理を施すことを特徴とする請求項1または請求項2に記
載の顔領域補正装置。
4. The color space conversion unit separates each pixel value of the input image into a brightness component and a color component, and the smoothing processing unit performs smoothing for each of two types of components. The face area correction device according to claim 1, wherein the face region correction device performs a conversion process.
【請求項5】 画像中の顔領域に補正処理を行う顔領域
補正方法において、 入力画像の各画素値を人間の知覚に近い色空間上の値に
色空間変換する第1のステップと、 前記第1のステップで色空間変換された入力画像の各画
素に対して平滑化処理を施す第2のステップと、 前記第1ステップで色空間変換された入力画像と、前記
第2のステップで平滑化処理が施された入力画像とを合
成する第3のステップと、 前記第3のステップで合成された画像の各画素値を、入
力画像と同一の色空間上の値に逆色空間変換する第4の
ステップとを有することを特徴とする顔領域補正方法。
5. A face area correction method for performing a correction process on a face area in an image, wherein: a first step of performing color space conversion of each pixel value of the input image into a value on a color space that is close to human perception; A second step of performing a smoothing process on each pixel of the input image that has been color space converted in the first step, an input image that has been color space converted in the first step, and a smoothing process in the second step. A third step of synthesizing the input image which has been subjected to the conversion processing, and inverse color space conversion of each pixel value of the image synthesized in the third step to a value on the same color space as the input image. And a fourth step.
【請求項6】 画像中の顔領域に補正処理を行う顔領域
補正方法において、 入力画像の各画素値を人間の知覚に近い色空間上の値に
色空間変換する第1のステップと、 前記第1のステップで色空間変換された入力画像の各画
素に対して平滑化処理を実行するか否かを判定する第2
のステップと、 前記第2のステップで平滑化処理を実行すると判定され
た画素に対して平滑化処理を施す第3のステップと、 前記第3のステップで平滑化処理が施された第1の画素
と、前記第1の画素以外の画素が前記第1のステップで
色空間変換された入力画像の画素とで構成される画像の
各画素値を、入力画像と同一の色空間上の値に逆色空間
変換する第4のステップとを有することを特徴とする顔
領域補正方法。
6. A face area correction method for performing a correction process on a face area in an image, comprising: a first step of performing a color space conversion of each pixel value of an input image into a value on a color space close to human perception; A second step of determining whether or not to perform a smoothing process on each pixel of the input image subjected to the color space conversion in the first step;
A third step of performing a smoothing process on a pixel determined to perform the smoothing process in the second step; and a first step of performing the smoothing process in the third step. Each pixel value of an image composed of a pixel and pixels of the input image whose pixels other than the first pixel have been subjected to the color space conversion in the first step is converted to a value on the same color space as the input image. And a fourth step of performing an inverse color space conversion.
【請求項7】 前記色空間変換するステップは、入力画
像の各画素値を、色相、彩度および明度の三属性値に色
空間変換するステップであり、 また、前記平滑化処理を施すステップは、三種類の属性
毎に平滑化処理を施すステップであることを特徴とする
請求項5または請求項6に記載の顔領域補正装置。
7. The step of performing color space conversion is a step of performing color space conversion of each pixel value of an input image into three attribute values of hue, saturation, and lightness, and performing the smoothing process. 7. The face area correction device according to claim 5, wherein the smoothing process is performed for each of the three types of attributes.
【請求項8】 前記色空間変換するステップは、入力画
像の各画素値を、明るさ成分と色み成分との値に分離す
るステップであり、 また、前記平滑化処理を施すステップは、二種類の成分
毎に平滑化処理を施すステップであることを特徴とする
請求項5または請求項6に記載の顔領域補正装置。
8. The step of performing color space conversion is a step of separating each pixel value of the input image into a value of a brightness component and a value of a color component. 7. The face area correction device according to claim 5, wherein the step of performing a smoothing process for each type of component.
【請求項9】 コンピュータによって、画像中の顔領域
に補正処理を行うための顔領域補正プログラムを記録し
た媒体において、 当該顔領域補正プログラムは、コンピュータに、入力画
像の各画素値を人間の知覚に近い色空間上の値に色空間
変換させ、前記色空間変換させた入力画像の各画素に対
して平滑化処理を実行させ、前記色空間変換させた入力
画像と前記平滑化処理を実行させた入力画像とを合成さ
せ、前記合成させた画像の各画素値を、入力画像と同一
の色空間上の値に逆色空間変換させることを特徴とする
顔領域補正プログラムを記録した記録媒体。
9. A medium in which a computer records a face area correction program for performing a correction process on a face area in an image, the face area correction program instructs the computer to recognize each pixel value of the input image by human perception. Color space conversion to a value on a color space close to, performing a smoothing process on each pixel of the color space converted input image, and executing the color space converted input image and the smoothing process. A recording medium in which a face area correction program is recorded, wherein the image data is combined with the input image, and each pixel value of the combined image is subjected to inverse color space conversion into a value on the same color space as the input image.
【請求項10】 コンピュータによって、画像中の顔領
域に補正処理を行うための顔領域補正プログラムを記録
した媒体において、 当該顔領域補正プログラムは、コンピュータに、入力画
像の各画素値を人間の知覚に近い色空間上の値に色空間
変換させ、前記色空間変換された入力画像の各画素に対
して平滑化処理を実行するか否かを判定させ、平滑化処
理を実行すると判定された画素に対して平滑化処理を実
行させ、前記平滑化処理を実行させた第1の画素と、前
記第1の画素以外の画素が前記色空間変換させた入力画
像の画素とで構成される画像の各画素値を、入力画像と
同一の色空間上の値に逆色空間変換させることを特徴と
する顔領域補正プログラムを記録した記録媒体。
10. A medium on which a computer records a face area correction program for performing a correction process on a face area in an image, the face area correction program instructs the computer to perceive each pixel value of the input image by human perception. Color space conversion to a value on a color space close to the color space conversion, determine whether or not to perform a smoothing process on each pixel of the input image subjected to the color space conversion, a pixel determined to perform the smoothing process Of the image composed of the first pixel that has been subjected to the smoothing process and pixels of the input image that have undergone the color space conversion, except for pixels other than the first pixel. A recording medium on which a face area correction program is recorded, wherein each pixel value is subjected to inverse color space conversion into a value on the same color space as an input image.
【請求項11】 前記色空間変換させる際に、入力画像
の各画素値を、色相、彩度および明度の三属性値に色空
間変換させ、 また、前記平滑化処理を実行させる際に、三種類の属性
毎に平滑化処理を実行させることを特徴とする請求項9
または請求項10に記載の顔領域補正プログラムを記録
した記録媒体。
11. When the color space conversion is performed, each pixel value of the input image is color space converted into three attribute values of hue, saturation, and lightness. 10. The smoothing process is executed for each type of attribute.
A recording medium on which the face area correction program according to claim 10 is recorded.
【請求項12】 前記色空間変換させる際に、入力画像
の各画素値を、明るさ成分と色み成分との値に色空間変
換させ、 また、前記平滑化処理を実行させる際に、二種類の成分
毎に平滑化処理を実行させることを特徴とする請求項9
または請求項10に記載の顔領域補正プログラムを記録
した記録媒体。
12. When the color space conversion is performed, each pixel value of the input image is color space converted into a value of a brightness component and a value of a color component. 10. The smoothing process is executed for each type of component.
A recording medium on which the face area correction program according to claim 10 is recorded.
JP05302698A 1998-03-05 1998-03-05 Face area correction method, face area correction apparatus, and recording medium storing face area correction program Expired - Fee Related JP3539665B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05302698A JP3539665B2 (en) 1998-03-05 1998-03-05 Face area correction method, face area correction apparatus, and recording medium storing face area correction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05302698A JP3539665B2 (en) 1998-03-05 1998-03-05 Face area correction method, face area correction apparatus, and recording medium storing face area correction program

Publications (2)

Publication Number Publication Date
JPH11250227A true JPH11250227A (en) 1999-09-17
JP3539665B2 JP3539665B2 (en) 2004-07-07

Family

ID=12931390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05302698A Expired - Fee Related JP3539665B2 (en) 1998-03-05 1998-03-05 Face area correction method, face area correction apparatus, and recording medium storing face area correction program

Country Status (1)

Country Link
JP (1) JP3539665B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002245446A (en) * 2001-02-20 2002-08-30 Nec Corp Color image processor and its method
JP2005027277A (en) * 2003-04-21 2005-01-27 Hewlett-Packard Development Co Lp Method for white-balancing image
JP2005293555A (en) * 2004-03-10 2005-10-20 Seiko Epson Corp Identification of skin area in image
US7155106B2 (en) 2004-05-28 2006-12-26 The Boeing Company High efficiency multi-spectral optical splitter
US7171097B2 (en) 2005-06-15 2007-01-30 The Boeing Company Hex tube light homogenizer splitter
US7182495B2 (en) 2005-05-03 2007-02-27 The Boeing Company Light mixing and homogenizing apparatus and method
US7265906B2 (en) 2005-07-12 2007-09-04 The Boeing Company Tri-to-hex light mixing and homogenizing apparatus and method
US7324731B2 (en) 2005-08-09 2008-01-29 The Boeing Company Systems and methods for distributing signals communicated on fiber optic transmission lines
US7386214B1 (en) 2007-02-01 2008-06-10 The Boeing Company Homogenizing optical beam combiner
US7414793B2 (en) 2006-07-21 2008-08-19 The Boeing Company White light splitting and homogenizing systems and methods
US7443591B1 (en) 2007-02-01 2008-10-28 The Boeing Company Homogenizing optical beam combiner
JP2009070260A (en) * 2007-09-14 2009-04-02 Shinko Electric Co Ltd Image processor, image processing method and program
US7519219B2 (en) 2003-02-13 2009-04-14 Fujifilm Corporation Method and program for correcting facial image and recording medium
US7603017B2 (en) 2007-02-01 2009-10-13 The Boeing Company Multi-color curved multi-light generating apparatus
US7684668B2 (en) 2003-12-23 2010-03-23 The Boeing Company Directional light homogenizer assembly
US8005298B2 (en) 2006-12-22 2011-08-23 Canon Kabushiki Kaisha Image processing apparatus and method thereof

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002245446A (en) * 2001-02-20 2002-08-30 Nec Corp Color image processor and its method
JP4666274B2 (en) * 2001-02-20 2011-04-06 日本電気株式会社 Color image processing apparatus and method
US7519219B2 (en) 2003-02-13 2009-04-14 Fujifilm Corporation Method and program for correcting facial image and recording medium
JP2005027277A (en) * 2003-04-21 2005-01-27 Hewlett-Packard Development Co Lp Method for white-balancing image
US7684668B2 (en) 2003-12-23 2010-03-23 The Boeing Company Directional light homogenizer assembly
JP2005293555A (en) * 2004-03-10 2005-10-20 Seiko Epson Corp Identification of skin area in image
US7155106B2 (en) 2004-05-28 2006-12-26 The Boeing Company High efficiency multi-spectral optical splitter
US7182495B2 (en) 2005-05-03 2007-02-27 The Boeing Company Light mixing and homogenizing apparatus and method
US7171097B2 (en) 2005-06-15 2007-01-30 The Boeing Company Hex tube light homogenizer splitter
US7265906B2 (en) 2005-07-12 2007-09-04 The Boeing Company Tri-to-hex light mixing and homogenizing apparatus and method
US7324731B2 (en) 2005-08-09 2008-01-29 The Boeing Company Systems and methods for distributing signals communicated on fiber optic transmission lines
US7414793B2 (en) 2006-07-21 2008-08-19 The Boeing Company White light splitting and homogenizing systems and methods
US8005298B2 (en) 2006-12-22 2011-08-23 Canon Kabushiki Kaisha Image processing apparatus and method thereof
US7443591B1 (en) 2007-02-01 2008-10-28 The Boeing Company Homogenizing optical beam combiner
US7386214B1 (en) 2007-02-01 2008-06-10 The Boeing Company Homogenizing optical beam combiner
US7603017B2 (en) 2007-02-01 2009-10-13 The Boeing Company Multi-color curved multi-light generating apparatus
JP2009070260A (en) * 2007-09-14 2009-04-02 Shinko Electric Co Ltd Image processor, image processing method and program

Also Published As

Publication number Publication date
JP3539665B2 (en) 2004-07-07

Similar Documents

Publication Publication Date Title
Ebner et al. Development and testing of a color space (IPT) with improved hue uniformity
JP4666274B2 (en) Color image processing apparatus and method
JP3539665B2 (en) Face area correction method, face area correction apparatus, and recording medium storing face area correction program
US20090060326A1 (en) Image processing apparatus and method
JP2000165692A (en) Color data converting method
JPH06333039A (en) Method and device for airbrushing
JP3972816B2 (en) Image processing apparatus and color system conversion method
JPH1084487A (en) Image processor and its method
US8290262B2 (en) Color processing apparatus and method thereof
JP2000224607A (en) Image processor
Reddy et al. Grey level to RGB using YCbCr color space Technique
US5442717A (en) Sharpness processing apparatus
JP4146506B1 (en) Mosaic image generating apparatus, method and program
US7224833B2 (en) Method for fast color saturation control
JPWO2006106750A1 (en) Image processing apparatus, image processing method, and image processing program
JP4051919B2 (en) Color image signal processing apparatus, color image signal processing method, and color image signal processing program
JP2016025635A (en) Image processing system and method of the same
JP2002094826A (en) Image processing unit, image forming unit and method for processing image
WO2023032374A1 (en) Data generating method, learning method, image capturing device, and program
JP3736648B2 (en) Color conversion method and apparatus
JP2002314825A (en) Color adjustment device and method therefor
JP3145878B2 (en) Color conversion method
JP5041538B2 (en) System and method for adjusting color image quality
JP2004356796A (en) Image processor
JP3740727B2 (en) Color conversion method and apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20031217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040316

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20040319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040319

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090402

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100402

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110402

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120402

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees