JPH11167626A - Image processing method, recording medium and image processor - Google Patents

Image processing method, recording medium and image processor

Info

Publication number
JPH11167626A
JPH11167626A JP9370321A JP37032197A JPH11167626A JP H11167626 A JPH11167626 A JP H11167626A JP 9370321 A JP9370321 A JP 9370321A JP 37032197 A JP37032197 A JP 37032197A JP H11167626 A JPH11167626 A JP H11167626A
Authority
JP
Japan
Prior art keywords
image
face
face image
determined
parts
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP9370321A
Other languages
Japanese (ja)
Inventor
Hiromichi Enomoto
洋道 榎本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP9370321A priority Critical patent/JPH11167626A/en
Publication of JPH11167626A publication Critical patent/JPH11167626A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing method which forms a favorite face picture by easily and naturally moving visualized face parts. SOLUTION: A user determines which should be moved among eyes, an eyebrow and a mouth based on a desired facial expression (smile, anger, surprise and sorrow) and its movable range. That is, the user selects one of such expressions as 'smile', 'anger', 'surprise' and 'sorrow' by using scroll bars B7 to B10, watching a preview image Pv and further, freely inputs such feelings in 0 to 100% range as a parameter. Only by inputting the parameter of feeling, it is possible to easily form a desired facial expression and also to regulate and limitation of its movable range. Thus, facial expressions that are formed by it become very natural by preventing an eye, etc., from being moved to an unnatural position.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、たとえば、デジタ
ルカメラで撮影された人物をディスプレイ上に表示し
て、その顔の表情を変更する技術に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for displaying a person photographed by a digital camera on a display and changing the facial expression of the person.

【0002】[0002]

【従来の技術】デジタルカメラにより人物を撮影し、デ
ィスプレイ上に表示することが行われている。ところ
で、人物の表情は刻々と変化しているためベストなシャ
ッターチャンスをとらえることは難しく、その最も良い
表情を撮影できない場合がある。また、赤ちゃん等のよ
うに自分自身で表情を変えることができない人物の、た
とえば笑顔等を記録したい場合もある。かかる場合、撮
影した人物の表情を変更できれば便利である。
2. Description of the Related Art A person is photographed by a digital camera and displayed on a display. By the way, since the expression of a person is changing every moment, it is difficult to capture the best photo opportunity, and the best expression may not be captured. There are also cases where it is desired to record, for example, a smile or the like of a person who cannot change his / her own expression, such as a baby. In such a case, it is convenient if the facial expression of the person who has photographed can be changed.

【0003】[0003]

【発明が解決しようとする課題】従来技術によれば、た
とえば特開昭62−98472号に開示されているよう
に、撮影した人物の顔を、多数の要素を用いて立体的に
近似し、各要素ごとにひずみ計算を行って表情を形成す
るものがある。しかしながら、かかる従来技術によれ
ば、形成された表情はごく自然なものではあるが、多数
の要素ごとになされるひずみの計算量が膨大なものとな
り、取り扱いに不便である。
According to the prior art, for example, as disclosed in Japanese Patent Application Laid-Open No. 62-98472, the face of a photographed person is approximated three-dimensionally using a number of elements. In some cases, a distortion is calculated for each element to form an expression. However, according to such a conventional technique, although the formed facial expression is very natural, the amount of calculation of distortion performed for each of a large number of elements is enormous, which is inconvenient to handle.

【0004】一方、Meta Tool社より市販され
ているソフトウェア「KAI’sPower Goo」
(登録商標)によれば、顔の部位ごとに、別々な処理を
加えて表情を自在に変化させることができる。しかしな
がら、目、口、眉等の複数の部位を、別個の処理により
変化させるものであるため、操作が煩雑であり、取り扱
いに不便である。
On the other hand, software "KAI's Power Goo" marketed by Meta Tool is available.
According to (Registered Trademark), the expression can be freely changed by adding different processing to each part of the face. However, since a plurality of parts such as eyes, mouths, eyebrows, and the like are changed by separate processing, the operation is complicated and the handling is inconvenient.

【0005】また、他の従来技術によれば、たとえば特
開平6−203123号に開示されているように、体重
を入力すると、それに応じて顔に脂肪がついて表情が変
化するように見えるものもある。しかしながら、かかる
技術によれば、表情の変化は一様であって、必ずしもユ
ーザーが欲する表情とはならないとい問題がある。更
に、いずれの従来技術においても、変化後のイメージを
把握しづらいため、試行錯誤により最も良い表情を形成
する必要があり、この点においても取り扱いに不便であ
った。
According to another prior art, for example, as disclosed in Japanese Patent Application Laid-Open No. Hei 6-203123, when a weight is input, the face appears to be fat and the expression changes accordingly. is there. However, according to this technique, there is a problem that the facial expression changes uniformly, and the facial expression is not always the one desired by the user. Furthermore, in any of the prior arts, it is difficult to grasp the image after the change, so that it is necessary to form the best expression by trial and error, and this is also inconvenient to handle.

【0006】本発明の目的は、撮影された顔が可視化さ
れた場合において、可視化された顔の部位を容易に、そ
して自然に移動することにより、好みの顔の状態を形成
する画像処理方法を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing method for forming a desired face state by easily and naturally moving a visualized face portion when a captured face is visualized. To provide.

【0007】[0007]

【課題を解決するための手段】上述の目的を達成すべ
く、本発明の画像処理方法は、顔画像を含む画像情報に
基づき、顔画像の各部位を特定するステップと、顔の表
情を変更するためのパラメータを設定するステップと、
前記設定されたパラメータに対応して、変更する前記顔
画像の複数の部位を決定すると共に、該決定された部位
毎の処理内容を決定するステップと、前記決定された部
位に対して各々決定された処理内容に応じて処理を施す
ステップとを有することを特徴とする。
In order to achieve the above object, an image processing method according to the present invention comprises the steps of specifying each part of a face image based on image information including the face image, and changing the facial expression. Setting parameters for performing
In accordance with the set parameters, a plurality of parts of the face image to be changed are determined, and the content of processing for each of the determined parts is determined. Performing a process in accordance with the content of the process performed.

【0008】更に本発明の画像処理方法は、顔画像を含
む画像情報に基づく画像を表示し、該表示された顔画像
の一部の部位を指定することにより顔画像の各部位を特
定するステップと、顔の表情を変更するためのパラメー
タを設定するステップと、前記設定されたパラメータに
基づいて、該特定された各部位の内から、処理すべき部
位及び処理内容を決定するステップと、前記決定された
顔の部位及び処理内容に基づき、前記各部位に対応した
画像情報を変更するステップとを有することを特徴とす
る。
Further, in the image processing method according to the present invention, an image based on image information including a face image is displayed, and each part of the face image is specified by designating a part of the displayed face image. Setting a parameter for changing a facial expression; determining a part to be processed and processing contents from among the specified parts based on the set parameter; Changing image information corresponding to each part based on the determined face part and processing content.

【0009】本発明の画像処理装置は、顔画像を含む画
像情報に基づき、顔画像の各部位を特定する手段と、顔
の表情を変更するためのパラメータを設定する手段と、
前記設定されたパラメータに対応して、変更する前記顔
画像の複数の部位を決定すると共に、該決定された部位
毎の処理内容を決定する手段と、前記決定された部位に
対して各々決定された処理内容に応じて処理を施す手段
とを有することを特徴とする。
An image processing apparatus according to the present invention includes: means for specifying each part of a face image based on image information including the face image; means for setting a parameter for changing a facial expression;
In accordance with the set parameters, a plurality of parts of the face image to be changed are determined, and a processing content for each of the determined parts is determined. Means for performing processing in accordance with the processing content.

【0010】更に本発明の画像処理方法は、顔画像を含
む画像情報に基づく画像を表示し、該表示された顔画像
の一部の部位を指定することにより顔画像の各部位を特
定する手段と、顔の表情を変更するためのパラメータを
設定する手段と、前記設定されたパラメータに基づい
て、該特定された各部位の内から、処理すべき部位及び
処理内容を決定する手段と、前記決定された顔の部位及
び処理内容に基づき、前記各部位に対応した画像情報を
変更する手段とを有することを特徴とする。
Further, according to the image processing method of the present invention, an image based on image information including a face image is displayed, and each part of the face image is specified by designating a part of the displayed face image. Means for setting a parameter for changing a facial expression; means for determining a part to be processed and processing contents from among the specified parts based on the set parameters; Means for changing image information corresponding to each part based on the determined face part and processing content.

【0011】[0011]

【作用】本願発明の画像処理方法及画像処理装置によれ
ば、前記設定されたパラメータに対応して、変更する前
記顔画像の複数の部位を決定すると共に、該決定された
部位毎の処理内容を決定するか、あるいは前記設定され
たパラメータに基づいて、該特定された各部位の内か
ら、処理すべき部位及び処理内容を決定するようになっ
ているので、たとえばユーザーは、容易に所望の顔の状
態を形成することができ、また形成された顔の状態はご
く自然なものとなる。
According to the image processing method and the image processing apparatus of the present invention, a plurality of parts of the face image to be changed are determined according to the set parameters, and the processing content for each determined part is determined. Or, based on the set parameters, from among the specified parts, the part to be processed and the processing content are determined, so that, for example, the user can easily select a desired part. The face condition can be formed, and the formed face condition becomes very natural.

【0012】[0012]

【発明の実施の形態】以下、本発明による第1の実施の
形態を、図面を参照して説明する。図1は、コンピュー
タのディスプレイ上に表示された顔の表情を変更する画
像処理方法を示すフローチャートである。図2は、かか
る画像処理方法を実行するプログラムが読みとられたコ
ンピュータを示す斜視図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a first embodiment according to the present invention will be described with reference to the drawings. FIG. 1 is a flowchart illustrating an image processing method for changing a facial expression displayed on a display of a computer. FIG. 2 is a perspective view showing a computer from which a program for executing the image processing method is read.

【0013】図2においては、不図示のデジタルカメラ
により撮影された人物の画像情報が、コンピュータ1に
内蔵されたメモリに記憶されており、かかる画像情報に
基づき、人物の顔Fが表示手段であるディスプレイ1a
に表示されている。表示された顔Fの周囲には、6つの
スクロールバーB1乃至B6を含む第1のダイアログボ
ックスD1が表示され、後述するユーザーの操作を可能
としている。すなわち、かかるスクロールバーB1乃至
B6のボタンは、マウス1bにより上下または左右に移
動可能となっている。記録媒体であるフロッピーディス
クFDには、後述する画像処理方法を実行させるプログ
ラムが記憶されており、かかるフロッピーディスクFD
のプラグラムをコンピュータ1が読みとることにより、
表情を変更するという画像処理が可能となる。なお、か
かるプログラムは、CDまたはROM等に記憶されても
良い。以下、この画像処理について説明する。
In FIG. 2, image information of a person photographed by a digital camera (not shown) is stored in a memory built in the computer 1, and a face F of the person is displayed on a display means based on the image information. A display 1a
Is displayed in. A first dialog box D1 including six scroll bars B1 to B6 is displayed around the displayed face F, and allows a user operation to be described later. That is, the buttons of the scroll bars B1 to B6 can be moved up and down or left and right by the mouse 1b. The floppy disk FD serving as a recording medium stores a program for executing an image processing method described later.
The computer 1 reads the program of
Image processing of changing the expression can be performed. Note that such a program may be stored on a CD, a ROM, or the like. Hereinafter, this image processing will be described.

【0014】図1のステップS101乃至S103は、
顔画像の各部位を決定する方法の一例である。ステップ
S101において、まずユーザーは、顔領域の選択を行
う。より具体的には、図2において、表情を変換したい
顔Fを囲む矩形領域Afを指定する。この指定は、たと
えばユーザーが、マウス1bをドラッグすることにより
可能となる。
Steps S101 to S103 in FIG.
It is an example of a method of determining each part of a face image. In step S101, the user first selects a face area. More specifically, in FIG. 2, a rectangular area Af surrounding a face F whose expression is to be converted is specified. This designation can be made, for example, by the user dragging the mouse 1b.

【0015】まずコンピュータ1は、第1のダイアログ
ボックスD1(図2)を表示する。ディスプレイ1a上
において複数の矩形領域A1乃至A3の位置、面積が変
えられるようになっているので、ユーザーは、これらの
矩形領域A1乃至A3を移動させ、顔Fの部位である目
E、口Mを囲むようにして、目E、口Mを選択する(ス
テップS102)。なお、ユーザーは、図2におけるス
クロールバーB1により目Eを囲む矩形領域A1,A2
を左右に動かすことができ、スクロールバーB2により
矩形領域A1,A2を上下に動かすことができ、スクロ
ールバーB3により矩形領域A1,A2の面積を変える
ことができる。なお、矩形領域A1,A2は独立にその
位置・面積を変えられるようにしても良い。
First, the computer 1 displays a first dialog box D1 (FIG. 2). Since the positions and areas of the plurality of rectangular areas A1 to A3 can be changed on the display 1a, the user moves these rectangular areas A1 to A3, and the eyes E and the mouth M which are parts of the face F are moved. , The eye E and the mouth M are selected (step S102). In addition, the user can use the scroll bar B1 in FIG.
Can be moved left and right, the rectangular areas A1 and A2 can be moved up and down by the scroll bar B2, and the area of the rectangular areas A1 and A2 can be changed by the scroll bar B3. The positions and areas of the rectangular regions A1 and A2 may be independently changed.

【0016】一方ユーザーは、スクロールバーB4によ
り口Mを囲む矩形領域A3を左右に動かすことができ、
スクロールバーB5により矩形領域A3を上下に動かす
ことができ、スクロールバーB6により矩形領域A3の
面積を変えることができる。
On the other hand, the user can move the rectangular area A3 surrounding the mouth M right and left by the scroll bar B4,
The rectangular area A3 can be moved up and down by the scroll bar B5, and the area of the rectangular area A3 can be changed by the scroll bar B6.

【0017】更にステップS103において、コンピュ
ータ1は目E、口Mを検出する。選択された領域内で目
E、口Mを検出する態様につき、以下に説明する。図3
は、目E、口Mを検出するサブルーチンを示すフローチ
ャートである。
Further, in step S103, the computer 1 detects the eyes E and the mouth M. The manner in which the eyes E and the mouth M are detected in the selected area will be described below. FIG.
Is a flowchart showing a subroutine for detecting an eye E and a mouth M.

【0018】まず、ステップS102(図1)において
選択された領域内で、コンピュータ1はエッジ画素の検
出を行う(ステップS103a)。具体的には、まず対
象画素のRGB値の線形和Xijを求める。ここで、
i,jは画像中の縦横の位置である。この線形和は目、
口それぞれ固有の値となっており、目の検出の場合は、
たとえばXij=0.3*Rij+0.59*Gij
0.11*Bijで計算され、口の検出の場合は、たと
えば、Xij=0.21*Rij−0.52*Gij
0.31*Bijで計算される。
First, the computer 1 detects an edge pixel in the area selected in step S102 (FIG. 1) (step S103a). Specifically, first, a linear sum X i , j of the RGB values of the target pixel is obtained. here,
i and j are vertical and horizontal positions in the image. This linear sum is the eye,
Each mouth has a unique value, and in the case of eye detection,
For example, X i , j = 0.3 * R i , j + 0.59 * G i , j +
It is calculated with 0.11 * B i , j , and in the case of mouth detection, for example, X i , j = 0.21 * R i , j− 0.52 * G i , j +
Calculated as 0.31 * B i , j .

【0019】コンピュータ1は、ある画素に対してその
周囲4画素との差を求め、エッジ量Eijを求める。E
ijは以下の式で表される。 Eij=|Xi+1j −Xij|+|Xi-1j−Xij
|+|Xij+1−Xij|+|Xij-1−Xij
The computer 1 obtains a difference between a certain pixel and its surrounding four pixels, and obtains edge amounts E i , j . E
i and j are represented by the following equations. E i , j = | X i + 1 , j −X i , j | + | X i−1 , j −X i , j
| + | X i, j + 1 -X i, j | + | X i, j-1 -X i, j |

【0020】更にコンピュータ1は、対象領域内での上
記エッジ量の平均Ave_edgeを求める。対象領域
内でEijがAve_edgeより大きければ、その画
素はエッジ画素であると判定する。
Further, the computer 1 obtains the average Ave_edge of the edge amount in the target area. If E i , j is larger than Ave_edge in the target area, it is determined that the pixel is an edge pixel.

【0021】次にステップS103bにおいて、コンピ
ュータ1は、検出されたエッジ画素の上下左右8近傍で
ラベリングする。具体的には、エッジ画素の周囲8近傍
にエッジ画素がある場合には、同じラベルと判定し、そ
れぞれのラベルの面積にはAi(i=ラベル)を求め
る。
Next, in step S103b, the computer 1 labels the detected edge pixels in the vicinity of the top, bottom, left, and right of the detected edge pixel. More specifically, if there are edge pixels near the periphery 8 of the edge pixel, the same label is determined, and Ai (i = label) is obtained for the area of each label.

【0022】コンピュータ1は、更にステップS103
cにおいて、それぞれの領域で面積の最も大きいラベル
が割り振られた領域をそれぞれ、目、口の領域と自ら判
定する。なお、目もしくは口の位置が決定されれば、あ
る程度顔の輪郭が統計的に推定され、推定された顔の輪
郭を用いることにより、顔領域の検出の精度を向上させ
ることができる。なお、眉の位置を決定することによ
り、顔の輪郭を推定するようにしても良い。以上によ
り、顔画像の各部位が特定される。すなわち、各部位の
位置及び領域が決まる。尚、各部位の特定は、顔画像を
指定した後、自動的に認識する方法としても良い。
The computer 1 further performs step S103
In c, the area to which the label having the largest area is allocated in each area is determined as an eye and mouth area. If the positions of the eyes or the mouth are determined, the outline of the face is statistically estimated to some extent, and the accuracy of detecting the face area can be improved by using the estimated outline of the face. The contour of the face may be estimated by determining the position of the eyebrows. As described above, each part of the face image is specified. That is, the position and area of each part are determined. Incidentally, the identification of each part may be performed by a method of automatically recognizing the face image after designating the face image.

【0023】再び図1にフローチャートに戻り、コンピ
ュータ1が、ステップS104で第2のダイアログボッ
クスD2の表示を行った後、ユーザーは、顔の表情を変
更するためのパラメータである感情のパラメータを選択
する(ステップS104)。図4は、ディスプレイ上に
表示された第2のダイアログボックスD2を示す図であ
る。ディスプレイ1aにおいて、図4に示すようなダイ
アログボックスD2とともに、対象となる顔画像がプレ
ビュー画像Pvとして表示されている。
Returning to the flowchart of FIG. 1 again, after the computer 1 displays the second dialog box D2 in step S104, the user selects an emotion parameter which is a parameter for changing the facial expression. (Step S104). FIG. 4 is a diagram showing a second dialog box D2 displayed on the display. On the display 1a, a target face image is displayed as a preview image Pv together with a dialog box D2 as shown in FIG.

【0024】より具体的に、感情のパラメータの選択の
態様を説明する。プレビュー画像Pvを見ながらユーザ
ーは、スクロールバーB7乃至B10を用いて、たとえ
ば「笑い」、「怒り」、「驚き」、「悲しみ」といった
感情の一つを選択し、更にかかる感情を0から100%
の範囲でパラメータとして自由に入力する。なお、かか
るパラメータは、感情の度合いを示すものであり、たと
えばパラメータ0%の場合には、オリジナルに対して顔
の表情は変化しないようになっている。一方、パラメー
タ100%の場合には、最も表情が強調された状態とな
り、従ってそれ以上顔の部位を移動させると、顔の輪郭
に対し不自然な表情が形成されてしまうこととなる。し
かしながら、たとえば非現実的なコミカルな表情を望む
場合には、100%を越えてパラメータを入力できるよ
うにしてもよい。
More specifically, the manner of selecting emotion parameters will be described. While viewing the preview image Pv, the user selects one of emotions such as “laugh”, “anger”, “surprise”, and “sadness” using the scroll bars B7 to B10, and further changes the emotion from 0 to 100. %
Input freely as a parameter in the range of. The parameter indicates the degree of emotion. For example, in the case of the parameter 0%, the facial expression does not change from the original. On the other hand, when the parameter is 100%, the facial expression is most emphasized. Therefore, if the face part is moved further, an unnatural facial expression is formed with respect to the contour of the face. However, if an unrealistic comical expression is desired, for example, it may be possible to input a parameter exceeding 100%.

【0025】ステップS104において、ユーザーによ
り選択され入力されたパラメータに基づき、ステップS
105において、コンピュータ1は、以下のようにして
目、眉、口の領域の座標を変換し、表情を変化させる。
なお、図5に示すようにX軸、Y軸が延在する座標系を
決定し、以下の計算に用いる。
In step S104, based on the parameters selected and input by the user, step S104 is executed.
At 105, the computer 1 converts the coordinates of the eye, eyebrow, and mouth regions as follows to change the expression.
Note that a coordinate system in which the X axis and the Y axis extend as shown in FIG. 5 is determined and used for the following calculations.

【0026】(1)「笑い」の場合 右目、左目それぞれについて、目尻のみを下げるような
座標変換を行う。座標変換は、以下の式に従ってなされ
る。 左目: if(Xij<X_mid_l) Y_newij=Yij−SLOPE_Y*(Xij
X_mid_l) 右目: if(Xij> X_mid_r) Y_newij=Yij−SLOPE_Y*(X_mi
d_l−Xij) ここで、X_mid_l、X_mid_rは、それぞれ
右目、左目領域の水平方向の中心のx座標を示し、i,
jは、それぞれx、y座標を示す。SLOPE_Yは、
y方向に座標変換する量を示し、ステップS104で選
択されたパラメータに基づき決定される。
(1) In the case of “laughing” For each of the right eye and the left eye, coordinate conversion is performed such that only the outer corner of the eye is lowered. The coordinate conversion is performed according to the following equation. Left eye: if (X i, j < X_mid_l) Y_new i, j = Y i, j -SLOPE_Y * (X i, j -
X_mid_l) right eye: if (X i, j> X_mid_r) Y_new i, j = Y i, j -SLOPE_Y * (X_mi
d_l−X i , j ) where X_mid_l and X_mid_r indicate the x-coordinate of the horizontal center of the right-eye and left-eye regions, respectively.
j indicates x and y coordinates, respectively. SLOPE_Y is
Indicates the amount of coordinate conversion in the y direction, and is determined based on the parameter selected in step S104.

【0027】眉の領域については、両目の領域の位置情
報から計算により決定される。たとえば、図6に示す座
標系において、左目を囲う矩形領域の左上、右上、左
下、右下の座標をそれぞれ、(X_l_l、Y_u_
l)、(X_r_l、Y_u_l)、(X_l_l、Y
_d_l)、(X_r_l、Y_d_l)として、領域
の幅と高さを、Width_l、Height_lとす
ると、眉の領域の左上、右上、左下、右下の座標(X_
l_lb、Y_u_lb)、(X_r_lb、Y_u_
lb)、(X_l_lb、Y_d_lb)、(X_r_
lb、Y_d_lb)は、それぞれ次のように計算され
る。 X_l_lb=X_l_l X_r_lb=X_r_l Y_u_lb=Y_u_l−Height_l Y_d_lb=Y_d_l−Height_l
The region of the eyebrows is determined by calculation from the position information of the region of both eyes. For example, in the coordinate system shown in FIG. 6, the coordinates of the upper left, upper right, lower left, and lower right of the rectangular area surrounding the left eye are (X_l_l, Y_u_
l), (X_r_l, Y_u_l), (X_l_l, Y
_D_l) and (X_r_l, Y_d_l) assuming that the width and height of the region are Width_l and Height_l, the upper left, upper right, lower left, and lower right coordinates (X_r
l_lb, Y_u_lb), (X_r_lb, Y_u_
lb), (X_l_lb, Y_d_lb), (X_r_
lb, Y_d_lb) are calculated as follows. X_l_lb = X_l_l X_r_lb = X_r_l Y_u_lb = Y_u_l-Height_l Y_d_lb = Y_d_l-Height_l

【0028】かかる領域内に眉が含まれるものと推定
し、両方の眉尻を下げるように座標変換を行う。座標変
換は、以下の式に従ってなされる。 左眉: Y_newij=Yij+SLOPE_Y*(Xij
X_r_l)*(Xij−X_r_l) 右眉: Y_newij=Yij+SLOPE_Y*(Xij
X_l_r)*(Xij−X_l_r)
It is estimated that an eyebrow is included in such a region, and coordinate conversion is performed so as to lower both eyebrows. The coordinate conversion is performed according to the following equation. Left eyebrow: Y_new i, j = Y i , j + SLOPE_Y * (X i, j -
X_r_l) * (X i, j -X_r_l) right eyebrow: Y_new i, j = Y i , j + SLOPE_Y * (X i, j -
X_l_r) * (X i , j− X_l_r)

【0029】更に、口の両端をあげるような座標変換を
行う。図7に、口の領域を座標系とともに示す。口領域
の中心のx座標を、X_MOUTHとすると、以下のよ
うに計算される。 Y_newij=Yij+SLOPE_Y*(Xij
X_MOUTH) *(Xij
−X_MOUTH)
Further, coordinate conversion is performed such that both ends of the mouth are raised. FIG. 7 shows the area of the mouth together with the coordinate system. Assuming that the x coordinate of the center of the mouth area is X_MOUTH, it is calculated as follows. Y_new i, j = Y i, j + SLOPE_Y * (X i, j -
X_MOUTH) * (X i , j
-X_MOUTH)

【0030】(2)怒りの場合 右目、左目それぞれについて、目尻のみをあげるような
座標変換を行う。座標変換は、以下の式に従ってなされ
る。 左目: if(Xij<X_mid_l) Y_newij=Yij+SLOPE_Y*(Xij
X_mid_l) 右目: if(Xij> X_mid_r) Y_newij=Yij+SLOPE_Y*(X_mi
d_l−Xij) ここで、X_mid_l、X_mid_rは、それぞれ
右目、左目領域の水平方向の中心のx座標を示し、i,
jは、それぞれx、y座標を示す。SLOPE_Yは、
y方向に座標変換する量を示し、ステップS104で選
択されたパラメータに基づき決定される。
(2) In case of anger For each of the right eye and the left eye, coordinate conversion is performed such that only the outer corner of the eye is raised. The coordinate conversion is performed according to the following equation. Left eye: if (X i, j < X_mid_l) Y_new i, j = Y i, j + SLOPE_Y * (X i, j -
X_mid_l) right eye: if (X i, j> X_mid_r) Y_new i, j = Y i, j + SLOPE_Y * (X_mi
d_l−X i , j ) where X_mid_l and X_mid_r indicate the x-coordinate of the horizontal center of the right-eye and left-eye regions, respectively.
j indicates x and y coordinates, respectively. SLOPE_Y is
Indicates the amount of coordinate conversion in the y direction, and is determined based on the parameter selected in step S104.

【0031】眉の領域については、両目の領域の位置情
報から計算により決定される。たとえば、図6に示す座
標系において、左目を囲う矩形領域の左上、右上、左
下、右下の座標をそれぞれ、(X_l_l、Y_u_
l)、(X_r_l、Y_u_l)、(X_l_l、Y
_d_l)、(X_r_l、Y_d_l)として、領域
の幅と高さを、width_l、Height_lとす
ると、眉の領域の左上、右上、左下、右下の座標(X_
l_lb、Y_u_lb)、(X_r_lb、Y_u_
lb)、(X_l_lb、Y_d_lb)、(X_r_
lb、Y_d_lb)は、それぞれ次のように計算され
る。 X_l_lb=X_l_l X_r_lb=X_r_l Y_u_lb=Y_u_l−Height_l Y_d_lb=Y_d_l−Height_l
The eyebrow area is determined by calculation from the position information of the both eye areas. For example, in the coordinate system shown in FIG. 6, the coordinates of the upper left, upper right, lower left, and lower right of the rectangular area surrounding the left eye are (X_l_l, Y_u_
l), (X_r_l, Y_u_l), (X_l_l, Y
_D_l) and (X_r_l, Y_d_l), assuming that the width and height of the region are width_l and Height_l, the upper left, upper right, lower left, and lower right coordinates (X_r
l_lb, Y_u_lb), (X_r_lb, Y_u_
lb), (X_l_lb, Y_d_lb), (X_r_
lb, Y_d_lb) are calculated as follows. X_l_lb = X_l_l X_r_lb = X_r_l Y_u_lb = Y_u_l-Height_l Y_d_lb = Y_d_l-Height_l

【0032】かかる領域内に眉が含まれるものと推定
し、両方の眉尻をあげるように座標変換を行う。座標変
換は、以下の式に従ってなされる。 左眉: Y_newij=Yij−SLOPE_Y*(Xij
X_r_l)*(Xij−X_r_l) 右眉: Y_newij=Yij−SLOPE_Y*(Xij
X_l_r)*(Xij−X_l_r)
It is estimated that an eyebrow is included in such an area, and coordinate conversion is performed so that both eyebrows are raised. The coordinate conversion is performed according to the following equation. Left eyebrow: Y_new i, j = Y i , j -SLOPE_Y * (X i, j -
X_r_l) * (X i, j -X_r_l) right eyebrow: Y_new i, j = Y i , j -SLOPE_Y * (X i, j -
X_l_r) * (X i , j− X_l_r)

【0033】更に、口の両端をあげるような座標変換を
行う。図7の座標系において、口領域の中心のx座標
を、X_MOUTHとすると、以下のように計算され
る。 Y_newij=Yij−SLOPE_Y*(Xij
X_MOUTH) *(Xij
−X_MOUTH)
Further, coordinate transformation is performed to raise both ends of the mouth. In the coordinate system of FIG. 7, when the x coordinate of the center of the mouth area is X_MOUTH, the calculation is performed as follows. Y_new i , j = Y i , j −SLOPE_Y * (X i , j
X_MOUTH) * (X i , j
-X_MOUTH)

【0034】(3)「悲しみ」の場合 右目、左目それぞれについて、目尻のみを下げるような
座標変換を行う。座標変換は、以下の式に従ってなされ
る。 左目: if(Xij<X_mid_l) Y_newij=Yij−SLOPE_Y*(Xij
X_mid_l) 右目: if(Xij> X_mid_r) Y_newij=Yij−SLOPE_Y*(X_mi
d_l−Xij) ここで、X_mid_l、X_mid_rは、それぞれ
右目、左目領域の水平方向の中心のx座標を示し、i,
jは、それぞれx、y座標を示す。SLOPE_Yは、
y方向に座標変換する量を示し、ステップS104で選
択されたパラメータに基づき決定される。
(3) In case of "sadness" Coordinate transformation is performed for each of the right eye and the left eye such that only the outer corner of the eye is lowered. The coordinate conversion is performed according to the following equation. Left eye: if (X i, j < X_mid_l) Y_new i, j = Y i, j -SLOPE_Y * (X i, j -
X_mid_l) right eye: if (X i, j> X_mid_r) Y_new i, j = Y i, j -SLOPE_Y * (X_mi
d_l−X i , j ) where X_mid_l and X_mid_r indicate the x-coordinate of the horizontal center of the right-eye and left-eye regions, respectively.
j indicates x and y coordinates, respectively. SLOPE_Y is
Indicates the amount of coordinate conversion in the y direction, and is determined based on the parameter selected in step S104.

【0035】眉の領域については、両目の領域の位置情
報から計算により決定される。たとえば、図6に示す座
標系において、左目を囲う矩形領域の左上、右上、左
下、右下の座標をそれぞれ、(X_l_l、Y_u_
l)、(X_r_l、Y_u_l)、(X_l_l、Y
_d_l)、(X_r_l、Y_d_l)として、領域
の幅と高さを、width_l、Height_lとす
ると、眉の領域の左上、右上、左下、右下の座標(X_
l_lb、Y_u_lb)、(X_r_lb、Y_u_
lb)、(X_l_lb、Y_d_lb)、(X_r_
lb、Y_d_lb)は、それぞれ次のように計算され
る。 X_l_lb=X_l_l X_r_lb=X_r_l Y_u_lb=Y_u_l−Height_l Y_d_lb=Y_d_l−Height_l
The region of the eyebrows is determined by calculation from the position information of the region of both eyes. For example, in the coordinate system shown in FIG. 6, the coordinates of the upper left, upper right, lower left, and lower right of the rectangular area surrounding the left eye are (X_l_l, Y_u_
l), (X_r_l, Y_u_l), (X_l_l, Y
_D_l) and (X_r_l, Y_d_l), assuming that the width and height of the region are width_l and Height_l, the upper left, upper right, lower left, and lower right coordinates (X_r
l_lb, Y_u_lb), (X_r_lb, Y_u_
lb), (X_l_lb, Y_d_lb), (X_r_
lb, Y_d_lb) are calculated as follows. X_l_lb = X_l_l X_r_lb = X_r_l Y_u_lb = Y_u_l-Height_l Y_d_lb = Y_d_l-Height_l

【0036】かかる領域内に眉が含まれるものと推定
し、両方の眉尻を下げるように座標変換を行う。座標変
換は、以下の式に従ってなされる。 左眉: Y_newij=Yij+SLOPE_Y*(Xij
X_r_l)*(Xij−X_r_l) 右眉: Y_newij=Yij+SLOPE_Y*(Xij
X_l_r)*(Xij−X_l_r)
It is estimated that the eyebrow is included in such an area, and coordinate conversion is performed so that both eyebrows are lowered. The coordinate conversion is performed according to the following equation. Left eyebrow: Y_new i, j = Y i , j + SLOPE_Y * (X i, j -
X_r_l) * (X i, j -X_r_l) right eyebrow: Y_new i, j = Y i , j + SLOPE_Y * (X i, j -
X_l_r) * (X i , j− X_l_r)

【0037】口の両端を下げるような座標変換を行う。
図7に示す座標系において、口領域の中心のx座標を、
X_MOUTHとすると、以下のように計算される。 Y_newij=Yij+SLOPE_Y*(Xij
X_MOUTH) *(Xij
−X_MOUTH)
A coordinate transformation is performed to lower both ends of the mouth.
In the coordinate system shown in FIG. 7, the x coordinate of the center of the mouth area is
Assuming that X_MOUTH, the calculation is performed as follows. Y_new i, j = Y i, j + SLOPE_Y * (X i, j -
X_MOUTH) * (X i , j
-X_MOUTH)

【0038】(4)「驚き」の場合 目の領域については、座標変換を行わない。すなわち、
元の通りとする。
(4) Case of "surprise" No coordinate conversion is performed for the eye area. That is,
Same as before.

【0039】眉の領域については、目と眉の間隔を広げ
るように座標変換を行う。たとえば、図6に示す座標系
において、左目を囲う矩形領域の左上、右上、左下、右
下の座標をそれぞれ、(X_l_l、Y_u_l)、
(X_r_l、Y_u_l)、(X_l_l、Y_d_
l)、(X_r_l、Y_d_l)として、領域の幅と
高さを、width_l、Height_lとすると、
眉の領域の左上、右上、左下、右下の座標(X_l_l
b、Y_u_lb)、(X_r_lb、Y_u_l
b)、(X_l_lb、Y_d_lb)、(X_r_l
b、Y_d_lb)は、それぞれ次のように変換され
る。 X_l_lb=X_l_l X_r_lb=X_r_l Y_u_lb=Y_u_l−Height_l*SLO
PE_Y Y_d_lb=Y_d_l−Height_l*SLO
PE_Y
For the eyebrow area, coordinate conversion is performed so as to widen the distance between the eye and the eyebrow. For example, in the coordinate system shown in FIG. 6, the coordinates of the upper left, upper right, lower left, and lower right of the rectangular area surrounding the left eye are (X_l_l, Y_u_l),
(X_r_l, Y_u_l), (X_l_l, Y_d_
l) and (X_r_l, Y_d_l) assuming that the width and height of the region are width_l and Height_l,
Upper left, upper right, lower left, lower right coordinates (X_l_l) of the eyebrow area
b, Y_u_lb), (X_r_lb, Y_u_l)
b), (X_l_lb, Y_d_lb), (X_r_l
b, Y_d_lb) are converted as follows. X_l_lb = X_l_l X_r_lb = X_r_l Y_u_lb = Y_u_l-Height_l * SLO
PE_Y Y_d_lb = Y_d_l-Height_l * SLO
PE_Y

【0040】口は、Y軸方向に広がるように座標変換を
行う。図7に示す座標系において、口領域の中心のx、
y座標を、(X_MOUTH、Y_MOUTH)とし、
左端のx座標をX_min、右端のx座標をX_max
とすると、以下のように計算される。 上唇:if(Yij<Y_MOUTH) {if(Xij<X_MOUTH) Y_newij=Yij−SLOPE_Y*(Xij−X_min)0.5 else Y_newij=Yij−SLOPE_Y*(X_max−Xij0.5 }else 下唇:if(Yij>Y_MOUTH) {if(Xij<X_MOUTH) Y_newij=Yij+SLOPE_Y*(Xij−X_min)0.5 else Y_newij=Yij−SLOPE_Y*(X_max−Xij0.5
The mouth performs coordinate conversion so as to spread in the Y-axis direction. In the coordinate system shown in FIG. 7, x at the center of the mouth area,
Let y coordinate be (X_MOUTH, Y_MOUTH),
X_min at the left end and X_max at the right end
Then, it is calculated as follows. Upper lip: if (Y i, j < Y_MOUTH) {if (X i, j <X_MOUTH) Y_new i, j = Y i, j -SLOPE_Y * (X i, j -X_min) 0.5 else Y_new i, j = Y i , j -SLOPE_Y * (X_max-X i, j) 0.5} else under lip: if (Y i, j> Y_MOUTH) {if (X i, j <X_MOUTH) Y_new i, j = Y i, j + SLOPE_Y * ( X i, j -X_min) 0.5 else Y_new i, j = Y i, j -SLOPE_Y * (X_max-X i, j) 0.5}

【0041】なお、上述した「驚き」の座標変換におい
ては、口は開けることなく広がるように設定したが、口
を開けて歯や舌が見えるようにしても良い。また、上述
の実施の形態においては、人物の顔を対象として、その
表情を変化させるようにしているが、犬や猫等の動物の
顔を対象としても勿論良い。更に、本実施の形態にかか
る画像処理方法を実行させるプログラムを、液晶画面付
きデジタルカメラに予め組み込んでおけば、その液晶画
面を介して本画像処理を行うこともできる。
In the "surprise" coordinate transformation described above, the mouth is set to spread without being opened. However, the mouth may be opened so that the teeth and tongue can be seen. Further, in the above-described embodiment, the facial expression is changed for a person's face, but may be applied to an animal's face such as a dog or a cat. Furthermore, if a program for executing the image processing method according to the present embodiment is installed in a digital camera with a liquid crystal screen in advance, the image processing can be performed via the liquid crystal screen.

【0042】[0042]

【発明の効果】本願発明の画像処理方法及画像処理装置
によれば、設定されたパラメータに対応して、変更する
前記顔画像の複数の部位を決定すると共に、決定された
部位毎の処理内容を決定するか、あるいは前記設定され
たパラメータに基づいて、特定された各部位の内から、
処理すべき部位及び処理内容を決定するようになってい
るので、たとえばユーザーは、容易に所望の顔の状態を
形成することができ、また形成された顔の状態はごく自
然なものとなる。
According to the image processing method and the image processing apparatus of the present invention, a plurality of parts of the face image to be changed are determined in accordance with the set parameters, and the processing content for each determined part is determined. Determine or based on the set parameters, from among the identified parts,
Since the part to be processed and the processing content are determined, for example, the user can easily form a desired face state, and the formed face state becomes very natural.

【図面の簡単な説明】[Brief description of the drawings]

【図1】ディスプレイ上に表示された顔の表情を変更す
る画像処理方法を示すフローチャートである。
FIG. 1 is a flowchart illustrating an image processing method for changing a facial expression displayed on a display.

【図2】本願発明にかかる画像処理方法を実行するプロ
グラムが読みとられたコンピュータを示す斜視図であ
る。
FIG. 2 is a perspective view showing a computer from which a program for executing an image processing method according to the present invention has been read.

【図3】目E、口Mを検出するサブルーチンを示すフロ
ーチャートである。
FIG. 3 is a flowchart showing a subroutine for detecting an eye E and a mouth M;

【図4】ディスプレイ上に表示された第2のダイアログ
ボックスを示す図である。
FIG. 4 is a diagram showing a second dialog box displayed on a display.

【図5】顔の部位の位置を決定するために用いる座標系
を示す図である。
FIG. 5 is a diagram showing a coordinate system used to determine the position of a face part.

【図6】目の領域と眉の領域との関係を示す図である。FIG. 6 is a diagram illustrating a relationship between an eye region and an eyebrow region.

【図7】口の領域を、座標系とともに示す図である。FIG. 7 is a diagram showing a mouth area together with a coordinate system.

【符号の説明】 1‥‥コンピュータ 1a‥‥ディスプレイ 1b‥‥マウス B1乃至B10‥‥スクロールバー D1‥‥第1のダイアログボックス D2‥‥第2のダイアログボックス FD‥‥フロッピー[Description of Signs] 1 Computer 1a Display 1b Mouse B1 to B10 Scroll bar D1 First dialog box D2 Second dialog box FD Floppy

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 顔画像を含む画像情報に基づき、顔画像
の各部位を特定するステップと、 顔の表情を変更するためのパラメータを設定するステッ
プと、 前記設定されたパラメータに対応して、変更する前記顔
画像の複数の部位を決定すると共に、該決定された部位
毎の処理内容を決定するステップと、 前記決定された部位に対して各々決定された処理内容に
応じて処理を施すステップとを有することを特徴とする
画像処理方法。
1. A step of specifying each part of a face image based on image information including a face image; a step of setting a parameter for changing a facial expression; Determining a plurality of parts of the face image to be changed and determining processing contents for each of the determined parts; and performing processing according to the processing contents determined for each of the determined parts. An image processing method comprising:
【請求項2】 前記処理された顔画像を表示するステッ
プを有することを特徴とする請求項1記載の画像処理方
法。
2. The image processing method according to claim 1, further comprising the step of displaying the processed face image.
【請求項3】 表情の変化の度合いを示す第2のパラメ
ータを設定するステップを有し、 前記設定されたパラメータに対応して、変更する前記顔
画像の複数の部位を決定すると共に、該決定された部位
毎の処理内容を決定するステップは、前記第2のパラメ
ータに応じて前記処理内容を決定することを特徴とする
請求項1記載の画像処理方法。
3. A step of setting a second parameter indicating a degree of change in facial expression, wherein a plurality of parts of the face image to be changed are determined in accordance with the set parameters, and the determination is performed. 2. The image processing method according to claim 1, wherein the step of determining the processing content for each of the determined parts determines the processing content in accordance with the second parameter.
【請求項4】 顔画像を含む画像情報に基づく画像を表
示し、該表示された顔画像の一部の部位を指定すること
により顔画像の各部位を特定するステップと、 顔の表情を変更するためのパラメータを設定するステッ
プと、 前記設定されたパラメータに基づいて、該特定された各
部位の内から、処理すべき部位及び処理内容を決定する
ステップと、 前記決定された顔の部位及び処理内容に基づき、前記各
部位に対応した画像情報を変更するステップとを有する
ことを特徴とする画像処理方法
4. A step of displaying an image based on image information including a face image, specifying each part of the face image by designating a part of the displayed face image, and changing a facial expression Setting a parameter for performing, and, based on the set parameters, determining a part to be processed and processing contents from among the specified parts, and a part of the determined face and Changing image information corresponding to each of the parts based on processing contents.
【請求項5】 前記顔画像の表情に基づき、移動すべき
2以上の顔の部位が決定されることを特徴とする請求項
1乃至4のいずれかに記載の画像処理方法。
5. The image processing method according to claim 1, wherein two or more parts of the face to be moved are determined based on the facial expression of the face image.
【請求項6】 前記顔画像の部位とは、目、眉及び口の
少なくとも一つであることを特徴とする請求項1乃至5
のいずれかに記載の画像処理方法。
6. The face image according to claim 1, wherein the part of the face image is at least one of an eye, an eyebrow, and a mouth.
The image processing method according to any one of the above.
【請求項7】 前記顔画像は表示手段上に表示され、前
記パラメータを設定するステップと前記部位を決定する
ステップは、前記表示手段上に前記画像とともに表示さ
れた領域可変情報を用いて行うことを特徴とする請求項
1乃至6のいずれかに記載の画像処理方法。
7. The face image is displayed on display means, and the step of setting the parameter and the step of determining the part are performed using area variable information displayed together with the image on the display means. The image processing method according to claim 1, wherein:
【請求項8】 請求項1に記載の画像処理方法を実行さ
せるためのプログラムを記録したコンピュータ読み取り
可能な記録媒体。
8. A computer-readable recording medium on which a program for executing the image processing method according to claim 1 is recorded.
【請求項9】 顔画像を含む画像情報に基づき、顔画像
の各部位を特定する手段と、 顔の表情を変更するためのパラメータを設定する手段
と、 前記設定されたパラメータに対応して、変更する前記顔
画像の複数の部位を決定すると共に、該決定された部位
毎の処理内容を決定する手段と、 前記決定された部位に対して各々決定された処理内容に
応じて処理を施す手段とを有することを特徴とする画像
処理装置。
9. A means for specifying each part of the face image based on image information including the face image; a means for setting a parameter for changing a facial expression; Means for determining a plurality of parts of the face image to be changed, and determining processing contents for each of the determined parts; means for performing processing in accordance with the processing contents determined for each of the determined parts An image processing apparatus comprising:
【請求項10】 顔画像を含む画像情報に基づく画像を
表示し、該表示された顔画像の一部の部位を指定するこ
とにより顔画像の各部位を特定する手段と、 顔の表情を変更するためのパラメータを設定する手段
と、 前記設定されたパラメータに基づいて、該特定された各
部位の内から、処理すべき部位及び処理内容を決定する
手段と、 前記決定された顔の部位及び処理内容に基づき、前記各
部位に対応した画像情報を変更する手段とを有すること
を特徴とする画像処理方法
10. A means for displaying an image based on image information including a face image, specifying each part of the face image by designating a part of the displayed face image, and changing a facial expression Means for setting parameters for performing, a means for determining a part to be processed and processing contents from among the specified parts based on the set parameters, and a part of the determined face and Means for changing image information corresponding to each part based on processing contents.
JP9370321A 1997-12-04 1997-12-04 Image processing method, recording medium and image processor Withdrawn JPH11167626A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9370321A JPH11167626A (en) 1997-12-04 1997-12-04 Image processing method, recording medium and image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9370321A JPH11167626A (en) 1997-12-04 1997-12-04 Image processing method, recording medium and image processor

Publications (1)

Publication Number Publication Date
JPH11167626A true JPH11167626A (en) 1999-06-22

Family

ID=18496614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9370321A Withdrawn JPH11167626A (en) 1997-12-04 1997-12-04 Image processing method, recording medium and image processor

Country Status (1)

Country Link
JP (1) JPH11167626A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004147288A (en) * 2002-10-25 2004-05-20 Reallusion Inc Facial image correction method
WO2005078659A1 (en) * 2004-02-12 2005-08-25 Konica Minolta Holdings, Inc. Face image processing system
KR100678208B1 (en) * 2005-07-08 2007-02-02 삼성전자주식회사 Method for saving and displaying image in wireless terminal
US7440621B2 (en) * 2004-03-17 2008-10-21 Konica Minolta Holdings, Inc. Attractive facial image determining system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004147288A (en) * 2002-10-25 2004-05-20 Reallusion Inc Facial image correction method
WO2005078659A1 (en) * 2004-02-12 2005-08-25 Konica Minolta Holdings, Inc. Face image processing system
US7440621B2 (en) * 2004-03-17 2008-10-21 Konica Minolta Holdings, Inc. Attractive facial image determining system
KR100678208B1 (en) * 2005-07-08 2007-02-02 삼성전자주식회사 Method for saving and displaying image in wireless terminal

Similar Documents

Publication Publication Date Title
US8150205B2 (en) Image processing apparatus, image processing method, program, and data configuration
US6396491B2 (en) Method and apparatus for reproducing a shape and a pattern in a three-dimensional scene
US8311336B2 (en) Compositional analysis method, image apparatus having compositional analysis function, compositional analysis program, and computer-readable recording medium
JP4799105B2 (en) Information processing apparatus and control method therefor, computer program, and storage medium
JP3984191B2 (en) Virtual makeup apparatus and method
TW544637B (en) Computer system providing hands free user input via optical means for navigation or zooming
JP4799104B2 (en) Information processing apparatus and control method therefor, computer program, and storage medium
JP4435809B2 (en) Virtual makeup apparatus and method
JP4590401B2 (en) Face image creating apparatus, face image creating method, program, and recording medium recording the program
JPH1186033A (en) Method for automatically mapping face image into wire frame topology
JP4597391B2 (en) Facial region detection apparatus and method, and computer-readable recording medium
US20060227384A1 (en) Image processing apparatus and image processing program
US20060227385A1 (en) Image processing apparatus and image processing program
JP3993029B2 (en) Makeup simulation apparatus, makeup simulation method, makeup simulation program, and recording medium recording the program
JP5949030B2 (en) Image generating apparatus, image generating method, and program
JP3810943B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
JP3411469B2 (en) Frame multiplex image creation method
JP3444148B2 (en) Eyebrow drawing method
JP6098133B2 (en) Face component extraction device, face component extraction method and program
JP2013200867A (en) Animation creation device and camera
JPH11167626A (en) Image processing method, recording medium and image processor
JP5966657B2 (en) Image generating apparatus, image generating method, and program
JP2009237627A (en) Image processing method, image processor, image processing program, and printer
KR20010084996A (en) Method for generating 3 dimension avatar using one face image and vending machine with the same
US20030146918A1 (en) Appearance modelling

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060127

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20060331