JPH1074271A - Method and device for preparing three-dimensional portrait - Google Patents

Method and device for preparing three-dimensional portrait

Info

Publication number
JPH1074271A
JPH1074271A JP8230269A JP23026996A JPH1074271A JP H1074271 A JPH1074271 A JP H1074271A JP 8230269 A JP8230269 A JP 8230269A JP 23026996 A JP23026996 A JP 23026996A JP H1074271 A JPH1074271 A JP H1074271A
Authority
JP
Japan
Prior art keywords
face
portrait
dimensional
data
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8230269A
Other languages
Japanese (ja)
Inventor
Yoshie Saotome
良江 早乙女
Yasuhito Suenaga
康仁 末永
Teruo Hamano
輝夫 浜野
Katsunori Shimohara
勝憲 下原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP8230269A priority Critical patent/JPH1074271A/en
Publication of JPH1074271A publication Critical patent/JPH1074271A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To automatically prepare a portrait observed from an optional angle by using the portraits of manually drawn front and side faces and collecting more features of each person. SOLUTION: Portraits 100A, 100B corresponding to front and side faces are inputted to a personal computer and stored as respective portrait data 104A, 104B. Then the data 104A, 104B are displayed on a portrait display device 103 and the feature points of the likeness pictures such as outlines are inputted from an instruction input device 110. Then portrait feature parameters are extracted based on differences of feature data between the feature point data of the portraits and three-dimensional (3D) reference face data 105 and the data 105 are converted into 3D portraits data 106. Finally the data 104A, 104B are mapped on the data 106 as textures and deformed in optional directions by a portrait generating program 109 and the generated portrait is outputted on the display device 103.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、コンピュータを利
用して各個人に関連づけられた似顔を作成する技術に関
するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for creating a portrait related to each individual using a computer.

【0002】[0002]

【従来の技術】従来、似顔絵は基本的に2次元で描かれ
るものであり、正面顔,側面顔,斜めからみた顔などの
ように、それぞれ個別に描くことによって作成するもの
であった。このようにしてそれぞれ作成された似顔絵は
基本的には独立の2次元画像である。
2. Description of the Related Art Heretofore, portraits are basically drawn in two dimensions, and have been created by drawing them individually, such as a frontal face, a side face, and a face viewed obliquely. The portraits thus created are basically independent two-dimensional images.

【0003】これに対し、3次元似顔絵生成の既存技術
として、村上らが提案した、個人の3次元顔データと3
次元平均顔データとの差分から特徴を導き出し、中割法
を用いて3次元レリーフを作成するもの(村上,近藤,
興水,鈴木,“三次元似顔絵生成の一手法について”,
信学技報,Vol.94,No.51,(PRU946
−15),pp.63−70,1994)や、島田らが
提案した、2次元顔写真を入力し、2次元平均顔データ
との差分から取得された特徴ベクトルを基に、3次元似
顔を生成するもの(島田,塩野,“3次元顔モデルに基
づく似顔絵生成の一手法”,信学論D−2,Vol.J
76−D−2,No.12,pp.2513−252
1,(1993−12))などがある。
On the other hand, Murakami et al. Proposed an existing technique for generating three-dimensional portraits, in which three-dimensional face data of an individual is used.
A feature that derives features from differences from the dimensional average face data and creates a three-dimensional relief using the median splitting method (Murakami, Kondo,
Kosui, Suzuki, "A Method for Generating 3D Caricatures",
IEICE Technical Report, Vol. 94, no. 51, (PRU946
−15), pp. 63-70, 1994) or a method of inputting a two-dimensional face photograph proposed by Shimada et al. And generating a three-dimensional portrait based on a feature vector obtained from a difference from the two-dimensional average face data (Shimada, Shiono, "A method of caricature generation based on a three-dimensional face model", IEICE D-2, Vol.
No. 76-D-2, no. 12, pp. 2513-252
1, (1993-3)).

【0004】[0004]

【発明が解決しようとする課題】しかしながら、正面
顔,側面顔,斜めからみた顔などのように、それぞれ個
別に描くことによって作成する従来の似顔絵の生成方法
では、例えば、異なる方向(方角1,方角2とする)か
ら見た顔に相当する2枚の似顔絵があった場合に、方角
1と方角2の間の方向から見た似顔絵を多数作成するに
は、やはり全て人手によって新たにそれら全ての似顔絵
を作成する必要があるため、大変な労力を要するという
問題があった。
However, in a conventional caricature generating method which is created by drawing each of the face, such as a frontal face, a side face, and a face viewed obliquely, for example, different directions (directions 1 and 2) are used. In the case where there are two portraits corresponding to the face viewed from the direction 2), in order to create a large number of portraits viewed from the direction between the direction 1 and the direction 2, it is necessary to manually add all of them. There is a problem that it requires a great deal of labor to create a portrait.

【0005】また、上記した3次元似顔絵生成の既存技
術では、誇張表現のパラメータ抽出の入力を写真のみに
限定しているために、バリエーションに乏しい面がある
という問題があった。
[0005] Further, in the above-described existing technology for generating a three-dimensional portrait, there is a problem in that there are few aspects because the input of the parameter extraction of the exaggerated expression is limited to only a photograph.

【0006】本発明は、上記の問題点を解決するための
ものであり、人手による労力なしに任意の方角から見た
似顔絵を自動的に多数作成することを可能とするととも
に、各個人の特徴を捉えた似顔絵を豊富なバリエーショ
ンで生成することを可能とする3次元似顔作成方法およ
び装置を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems. It is possible to automatically create a large number of portraits viewed from an arbitrary direction without manual labor, and to make each person's characteristics unique. It is an object of the present invention to provide a three-dimensional portrait creation method and apparatus capable of generating a portrait with a variety of variations in which the portrait is captured.

【0007】[0007]

【課題を解決するための手段】上記の目的を達成するた
め、本発明の3次元似顔作成方法は、各個人の正面顔と
側面顔から描画された正面顔および側面顔の似顔絵を与
える過程と、前記正面顔および側面顔の似顔絵から入力
される特徴点データと予め記憶してある3次元標準顔モ
デルから得られる特徴データとの差分に基づいて似顔特
徴パラメータを抽出する過程と、前記似顔特徴パラメー
タを用いて前記3次元標準顔モデルを変形することによ
って最終的に各個人の3次元似顔モデルを作成する過程
と、を有することを特徴とする。
In order to achieve the above object, a three-dimensional portrait creation method according to the present invention comprises the steps of providing a portrait of a front face and a side face drawn from a front face and a side face of each individual. Extracting a face feature parameter based on a difference between feature point data input from the portraits of the front face and side face and feature data obtained from a pre-stored three-dimensional standard face model; Deforming the three-dimensional standard face model using parameters to finally create a three-dimensional face model of each individual.

【0008】また、上記の3次元似顔作成方法におい
て、前記似顔特徴パラメータを用いて3次元標準モデル
から変形された3次元似顔モデルに正面顔の似顔絵と側
面顔の似顔絵をテクスチャとしてマッピングすることに
より似顔を作成する過程を有することを特徴とする。
In the above-mentioned three-dimensional portrait creation method, a portrait of a frontal face and a portrait of a side face are mapped as textures to a three-dimensional portrait model deformed from a three-dimensional standard model using the facial feature parameters. It is characterized by having a process of creating a portrait.

【0009】また、本発明の3次元似顔作成装置は、各
個人の正面顔と側面顔から描画された正面顔および側面
顔の似顔絵を入力する画像入力装置と、前記入力された
正面顔および側面顔の似顔絵データから特徴点を指示す
る指示入力装置と、前記指示された正面顔および側面顔
の似顔絵の特徴点データと予め記憶してある3次元標準
顔モデルから得られる特徴データとの差分に基づいて似
顔特徴パラメータを抽出し、該抽出された似顔特徴パラ
メータを用いて3次元格子データの前記3次元標準顔モ
デルを座標変換することにより変形して3次元似顔モデ
ルを作成するコンンピュータと、を有することを特徴と
する。
Further, the present invention provides a three-dimensional portrait creation apparatus comprising: an image input device for inputting a portrait of a front face and a side face drawn from a front face and a side face of each individual; An instruction input device for instructing a feature point from face portrait data; and a difference between feature point data of the designated front face and side face portrait and feature data obtained from a previously stored three-dimensional standard face model. A computer that extracts a facial feature parameter based on the extracted facial feature parameter, transforms the three-dimensional standard face model of the three-dimensional grid data by using the extracted facial feature parameter, and creates a three-dimensional facial model, It is characterized by having.

【0010】さらに、上記の3次元似顔作成装置におい
て、前記コンンピュータは、さらに前記似顔特徴パラメ
ータを用いて3次元標準モデルから変形された3次元似
顔モデルに正面顔の似顔絵と側面顔の似顔絵をテクスチ
ャとしてマッピングすることにより似顔を作成するもの
である、ことを特徴とする。
Further, in the above-mentioned three-dimensional portrait creation apparatus, the computer further adds a portrait of a front face and a portrait of a side face to a three-dimensional portrait model deformed from a three-dimensional standard model using the facial feature parameters. A similar face is created by mapping as a texture.

【0011】本発明では、本来2次元画像である正面と
側面の似顔の情報を3次元に投影して扱うことを可能と
するため、予めコンピュータ等の処理手段の中に3次元
標準顔モデルを用意しておき、これを人手で書かれた正
面顔と側面顔の2枚の似顔絵から得られる似顔特徴パラ
メータに基づいて変形することにより、上記コンピュー
タ等の処理手段の中に3次元似顔モデルを作成し、あと
はこれを用いて、任意の方角から見た似顔をコンピュー
タ等によるイメージデータ処理等によって自動的に作成
する。このように、3次元標準モデルの拡張パラメータ
として、各個人の写真等をもとにして人手で描かれた似
顔絵を処理することによって得られる似顔特徴パラメー
タを用いることで、今まで以上に各個人の特徴を捉えた
似顔絵を生成することを可能とする。
According to the present invention, in order to be able to project and handle three-dimensional information of the front and side faces, which are originally two-dimensional images, a three-dimensional standard face model is previously stored in processing means such as a computer. The three-dimensional face model is prepared in a processing means such as the computer by deforming this based on the face feature parameters obtained from two portraits of a front face and a side face written by hand. After that, a facial portrait viewed from an arbitrary direction is automatically created by image data processing using a computer or the like. As described above, by using a facial feature parameter obtained by processing a hand-drawn portrait based on a photograph or the like of each individual as an extended parameter of the three-dimensional standard model, each individual is more than ever before. It is possible to generate a portrait that captures the features of

【0012】[0012]

【発明の実施の形態】以下、本発明の実施の形態を、図
を用いて詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0013】図1は、本発明の一実施形態例を説明する
図であって、100Aと100Bはそれぞれ正面顔およ
び側面顔の2次元の似顔絵、101は画像入力装置、1
02はパソコン(パーソナルコンピュータ)、103は
画像表示装置、104Aと104Bは入力された正面顔
および側面顔の2次元の似顔絵データ、105は3次元
標準顔データ、106は3次元似顔データ、107は特
徴点指定プログラム、108は特徴点指定プログラム1
07で得られた特徴点データと3次元標準顔データ10
5の特徴データとの差分をもとにして似顔特徴パラメー
タを抽出し、この似顔特徴パラメータを用いて3次元標
準顔データ105に変形を加えることによって3次元似
顔データ106に変換するための変換プログラム、10
9は上記で得られた3次元似顔データ106に正面およ
び側面の似顔絵データ104Aおよび104Bをマッピ
ングして指定された方角からみた似顔を生成するための
似顔生成プログラム、110はマウス等の指示入力装
置、である。
FIG. 1 is a view for explaining an embodiment of the present invention, wherein 100A and 100B are two-dimensional portraits of a front face and a side face, respectively, 101 is an image input device, 1
02 is a personal computer (PC), 103 is an image display device, 104A and 104B are two-dimensional portrait data of the input front and side faces, 105 is three-dimensional standard face data, 106 is three-dimensional portrait data, and 107 is Feature point designation program 108 is feature point designation program 1
07 and the three-dimensional standard face data 10
A conversion program for extracting a facial feature parameter based on a difference from the feature data of No. 5 and transforming the three-dimensional standard face data 105 into three-dimensional facial data 106 by transforming the standard facial data 105 using the facial feature parameter , 10
Reference numeral 9 denotes a portrait generating program for mapping the front and side portrait data 104A and 104B to the three-dimensional portrait data 106 obtained above to generate a portrait viewed from a designated direction, and 110 denotes an instruction input device such as a mouse. ,.

【0014】これを動作させるには、図2のフローチャ
ートに示す手順により、まず、3次元標準顔データ10
5をパソコン102に記憶しておくものとする。
In order to operate this, first, according to the procedure shown in the flowchart of FIG.
5 is stored in the personal computer 102.

【0015】次に、例えば各個人の顔を撮影した正面顔
と側面顔の画像から、それと一対一に対応するように描
画された正面顔および側面顔の2次元の似顔絵100A
と100Bを、画像入力装置101を用いてパソコン1
02に入力し、正面顔および側面顔の2次元の似顔絵デ
ータ104A,104Bとして記憶する。
Next, for example, a two-dimensional portrait 100A of a front face and a side face drawn so as to correspond one-to-one with an image of a front face and a side face taken of each individual's face.
And 100B to the personal computer 1 using the image input device 101.
02, and stored as two-dimensional portrait data 104A and 104B of the front face and the side face.

【0016】その次に、入力され記憶された正面顔およ
び側面顔の2次元の似顔絵データ104A,104Bを
画像表示装置103に表示したうえで、特徴点指定プロ
グラム107の制御下で、マウス等の指示入力装置11
0を用いて、顔の輪郭・目・鼻などの似顔絵の特徴点を
入力する。
Next, the input and stored two-dimensional portrait data 104A and 104B of the front face and the side face are displayed on the image display device 103, and under the control of the feature point designation program 107, a mouse or the like is used. Instruction input device 11
Using 0, the feature points of the portrait, such as the contour, eyes, and nose of the face, are input.

【0017】さらに、変換プログラム108により、上
記で得られた似顔絵の特徴点データと3次元標準顔デー
タ105の特徴データの差分をもとにして似顔特徴パラ
メータを抽出し、この似顔特徴パラメータを用いて3次
元標準顔データ105を3次元似顔データ106に変換
する。
Further, the conversion program 108 extracts a facial feature parameter based on a difference between the feature point data of the portrait obtained above and the feature data of the three-dimensional standard face data 105, and uses the facial feature parameter. The three-dimensional standard face data 105 is converted into three-dimensional face data 106.

【0018】最後に、似顔生成プログラム109によ
り、例えば上記で得られた3次元似顔データ106のう
えに正面顔および側面顔の2次元の似顔絵データ104
A,104Bをテクスチャとしてマッピングすることに
より任意の方向に変形し、画像表示装置103に出力す
る。
Finally, a two-dimensional portrait data 104 of a front face and a side face is added to the three-dimensional portrait data 106 obtained above, for example, by the portrait generation program 109.
A and 104B are transformed in an arbitrary direction by mapping them as textures, and output to the image display device 103.

【0019】以上のようにして、任意の方向から見た似
顔を、自動的に生成できる。その際、マウス等の指示入
力装置110を利用してユーザが方向を指示入力しても
良いし、あるいはすべて自動的に方向を少しずつ変えた
似顔画像を連続的に生成することも可能である。
As described above, a portrait viewed from an arbitrary direction can be automatically generated. At this time, the user may use a command input device 110 such as a mouse to input a direction, or it is also possible to automatically generate a portrait image in which the direction is changed little by little automatically. .

【0020】また、このようにして作成された似顔を顔
とするようなキャラクタを制作することによって、仮想
空間上のエージェントに用いることも可能である。
Further, by producing a character whose face is a portrait created in this way, the character can be used as an agent in a virtual space.

【0021】図3は、本発明における似顔特徴パラメー
タの取得方法を示す。
FIG. 3 shows a method of obtaining a facial feature parameter according to the present invention.

【0022】図中、201A,201Bは、人手によっ
て描かれた正面顔および側面顔の似顔絵を電子データと
して入力した似顔絵データ、202A,202Bは、特
徴点を抽出する上で必要となる3次元標準顔モデル対応
の正面顔用および側面顔用の2次元メッシュ(格子)デ
ータ、203は、正面顔の似顔絵データ201Aと正面
顔の3次元標準顔対応の2次元格子データ202A、側
面顔の似顔絵201Bと側面顔の3次元標準顔対応び2
次元格子データ202Bとを重ねて表示するための画像
表示装置、204A,204Bは、画像表示装置203
に表示された正面顔および側面顔の画像から抽出された
移動ベクトル(x,y1)および(y2,z)、205
は、204Aおよび204Bから得られた移動ベクトル
(x,y1),(x,y2)を最終的に各頂点の移動ベ
クトル(x,y,z)に変更する変換プログラム、20
6は、3次元標準顔モデルから3次元似顔モデルへ変換
するための各頂点の移動ベクトル(x,y,z)、20
7は、画像表示装置203に表示された画像から特徴点
を指定するために必要な指示入力装置、である。
In the figure, 201A and 201B are portrait data obtained by inputting a portrait of a front face and a side face drawn by hand as electronic data, and 202A and 202B are three-dimensional standard data required for extracting feature points. The two-dimensional mesh (lattice) data 203 for the front face and the side face corresponding to the face model, 203 is the portrait data 201A of the front face, the two-dimensional grid data 202A corresponding to the three-dimensional standard face of the front face, and the portrait 201B of the side face. 3D standard face support for face and side face 2
An image display device 204A and 204B for displaying the two-dimensional lattice data 202B in a superimposed manner is an image display device 203.
(X, y1) and (y2, z) extracted from the front face and side face images displayed in FIG.
Is a conversion program for finally changing the motion vectors (x, y1) and (x, y2) obtained from 204A and 204B into the motion vectors (x, y, z) of each vertex.
Reference numeral 6 denotes a movement vector (x, y, z) of each vertex for converting the three-dimensional standard face model into a three-dimensional portrait model;
Reference numeral 7 denotes an instruction input device necessary for designating a feature point from an image displayed on the image display device 203.

【0023】まず、図略の画像入力装置を用いて人手に
よる似顔絵をディジタルの正面顔と側面顔の似顔絵デー
タ201A,201Bに変換する。一方、特徴点入力に
必要な3次元標準顔モデル対応の正面顔,側面顔の2次
元格子データ202A,202Bを用意しておく。
First, using a not-shown image input device, a manual portrait is converted into digital portrait data 201A and 201B of front and side faces. On the other hand, two-dimensional grid data 202A and 202B of a front face and a side face corresponding to a three-dimensional standard face model necessary for inputting a feature point are prepared.

【0024】次に、特徴点を入力するために正面顔の似
顔絵データ201Aと標準顔対応の格子データ202
A、側面顔の似顔絵データ201Bと標準顔対応の格子
データ202Bを画像表示装置203に重ねて表示す
る。
Next, the face data 201A of the front face and the grid data 202 corresponding to the standard face are input to input the feature points.
A, The portrait data 201B of the side face and the grid data 202B corresponding to the standard face are superimposed and displayed on the image display device 203.

【0025】マウスなどの指示入力装置207を用い
て、正面顔,側面顔それぞれに対応する特徴点を入力す
る。入力された特徴点と標準顔モデルの特徴点を比較し
て、その差分をもとに正面方向,側面方向の各特徴点の
移動ベクトル(x,y1)(y2,z)を入力する。正
面移動ベクトル,側面移動ベクトルを混合して、最終的
に3次元標準顔モデルを展開するための各頂点ごとの移
動ベクトル(x,y,z)を決定する。
Using an instruction input device 207 such as a mouse, feature points corresponding to the front face and the side face are input. The input feature points are compared with the feature points of the standard face model, and based on the difference, the movement vectors (x, y1) (y2, z) of the feature points in the front and side directions are input. The front movement vector and the side movement vector are mixed to finally determine a movement vector (x, y, z) for each vertex for developing a three-dimensional standard face model.

【0026】図4は、本発明の3次元似顔作成手法と従
来の手法との差異を説明する図である。
FIG. 4 is a diagram for explaining the difference between the three-dimensional portrait creation method of the present invention and the conventional method.

【0027】図中、301A,301Bは、正面顔およ
び側面顔の写真をスキャナ等を用いて電子化した顔デー
タ、302A,302Bは、人手によって描かれた正面
顔および側面顔の似顔絵を電子化して入力した似顔絵デ
ータ、303は、従来の手法などで使用されている画像
処理技術を用いて顔データ301Aおよび301Bから
得られる特徴パラメータ、304は、本発明の手法によ
り似顔絵データ302Aおよび302Bから得られる各
個人の似顔特徴パラメータ、305は、パラメータを用
いて3次元標準顔データを変形し、制作された3次元似
顔完成図、である。
In the figure, reference numerals 301A and 301B denote face data obtained by digitizing photographs of front and side faces using a scanner or the like, and 302A and 302B depict portraits of front and side faces drawn by hand. The input portrait data 303 is a feature parameter obtained from the face data 301A and 301B using the image processing technique used in the conventional method, and the like 304 is obtained from the portrait data 302A and 302B by the method of the present invention. The personalized facial feature parameter 305 of each individual is a completed three-dimensional facial portrait created by deforming the three-dimensional standard face data using the parameters.

【0028】従来の手法では、301A,301Bの写
真顔データを画像処理して得られる特徴パラメータ30
3を使用して3次元標準モデルを変形して3次元似顔を
完成させている。
In the conventional method, the feature parameters 30 obtained by performing image processing on the photograph face data of 301A and 301B.
3 is used to transform the three-dimensional standard model to complete a three-dimensional portrait.

【0029】本発明の手法では、一点鎖線の範囲に示し
たように、人手によって描かれ入力された似顔絵データ
302A,302Bから得られる似顔特徴パラメータ3
04を使用して3次元標準モデルを変形することによ
り、最終的に3次元似顔を完成させる。
In the method of the present invention, as shown in the range of the one-dot chain line, the facial feature parameter 3 obtained from the facial sketch data 302A and 302B drawn and input by hand.
Finally, the three-dimensional face model is completed by deforming the three-dimensional standard model using 04.

【0030】[0030]

【発明の効果】以上説明したように、本発明は、任意の
方角から見た似顔を何枚でも自動的に作成できるという
利点がある。また、人手によって描かれた似顔絵データ
から得られる似顔特徴パラメータを使用して3次元標準
モデルを変形して似顔を得るため、今まで以上に各個人
の特徴を捉えた似顔を生成することができるという利点
がある。
As described above, the present invention has an advantage that any number of portraits viewed from an arbitrary direction can be automatically created. In addition, since a face is obtained by transforming the three-dimensional standard model using a face feature parameter obtained from portrait data drawn by hand, a face that captures the characteristics of each individual can be generated more than ever. There is an advantage.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態例を示す3次元似顔作成シ
ステムの構成図である。
FIG. 1 is a configuration diagram of a three-dimensional portrait creation system showing an embodiment of the present invention.

【図2】本発明の一実施形態例の3次元似顔作成方法を
示すフローチャートである。
FIG. 2 is a flowchart illustrating a three-dimensional portrait creation method according to an embodiment of the present invention.

【図3】本発明の一実施形態例における似顔特徴パラメ
ータ抽出方法を説明する図である。
FIG. 3 is a diagram illustrating a facial feature parameter extraction method according to an embodiment of the present invention.

【図4】本発明の3次元似顔作成手法と従来の手法との
差異を説明する図であって、図面代用写真を含む図であ
る。
FIG. 4 is a diagram for explaining a difference between the three-dimensional portrait creation method of the present invention and a conventional method, and includes a drawing substitute photograph.

【符号の説明】[Explanation of symbols]

100A,100B…正面顔および側面顔の2次元の似
顔絵 101…画像入力装置 102…パソコン 103…画像表示装置 104A,104B…入力された正面顔および側面顔の
2次元の似顔絵データ 105…3次元標準顔データ 106…3次元似顔データ 107…特徴点指定プログラム 108…変換プログラム 109…似顔生成プログラム 110…指示入力装置 201A,201B…正面顔および側面顔の似顔絵デー
タ 202A,202B…3次元標準顔対応の正面顔および
側面顔の2次元格子データ 203…画像表示装置 204A,204B…正面顔および側面顔から得られる
移動ベクトル 205…変換プログラム 206…各頂点の移動ベクトル 207…指示入力装置 301A,301B…正面顔および側面顔の顔データ 302A,302B…正面顔,側面顔に対応する描かれ
た似顔絵データ 303…既存の画像処理技術により顔データから得られ
る特徴パラメータ 304…本発明で新たに使用する似顔特徴パラメータ 305…3次元似顔完成図
100A, 100B: Two-dimensional portraits of front and side faces 101: Image input device 102: Personal computer 103: Image display device 104A, 104B: Two-dimensional portrait data of input front and side faces 105: Three-dimensional standard Face data 106 ... Three-dimensional portrait data 107 ... Feature point designation program 108 ... Conversion program 109 ... Face portrait generation program 110 ... Instruction input device 201A, 201B ... Face portrait data of front and side faces 202A, 202B ... Front and side face two-dimensional grid data 203: Image display devices 204A, 204B: Movement vectors obtained from frontal and side faces 205: Conversion program 206: Movement vector of each vertex 207: Instruction input device 301A, 301B: Front Face data of face and side face 3 02A, 302B: portrait data corresponding to the front face and side face 303: feature parameters obtained from face data by existing image processing technology 304: portrait feature parameters newly used in the present invention 305: completion of a three-dimensional portrait Figure

───────────────────────────────────────────────────── フロントページの続き (72)発明者 下原 勝憲 東京都新宿区西新宿3丁目19番2号 日本 電信電話株式会社内 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Katsunori Shimohara 3-19-2 Nishishinjuku, Shinjuku-ku, Tokyo Nippon Telegraph and Telephone Corporation

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 各個人の正面顔と側面顔から描画された
正面顔および側面顔の似顔絵を与える過程と、 前記正面顔および側面顔の似顔絵から入力される特徴点
データと予め記憶してある3次元標準顔モデルから得ら
れる特徴データとの差分に基づいて似顔特徴パラメータ
を抽出する過程と、 前記似顔特徴パラメータを用いて前記3次元標準顔モデ
ルを変形することによって最終的に各個人の3次元似顔
モデルを作成する過程と、 を有することを特徴とする3次元似顔作成方法。
1. A process of giving a portrait of a front face and a side face drawn from a front face and a side face of each individual, and feature point data input from the portraits of the front face and the side face are stored in advance. Extracting a facial feature parameter based on a difference from feature data obtained from the three-dimensional standard face model, and finally transforming the three-dimensional standard face model using the facial feature parameter to obtain a 3 Creating a three-dimensional face model; and a three-dimensional face creation method.
【請求項2】 前記似顔特徴パラメータを用いて3次元
標準モデルから変形された3次元似顔モデルに正面顔の
似顔絵と側面顔の似顔絵をテクスチャとしてマッピング
することにより似顔を作成する過程を有する、 ことを特徴とする請求項1に記載の3次元似顔作成方
法。
2. A process of creating a portrait by mapping a portrait of a frontal face and a portrait of a side face as a texture to a three-dimensional facial model deformed from a three-dimensional standard model using the facial facial feature parameter as a texture. The three-dimensional portrait creation method according to claim 1, wherein:
【請求項3】 各個人の正面顔と側面顔から描画された
正面顔および側面顔の似顔絵を入力する画像入力装置
と、 前記入力された正面顔および側面顔の似顔絵データから
特徴点を指示する指示入力装置と、 前記指示された正面顔および側面顔の似顔絵の特徴点デ
ータと予め記憶してある3次元標準顔モデルから得られ
る特徴データとの差分に基づいて似顔特徴パラメータを
抽出し、該抽出された似顔特徴パラメータを用いて3次
元格子データの前記3次元標準顔モデルを座標変換する
ことにより変形して3次元似顔モデルを作成するコンン
ピュータと、 を有することを特徴とする3次元似顔作成装置。
3. An image input device for inputting a portrait of a front face and a side face drawn from a front face and a side face of each individual, and instructing a feature point from the input portrait data of the front face and the side face. An instruction input device; extracting a facial feature parameter based on a difference between the feature point data of the portrait of the designated front face and side face and feature data obtained from a previously stored three-dimensional standard face model; A computer that transforms the three-dimensional standard face model of the three-dimensional grid data by using the extracted facial feature parameters to transform the three-dimensional standard face model to create a three-dimensional facial model; and a three-dimensional facial model, comprising: Creating device.
【請求項4】 前記コンンピュータは、さらに前記似顔
特徴パラメータを用いて3次元標準モデルから変形され
た3次元似顔モデルに正面顔の似顔絵と側面顔の似顔絵
をテクスチャとしてマッピングすることにより似顔を作
成するものである、 ことを特徴とする請求項3に記載の3次元似顔作成装
置。
4. The computer creates a portrait by mapping a portrait of a front face and a portrait of a side face as a texture to a three-dimensional face model deformed from a three-dimensional standard model using the face feature parameters. The three-dimensional portrait creation device according to claim 3, wherein
JP8230269A 1996-08-30 1996-08-30 Method and device for preparing three-dimensional portrait Pending JPH1074271A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8230269A JPH1074271A (en) 1996-08-30 1996-08-30 Method and device for preparing three-dimensional portrait

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8230269A JPH1074271A (en) 1996-08-30 1996-08-30 Method and device for preparing three-dimensional portrait

Publications (1)

Publication Number Publication Date
JPH1074271A true JPH1074271A (en) 1998-03-17

Family

ID=16905161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8230269A Pending JPH1074271A (en) 1996-08-30 1996-08-30 Method and device for preparing three-dimensional portrait

Country Status (1)

Country Link
JP (1) JPH1074271A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100292238B1 (en) * 1998-05-28 2001-06-01 전주범 Method for matching of components in facial texture and model images
KR100317138B1 (en) * 1999-01-19 2001-12-22 윤덕용 Three-dimensional face synthesis method using facial texture image from several views
KR100422471B1 (en) * 2001-02-08 2004-03-11 비쥬텍쓰리디(주) Apparatus and method for creation personal photo avatar
KR20040034221A (en) * 2002-10-21 2004-04-28 (주)맥서러씨 System And Method For Restorating 3 Dimensional Figuration
KR100515085B1 (en) * 2002-06-18 2005-09-14 정욱진 System and method for acquiring a 3D face digital data from 2D photograph
JP2008534181A (en) * 2005-04-08 2008-08-28 ケー.ユー. ルヴァン リサーチ アンド ディヴェロプメント Method and system for pre-operative prediction
KR100896643B1 (en) 2007-06-18 2009-05-08 에스케이 텔레콤주식회사 Method and system for modeling face in three dimension by means of aam, and apparatus applied to the same
KR100912877B1 (en) 2006-12-02 2009-08-18 한국전자통신연구원 A mobile communication terminal having a function of the creating 3d avata model and the method thereof
US8551379B2 (en) 2007-09-25 2013-10-08 International Business Machines Corporation Method and system of making digital image transfer thermoformed objects
CN111524226A (en) * 2020-04-21 2020-08-11 中国科学技术大学 Method for detecting key point and three-dimensional reconstruction of ironic portrait painting
CN112221145A (en) * 2020-10-27 2021-01-15 网易(杭州)网络有限公司 Game face model generation method and device, storage medium and electronic equipment

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100292238B1 (en) * 1998-05-28 2001-06-01 전주범 Method for matching of components in facial texture and model images
KR100317138B1 (en) * 1999-01-19 2001-12-22 윤덕용 Three-dimensional face synthesis method using facial texture image from several views
KR100422471B1 (en) * 2001-02-08 2004-03-11 비쥬텍쓰리디(주) Apparatus and method for creation personal photo avatar
KR100515085B1 (en) * 2002-06-18 2005-09-14 정욱진 System and method for acquiring a 3D face digital data from 2D photograph
KR20040034221A (en) * 2002-10-21 2004-04-28 (주)맥서러씨 System And Method For Restorating 3 Dimensional Figuration
JP2008534181A (en) * 2005-04-08 2008-08-28 ケー.ユー. ルヴァン リサーチ アンド ディヴェロプメント Method and system for pre-operative prediction
KR100912877B1 (en) 2006-12-02 2009-08-18 한국전자통신연구원 A mobile communication terminal having a function of the creating 3d avata model and the method thereof
KR100896643B1 (en) 2007-06-18 2009-05-08 에스케이 텔레콤주식회사 Method and system for modeling face in three dimension by means of aam, and apparatus applied to the same
US8551379B2 (en) 2007-09-25 2013-10-08 International Business Machines Corporation Method and system of making digital image transfer thermoformed objects
US9174383B2 (en) 2007-09-25 2015-11-03 International Business Machines Corporation Method and system of making digital image transfer thermoformed objects
US9296149B2 (en) 2007-09-25 2016-03-29 International Business Machines Corporation Method and system of making digital image transfer thermoformed objects
US9616610B2 (en) 2007-09-25 2017-04-11 International Business Machines Corporation Method and system of making digital image transfer thermoformed objects
US9738027B2 (en) 2007-09-25 2017-08-22 International Business Machines Corporation Method and system of making digital image transfer thermoformed objects
CN111524226A (en) * 2020-04-21 2020-08-11 中国科学技术大学 Method for detecting key point and three-dimensional reconstruction of ironic portrait painting
CN111524226B (en) * 2020-04-21 2023-04-18 中国科学技术大学 Method for detecting key point and three-dimensional reconstruction of ironic portrait painting
CN112221145A (en) * 2020-10-27 2021-01-15 网易(杭州)网络有限公司 Game face model generation method and device, storage medium and electronic equipment
CN112221145B (en) * 2020-10-27 2024-03-15 网易(杭州)网络有限公司 Game face model generation method and device, storage medium and electronic equipment

Similar Documents

Publication Publication Date Title
KR20210103435A (en) Method and apparatus for synthesizing virtual object image, electronic device and storage medium
WO2023119557A1 (en) Avatar display device, avatar generation device, and program
WO2020150686A1 (en) Systems and methods for face reenactment
KR20200055841A (en) Learning data set generating apparatus and method for machine learning
WO2002013144A1 (en) 3d facial modeling system and modeling method
JPH1074271A (en) Method and device for preparing three-dimensional portrait
US11640687B2 (en) Volumetric capture and mesh-tracking based machine learning 4D face/body deformation training
KR102353556B1 (en) Apparatus for Generating Facial expressions and Poses Reappearance Avatar based in User Face
CN106127818A (en) A kind of material appearance based on single image obtains system and method
CN115222899B (en) Virtual digital human generation method, system, computer device and storage medium
JP2000194876A (en) Virtual space sharing device
CN116206057A (en) Lightweight three-dimensional virtual body generation method suitable for terminal equipment
CN116452715A (en) Dynamic human hand rendering method, device and storage medium
JP2739447B2 (en) 3D image generator capable of expressing wrinkles
JP2940226B2 (en) Image synthesis device
JP2585177B2 (en) Object shape display device
JP2001307123A (en) Method and device for preparing portrait having expressional deformation, portrait preparation system, transmitter and receiver for the system, portrait preparation program, and recording medium recording the program
KR102641060B1 (en) Image processing method and apparatus for facilitating 3d object editing by a user
CN117496072B (en) Three-dimensional digital person generation and interaction method and system
CN110619669B (en) Fisheye image rendering system and method supporting various graphic styles
JP3684171B2 (en) Pattern change simulation system
TW200413694A (en) Three-dimensional scanning system and its method
WO2024055379A1 (en) Video processing method and system based on character avatar model, and related device
JP2001222725A (en) Image processor
Fadzli et al. Compression in Dynamic Scene Tracking and Moving Human Detection for Life-Size Telepresence