JP2014199536A - Face model generating device, method for controlling face model generating device, and program - Google Patents

Face model generating device, method for controlling face model generating device, and program Download PDF

Info

Publication number
JP2014199536A
JP2014199536A JP2013074312A JP2013074312A JP2014199536A JP 2014199536 A JP2014199536 A JP 2014199536A JP 2013074312 A JP2013074312 A JP 2013074312A JP 2013074312 A JP2013074312 A JP 2013074312A JP 2014199536 A JP2014199536 A JP 2014199536A
Authority
JP
Japan
Prior art keywords
face model
feature point
face
point corresponding
model generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013074312A
Other languages
Japanese (ja)
Inventor
慶典 関根
Yoshinori Sekine
慶典 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2013074312A priority Critical patent/JP2014199536A/en
Publication of JP2014199536A publication Critical patent/JP2014199536A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a face model generating device which can reduce the working time required for generating a three dimensional model of a face based on a photographed face image.SOLUTION: A face model generating device 10 generates a face model which is a three dimensional model of a face based on a photographed face image. A feature point acquisition unit 34 acquires positions of a plurality of feature points corresponding to a prescribed facial part which is set in a face image 20. A face model generation unit 36 generates the face model based on the positions of the plurality of feature points.

Description

本発明は顔モデル生成装置、顔モデル生成装置の制御方法、及びプログラムに関する。   The present invention relates to a face model generation device, a control method for a face model generation device, and a program.

撮影装置によって実在の人物の顔を撮影した顔画像に基づいて、顔の三次元モデルを作成することが行われている。例えば、上記のような顔画像に基づいてキャラクタオブジェクトの顔を作成する場合、作成者は、キャラクタオブジェクトの顔部分に顔画像を貼り付け、顔画像に合わせてキャラクタオブジェクトの顔部分を変形することによって、キャラクタオブジェクトの顔を作成していた。   A three-dimensional model of a face is created based on a face image obtained by photographing a real person's face with a photographing apparatus. For example, when creating the face of a character object based on the face image as described above, the creator pastes the face image on the face portion of the character object and deforms the face portion of the character object to match the face image. Thus, the face of the character object was created.

特開2012−101024号公報JP 2012-101024 A

しかしながら、従来、キャラクタオブジェクトの顔部分に顔画像を貼り付けた後の変形作業に時間がかかっていた。   However, conventionally, it takes time to perform the deformation work after the face image is pasted on the face portion of the character object.

本発明は上記課題に鑑みてなされたものであって、その目的は、撮影された顔画像に基づいて顔の三次元モデルを作成するために必要な作業時間を軽減することが可能な顔モデル生成装置、顔モデル生成装置の制御方法、及びプログラムを提供することにある。   The present invention has been made in view of the above problems, and its purpose is a face model capable of reducing the work time required to create a three-dimensional model of a face based on a captured face image. A generation apparatus, a control method of a face model generation apparatus, and a program are provided.

上記課題を解決するために、本発明に係る顔モデル生成装置は、撮影された顔画像に基づいて、顔の三次元モデルである顔モデルを生成する顔モデル生成装置(10)において、前記顔画像内に設定された、前記顔内の所定部位に対応する複数の特徴点の位置を取得する特徴点取得手段(34)と、前記複数の特徴点の位置に基づいて前記顔モデルを生成する顔モデル生成手段(36)と、を含むことを特徴とする。   In order to solve the above-described problems, a face model generation device according to the present invention includes a face model generation device (10) that generates a face model that is a three-dimensional model of a face based on a captured face image. Feature point acquisition means (34) for acquiring the positions of a plurality of feature points corresponding to a predetermined part in the face set in the image, and generating the face model based on the positions of the plurality of feature points And a face model generation means (36).

また、本発明に係る顔モデル装置の制御方法は、撮影された顔画像に基づいて、顔の三次元モデルである顔モデルを生成する顔モデル生成装置(10)の制御方法において、前記顔画像内に設定された、前記顔内の所定部位に対応する複数の特徴点の位置を取得する特徴点取得ステップと、前記複数の特徴点の位置に基づいて前記顔モデルを生成する顔モデル生成ステップと、を含むことを特徴とする。   The face model device control method according to the present invention is the face model generation device (10) control method for generating a face model, which is a three-dimensional model of a face, based on a captured face image. A feature point acquiring step for acquiring the positions of a plurality of feature points corresponding to a predetermined part in the face, and a face model generating step for generating the face model based on the positions of the plurality of feature points It is characterized by including these.

また、本発明に係るプログラムは、撮影された顔画像に基づいて、顔の三次元モデルである顔モデルを生成する顔モデル生成装置(10)としてコンピュータを機能させるためのプログラムであって、前記顔画像内に設定された、前記顔内の所定部位に対応する複数の特徴点の位置を取得する特徴点取得手段(34)、及び、前記複数の特徴点の位置に基づいて前記顔モデルを生成する顔モデル生成手段(36)、として前記コンピュータを機能させるためのプログラムである。   A program according to the present invention is a program for causing a computer to function as a face model generation device (10) that generates a face model, which is a three-dimensional model of a face, based on a captured face image. Feature point acquisition means (34) for acquiring the positions of a plurality of feature points corresponding to a predetermined part in the face set in the face image, and the face model based on the positions of the plurality of feature points It is a program for causing the computer to function as a face model generation means (36) to be generated.

また、本発明に係る情報記憶媒体は、上記プログラムを記録したコンピュータ読み取り可能な情報記憶媒体である。   An information storage medium according to the present invention is a computer-readable information storage medium recording the above program.

また、本発明の一態様では、前記顔モデルには複数のボーンが設定され、前記顔モデル生成手段(36)は、前記複数の特徴点の位置関係に基づいて、前記複数のボーンの位置又は大きさを設定する手段を含むようにしてもよい。   In the aspect of the invention, a plurality of bones may be set in the face model, and the face model generation unit (36) may determine the position of the plurality of bones based on the positional relationship between the plurality of feature points. A means for setting the size may be included.

また、本発明の一態様では、前記複数の特徴点は、額の中央部又は眉間に対応する特徴点と、顎に対応する特徴点と、を含み、前記顔モデル生成手段(36)は、前記額の中央部又は眉間に対応する特徴点と、前記顎に対応する特徴点と、に基づいて得られる距離に基づいて、前記複数のボーンの位置又は大きさを設定する手段を含むようにしてもよい。   Moreover, in one aspect of the present invention, the plurality of feature points include a feature point corresponding to the center of the forehead or the eyebrows and a feature point corresponding to the chin, and the face model generation means (36) includes: Means for setting the positions or sizes of the plurality of bones based on the distance obtained based on the feature point corresponding to the central part of the forehead or between the eyebrows and the feature point corresponding to the jaw. Good.

また、本発明の一態様では、前記複数の特徴点は、左頬骨に対応する特徴点と、右頬骨に対応する特徴点と、を含み、前記顔モデル生成手段(36)は、前記左頬骨に対応する特徴点と、前記右頬骨に対応する特徴点と、に基づいて得られる距離に基づいて、前記複数のボーンの位置又は大きさを設定する手段を含むようにしてもよい。   In the aspect of the invention, the plurality of feature points include a feature point corresponding to the left cheekbone and a feature point corresponding to the right cheekbone, and the face model generation means (36) includes the left cheekbone. Means for setting positions or sizes of the plurality of bones based on distances obtained based on the feature points corresponding to the right cheekbone and the feature points corresponding to the right cheekbone.

また、本発明の一態様では、前記複数の特徴点は、左頬骨に対応する特徴点と、右頬骨に対応する特徴点と、左えら骨に対応する特徴点と、右えら骨に対応する特徴点と、を含み、前記顔モデル生成手段(36)は、前記左頬骨に対応する特徴点と前記右頬骨に対応する特徴点とに基づいて得られる距離と、前記左えら骨に対応する特徴点と前記右えら骨に対応する特徴点とに基づいて得られる距離と、の比に基づいて、前記複数のボーンの位置又は大きさを設定する手段を含むようにしてもよい。   In the aspect of the invention, the plurality of feature points correspond to a feature point corresponding to the left cheekbone, a feature point corresponding to the right cheekbone, a feature point corresponding to the left gillbone, and a right gillbone. The face model generation means (36) includes a distance obtained based on a feature point corresponding to the left cheekbone and a feature point corresponding to the right cheekbone and the left gill bone. Means for setting the positions or sizes of the plurality of bones based on a ratio between a feature point and a distance obtained based on the feature point corresponding to the right gill bone may be included.

また、本発明の一態様では、前記顔モデルは、眼球を表す眼球オブジェクトを含み、前記複数の特徴点は、目頭に対応する特徴点と、目尻に対応する特徴点と、上瞼に対応する特徴点と、下瞼に対応する特徴点と、を含み、前記顔モデル生成手段(36)、前記目頭に対応する特徴点の位置と、前記目尻に対応する特徴点の位置と、前記上瞼に対応する特徴点の位置と、前記下瞼に対応する特徴点の位置と、に基づいて、前記眼球オブジェクトの位置又は大きさを設定する手段を含むようにしてもよい。   In the aspect of the invention, the face model includes an eyeball object representing an eyeball, and the plurality of feature points correspond to a feature point corresponding to the eye's head, a feature point corresponding to the corner of the eye, and an upper eyelid. Including the feature point and the feature point corresponding to the lower eyelid, the face model generation means (36), the position of the feature point corresponding to the eye corner, the position of the feature point corresponding to the outer corner of the eye, and the upper eyelid And a means for setting the position or size of the eyeball object based on the position of the feature point corresponding to and the position of the feature point corresponding to the lower eyelid.

また、本発明の一態様では、前記顔モデルには、瞼を開閉するためのボーンが設定され、当該ボーンが回転することによって前記瞼が開閉し、前記顔モデル生成手段(36)は、前記瞼を開閉するためのボーンの回転角度の上限を、前記上瞼に対応する特徴点の位置と、前記下瞼に対応する特徴点の位置と、前記眼球オブジェクトの位置と、に基づいて設定する手段を含むようにしてもよい。   In the aspect of the invention, a bone for opening and closing the eyelid is set in the face model, the eyelid is opened and closed by rotating the bone, and the face model generating means (36) An upper limit of the rotation angle of the bone for opening and closing the eyelid is set based on the position of the feature point corresponding to the upper eyelid, the position of the feature point corresponding to the lower eyelid, and the position of the eyeball object Means may be included.

また、本発明の一態様では、前記顔モデルには、頬骨に対応するボーンが設定され、前記複数の特徴点は、左口角に対応する特徴点と、右口角に対応する特徴点と、唇の中央部に対応する特徴点と、を含み、前記顔モデル生成手段(36)は、前記左口角に対応する特徴点の位置と、前記右口角に対応する特徴点の位置と、前記唇の中央部に対応する特徴点の位置と、に基づいて、前記頬骨に対応するボーンの位置を設定する手段を含むようにしてもよい。   In one aspect of the present invention, a bone corresponding to a cheekbone is set in the face model, and the plurality of feature points include a feature point corresponding to a left mouth corner, a feature point corresponding to a right mouth corner, and a lip The face model generation means (36) includes a feature point position corresponding to the left mouth corner, a feature point position corresponding to the right mouth corner, Means for setting the position of the bone corresponding to the cheekbone based on the position of the feature point corresponding to the central portion may be included.

また、本発明の一態様では、前記顔モデルにマッピングする顔テクスチャ画像を前記顔画像に基づいて生成する顔テクスチャ画像生成手段(38)を含み、前記顔テクスチャ画像生成手段(38)は、前記複数の特徴点のうちのいずれかの特徴点の色と、所定の色と、の差に基づいて、前記顔テクスチャ画像の色を調整する手段を含むようにしてもよい。   Further, in one aspect of the present invention, the image processing apparatus includes a face texture image generation unit (38) that generates a face texture image to be mapped to the face model based on the face image, and the face texture image generation unit (38) Means for adjusting the color of the face texture image based on the difference between the color of any one of the plurality of feature points and a predetermined color may be included.

また、本発明の一態様では、前記顔モデル生成手段(36)は、前記複数の特徴点のうちの少なくとも二つが前記顔モデルの正中線上に位置するように、前記顔モデルを調整する手段を含むようにしてもよい。   In the aspect of the invention, the face model generation means (36) adjusts the face model so that at least two of the plurality of feature points are located on a median line of the face model. It may be included.

また、本発明の一態様では、前記複数の特徴点は、額の中央部又は眉間に対応する特徴点と、唇の中央部又は鼻頭に対応する特徴点と、を含み、前記顔モデル生成手段(36)は、前記額の中央部又は眉間に対応する特徴点と、前記唇の中央部又は鼻頭に対応する特徴点と、が前記顔モデルの正中線上に位置するように、前記顔モデルを調整する手段を含むようにしてもよい。   In the aspect of the invention, the plurality of feature points include a feature point corresponding to a central part of the forehead or the eyebrows, and a feature point corresponding to a central part of the lips or the nasal head, and the face model generating unit (36) the face model is such that a feature point corresponding to the central part of the forehead or between the eyebrows and a feature point corresponding to the central part of the lip or the nasal head are located on the median line of the face model. A means for adjusting may be included.

また、本発明の一態様では、前記複数の特徴点は、前記複数の特徴点は、左口角に対応する特徴点と、右口角に対応する特徴点と、を含み、前記顔モデル生成手段(36)は、前記左口角に対応する特徴点と、前記右口角に対応する特徴点と、の間の中間点が前記顔モデルの正中線上に位置するように、前記顔モデルを調整する手段を含むようにしてもよい。   In the aspect of the invention, the plurality of feature points include a feature point corresponding to a left mouth corner and a feature point corresponding to a right mouth corner, and the face model generating unit ( 36) means for adjusting the face model so that an intermediate point between the feature point corresponding to the left mouth corner and the feature point corresponding to the right mouth corner is located on the median line of the face model; It may be included.

また、本発明の一態様では、前記複数の特徴点は、左目に対応する特徴点と、右目に対応する特徴点と、を含み、前記顔モデル生成手段(36)は、前記左目に対応する特徴点と、前記右目に対応する特徴点と、の間の中間点が前記顔モデルの正中線上に位置するように、前記顔モデルを調整する手段を含むようにしてもよい。   In the aspect of the invention, the plurality of feature points include a feature point corresponding to the left eye and a feature point corresponding to the right eye, and the face model generation unit (36) corresponds to the left eye. A means for adjusting the face model may be included so that an intermediate point between the feature point and the feature point corresponding to the right eye is located on the median line of the face model.

また、本発明の一態様では、前記複数の特徴点の位置を前記ユーザが設定するための設定画面として、前記複数の特徴点が前記顔画像上に表された画面を表示手段に表示させる表示制御手段(30)と、前記ユーザの操作に基づいて、前記顔画像上に表された前記複数の特徴点のうちの少なくとも一つの位置を変更する変更手段(32)と、を含むようにしてもよい。前記設定画面では特徴点間が直線で連結されるようにしてもよい。   In one aspect of the present invention, as a setting screen for setting the positions of the plurality of feature points by the user, a display in which a screen in which the plurality of feature points are displayed on the face image is displayed on a display unit. Control means (30) and change means (32) for changing the position of at least one of the plurality of feature points represented on the face image based on the user's operation may be included. . On the setting screen, the feature points may be connected by a straight line.

なお、上記では、本発明の理解を容易にするために、図面に記載の符号を括弧書きで記載しているが、これにより本発明が図示の態様に限定されるものではない。   In addition, in the above, in order to make an understanding of this invention easy, the code | symbol described in drawing is described in the bracket | parenthesis, However, This invention is not limited to the aspect of illustration by this.

本発明によれば、撮影された顔画像に基づいて顔の三次元モデルを作成するために必要な作業時間を軽減することが可能になる。   According to the present invention, it is possible to reduce the work time required for creating a three-dimensional model of a face based on a photographed face image.

本発明の実施形態に係る顔モデル生成装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the face model production | generation apparatus which concerns on embodiment of this invention. 顔画像の一例を示す図である。It is a figure which shows an example of a face image. 顔モデル生成装置の機能ブロック図である。It is a functional block diagram of a face model generation device. 設定画面の一例を示す図である。It is a figure which shows an example of a setting screen. 顔モデル生成装置で実行される処理の一例を示すフロー図である。It is a flowchart which shows an example of the process performed with a face model production | generation apparatus. 基本の顔モデルの一例を示す図である。It is a figure which shows an example of a basic face model. 顔モデルの生成処理の一例を示すフロー図である。It is a flowchart which shows an example of the production | generation process of a face model. 顔モデルの生成処理の一例を示すフロー図である。It is a flowchart which shows an example of the production | generation process of a face model. 顔モデルの生成処理について説明するための図である。It is a figure for demonstrating the production | generation process of a face model. 顔モデルの生成処理について説明するための図である。It is a figure for demonstrating the production | generation process of a face model. 顔モデルの生成処理について説明するための図である。It is a figure for demonstrating the production | generation process of a face model. 顔モデルの生成処理について説明するための図である。It is a figure for demonstrating the production | generation process of a face model. 顔モデルの生成処理について説明するための図である。It is a figure for demonstrating the production | generation process of a face model. 顔モデルの生成処理について説明するための図である。It is a figure for demonstrating the production | generation process of a face model. 顔テクスチャ画像の生成処理について説明するための図である。It is a figure for demonstrating the production | generation process of a face texture image. 顔テクスチャ画像の生成処理について説明するための図である。It is a figure for demonstrating the production | generation process of a face texture image.

以下、本発明の実施形態の例について図面に基づき詳細に説明する。   Hereinafter, examples of embodiments of the present invention will be described in detail with reference to the drawings.

図1は本発明の実施形態に係る顔モデル生成装置のハードウェア構成を示す。本実施形態に係る顔モデル生成装置10は、例えばパーソナルコンピュータ等のコンピュータによって実現される。図1に示すように、本実施形態に係る顔モデル生成装置10は制御部11、記憶部12、通信部13、操作部14、及び表示部15を含む。   FIG. 1 shows a hardware configuration of a face model generation apparatus according to an embodiment of the present invention. The face model generation apparatus 10 according to the present embodiment is realized by a computer such as a personal computer. As illustrated in FIG. 1, the face model generation device 10 according to the present embodiment includes a control unit 11, a storage unit 12, a communication unit 13, an operation unit 14, and a display unit 15.

制御部11は例えば1又は複数のマイクロプロセッサ等を含み、オペレーティングシステムやその他のプログラムに従って処理を実行する。記憶部12は主記憶部(例えばRAM)及び補助記憶部(例えばハードディスクドライブ又はソリッドステートドライブ)を含む。   The control unit 11 includes, for example, one or a plurality of microprocessors, and executes processing according to an operating system and other programs. The storage unit 12 includes a main storage unit (for example, RAM) and an auxiliary storage unit (for example, a hard disk drive or a solid state drive).

通信部13は通信ネットワークに接続するためのインタフェースである。プログラムやデータは通信ネットワークを介して顔モデル生成装置10に供給される。なお、顔モデル生成装置10は、光ディスク又はメモリカード等の情報記憶媒体に記憶されたプログラム又はデータを読み取るための構成要素を含むようにしてもよい。そして、光ディスク又はメモリカード等の情報記憶媒体を介して顔モデル生成装置10にプログラムやデータが供給されるようにしてもよい。   The communication unit 13 is an interface for connecting to a communication network. Programs and data are supplied to the face model generation apparatus 10 via a communication network. Note that the face model generation device 10 may include a component for reading a program or data stored in an information storage medium such as an optical disk or a memory card. Then, a program and data may be supplied to the face model generation device 10 via an information storage medium such as an optical disk or a memory card.

操作部14はユーザが操作を行うためのものである。例えば、顔モデル生成装置10がパーソナルコンピュータである場合、パーソナルコンピュータに備えられているマウス又はキーボードが操作部14に相当する。表示部15は例えば液晶表示パネル又は有機ELディスプレイ等であり、制御部11の指示に従って画面を表示する。   The operation unit 14 is for a user to perform an operation. For example, when the face model generation device 10 is a personal computer, a mouse or keyboard provided in the personal computer corresponds to the operation unit 14. The display unit 15 is, for example, a liquid crystal display panel or an organic EL display, and displays a screen according to instructions from the control unit 11.

顔モデル生成装置10は、デジタルカメラ等の撮影装置によって撮影された顔画像に基づいて、顔の三次元モデルである顔モデルを生成する機能を備えている。すなわち、顔モデル生成装置10の記憶部12には、撮影装置によって撮影された顔画像に基づいて顔モデルを生成するためのプログラムが記憶されている。このプログラムが実行されることによって上記機能が実現される。   The face model generation device 10 has a function of generating a face model, which is a three-dimensional face model, based on a face image photographed by a photographing device such as a digital camera. That is, the storage unit 12 of the face model generation device 10 stores a program for generating a face model based on a face image photographed by the photographing device. The above function is realized by executing this program.

図2は、顔モデルの生成に用いられる顔画像の一例を示す。図2に示すように、顔モデルの生成には、正方形(又は略正方形)の顔画像20が用いられる。また、顔モデルの生成には、顔を正面から撮影した画像であって、かつ、正中線が真っ直ぐ(又は略真っ直ぐ)になっている顔画像20が用いられる。なお、顔画像20は、顔を正面から撮影した画像でなくてもよい。例えば、顔を斜め前方から撮影した画像であっても、両目の輪郭が写っているのであれば、顔モデルの生成に使用することが可能である。   FIG. 2 shows an example of a face image used for generating a face model. As shown in FIG. 2, a square (or substantially square) face image 20 is used to generate a face model. In addition, the face model 20 is generated by using a face image 20 that is an image obtained by photographing a face from the front and whose straight line is straight (or substantially straight). The face image 20 may not be an image obtained by photographing the face from the front. For example, even an image obtained by photographing a face obliquely from the front can be used to generate a face model as long as the outlines of both eyes are reflected.

図3は、顔モデル生成装置10で実現される機能ブロックの一例を示す機能ブロック図である。図3に示すように、顔モデル生成装置10は、設定画面表示制御部30、特徴点設定部32、特徴点取得部34、顔モデル生成部36、及び顔テクスチャ画像生成部38を含む。これらの機能ブロックは制御部11によって実現される。すなわち、制御部11がプログラムに従って処理を実行することによって、制御部11がこれらの機能ブロックとして機能する。   FIG. 3 is a functional block diagram illustrating an example of functional blocks realized by the face model generation device 10. As illustrated in FIG. 3, the face model generation device 10 includes a setting screen display control unit 30, a feature point setting unit 32, a feature point acquisition unit 34, a face model generation unit 36, and a face texture image generation unit 38. These functional blocks are realized by the control unit 11. That is, the control unit 11 functions as these functional blocks when the control unit 11 executes processing according to a program.

設定画面表示制御部30は、ユーザが複数の特徴点を顔画像20上に設定するための設定画面を表示部15に表示する。   The setting screen display control unit 30 displays a setting screen for the user to set a plurality of feature points on the face image 20 on the display unit 15.

図4は設定画面の一例を示す。図4に示すように、設定画面40には顔画像20が表示される。なお、設定画面40に表示される顔画像20は所定のサイズ(例えば256×256ピクセル)に設定される。   FIG. 4 shows an example of the setting screen. As shown in FIG. 4, the face image 20 is displayed on the setting screen 40. The face image 20 displayed on the setting screen 40 is set to a predetermined size (for example, 256 × 256 pixels).

設定画面40では23個の特徴点42A〜42Wが顔画像20内に表示される。なお以下では、特徴点42A〜42Wのことを総称して「特徴点42」と記載する場合がある。   On the setting screen 40, 23 feature points 42 </ b> A to 42 </ b> W are displayed in the face image 20. Hereinafter, the feature points 42A to 42W may be collectively referred to as “feature points 42”.

特徴点42Aは眉間に設定されるべき特徴点である。なお、特徴点42Aは額の中央部に設定されるべき特徴点としてもよい。   The feature point 42A is a feature point to be set between the eyebrows. The feature point 42A may be a feature point to be set at the center of the forehead.

また、特徴点42B〜42Fは左目に対応する特徴点であり、左目を囲むようにして設定されるべき特徴点である。このうち、特徴点42B,42Cは上瞼に対応する特徴点であり、上瞼を三つに分けるようにして設定されるべき特徴点である。また、特徴点42Dは目頭に設定されるべき特徴点であり、特徴点42Fは目尻に設定されるべき特徴点である。そして、特徴点42Eは下瞼に対応する特徴点であり、下瞼を二等分するようにして設定されるべき特徴点である。   Further, the feature points 42B to 42F are feature points corresponding to the left eye, and should be set so as to surround the left eye. Among these, the feature points 42B and 42C are feature points corresponding to the upper eyelid, and should be set so that the upper eyelid is divided into three. The feature point 42D is a feature point to be set at the top of the eye, and the feature point 42F is a feature point to be set at the corner of the eye. The feature point 42E is a feature point corresponding to the lower eyelid, and should be set so as to bisect the lower eyelid.

同様に、特徴点42G〜42Kは右目に対応する特徴点であり、右目を囲むようにして設定されるべき特徴点である。このうち、特徴点42G,42Hは上瞼に対応する特徴点であり、上瞼を三つに分けるようにして設定されるべき特徴点である。また、特徴点42Iは目頭に設定されるべき特徴点であり、特徴点42Kは目尻に設定されるべき特徴点である。そして、特徴点42Jは下瞼に対応する特徴点であり、下瞼を二等分するようにして設定されるべき特徴点である。   Similarly, the feature points 42G to 42K are feature points corresponding to the right eye, and should be set so as to surround the right eye. Among these, the feature points 42G and 42H are feature points corresponding to the upper eyelid, and should be set so that the upper eyelid is divided into three. The feature point 42I is a feature point to be set at the top of the eye, and the feature point 42K is a feature point to be set at the corner of the eye. The feature point 42J is a feature point corresponding to the lower eyelid, and should be set so as to bisect the lower eyelid.

特徴点42L〜42Nは鼻に対応する特徴点である。このうち、特徴点42Mは鼻頭(鼻尖)に設定されるべき特徴点である。特徴点42Lは左鼻翼に設定されるべき特徴点であり、特徴点42Nは右鼻翼に設定されるべき特徴点である。   The feature points 42L to 42N are feature points corresponding to the nose. Among these, the feature point 42M is a feature point to be set on the nasal head (nasal tip). The feature point 42L is a feature point to be set on the left nose wing, and the feature point 42N is a feature point to be set on the right nose wing.

特徴点42O〜42Qは唇に対応する特徴点である。このうち、特徴点42Pは唇の中央部に設定されるべき特徴点である。特徴点42Oは左口角(唇の左端)に設定されるべき特徴点であり、特徴点42Qは右口角(唇の右端)に設定されるべき特徴点である。   The feature points 42O to 42Q are feature points corresponding to the lips. Of these, the feature point 42P is a feature point to be set at the center of the lips. The feature point 42O is a feature point to be set at the left mouth corner (left end of the lips), and the feature point 42Q is a feature point to be set at the right mouth corner (right end of the lips).

特徴点42Rは左頬骨に対応する特徴点であり、左頬骨の突き出た位置に設定されるべき特徴点である。特徴点42Wは右頬骨に対応する特徴点であり、右頬骨の突き出た位置に設定されるべき特徴点である。特徴点42T,42Uは顎に設定されるべき特徴点である。特徴点42Sは左えら骨に対応する特徴点であり、左頬骨と顎骨との間に設定されるべき特徴点である。特徴点42Vは右えら骨に対応する特徴点であり、右頬骨と顎骨との間に設定されるべき特徴点である。   The feature point 42R is a feature point corresponding to the left cheekbone and should be set at a position where the left cheekbone protrudes. The feature point 42W is a feature point corresponding to the right cheekbone and should be set at a position where the right cheekbone protrudes. The feature points 42T and 42U are feature points to be set on the jaw. The feature point 42S is a feature point corresponding to the left gill bone and should be set between the left cheekbone and the jawbone. The feature point 42V is a feature point corresponding to the right gill bone, and should be set between the right cheekbone and the jawbone.

また設定画面40では、特徴点42間が連結線44(直線)によって連結されている。具体的には、同一部位ごと又は所定部位群ごとに、特徴点42間が連結線44によって連結されている。   In the setting screen 40, the feature points 42 are connected by a connecting line 44 (straight line). Specifically, the feature points 42 are connected to each other by the connecting line 44 for each same part or for each predetermined part group.

図4に示す設定画面40では、左目に対応する特徴点42B〜42Fが連結線44によって連結されている。また、右目に対応する特徴点42G〜42Kが連結線44によって連結されている。さらに、鼻に対応する特徴点42L〜42Nが連結線44によって連結されている。また、唇に対応する特徴点42O〜42Qが連結線44によって連結されている。さらに、頬骨、えら骨、及び顎に対応する特徴点42R〜42Wが連結線44によって連結されている。   In the setting screen 40 shown in FIG. 4, feature points 42 </ b> B to 42 </ b> F corresponding to the left eye are connected by a connecting line 44. In addition, feature points 42 </ b> G to 42 </ b> K corresponding to the right eye are connected by a connecting line 44. Furthermore, feature points 42 </ b> L to 42 </ b> N corresponding to the nose are connected by a connecting line 44. In addition, feature points 42 </ b> O to 42 </ b> Q corresponding to the lips are connected by a connecting line 44. Further, feature points 42 </ b> R to 42 </ b> W corresponding to the cheekbone, gillbone, and jaw are connected by a connecting line 44.

このような連結線44が表示されることによって、各特徴点42がどの部位に対応するものであるのかをユーザが直感的に理解できるようになっている。   By displaying such a connection line 44, the user can intuitively understand which part each feature point 42 corresponds to.

特徴点設定部32(変更手段)は、設定画面40が表示されている間にユーザが行った操作に基づいて、複数の特徴点42のうちの少なくとも一つの位置を変更する。   The feature point setting unit 32 (changing unit) changes the position of at least one of the plurality of feature points 42 based on an operation performed by the user while the setting screen 40 is displayed.

例えば、特徴点42Aの初期位置が眉間に設定されていない場合、ユーザはマウス等を用いて特徴点42Aをドラッグアンドドロップすることによって、特徴点42Aを顔画像20の眉間の位置まで移動させる。他の特徴点42B〜42Wに関しても同様である。   For example, when the initial position of the feature point 42A is not set between the eyebrows, the user moves the feature point 42A to the position between the eyebrows of the face image 20 by dragging and dropping the feature point 42A using a mouse or the like. The same applies to the other feature points 42B to 42W.

特徴点設定部32は、ユーザによって行われた上記のような操作に基づいて、特徴点42A〜42Wのうちの少なくとも一つの位置を変更する。   The feature point setting unit 32 changes the position of at least one of the feature points 42A to 42W based on the above operation performed by the user.

特徴点取得部34は、顔画像20内に設定された複数の特徴点42の位置を取得する。   The feature point acquisition unit 34 acquires the positions of a plurality of feature points 42 set in the face image 20.

顔モデル生成部36は、特徴点取得部34によって取得された複数の特徴点42の位置に基づいて、顔モデルを生成する。例えば、顔モデル生成部36は、複数の特徴点42の位置関係に基づいて、顔モデルに設定される複数のボーンの位置又は大きさを設定する。顔モデル生成部36の機能の詳細については後述する(図7,8参照)。   The face model generation unit 36 generates a face model based on the positions of the plurality of feature points 42 acquired by the feature point acquisition unit 34. For example, the face model generation unit 36 sets the positions or sizes of a plurality of bones set in the face model based on the positional relationship between the plurality of feature points 42. Details of the function of the face model generation unit 36 will be described later (see FIGS. 7 and 8).

顔テクスチャ画像生成部38は、顔モデルにマッピングする顔テクスチャ画像を顔画像20に基づいて生成する。顔テクスチャ画像生成部38の機能の詳細については後述する(図8のステップS215参照)。   The face texture image generation unit 38 generates a face texture image to be mapped to the face model based on the face image 20. Details of the function of the face texture image generation unit 38 will be described later (see step S215 in FIG. 8).

次に、顔画像20に基づいて顔モデルを生成するために顔モデル生成装置10が実行する処理について説明する。図5は本処理の一例を示すフロー図である。制御部11がプログラムに従って図5に示す処理を実行することによって、制御部11が図3に示す機能ブロックとして機能するようになる。   Next, a process executed by the face model generation device 10 to generate a face model based on the face image 20 will be described. FIG. 5 is a flowchart showing an example of this processing. When the control unit 11 executes the process shown in FIG. 5 according to the program, the control unit 11 functions as the functional block shown in FIG.

図5に示すように、まず、制御部11(設定画面表示制御部30)は設定画面40を表示部15に表示する(S101)。設定画面40が表示されている場合、制御部11(特徴点設定部32)はユーザによって行われた操作に基づいて特徴点42の位置を変更する。   As shown in FIG. 5, first, the control unit 11 (setting screen display control unit 30) displays the setting screen 40 on the display unit 15 (S101). When the setting screen 40 is displayed, the control unit 11 (feature point setting unit 32) changes the position of the feature point 42 based on an operation performed by the user.

特徴点42の設定が完了した場合、制御部11は設定画面40を閉じ、スキンカラー選択画面を表示部15に表示する(S102)。スキンカラー選択画面は肌の色を選択するための画面である。例えば、顔モデル生成装置10では、肌の色として複数種類の色が予め用意されており、ユーザはそれら複数種類の色のうちのいずれかを肌の色として選択することができる。   When the setting of the feature point 42 is completed, the control unit 11 closes the setting screen 40 and displays the skin color selection screen on the display unit 15 (S102). The skin color selection screen is a screen for selecting a skin color. For example, in the face model generation device 10, a plurality of types of colors are prepared in advance as skin colors, and the user can select any one of the plurality of types of colors as the skin color.

肌の色の選択が完了した場合、制御部11(特徴点取得部34及び顔モデル生成部36)はスキンカラー選択画面を閉じ、顔モデルの生成処理を実行する(S103)。   When the selection of the skin color is completed, the control unit 11 (the feature point acquisition unit 34 and the face model generation unit 36) closes the skin color selection screen and executes a face model generation process (S103).

顔モデル生成装置10では基本の顔モデルが記憶されている。図6は基本の顔モデルの一例を示す。顔モデル50は顔の3次元モデルであり、多数のポリゴンを含んで構成される。   The face model generation apparatus 10 stores a basic face model. FIG. 6 shows an example of a basic face model. The face model 50 is a three-dimensional model of a face and includes a large number of polygons.

なお、図6において、符号「52A」は眉間を示し、図4の特徴点42Aに対応する。符号「52B」及び「52C」は左目の上瞼を示し、図4の特徴点42B,42Cにそれぞれ対応する。符号「52E」は左目の下瞼を示し、図4の特徴点42Eに対応する。符号「52D」及び「52F」は左目の目頭及び目尻をそれぞれ示し、図4の特徴点42D,42Fにそれぞれ対応する。   In FIG. 6, reference numeral “52A” indicates the space between the eyebrows and corresponds to the feature point 42A in FIG. 4. Symbols “52B” and “52C” indicate the upper eyelid of the left eye, and correspond to the feature points 42B and 42C in FIG. 4, respectively. Reference numeral “52E” indicates the lower eyelid of the left eye and corresponds to the feature point 42E of FIG. Reference numerals “52D” and “52F” respectively indicate the eyes and corners of the left eye, and correspond to the feature points 42D and 42F in FIG. 4, respectively.

また、符号「52G」及び「52H」は右目の上瞼を示し、図4の特徴点42G,42Hにそれぞれ対応する。符号「52J」は右目の下瞼を示し、図4の特徴点42Jに対応する。符号「52I」及び「52K」は右目の目頭及び目尻をそれぞれ示し、図4の特徴点42I,42Kにそれぞれ対応する。   Reference numerals “52G” and “52H” indicate the upper eyelid of the right eye, and correspond to the feature points 42G and 42H in FIG. 4, respectively. Reference numeral “52J” indicates the lower eyelid of the right eye and corresponds to the feature point 42J in FIG. Symbols “52I” and “52K” indicate the right eye corner and the corner of the eye, respectively, and correspond to the feature points 42I and 42K in FIG.

また、符号「52M」は鼻頭を示し、図4の特徴点42Mに対応する。符号「52L」は左鼻翼を示し、図4の特徴点42Lに対応する。なお、図6では示されていないが、顔モデル50は図4の特徴点42Nに対応する右鼻翼も含んでいる。   Reference numeral “52M” indicates the nasal head and corresponds to the feature point 42M in FIG. Reference numeral “52L” indicates the left nose wing and corresponds to the feature point 42L in FIG. Although not shown in FIG. 6, the face model 50 also includes the right nose wing corresponding to the feature point 42N of FIG.

また、符号52Pは唇の中央部を示し、図4の特徴点42Pに対応する。符号52Oは左口角(唇の左端)を示し、図4の特徴点42Oに対応する。符号52Qは右口角(唇の右端)を示し、図4の特徴点42Qに対応する。   Reference numeral 52P denotes the center of the lips, and corresponds to the feature point 42P in FIG. Reference numeral 52O denotes the left mouth corner (left end of the lips), which corresponds to the feature point 42O in FIG. Reference numeral 52Q indicates the right mouth corner (the right end of the lips) and corresponds to the feature point 42Q in FIG.

さらに、符号「52R」は左頬骨を示し、図4の特徴点42Rに対応する。符号「52S」は左えら骨を示し、図4の特徴点42Sに対応する。符号「52T」及び「52T」は顎を示し、図4の特徴点42T,42Uに対応する。なお、図6では示されていないが、顔モデル50は、図4の特徴点42Wに対応する右頬骨や、図4の特徴点42Vに対応する右えら骨も含んでいる。   Further, reference numeral “52R” indicates the left cheekbone and corresponds to the feature point 42R in FIG. Reference numeral “52S” indicates the left gill bone, which corresponds to the feature point 42S in FIG. Reference numerals “52T” and “52T” denote jaws and correspond to the feature points 42T and 42U in FIG. Although not shown in FIG. 6, the face model 50 includes the right cheekbone corresponding to the feature point 42W in FIG. 4 and the right gill bone corresponding to the feature point 42V in FIG.

また、符号「54L」は左目の眼球を示し、符号「54R」は右目の眼球を示す。符号「56」は鼻の中骨を示し、符号「58」は眼くつ骨を示す。   The symbol “54L” indicates the left eyeball, and the symbol “54R” indicates the right eyeball. Reference numeral “56” indicates the middle bone of the nose, and reference numeral “58” indicates the eyelid bone.

また、顔モデル50内には複数のボーンが設定される。各ボーンには顔モデル50を構成するポリゴンの頂点の少なくとも一部が関連づけられる。ボーンの状態(位置や回転角度)が変化した場合、そのボーンに関連づけられた頂点の位置がそのボーンの状態変化に基づいて変化する。すなわち、顔モデルの形状が変化する。   A plurality of bones are set in the face model 50. Each bone is associated with at least a part of the vertices of the polygon constituting the face model 50. When the state of the bone (position and rotation angle) changes, the position of the vertex associated with the bone changes based on the change in the state of the bone. That is, the shape of the face model changes.

なお以下では、図6に示すようなX軸、Y軸、及びZ軸が設定されることとして説明する。X軸は横方向に対応する軸であり、Y軸は縦方向に対応する軸である。Z軸は奥行き方向(顔の前面から背面に向かう方向)に対応する軸である。また以下では、顔モデル50の眉間51のX座標が零であることとして説明する。   In the following description, it is assumed that the X axis, the Y axis, and the Z axis as shown in FIG. 6 are set. The X axis is an axis corresponding to the horizontal direction, and the Y axis is an axis corresponding to the vertical direction. The Z-axis is an axis corresponding to the depth direction (the direction from the front face to the back face). In the following description, it is assumed that the X coordinate of the eyebrow space 51 of the face model 50 is zero.

顔モデルの生成処理(ステップS103)では、顔画像20内に設定された特徴点42A〜42Wに基づいて、基本の顔モデル50の部位やボーンの位置や大きさ等を変更していくことによって、顔画像20に対応する顔モデル50が生成される。   In the face model generation process (step S103), the position of the basic face model 50, the position and size of the bone, and the like are changed based on the feature points 42A to 42W set in the face image 20. A face model 50 corresponding to the face image 20 is generated.

図7及び図8は顔モデルの生成処理(ステップS103)の一例を示すフロー図である。図7に示すように、まず、制御部11は特徴点42のスケールを調整する(S201)。撮影装置によって撮影された顔画像20では、顔が大きく写っている場合もあれば、小さく写っている場合もある。この影響を取り除くためにステップS201の処理が実行される。   7 and 8 are flowcharts showing an example of face model generation processing (step S103). As shown in FIG. 7, first, the control unit 11 adjusts the scale of the feature point 42 (S201). In the face image 20 photographed by the photographing device, the face may appear large or may be small. In order to remove this influence, the process of step S201 is executed.

図9はステップS201の処理について説明するための図である。ステップS201において、制御部11は、基本の顔モデル50に合わせるようにして特徴点42のスケールを調整する。   FIG. 9 is a diagram for explaining the processing in step S201. In step S <b> 201, the control unit 11 adjusts the scale of the feature point 42 so as to match the basic face model 50.

具体的には、制御部11は、眉間に対応する特徴点42Aと、顎に対応する特徴点42T,42Uとに基づいて得られる距離に基づいて、特徴点42のスケールを調整する。例えば、制御部11は、眉間に対応する特徴点42Aと、顎に対応する特徴点42T,42Uの中点60と、の間のY座標の差(H)が基本値(HB)となるように顔画像20を拡大又は縮小することによって、特徴点42のスケールを調整する。   Specifically, the control unit 11 adjusts the scale of the feature point 42 based on the distance obtained based on the feature point 42A corresponding to the eyebrows and the feature points 42T and 42U corresponding to the chin. For example, the control unit 11 causes the difference (H) in the Y coordinate between the feature point 42A corresponding to the eyebrows and the midpoint 60 of the feature points 42T and 42U corresponding to the chin to be the basic value (HB). The scale of the feature point 42 is adjusted by enlarging or reducing the face image 20.

ここで、基本値(HB)は、基本の顔モデル50の顎52T,52Uから眉間52Aまでの長さに対応する値である。すなわち、基本の顔モデル50の顎52T,52Uの中点と眉間52Aとの間の長さに対応する値である。このため、ステップS201では、特徴点42Aと中点60との間の長さを基本の顔モデル50に合わせることによって、特徴点42のスケールが調整される。   Here, the basic value (HB) is a value corresponding to the length from the jaws 52T and 52U of the basic face model 50 to the eyebrows 52A. That is, this is a value corresponding to the length between the midpoint of the jaws 52T and 52U of the basic face model 50 and the eyebrows 52A. Therefore, in step S201, the scale of the feature point 42 is adjusted by matching the length between the feature point 42A and the midpoint 60 to the basic face model 50.

ステップS201よりも後のステップでは、スケールが調整された特徴点42A〜42Wに基づいて、顔モデル50の部位やボーンの位置や大きさ等が設定される。なお、ステップS201よりも後のステップでは、特徴点42Aが顔モデル50の眉間52Aに対応しているとの前提の下で処理が実行される。顔画像20では顔が左側又は右側のいずれかに偏って写っている場合もあるが、特徴点42Aが顔モデル50の眉間52Aに対応するとの前提の下で処理を実行することによって、その影響が取り除かれるようになっている。   In a step after step S201, the position of the face model 50, the position and size of the bone, and the like are set based on the feature points 42A to 42W whose scale has been adjusted. In the step after step S201, the process is executed on the assumption that the feature point 42A corresponds to the eyebrow space 52A of the face model 50. In the face image 20, the face may appear to be biased to either the left side or the right side. Has been removed.

ステップS201が実行された後、制御部11は、顔型に基づいて、顔モデル50に含まれるすべてのボーンの位置及び大きさを調整する(S202)。   After step S201 is executed, the control unit 11 adjusts the positions and sizes of all bones included in the face model 50 based on the face type (S202).

図10はステップS202について説明するための図である。ステップS202において、制御部11は、左頬骨に対応する特徴点42Rと、右頬骨に対応する特徴点42Wとに基づいて得られる距離に基づいて、顔モデル50に含まれるすべてのボーンの位置及び大きさを調整する。   FIG. 10 is a diagram for explaining step S202. In step S202, the control unit 11 determines the positions of all bones included in the face model 50 based on the distance obtained based on the feature point 42R corresponding to the left cheekbone and the feature point 42W corresponding to the right cheekbone. Adjust the size.

具体的には、制御部11は、左頬骨に対応する特徴点42Rと、右頬骨に対応する特徴点42Wとの間のX座標の差(W)を算出する。そして、制御部11は下記式(1)によって顔型パラメータの値(S)を算出する。   Specifically, the control unit 11 calculates the X coordinate difference (W) between the feature point 42R corresponding to the left cheekbone and the feature point 42W corresponding to the right cheekbone. And the control part 11 calculates the value (S) of a face type parameter by following formula (1).

S=W/WB ・・・ (1)   S = W / WB (1)

なお、上記式(1)における「WB」は基本値を示す。この基本値(WB)は、基本の顔モデル50の横幅(左頬骨52Rから右頬骨までの長さ)に対応する値である。このため、顔型パラメータ(S)は、基本の顔モデル50と比較して横幅が広いか否かを示す。すなわち、顔型パラメータ(S)が1よりも大きい場合とは、基本の顔モデル50と比較して横幅が広い顔であることを示す。また、顔型パラメータ(S)が1よりも小さい場合とは、基本の顔モデル50と比較して横幅が狭い顔(言い換えれば、縦長の顔)であることを示す。   In the above formula (1), “WB” represents a basic value. This basic value (WB) is a value corresponding to the width of the basic face model 50 (the length from the left cheekbone 52R to the right cheekbone). For this reason, the face type parameter (S) indicates whether or not the width is wider than that of the basic face model 50. That is, the case where the face type parameter (S) is greater than 1 indicates that the face has a wider width than the basic face model 50. The case where the face type parameter (S) is smaller than 1 indicates that the face has a narrower width than the basic face model 50 (in other words, a vertically long face).

制御部11は、以上のようにして算出された顔型パラメータ(S)に基づいて、顔モデル50内に設定されたすべてのボーンの位置及び大きさを調整する。例えば、顔型パラメータ(S)が1よりも大きい場合には、顔モデル50を基本の顔モデル50よりも横幅が広い顔となるように調整すべく、すべてのボーンの位置及び大きさが調整される。一方、顔型パラメータ(S)が1よりも小さい場合には、顔モデル50を基本の顔モデル50よりも横幅が狭い顔(言い換えれば、縦長の顔)となるように調整すべく、すべてのボーンの位置及び大きさが調整される。   The control unit 11 adjusts the positions and sizes of all bones set in the face model 50 based on the face type parameter (S) calculated as described above. For example, when the face type parameter (S) is larger than 1, the positions and sizes of all bones are adjusted to adjust the face model 50 so that the face model has a wider width than the basic face model 50. Is done. On the other hand, when the face type parameter (S) is smaller than 1, all the face models 50 are adjusted so that the face model 50 has a narrower width than the basic face model 50 (in other words, a vertically long face). The position and size of the bone are adjusted.

ステップS202が実行された後、制御部11は、顔モデル50のえら骨(左えら骨52S及び右えら骨)に対応するボーンの位置を設定する(S203)。   After step S202 is executed, the control unit 11 sets a bone position corresponding to the gill bone (the left gill bone 52S and the right gill bone) of the face model 50 (S203).

図11はステップS203について説明するための図である。ステップS203において、制御部11は、左頬骨に対応する特徴点42Rと右頬骨に対応する特徴点42Wとに基づいて得られる距離と、左えら骨に対応する特徴点42Sと右えら骨に対応する特徴点42Vとに基づいて得られる距離との比に基づいて、えら骨(左えら骨52S及び右えら骨)に対応するボーンの位置を設定する。   FIG. 11 is a diagram for explaining step S203. In step S203, the control unit 11 corresponds to the distance obtained based on the feature point 42R corresponding to the left cheekbone and the feature point 42W corresponding to the right cheekbone, the feature point 42S corresponding to the left gillbone, and the right gillbone. The position of the bone corresponding to the gill bone (the left gill bone 52S and the right gill bone) is set based on the ratio to the distance obtained based on the feature point 42V.

具体的には、まず制御部11は、左頬骨に対応する特徴点42Rと右頬骨に対応する特徴点42Wとの間のX座標の差(W1)を算出する。また、制御部11は、左えら骨に対応する特徴点42Sと右えら骨に対応する特徴点42Vとの間のX座標の差(W2)を算出する。さらに、制御部11は下記式(2)によってそれらの比率(r)を算出する。   Specifically, first, the control unit 11 calculates the difference (W1) in the X coordinate between the feature point 42R corresponding to the left cheekbone and the feature point 42W corresponding to the right cheekbone. Further, the control unit 11 calculates an X coordinate difference (W2) between the feature point 42S corresponding to the left gill bone and the feature point 42V corresponding to the right gill bone. Furthermore, the control part 11 calculates those ratios (r) by following formula (2).

その後、制御部11は、左えら骨52Sに対応するボーンのX座標(x1)を決定する。このX座標(x1)は下記式(3)によって算出される。なお、下記式(3)における「Xr」は左頬骨に対応する特徴点42RのX座標である。   Thereafter, the control unit 11 determines the X coordinate (x1) of the bone corresponding to the left gill bone 52S. The X coordinate (x1) is calculated by the following equation (3). In the following formula (3), “Xr” is the X coordinate of the feature point 42R corresponding to the left cheekbone.

また、制御部11は、右えら骨に対応するボーンのX座標(x2)を決定する。このX座標(x2)は下記式(4)によって算出される。なお、下記式(4)における「Xw」は右頬骨に対応する特徴点42WのX座標である。   Further, the control unit 11 determines the X coordinate (x2) of the bone corresponding to the right gill bone. The X coordinate (x2) is calculated by the following equation (4). In the following formula (4), “Xw” is the X coordinate of the feature point 42W corresponding to the right cheekbone.

さらに、制御部11は、左えら骨52S及び右えら骨の各々に対応するボーンのY座標(y)を決定する。このY座標(y)は下記式(5)によって算出される。なお、下記式(5)において、「Ys」は左えら骨に対応する特徴点42SのY座標であり、「Yv」は右えら骨に対応する特徴点42VのY座標である。   Further, the control unit 11 determines the Y coordinate (y) of the bone corresponding to each of the left gill bone 52S and the right gill bone. The Y coordinate (y) is calculated by the following equation (5). In the following formula (5), “Ys” is the Y coordinate of the feature point 42S corresponding to the left gill bone, and “Yv” is the Y coordinate of the feature point 42V corresponding to the right gill bone.

r=W2/W1 ・・・ (2)
x1=Xr*r ・・・ (3)
x2=Xw*r ・・・ (4)
y=(Ys+Yv)/2 ・・・ (5)
r = W2 / W1 (2)
x1 = Xr * r (3)
x2 = Xw * r (4)
y = (Ys + Yv) / 2 (5)

ステップS203が実行された後、制御部11は、顔モデル50の左目、右目、鼻、唇、及び顎の位置を設定する(S204)。これらの部位は顔の中央にある部位であるため、顔画像20において顔が多少傾いて写っていたとしても、あまり影響を受けない。このため、制御部11はこれらの部位に対応する特徴点42の位置をこれらの部位の位置として設定する。   After step S203 is executed, the control unit 11 sets the positions of the left eye, right eye, nose, lips, and chin of the face model 50 (S204). Since these parts are parts in the center of the face, even if the face appears in the face image 20 with a slight inclination, it is not so much affected. For this reason, the control part 11 sets the position of the feature point 42 corresponding to these parts as the position of these parts.

例えば、制御部11は、左目の目頭及び目尻に対応する特徴点42D,42Fの位置を左目の目頭52D及び目尻52Fの位置として決定する。また制御部11は、左目の上瞼に対応する特徴点42B,42Cの位置を左目の上瞼52B,52Cの位置として決定し、左目の下瞼に対応する特徴点42Eの位置を左目の下瞼52Eの位置として決定する。   For example, the control unit 11 determines the positions of the feature points 42D and 42F corresponding to the left eye corner and the corner of the eye as the positions of the left eye corner 52D and the corner 52F. Further, the control unit 11 determines the positions of the feature points 42B and 42C corresponding to the upper eyelid of the left eye as the positions of the upper eyelids 52B and 52C of the left eye, and sets the position of the feature point 42E corresponding to the lower eyelid of the left eye to the lower eyelid 52E of the left eye. Determine as the position.

また制御部11は、右目の目頭及び目尻に対応する特徴点42I,42Kの位置を右目の目頭52I及び目尻52Kの位置として決定する。また制御部11は、右目の上瞼に対応する特徴点42G,42Hの位置を左目の上瞼52G,52Hの位置として決定し、右目の下瞼に対応する特徴点42Jの位置を右目の下瞼52Jの位置として決定する。   In addition, the control unit 11 determines the positions of the feature points 42I and 42K corresponding to the right eye corner and the corner of the eye as the positions of the right eye corner 52I and the eye corner 52K. Further, the control unit 11 determines the positions of the feature points 42G and 42H corresponding to the upper eyelid of the right eye as the positions of the upper eyelids 52G and 52H of the left eye, and sets the position of the feature point 42J corresponding to the lower eyelid of the right eye to the lower eyelid 52J of the right eye. Determine as the position.

また制御部11は、鼻頭に対応する特徴点42Mの位置を鼻頭52Mの位置として決定する。また制御部11は、左鼻翼に対応する特徴点42Lの位置を左鼻翼52Lの位置として決定し、右鼻翼に対応する特徴点42Nの位置を右鼻翼の位置として決定する。   In addition, the control unit 11 determines the position of the feature point 42M corresponding to the nasal head as the position of the nasal head 52M. Further, the control unit 11 determines the position of the feature point 42L corresponding to the left nose wing as the position of the left nose wing 52L, and determines the position of the feature point 42N corresponding to the right nose wing as the position of the right nose wing.

また制御部11は、唇の中央部に対応する特徴点42Pの位置を唇の中央部52Pの位置として決定する。また制御部11は、左口角に対応する特徴点42Oの位置を左口角52Oの位置として決定し、右口角に対応する特徴点42Qの位置を右口角52Qの位置として決定する。   The control unit 11 determines the position of the feature point 42P corresponding to the center part of the lips as the position of the center part 52P of the lips. Further, the control unit 11 determines the position of the feature point 42O corresponding to the left mouth corner as the position of the left mouth corner 52O, and determines the position of the feature point 42Q corresponding to the right mouth corner as the position of the right mouth corner 52Q.

さらに制御部11は、顎に対応する特徴点42T,42Uの位置を顎52T,52Uの位置として決定する。   Further, the control unit 11 determines the positions of the feature points 42T and 42U corresponding to the jaws as the positions of the jaws 52T and 52U.

ステップS204が実行された後、制御部11は、顔モデル50の眼くつ骨58、頬骨(左頬骨52R及び右頬骨)、鼻の中骨56Aに対応するボーンの位置を設定する(S205)。   After step S204 is executed, the control unit 11 sets bone positions corresponding to the eyelid 58, cheekbone (left cheekbone 52R and right cheekbone), and nasal middle bone 56A of the face model 50 (S205).

まず、制御部11は眼くつ骨58に対応するボーンの位置を設定する。図12は、眼くつ骨58に対応するボーンの位置の決定方法について説明するための図である。図12に示すように、制御部11は、左の眼くつ骨58に対応するボーンの位置を、左目の目尻に対応する特徴点42Fと、左頬骨に対応する特徴点42Rとに基づいて算出する。   First, the control unit 11 sets a bone position corresponding to the eyelid bone 58. FIG. 12 is a diagram for explaining a method for determining the position of the bone corresponding to the eyelid bone 58. As shown in FIG. 12, the control unit 11 calculates the position of the bone corresponding to the left eyelid bone 58 based on the feature point 42F corresponding to the left eye corner and the feature point 42R corresponding to the left cheekbone. To do.

すなわち、左の眼くつ骨58に対応するボーンのX座標(x)は下記式(6)によって算出される。なお、下記式(6)において、「Xf」は左目の目尻に対応する特徴点42FのX座標であり、「Xr」は左頬骨に対応する特徴点42RのX座標である。下記式(6)によって、左の眼くつ骨58に対応するボーンの位置は、左目の目尻に対応する特徴点42Fと、左頬骨に対応する特徴点42Rとの間の位置であって、やや特徴点42R寄りの位置に設定される。   That is, the X coordinate (x) of the bone corresponding to the left eye heel bone 58 is calculated by the following equation (6). In the following equation (6), “Xf” is the X coordinate of the feature point 42F corresponding to the corner of the left eye, and “Xr” is the X coordinate of the feature point 42R corresponding to the left cheekbone. According to the following equation (6), the position of the bone corresponding to the left eye heel bone 58 is a position between the feature point 42F corresponding to the left eye corner and the feature point 42R corresponding to the left cheekbone, The position is set closer to the feature point 42R.

また、左の眼くつ骨58に対応するボーンのY座標(y)は下記式(7)によって算出される。なお、下記式(7)において、「Yf」は左目の目尻に対応する特徴点42FのY座標である。下記式(7)によって、左の眼くつ骨58に対応するボーンの位置は、左目の目尻に対応する特徴点42Fの少し下の位置に設定される。   Further, the Y coordinate (y) of the bone corresponding to the left eye heel bone 58 is calculated by the following equation (7). In the following equation (7), “Yf” is the Y coordinate of the feature point 42F corresponding to the corner of the left eye. According to the following equation (7), the position of the bone corresponding to the left eyelid bone 58 is set to a position slightly below the feature point 42F corresponding to the eye corner of the left eye.

x=Xf+(Xr−Xf*0.6) ・・・ (6)
y=Yf−0.2 ・・・ (7)
x = Xf + (Xr−Xf * 0.6) (6)
y = Yf−0.2 (7)

なお、右の眼くつ骨58に対応するボーンの位置も左の眼くつ骨58に対応するボーンと同様にして算出される。   Note that the position of the bone corresponding to the right eye heel bone 58 is also calculated in the same manner as the bone corresponding to the left eye heel bone 58.

またステップS205において、制御部11は頬骨(左頬骨52R及び右頬骨)に対応するボーンの位置を設定する。例えば、制御部11は、左頬骨に対応する特徴点42Rの位置を左頬骨52Rに対応するボーンの位置として設定し、右頬骨に対応する特徴点42Wの位置を右頬骨に対応するボーンの位置として設定する。   In step S205, the control unit 11 sets a bone position corresponding to the cheekbone (the left cheekbone 52R and the right cheekbone). For example, the control unit 11 sets the position of the feature point 42R corresponding to the left cheekbone as the position of the bone corresponding to the left cheekbone 52R, and sets the position of the feature point 42W corresponding to the right cheekbone to the position of the bone corresponding to the right cheekbone Set as.

さらにステップS205において、制御部11は鼻の中骨56に対応するボーンの位置を設定する。図13は鼻の中骨56に対応するボーンの位置の設定方法について説明するための図である。図13に示すように、制御部11は、鼻の中骨56に対応するボーンの位置を、眉間に対応する特徴点42Aと、鼻頭に対応する特徴点42Mとに基づいて算出する。   Further, in step S205, the control unit 11 sets a bone position corresponding to the nasal bone 56. FIG. 13 is a diagram for explaining a bone position setting method corresponding to the nasal middle bone 56. As illustrated in FIG. 13, the control unit 11 calculates the position of the bone corresponding to the nasal bone 56 based on the feature point 42A corresponding to the eyebrow and the feature point 42M corresponding to the nasal head.

すなわち、鼻の中骨56に対応するボーンのX座標は下記式(8)によって算出される。なお、下記式(8)において、「Xa」は特徴点42AのX座標であり、「Xm」は特徴点42MのX座標である。   That is, the X coordinate of the bone corresponding to the nasal bone 56 is calculated by the following equation (8). In the following formula (8), “Xa” is the X coordinate of the feature point 42A, and “Xm” is the X coordinate of the feature point 42M.

また、鼻の中骨56に対応するボーンのY座標は下記式(9)によって算出される。なお、下記式(9)において、「Ya」は特徴点42AのY座標であり、「Ym」は特徴点42MのY座標である。下記式(9)によって、鼻の中骨56に対応するボーンの位置は、眉間に対応する特徴点42Aと、鼻頭に対応する特徴点42Mとの間の位置であって、やや特徴点42M寄りの位置に設定される。   Further, the Y coordinate of the bone corresponding to the nasal bone 56 is calculated by the following equation (9). In the following formula (9), “Ya” is the Y coordinate of the feature point 42A, and “Ym” is the Y coordinate of the feature point 42M. According to the following equation (9), the position of the bone corresponding to the nasal bone 56 is a position between the feature point 42A corresponding to the eyebrow and the feature point 42M corresponding to the nasal head, and slightly closer to the feature point 42M. The position is set.

x=(Xa+Xm)/2 ・・・ (8)
y=((Ya+Ym)/2)−0.3 ・・・ (9)
x = (Xa + Xm) / 2 (8)
y = ((Ya + Ym) / 2) −0.3 (9)

ステップS205が実行された後、制御部11は顔モデル50の眼球54L,54R(眼球オブジェクト)の位置及び大きさを設定する(S206)。   After step S205 is executed, the control unit 11 sets the positions and sizes of the eyeballs 54L and 54R (eyeball objects) of the face model 50 (S206).

例えば、制御部11は、左目に対応する特徴点42B〜42Fに基づいて左目の眼球54Lの位置を算出する。   For example, the control unit 11 calculates the position of the eyeball 54L of the left eye based on the feature points 42B to 42F corresponding to the left eye.

すなわち、眼球54LのX座標(x)は下記式(10)によって算出される。なお、下記式(10)において、「Xd」は目頭に対応する特徴点42DのX座標であり、「Xf」は目尻に対応する特徴点42FのX座標である。   That is, the X coordinate (x) of the eyeball 54L is calculated by the following equation (10). In the following formula (10), “Xd” is the X coordinate of the feature point 42D corresponding to the top of the eye, and “Xf” is the X coordinate of the feature point 42F corresponding to the corner of the eye.

また、眼球54LのY座標(y)は下記式(11)によって算出される。なお、下記式(11)において、「Yb」及び「Yc」は上瞼に対応する特徴点42B,42CのY座標であり、「Ye」は下瞼に対応する特徴点42EのY座標である。   Further, the Y coordinate (y) of the eyeball 54L is calculated by the following equation (11). In the following formula (11), “Yb” and “Yc” are the Y coordinates of the feature points 42B and 42C corresponding to the upper eyelid, and “Ye” is the Y coordinate of the feature point 42E corresponding to the lower eyelid. .

x=((Xd+Xf)/2)−0.1 ・・・ (10)
y=(((Yb+Yc)/2)+Ye)/2+0.2 ・・・ (11)
x = ((Xd + Xf) / 2) −0.1 (10)
y = ((((Yb + Yc) / 2) + Ye) /2+0.2 (11)

同様に、制御部11は、右目に対応する特徴点42G〜42Kに基づいて右目の眼球54Rの位置を算出する。   Similarly, the control unit 11 calculates the position of the right eyeball 54R based on the feature points 42G to 42K corresponding to the right eye.

例えば、眼球54RのX座標(x)は下記式(12)によって算出される。なお、下記式(12)において、「Xi」は目頭に対応する特徴点42IのX座標であり、「Xk」は目尻に対応する特徴点42KのX座標である。   For example, the X coordinate (x) of the eyeball 54R is calculated by the following equation (12). In the following formula (12), “Xi” is the X coordinate of the feature point 42I corresponding to the top of the eye, and “Xk” is the X coordinate of the feature point 42K corresponding to the corner of the eye.

また例えば、眼球54RのY座標(y)は下記式(13)によって算出される。なお、下記式(13)において、「Yg」及び「Yh」は上瞼に対応する特徴点42G,42HのY座標であり、「Yj」は下瞼に対応する特徴点42JのY座標である。   For example, the Y coordinate (y) of the eyeball 54R is calculated by the following equation (13). In the following equation (13), “Yg” and “Yh” are the Y coordinates of the feature points 42G and 42H corresponding to the upper eyelid, and “Yj” is the Y coordinate of the feature point 42J corresponding to the lower eyelid. .

x=((Xi+Xk)/2)+0.1 ・・・ (12)
y=(((Yg+Yh)/2)+Yj)/2+0.2 ・・・ (13)
x = ((Xi + Xk) / 2) +0.1 (12)
y = (((Yg + Yh) / 2) + Yj) /2+0.2 (13)

ステップS206が実行された後、制御部11は、顔モデル50の顎52T,52Uに対応するボーンの位置を補正する(S207)。具体的には、顎52T,52Uに対応するボーンのY座標(y)が下記式(14)のように設定される。なお、下記式(14)において、「Yt」及び「Yu」は顎に対応する特徴点42T,42UのY座標である。   After step S206 is executed, the control unit 11 corrects the positions of bones corresponding to the jaws 52T and 52U of the face model 50 (S207). Specifically, the Y coordinate (y) of the bone corresponding to the jaws 52T and 52U is set as in the following formula (14). In the following formula (14), “Yt” and “Yu” are the Y coordinates of the feature points 42T and 42U corresponding to the jaws.

y=(Yt+Yu)/2 ・・・ (14)   y = (Yt + Yu) / 2 (14)

ステップS207が実行された後、図8に示すように、制御部11は顔モデル50の鼻の幅を設定する(S208)。例えば、制御部11は鼻の幅(w)を下記式(15)によって算出する。なお、下記式(15)において、「Xl」は左鼻翼に対応する特徴点42LのX座標であり、「Xn」は右鼻翼に対応する特徴点42NのX座標である。   After step S207 is executed, as shown in FIG. 8, the control unit 11 sets the width of the nose of the face model 50 (S208). For example, the control unit 11 calculates the width (w) of the nose according to the following formula (15). In the following equation (15), “Xl” is the X coordinate of the feature point 42L corresponding to the left nose wing, and “Xn” is the X coordinate of the feature point 42N corresponding to the right nose wing.

w=(Xl−Xn)/3.3 ・・・ (15)   w = (X1-Xn) /3.3 (15)

ステップS208が実行された後、制御部11は顔モデル50の唇の幅を設定する(S209)。例えば、制御部11は唇の幅(w)を下記式(16)によって算出する。なお、下記式(16)において、「Xo」は左口角に対応する特徴点42OのX座標であり、「Xq」は右口角に対応する特徴点42QのX座標である。   After step S208 is executed, the control unit 11 sets the lip width of the face model 50 (S209). For example, the control unit 11 calculates the lip width (w) by the following equation (16). In the following equation (16), “Xo” is the X coordinate of the feature point 42O corresponding to the left mouth corner, and “Xq” is the X coordinate of the feature point 42Q corresponding to the right mouth corner.

w=(Xo−Xq)/4.26 ・・・ (16)   w = (Xo−Xq) /4.26 (16)

ステップS209が実行された後、制御部11は口角の高さを考慮して、顔モデル50の頬骨(左頬骨52R又は右頬骨)に対応するボーンの位置を調整する(S210)。ステップS210において、制御部11は、唇に対応する特徴点42O〜42Qの位置に基づいて、頬骨(左頬骨52R又は右頬骨)に対応するボーンの位置を調整する。   After step S209 is executed, the control unit 11 adjusts the position of the bone corresponding to the cheekbone (left cheekbone 52R or right cheekbone) of the face model 50 in consideration of the height of the mouth corner (S210). In step S210, the control unit 11 adjusts the position of the bone corresponding to the cheekbone (the left cheekbone 52R or the right cheekbone) based on the positions of the feature points 42O to 42Q corresponding to the lips.

まず、制御部11は頬骨に対応するボーンのY座標の補正値(Δy)を下記式(17)によって算出する。なお、下記式(17)において、「Yo」は左口角に対応する特徴点42OのY座標であり、「Yq」は右口角に対応する特徴点42QのY座標である。また、「Yp」は唇の中央部に対応する特徴点42PのY座標である。そして、下記式(18)のように、制御部11は頬骨に対応するボーンのY座標(y)に当該補正値(Δy)を加算することによって、頬骨に対応するボーンのY座標(y)を補正する。   First, the control unit 11 calculates the correction value (Δy) of the Y coordinate of the bone corresponding to the cheekbone by the following equation (17). In the following equation (17), “Yo” is the Y coordinate of the feature point 42O corresponding to the left mouth corner, and “Yq” is the Y coordinate of the feature point 42Q corresponding to the right mouth corner. “Yp” is the Y coordinate of the feature point 42P corresponding to the center of the lips. Then, as shown in the following formula (18), the control unit 11 adds the correction value (Δy) to the Y coordinate (y) of the bone corresponding to the cheekbone, thereby obtaining the Y coordinate (y) of the bone corresponding to the cheekbone. Correct.

Δy=(((Yt+Yq)/2)−Yp)*2 ・・・ (17)
y=y+Δy ・・・ (18)
Δy = (((Yt + Yq) / 2) −Yp) * 2 (17)
y = y + Δy (18)

ステップS210が実行された後、制御部11は顔モデル50の瞼骨に対応するボーンの位置を設定する(S211)。すなわち、制御部11は左目側の瞼骨に対応するボーンの位置を左目の眼球54Lの位置及び大きさに基づいて設定し、右目側の瞼骨に対応するボーンの位置を右目の眼球54Rの位置及び大きさに基づいて設定する。なお、この場合、左目側の瞼骨に対応するボーンのZ座標は、眼球54Lの大きさに基づいて、瞼に沿うように調整される。同様に、右目側の瞼骨に対応するボーンのZ座標は、眼球54Rの大きさに基づいて、瞼に沿うように調整される。   After step S210 is executed, the control unit 11 sets the position of the bone corresponding to the rib of the face model 50 (S211). That is, the control unit 11 sets the position of the bone corresponding to the rib on the left eye side based on the position and size of the eyeball 54L of the left eye, and sets the position of the bone corresponding to the rib on the right eye side of the right eyeball 54R. Set based on position and size. In this case, the Z coordinate of the bone corresponding to the rib on the left eye side is adjusted along the eyelid based on the size of the eyeball 54L. Similarly, the Z coordinate of the bone corresponding to the rib on the right eye side is adjusted along the eyelid based on the size of the eyeball 54R.

ステップS211が実行された後、制御部11は顔モデル50の各部位又は各ボーンのZ座標を設定する(S212)   After step S211 is executed, the control unit 11 sets the Z coordinate of each part or each bone of the face model 50 (S212).

顔画像20は二次元画像であるため、特徴点42A〜42Wに基づいて各部位又は各ボーンのZ座標を設定することはできない。この点、顔モデル生成装置10では、顔の凹凸や後頭部の形状が異なった複数種類の見本顔モデルが予め用意されている。ステップS212では、これら複数種類の見本顔モデルのうちのいずれかが選択され、当該選択された見本顔モデルの各部位又は各ボーンのZ座標が、顔モデル50の各部位又は各ボーンのZ座標として設定される。   Since the face image 20 is a two-dimensional image, the Z coordinate of each part or each bone cannot be set based on the feature points 42A to 42W. In this regard, in the face model generation apparatus 10, a plurality of types of sample face models with different facial irregularities and occipital shape are prepared in advance. In step S212, one of the plurality of types of sample face models is selected, and the Z coordinate of each part or each bone of the selected sample face model is set as the Z coordinate of each part or each bone of the face model 50. Set as

ステップS212が実行された後、制御部11は、顔モデル50の瞼を開閉するためのボーンの位置及び回転角度を設定する(S213)。   After step S212 is executed, the control unit 11 sets the bone position and rotation angle for opening and closing the eyelid of the face model 50 (S213).

図14はステップS213の処理について説明するための図である。図14は瞼を開閉するためのボーン70を示している。図14に示すように、瞼を開閉するためのボーン70が顔モデル50内に設定されている。このボーン70が所定角度(θ)回転することによって、上瞼72が下瞼74にくっつくようになっている。   FIG. 14 is a diagram for explaining the processing in step S213. FIG. 14 shows a bone 70 for opening and closing the heel. As shown in FIG. 14, a bone 70 for opening and closing the eyelid is set in the face model 50. The upper collar 72 sticks to the lower collar 74 by rotating the bone 70 by a predetermined angle (θ).

制御部11は、左目の瞼を開閉するためのボーン70の位置及び回転角度(θ)を、顔モデル50の左目の眼球54L、上瞼52B,52C、及び下瞼52Eの位置に基づいて設定する。すなわち、制御部11は、このボーン70が所定の回転角度(θ)だけ回転した場合に上瞼72が下瞼74とくっつくことになるように、このボーン70の位置及び回転角度(θ)を設定する。   The control unit 11 sets the position and rotation angle (θ) of the bone 70 for opening and closing the eyelid of the left eye based on the positions of the eyeball 54L, the upper eyelids 52B and 52C, and the lower eyelid 52E of the face model 50. To do. That is, the control unit 11 determines the position and rotation angle (θ) of the bone 70 so that the upper collar 72 sticks to the lower collar 74 when the bone 70 rotates by a predetermined rotation angle (θ). Set.

なお、右目の瞼を開閉するためのボーンも顔モデル50内に設定されており、このボーンの位置及び回転角度も左目の瞼を開閉するためのボーン70と同様にして設定される。   A bone for opening and closing the eyelid of the right eye is also set in the face model 50, and the position and rotation angle of this bone are set in the same manner as the bone 70 for opening and closing the eyelid of the left eye.

ステップS213が実行された後、制御部11は、顔モデル50の顎52T,52Uに対応するボーンの位置を補正する(S214)。すなわち、制御部11は、唇の中央部に対応する特徴点42Pに合わせて顎52T,52Uに対応するボーンを移動させる。   After step S213 is executed, the control unit 11 corrects the bone positions corresponding to the jaws 52T and 52U of the face model 50 (S214). That is, the control unit 11 moves the bones corresponding to the jaws 52T and 52U according to the feature point 42P corresponding to the central part of the lips.

ステップS214が実行された後、制御部11(顔テクスチャ画像生成部38)は顔テクスチャ画像を生成する(S215)。図15及び図16は顔テクスチャ画像の生成について説明するための図である。   After step S214 is executed, the control unit 11 (face texture image generation unit 38) generates a face texture image (S215). 15 and 16 are diagrams for explaining generation of a face texture image.

まず制御部11は、顔画像20の特徴点42Aが顔モデル50の眉間52Aに一致するようにして顔画像20を顔モデル50上に配置する。そして、その状態で制御部11はUVマップを生成する。また、図15に示すように、制御部11は、顔モデル50上に配置された顔画像20を平行投影してなる画像80を生成する。   First, the control unit 11 arranges the face image 20 on the face model 50 so that the feature points 42 </ b> A of the face image 20 coincide with the eyebrow space 52 </ b> A of the face model 50. In this state, the control unit 11 generates a UV map. As shown in FIG. 15, the control unit 11 generates an image 80 formed by parallel projection of the face image 20 arranged on the face model 50.

その後、図16に示すように、制御部11はスキンフレーム82を上記画像80に重ねることによって、顔テクスチャ画像84を生成する。なお、実際の上記画像80には歪んだ顔が描画されることになるが、図16では、説明の簡便のため、歪んでいない顔が上記画像80に描画されている。   Thereafter, as shown in FIG. 16, the control unit 11 generates a face texture image 84 by superimposing the skin frame 82 on the image 80. Note that a distorted face is drawn in the actual image 80, but in FIG. 16, a non-distorted face is drawn in the image 80 for the sake of simplicity of explanation.

スキンフレーム82は上記画像80に重ね合わせるマスクとしての役割を果たす。スキンフレーム82は肌領域90、透明領域92(斜線部分)、瞼領域94、鼻孔領域96、及び唇領域98を含む。肌領域90は肌を示す領域であり、肌領域90の色はスキンカラー選択画面で選択された色に設定される。透明領域92は透明に設定された領域である。透明領域92は顔部分に対応する形状を有する。   The skin frame 82 serves as a mask to be superimposed on the image 80. The skin frame 82 includes a skin region 90, a transparent region 92 (shaded portion), a heel region 94, a nostril region 96, and a lip region 98. The skin region 90 is a region indicating skin, and the color of the skin region 90 is set to the color selected on the skin color selection screen. The transparent area 92 is an area set to be transparent. The transparent region 92 has a shape corresponding to the face portion.

瞼領域94は肌領域90と同様に肌の色に設定される。瞼領域94が存在することによって、スキンフレーム82を上記画像80に重ね合わせてなる顔テクスチャ画像84において瞼部分に肌色が付されることになる。目を開けた顔が写っている顔画像20には瞼がほとんど写っていないが、この瞼領域94が存在することによって、瞼のある顔テクスチャ画像(言い換えれば、目が少し閉じた状態の顔テクスチャ画像)を生成することができる。   The wrinkle region 94 is set to the skin color in the same manner as the skin region 90. Due to the presence of the wrinkle region 94, a skin color is added to the wrinkle portion in the face texture image 84 formed by superimposing the skin frame 82 on the image 80. The face image 20 showing the face with open eyes shows almost no wrinkles, but the presence of the wrinkle region 94 allows the face texture image with the wrinkles (in other words, the face with the eyes slightly closed). Texture image) can be generated.

鼻孔領域96は肌領域90と同様に肌の色に設定される。鼻孔領域96が存在することによって、スキンフレーム82を上記画像80に重ね合わせてなる顔テクスチャ画像84において鼻孔部分に肌色が付されるようになる。   The nostril region 96 is set to the skin color in the same manner as the skin region 90. Due to the presence of the nostril region 96, a skin color is given to the nostril portion in the face texture image 84 formed by superimposing the skin frame 82 on the image 80.

唇領域98は唇の色に設定される。顔画像20では口が少し開いている場合もあるが、唇領域98が存在することによって、スキンフレーム82を上記画像80に重ね合わせてなる顔テクスチャ画像84において、少し開いた口部分が唇領域98によって上書きされることになる。   The lip area 98 is set to the color of the lips. In the face image 20, the mouth may be slightly open, but in the face texture image 84 formed by superimposing the skin frame 82 on the image 80 due to the presence of the lip region 98, the slightly open mouth portion is the lip region. 98 will be overwritten.

なお、制御部11は画像80の色を調整する。すなわち、制御部11は、顔画像20の特徴点42A〜42Wのいずれかの色と、スキンフレーム82の肌領域90に設定された所定色との間の差に基づいて、画像80の色を調整する。例えば、制御部11は、特徴点42Aとその近辺の一又は複数の点との色の平均値を算出する。さらに、制御部11は、その色と、スキンフレーム82の肌領域90に設定された所定色との間の差分値を算出する。そして、制御部11は、その差分値を画像80に設定される色に加算する。   Note that the control unit 11 adjusts the color of the image 80. That is, the control unit 11 changes the color of the image 80 based on the difference between any one of the feature points 42A to 42W of the face image 20 and the predetermined color set in the skin region 90 of the skin frame 82. adjust. For example, the control unit 11 calculates the average value of the colors of the feature point 42A and one or more points in the vicinity thereof. Further, the control unit 11 calculates a difference value between the color and a predetermined color set in the skin region 90 of the skin frame 82. Then, the control unit 11 adds the difference value to the color set in the image 80.

顔画像20は撮影環境によって明るすぎたり、暗すぎたり、赤みが強すぎたり、緑がかっていたりするが、以上のような調整が行われることによって、画像80の色がスキンフレーム82の肌領域90の色に合わせて調整されるようになる。その結果、顔テクスチャ画像84の色がスキンフレーム82の肌領域90の色に合ったものとなる。   The face image 20 may be too bright, too dark, too reddish, or greenish depending on the shooting environment. By performing the above adjustment, the color of the image 80 is changed to the skin area of the skin frame 82. It will be adjusted to 90 colors. As a result, the color of the face texture image 84 matches the color of the skin region 90 of the skin frame 82.

ステップS215が実行された後、制御部11は顔モデル50の正中線を調整する(S216)。ステップS216において、例えば、制御部11は、特徴点42A〜42Wのうちの少なくとも二つに基づいて、顔モデル50の正中線を調整する。具体的には、特徴点42A〜42Wのうちの少なくとも二つが顔モデル50の正中線に位置するようにして、顔モデル50が調整される。   After step S215 is executed, the control unit 11 adjusts the median line of the face model 50 (S216). In step S216, for example, the control unit 11 adjusts the median line of the face model 50 based on at least two of the feature points 42A to 42W. Specifically, the face model 50 is adjusted such that at least two of the feature points 42 </ b> A to 42 </ b> W are positioned on the median line of the face model 50.

例えば、制御部11は、唇の中央部に対応する特徴点42Pと鼻頭に対応する特徴点42MとのX座標を眉間に対応する特徴点42AのX座標と一致させることによって、特徴点42A,42M,42Pが顔モデル50の正中線に位置するように顔モデル50を調整する。言い換えれば、制御部11は、鼻頭52M、鼻の中骨56、及び唇の中央部52PのX座標を眉間52AのX座標と一致させることによって、眉間52A、鼻頭52M、鼻の中骨56、及び唇の中央部52Pが顔モデル50の正中線に位置するように顔モデル50を調整する。   For example, the control unit 11 matches the X coordinates of the feature point 42P corresponding to the center of the lips and the feature point 42M corresponding to the nasal head with the X coordinate of the feature point 42A corresponding to the eyebrow, thereby causing the feature points 42A, The face model 50 is adjusted so that 42M and 42P are positioned at the midline of the face model 50. In other words, the control unit 11 matches the X coordinate of the nasal head 52M, the nasal bone 56, and the center part 52P of the lip with the X coordinate of the glazing 52A, thereby causing the eyebrow 52A, the nasal head 52M, the nasal bone 56, And the face model 50 is adjusted so that the center part 52P of the lips is located at the median line of the face model 50.

また例えば、制御部11は、左口角に対応する特徴点42Oと右口角に対応する特徴点42Qとの間の中点のX座標を眉間に対応する特徴点42AのX座標と一致させることによって、特徴点42O,42Qの中点と特徴点42Aとが顔モデル50の正中線に位置するように顔モデル50を調整する。言い換えれば、制御部11は、唇の左口角52O及び右口角52Q(唇の両端にそれぞれ設定されるボーンの間の中点)のX座標を眉間52AのX座標と一致させることによって、唇の左口角52O及び右口角52Qの中点と眉間52Aとが顔モデル50の正中線に位置するように顔モデル50を調整する。   For example, the control unit 11 matches the X coordinate of the midpoint between the feature point 42O corresponding to the left mouth corner and the feature point 42Q corresponding to the right mouth corner with the X coordinate of the feature point 42A corresponding to the eyebrow. The face model 50 is adjusted so that the midpoint of the feature points 42O and 42Q and the feature point 42A are located on the median line of the face model 50. In other words, the control unit 11 matches the X coordinate of the left mouth corner 52O and the right mouth corner 52Q of the lips (the midpoint between the bones set at both ends of the lips) with the X coordinate of the lip 52A, thereby The face model 50 is adjusted so that the midpoint of the left mouth corner 52O and the right mouth corner 52Q and the eyebrow space 52A are positioned on the median line of the face model 50.

さらに、制御部11は、左目の目頭に対応する特徴点42Dと右目の目頭に対応する特徴点42Iとの間の中点のX座標を眉間に対応する特徴点42AのX座標と一致させることによって、特徴点42D,42Iの中点と特徴点42Aとが顔モデル50の正中線に位置するように顔モデル50を調整する。言い換えれば、制御部11は、左目の目頭52Dと右目の目頭52Iとの中点(左目の目頭52Dに設定されるボーンと右目の目頭52Iに設定されるボーンとの間の中点)のX座標を眉間52AのX座標と一致させることによって、左目の目頭52Dと右目の目頭52Iとの中点と眉間52Aとが顔モデル50の正中線に位置するように顔モデル50を調整する。ステップS216が実行されることによって、顔モデル50の正中線が整えられるようになる。   Furthermore, the control unit 11 matches the X coordinate of the midpoint between the feature point 42D corresponding to the left eye and the feature point 42I corresponding to the right eye with the X coordinate of the feature point 42A corresponding to the eyebrow. Thus, the face model 50 is adjusted so that the midpoint of the feature points 42D and 42I and the feature point 42A are located on the median line of the face model 50. In other words, the control unit 11 determines the midpoint between the left eye's eye 52D and the right eye's eye 52I (the midpoint between the bone set at the left eye's eye 52D and the bone set at the right eye's eye 52I). By matching the coordinates with the X coordinate of the eyebrows 52 </ b> A, the face model 50 is adjusted so that the midpoint between the left eye eye 52 </ b> D and the right eye eye 52 </ b> I and the eyebrows 52 </ b> A are located at the midline of the face model 50. By executing step S216, the median line of the face model 50 is adjusted.

以上で図7及び図8に示す処理は終了する。すなわち、図5のステップS103の処理は終了する。ステップS103(図7及び図8)が実行された後、制御部11は顔モデル50のデータ、顔テクスチャ画像84、及びUVマップを記憶部12に保存する(S104)。   Thus, the processing shown in FIGS. 7 and 8 ends. That is, the process of step S103 in FIG. After step S103 (FIGS. 7 and 8) is executed, the control unit 11 stores the data of the face model 50, the face texture image 84, and the UV map in the storage unit 12 (S104).

以上に説明した顔モデル生成装置10によれば、撮影装置によって撮影された顔画像20に基づいて顔モデル50を作成することができる。特に、顔モデル生成装置10によれば、ユーザは顔画像20に複数の特徴点42を設定することによって、顔画像20に対応する顔モデル50を作成できるようになる。すなわち、顔モデル生成装置10によれば、顔画像20に対応する顔モデル50を作成するために必要な作業時間を軽減することが可能になる。   According to the face model generation device 10 described above, the face model 50 can be created based on the face image 20 photographed by the photographing device. In particular, according to the face model generation device 10, the user can create a face model 50 corresponding to the face image 20 by setting a plurality of feature points 42 on the face image 20. That is, according to the face model generation device 10, it is possible to reduce the work time necessary for creating the face model 50 corresponding to the face image 20.

なお、本発明は以上に説明した実施形態に限定されるものではない。   The present invention is not limited to the embodiment described above.

10 顔モデル生成装置、11 制御部、12 記憶部、13 通信部、14 操作部、15 表示部、20 顔画像、30 設定画面表示制御部、32 特徴点設定部。34 特徴点取得部、36 顔モデル生成部。38 顔テクスチャ画像生成部、40 設定画面、42A〜42W 特徴点、44 連結線、50 顔モデル、52A 眉間、52B,52C,52G,52H 上瞼、52D,52I 目頭、52E,52J 下瞼、52F,52K 目尻、52L 左鼻翼、52M 鼻頭、52O 左口角、52P 中央部、52Q 右口角、52R 左頬骨、52S 左えら骨、52T,52U 顎、54L,54R 眼球、56 鼻の中骨、58 眼くつ骨、70 ボーン、72 上瞼、74 下瞼、80 画像、82 スキンフレーム、84 顔テクスチャ画像、90 肌領域、92 透明領域、92 瞼領域、94 鼻孔領域、96 唇領域。   DESCRIPTION OF SYMBOLS 10 Face model production | generation apparatus, 11 Control part, 12 Storage part, 13 Communication part, 14 Operation part, 15 Display part, 20 Face image, 30 Setting screen display control part, 32 Feature point setting part. 34 feature point acquisition unit, 36 face model generation unit. 38 face texture image generation unit, 40 setting screen, 42A to 42W feature point, 44 connecting line, 50 face model, 52A eyebrow, 52B, 52C, 52G, 52H upper eyelid, 52D, 52I eyelid, 52E, 52J lower eyelid, 52F , 52K Eye corner, 52L Left nose wing, 52M Nasal head, 52O Left mouth corner, 52P Center, 52Q Right mouth corner, 52R Left cheekbone, 52S Left gill bone, 52T, 52U Jaw, 54L, 54R Eyeball, 56 Nasal bone, 58 eyes Shoebone, 70 bones, 72 upper eyelids, 74 lower eyelids, 80 images, 82 skin frames, 84 facial texture images, 90 skin regions, 92 transparent regions, 92 heel regions, 94 nostril regions, 96 lip regions.

Claims (16)

撮影された顔画像に基づいて、顔の三次元モデルである顔モデルを生成する顔モデル生成装置において、
前記顔画像内に設定された、前記顔内の所定部位に対応する複数の特徴点の位置を取得する特徴点取得手段と、
前記複数の特徴点の位置に基づいて前記顔モデルを生成する顔モデル生成手段と、
を含むことを特徴とする顔モデル生成装置。
In a face model generation device that generates a face model that is a three-dimensional model of a face based on a photographed face image,
Feature point acquisition means for acquiring the positions of a plurality of feature points corresponding to a predetermined part in the face set in the face image;
Face model generation means for generating the face model based on the positions of the plurality of feature points;
A face model generation apparatus characterized by comprising:
請求項1に記載の顔モデル生成装置において、
前記顔モデルには複数のボーンが設定され、
前記顔モデル生成手段は、前記複数の特徴点の位置関係に基づいて、前記複数のボーンの位置又は大きさを設定する手段を含む、
ことを特徴とする顔モデル生成装置。
The face model generation device according to claim 1,
A plurality of bones are set in the face model,
The face model generation means includes means for setting positions or sizes of the plurality of bones based on a positional relationship between the plurality of feature points.
A face model generation device characterized by that.
請求項2に記載の顔モデル生成装置において、
前記複数の特徴点は、額の中央部又は眉間に対応する特徴点と、顎に対応する特徴点と、を含み、
前記顔モデル生成手段は、前記額の中央部又は眉間に対応する特徴点と、前記顎に対応する特徴点と、に基づいて得られる距離に基づいて、前記複数のボーンの位置又は大きさを設定する手段を含む、
ことを特徴とする顔モデル生成装置。
The face model generation device according to claim 2,
The plurality of feature points include a feature point corresponding to the center of the forehead or the eyebrows, and a feature point corresponding to the chin,
The face model generation means determines the positions or sizes of the plurality of bones based on distances obtained based on a feature point corresponding to a central portion of the forehead or between the eyebrows and a feature point corresponding to the jaw. Including means for setting,
A face model generation device characterized by that.
請求項2又は3に記載の顔モデル生成装置において、
前記複数の特徴点は、左頬骨に対応する特徴点と、右頬骨に対応する特徴点と、を含み、
前記顔モデル生成手段は、前記左頬骨に対応する特徴点と、前記右頬骨に対応する特徴点と、に基づいて得られる距離に基づいて、前記複数のボーンの位置又は大きさを設定する手段を含む、
ことを特徴とする顔モデル生成装置。
The face model generation device according to claim 2 or 3,
The plurality of feature points include a feature point corresponding to the left cheekbone and a feature point corresponding to the right cheekbone,
The face model generating means is means for setting positions or sizes of the plurality of bones based on a distance obtained based on a feature point corresponding to the left cheekbone and a feature point corresponding to the right cheekbone. including,
A face model generation device characterized by that.
請求項4に記載の顔モデル生成装置において、
前記複数の特徴点は、左頬骨に対応する特徴点と、右頬骨に対応する特徴点と、左えら骨に対応する特徴点と、右えら骨に対応する特徴点と、を含み、
前記顔モデル生成手段は、前記左頬骨に対応する特徴点と前記右頬骨に対応する特徴点とに基づいて得られる距離と、前記左えら骨に対応する特徴点と前記右えら骨に対応する特徴点とに基づいて得られる距離と、の比に基づいて、前記複数のボーンの位置又は大きさを設定する手段を含む、
ことを特徴とする顔モデル生成装置。
The face model generation device according to claim 4,
The plurality of feature points include a feature point corresponding to the left cheekbone, a feature point corresponding to the right cheekbone, a feature point corresponding to the left gillbone, and a feature point corresponding to the right gillbone,
The face model generation means corresponds to the distance obtained based on the feature point corresponding to the left cheekbone and the feature point corresponding to the right cheekbone, the feature point corresponding to the left gillbone, and the right gillbone Means for setting the position or size of the plurality of bones based on a ratio of a distance obtained based on the feature points;
A face model generation device characterized by that.
請求項1乃至5のいずれかに記載の顔モデル生成装置において、
前記顔モデルは、眼球を表す眼球オブジェクトを含み、
前記複数の特徴点は、目頭に対応する特徴点と、目尻に対応する特徴点と、上瞼に対応する特徴点と、下瞼に対応する特徴点と、を含み、
前記顔モデル生成手段は、前記目頭に対応する特徴点の位置と、前記目尻に対応する特徴点の位置と、前記上瞼に対応する特徴点の位置と、前記下瞼に対応する特徴点の位置と、に基づいて、前記眼球オブジェクトの位置又は大きさを設定する手段を含む、
ことを特徴とする顔モデル生成装置。
The face model generation device according to any one of claims 1 to 5,
The face model includes an eyeball object representing an eyeball,
The plurality of feature points include a feature point corresponding to the eye corner, a feature point corresponding to the corner of the eye, a feature point corresponding to the upper eyelid, and a feature point corresponding to the lower eyelid,
The face model generation means includes a position of a feature point corresponding to the eye corner, a position of a feature point corresponding to the corner of the eye, a position of a feature point corresponding to the upper eyelid, and a feature point corresponding to the lower eyelid. And means for setting the position or size of the eyeball object based on the position,
A face model generation device characterized by that.
請求項6に記載の顔モデル生成装置において、
前記顔モデルには、瞼を開閉するためのボーンが設定され、当該ボーンが回転することによって前記瞼が開閉し、
前記顔モデル生成手段は、前記瞼を開閉するためのボーンの回転角度の上限を、前記上瞼に対応する特徴点の位置と、前記下瞼に対応する特徴点の位置と、前記眼球オブジェクトの位置と、に基づいて設定する手段を含む、
ことを特徴とする顔モデル生成装置。
The face model generation device according to claim 6,
In the face model, a bone for opening and closing the eyelid is set, and when the bone rotates, the eyelid opens and closes,
The face model generation means sets the upper limit of the rotation angle of the bone for opening and closing the eyelid, the position of the feature point corresponding to the upper eyelid, the position of the feature point corresponding to the lower eyelid, and the eyeball object And means for setting based on the position,
A face model generation device characterized by that.
請求項1乃至7のいずれかに記載の顔モデル生成装置において、
前記顔モデルには、頬骨に対応するボーンが設定され、
前記複数の特徴点は、左口角に対応する特徴点と、右口角に対応する特徴点と、唇の中央部に対応する特徴点と、を含み、
前記顔モデル生成手段は、前記左口角に対応する特徴点の位置と、前記右口角に対応する特徴点の位置と、前記唇の中央部に対応する特徴点の位置と、に基づいて、前記頬骨に対応するボーンの位置を設定する手段を含む、
ことを特徴とする顔モデル生成装置。
The face model generation device according to any one of claims 1 to 7,
In the face model, a bone corresponding to the cheekbone is set,
The plurality of feature points include a feature point corresponding to the left mouth corner, a feature point corresponding to the right mouth corner, and a feature point corresponding to the center of the lips,
The face model generation means, based on the position of the feature point corresponding to the left mouth corner, the position of the feature point corresponding to the right mouth corner, and the position of the feature point corresponding to the center of the lips, Including means for setting the position of the bone corresponding to the cheekbone,
A face model generation device characterized by that.
請求項1乃至8のいずれかに記載の顔モデル生成装置において、
前記顔モデルにマッピングする顔テクスチャ画像を前記顔画像に基づいて生成する顔テクスチャ画像生成手段を含み、
前記顔テクスチャ画像生成手段は、前記複数の特徴点のうちのいずれかの特徴点の色と、所定の色と、の差に基づいて、前記顔テクスチャ画像の色を調整する手段を含む、
ことを特徴とする顔モデル生成装置。
The face model generation device according to any one of claims 1 to 8,
A face texture image generating means for generating a face texture image to be mapped to the face model based on the face image;
The face texture image generation means includes means for adjusting the color of the face texture image based on a difference between a color of any one of the plurality of feature points and a predetermined color.
A face model generation device characterized by that.
請求項1乃至9のいずれかに記載の顔モデル生成装置において、
前記顔モデル生成手段は、前記複数の特徴点のうちの少なくとも二つが前記顔モデルの正中線上に位置するように、前記顔モデルを調整する手段を含む、
ことを特徴とする顔モデル生成装置。
The face model generation device according to any one of claims 1 to 9,
The face model generation means includes means for adjusting the face model so that at least two of the plurality of feature points are located on a median line of the face model.
A face model generation device characterized by that.
請求項10に記載の顔モデル生成装置において、
前記複数の特徴点は、額の中央部又は眉間に対応する特徴点と、唇の中央部又は鼻頭に対応する特徴点と、を含み、
前記顔モデル生成手段は、前記額の中央部又は眉間に対応する特徴点と、前記唇の中央部又は鼻頭に対応する特徴点と、が前記顔モデルの正中線上に位置するように、前記顔モデルを調整する手段を含む、
ことを特徴とする顔モデル生成装置。
The face model generation device according to claim 10,
The plurality of feature points include a feature point corresponding to the center part of the forehead or the eyebrows, and a feature point corresponding to the center part of the lips or the nasal head,
The face model generation means is configured to make the face point such that a feature point corresponding to the center part of the forehead or the eyebrow and a feature point corresponding to the center part of the lip or the nasal head are located on the median line of the face model. Including means to adjust the model,
A face model generation device characterized by that.
請求項10に記載の顔モデル生成装置において、
前記複数の特徴点は、左口角に対応する特徴点と、右口角に対応する特徴点と、を含み、
前記顔モデル生成手段は、前記左口角に対応する特徴点と、前記右口角に対応する特徴点と、の間の中間点が前記顔モデルの正中線上に位置するように、前記顔モデルを調整する手段を含む、
ことを特徴とする顔モデル生成装置。
The face model generation device according to claim 10,
The plurality of feature points include a feature point corresponding to a left mouth corner and a feature point corresponding to a right mouth corner,
The face model generation unit adjusts the face model so that an intermediate point between the feature point corresponding to the left mouth corner and the feature point corresponding to the right mouth corner is located on the median line of the face model. Including means to
A face model generation device characterized by that.
請求項10に記載の顔モデル生成装置において、
前記複数の特徴点は、左目に対応する特徴点と、右目に対応する特徴点と、を含み、
前記顔モデル生成手段は、前記左目に対応する特徴点と、前記右目に対応する特徴点と、の間の中間点が前記顔モデルの正中線上に位置するように、前記顔モデルを調整する手段を含む、
ことを特徴とする顔モデル生成装置。
The face model generation device according to claim 10,
The plurality of feature points include a feature point corresponding to the left eye and a feature point corresponding to the right eye,
The face model generation means adjusts the face model so that an intermediate point between the feature point corresponding to the left eye and the feature point corresponding to the right eye is located on the median line of the face model. including,
A face model generation device characterized by that.
請求項1乃至13のいずれかに記載の顔モデル生成装置において、
前記複数の特徴点の位置を前記ユーザが設定するための設定画面として、前記複数の特徴点が前記顔画像上に表された画面を表示手段に表示させる表示制御手段と、
前記ユーザの操作に基づいて、前記顔画像上に表された前記複数の特徴点のうちの少なくとも一つの位置を変更する変更手段と、を含み、
前記設定画面では特徴点間が直線で連結されている、
ことを特徴とする顔モデル生成装置。
The face model generation device according to any one of claims 1 to 13,
Display control means for displaying on the display means a screen in which the plurality of feature points are displayed on the face image as a setting screen for the user to set the positions of the plurality of feature points;
Changing means for changing the position of at least one of the plurality of feature points represented on the face image based on the operation of the user,
In the setting screen, feature points are connected with a straight line,
A face model generation device characterized by that.
撮影された顔画像に基づいて、顔の三次元モデルである顔モデルを生成する顔モデル生成装置の制御方法において、
前記顔画像内に設定された、前記顔内の所定部位に対応する複数の特徴点の位置を取得する特徴点取得ステップと、
前記複数の特徴点の位置に基づいて前記顔モデルを生成する顔モデル生成ステップと、
を含むことを特徴とする顔モデル生成装置の制御方法。
In a control method of a face model generation device that generates a face model which is a three-dimensional face model based on a photographed face image
A feature point obtaining step for obtaining positions of a plurality of feature points corresponding to a predetermined part in the face set in the face image;
A face model generation step for generating the face model based on the positions of the plurality of feature points;
A control method for a face model generation device, comprising:
撮影された顔画像に基づいて、顔の三次元モデルである顔モデルを生成する顔モデル生成装置としてコンピュータを機能させるためのプログラムであって、
前記顔画像内に設定された、前記顔内の所定部位に対応する複数の特徴点の位置を取得する特徴点取得手段、及び、
前記複数の特徴点の位置に基づいて前記顔モデルを生成する顔モデル生成手段、
として前記コンピュータを機能させるためのプログラム。
A program for causing a computer to function as a face model generation device that generates a face model that is a three-dimensional model of a face based on a photographed face image,
Feature point acquisition means for acquiring the positions of a plurality of feature points corresponding to a predetermined part in the face set in the face image; and
Face model generation means for generating the face model based on the positions of the plurality of feature points;
A program for causing the computer to function as
JP2013074312A 2013-03-29 2013-03-29 Face model generating device, method for controlling face model generating device, and program Pending JP2014199536A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013074312A JP2014199536A (en) 2013-03-29 2013-03-29 Face model generating device, method for controlling face model generating device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013074312A JP2014199536A (en) 2013-03-29 2013-03-29 Face model generating device, method for controlling face model generating device, and program

Publications (1)

Publication Number Publication Date
JP2014199536A true JP2014199536A (en) 2014-10-23

Family

ID=52356403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013074312A Pending JP2014199536A (en) 2013-03-29 2013-03-29 Face model generating device, method for controlling face model generating device, and program

Country Status (1)

Country Link
JP (1) JP2014199536A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6490861B1 (en) * 2018-08-17 2019-03-27 株式会社シャルマン Method of setting reference front of three-dimensional face image, method of selecting glasses using the same, and method of creating medical record using the same
WO2019117146A1 (en) * 2017-12-15 2019-06-20 株式会社シャルマン Reference-front-surface-setting device, measurement device, spectacles selection device, medical card creation device, measurement method, spectacles selection method, and medical card creation method
JP2022500790A (en) * 2019-05-15 2022-01-04 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co., Ltd. Face model generation methods, devices, electronic devices and computer readable storage media
JP7076861B1 (en) 2021-09-17 2022-05-30 株式会社PocketRD 3D avatar generator, 3D avatar generation method and 3D avatar generation program
JP2022529757A (en) * 2019-04-26 2022-06-24 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド How to display virtual character faces, devices, computer devices, and computer programs

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030099409A1 (en) * 2001-11-23 2003-05-29 Canon Kabushiki Kaisha Method and apparatus for generating models of individuals
JP2004094773A (en) * 2002-09-03 2004-03-25 Nec Corp Head wearing object image synthesizing method and device, makeup image synthesizing method and device, and program
US20060245639A1 (en) * 2005-04-29 2006-11-02 Microsoft Corporation Method and system for constructing a 3D representation of a face from a 2D representation
JP2009077384A (en) * 2007-08-29 2009-04-09 Nintendo Co Ltd Portable imaging apparatus and program
JP2009211148A (en) * 2008-02-29 2009-09-17 Secom Co Ltd Face image processor
JP2010532890A (en) * 2007-07-06 2010-10-14 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド Avatar customization apparatus and method
JP2011097202A (en) * 2009-10-28 2011-05-12 Kyocera Mita Corp Image processing apparatus, image forming apparatus, and image processing method
JP2012038106A (en) * 2010-08-06 2012-02-23 Canon Inc Information processor, information processing method and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030099409A1 (en) * 2001-11-23 2003-05-29 Canon Kabushiki Kaisha Method and apparatus for generating models of individuals
JP2004094773A (en) * 2002-09-03 2004-03-25 Nec Corp Head wearing object image synthesizing method and device, makeup image synthesizing method and device, and program
US20060245639A1 (en) * 2005-04-29 2006-11-02 Microsoft Corporation Method and system for constructing a 3D representation of a face from a 2D representation
JP2010532890A (en) * 2007-07-06 2010-10-14 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド Avatar customization apparatus and method
JP2009077384A (en) * 2007-08-29 2009-04-09 Nintendo Co Ltd Portable imaging apparatus and program
JP2009211148A (en) * 2008-02-29 2009-09-17 Secom Co Ltd Face image processor
JP2011097202A (en) * 2009-10-28 2011-05-12 Kyocera Mita Corp Image processing apparatus, image forming apparatus, and image processing method
JP2012038106A (en) * 2010-08-06 2012-02-23 Canon Inc Information processor, information processing method and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
五十嵐 敏夫: "顔の3次元形状からの骨格推定", 電子情報通信学会2000年総合大会講演論文集予稿集, JPN6015003458, 7 March 2000 (2000-03-07), JP, pages 282, ISSN: 0002994895 *
橋本 周司: "顔のモデリングと認識", 情報処理学会研究報告, vol. Vol.2003 No.66 IPSJ SIG, JPN6015003456, 4 July 2003 (2003-07-04), JP, pages 53 - 60, ISSN: 0002994894 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019117146A1 (en) * 2017-12-15 2019-06-20 株式会社シャルマン Reference-front-surface-setting device, measurement device, spectacles selection device, medical card creation device, measurement method, spectacles selection method, and medical card creation method
JP6490861B1 (en) * 2018-08-17 2019-03-27 株式会社シャルマン Method of setting reference front of three-dimensional face image, method of selecting glasses using the same, and method of creating medical record using the same
JP2019109491A (en) * 2018-08-17 2019-07-04 株式会社シャルマン Method of setting reference front of three-dimensional facial image, method of selecting spectacles using the same, and method of generating customer records using the same
JP2022529757A (en) * 2019-04-26 2022-06-24 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド How to display virtual character faces, devices, computer devices, and computer programs
JP7206388B2 (en) 2019-04-26 2023-01-17 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Virtual character face display method, apparatus, computer device, and computer program
JP2022500790A (en) * 2019-05-15 2022-01-04 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co., Ltd. Face model generation methods, devices, electronic devices and computer readable storage media
JP7191213B2 (en) 2019-05-15 2022-12-16 北京市商▲湯▼科技▲開▼▲發▼有限公司 Face model generation method, device, electronic device, and computer-readable storage medium
US11836943B2 (en) 2019-05-15 2023-12-05 Beijing Sensetime Technology Development Co., Ltd. Virtual face model creation based on key point
JP7076861B1 (en) 2021-09-17 2022-05-30 株式会社PocketRD 3D avatar generator, 3D avatar generation method and 3D avatar generation program
JP2023044195A (en) * 2021-09-17 2023-03-30 株式会社PocketRD Three-dimensional avatar generation device, three-dimensional avatar generation method, and three-dimensional avatar generation program

Similar Documents

Publication Publication Date Title
US11423556B2 (en) Methods and systems to modify two dimensional facial images in a video to generate, in real-time, facial images that appear three dimensional
US10089522B2 (en) Head-mounted display with facial expression detecting capability
US11645801B2 (en) Method for synthesizing figure of virtual object, electronic device, and storage medium
AU2018214005B2 (en) Systems and methods for generating a 3-D model of a virtual try-on product
US9563975B2 (en) Makeup support apparatus and method for supporting makeup
JP6375480B2 (en) Makeup support device, makeup support system, makeup support method, and makeup support program
WO2017152673A1 (en) Expression animation generation method and apparatus for human face model
JP2019510297A (en) Virtual try-on to the user&#39;s true human body model
JP2014199536A (en) Face model generating device, method for controlling face model generating device, and program
CN107452049B (en) Three-dimensional head modeling method and device
BR102012033722A2 (en) System and method for makeup simulation on handheld digital camera devices
JP2001109907A (en) Three-dimensional model generation device, three- dimensional model generation method, and recording medium recording three-dimensional model generation program
KR20100026240A (en) 3d hair style simulation system and method using augmented reality
WO2014128747A1 (en) I/o device, i/o program, and i/o method
CN112669447A (en) Model head portrait creating method and device, electronic equipment and storage medium
WO2015017687A2 (en) Systems and methods for producing predictive images
WO2021232690A1 (en) Video generating method and apparatus, electronic device, and storage medium
CN111008927A (en) Face replacement method, storage medium and terminal equipment
JP2021144582A (en) Makeup simulation device, makeup simulation method and program
JPWO2014128750A1 (en) I / O device, I / O program, and I / O method
JPH09305798A (en) Image display device
US10152827B2 (en) Three-dimensional modeling method and electronic apparatus thereof
KR101874760B1 (en) Information processing device, control method and recording medium
CN115424308A (en) Intelligent cosmetic mirror and method for displaying auxiliary makeup
JP6547244B2 (en) Operation processing apparatus, operation processing method and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150602