JP2009009296A - Face image deformation method and face image deformation device implementing this method - Google Patents
Face image deformation method and face image deformation device implementing this method Download PDFInfo
- Publication number
- JP2009009296A JP2009009296A JP2007169170A JP2007169170A JP2009009296A JP 2009009296 A JP2009009296 A JP 2009009296A JP 2007169170 A JP2007169170 A JP 2007169170A JP 2007169170 A JP2007169170 A JP 2007169170A JP 2009009296 A JP2009009296 A JP 2009009296A
- Authority
- JP
- Japan
- Prior art keywords
- face
- face image
- feature
- movement amount
- facial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、学習データに基づき顔画像を変形し、適切な整形画像を作成する顔画像変形技術に関する。 The present invention relates to a face image deformation technique for deforming a face image based on learning data and creating an appropriate shaped image.
現在、世間の美容整形に対する関心は非常に高まっており、顔の一部分を整形するなどの施術は盛んに行われている状況にある。しかしながら、整形を行う前には綿密な話し合いの元、整形の詳細が決定されるものの、整形前に整形後の顔が確認できないため、顧客側には不安が残っているのが現状である。 At present, there is a great interest in public cosmetic surgery, and treatments such as shaping a part of the face are being actively performed. However, although the details of shaping are determined based on a thorough discussion before shaping, the face after shaping cannot be confirmed before shaping, so the customer is still uneasy.
この問題点を解決するために、仮想的に整形後の顔画像を生成し顧客に提示するシステム(特許文献1)や、整形の方針を画面に提示し整形後の顔に対する理解を深めるシステム(特許文献2)、モーフィング用いて自身の顔を好みの顔に近づける方法(特許文献3)などの技術が知られている。 In order to solve this problem, a system that virtually generates a face image after shaping and presents it to the customer (Patent Document 1), or a system that presents a shaping policy on the screen and deepens the understanding of the face after shaping ( There are known techniques such as Patent Document 2) and a method of using morphing to bring a face close to a favorite face (Patent Document 3).
このように、仮想的な整形を行い顧客に提示する種々の技術がある。しかしながら、特許文献1の技術では、顔のパーツ(目、眉、鼻、口、輪郭など)をどのように変形させるかを数値で入力しなければならないため、直感的な操作が困難である。また、特許文献2の技術では、美しくなるための指針は直感的に得られるが、整形後の顔を確認することはできない。特許文献3の技術は、顔パーツ毎に好みの人に近づけた整形画像を作成することはできるが、総合的に美しい整形画像を得るためには多くの試行錯誤が必要となる。本発明の課題は、簡易な操作で、整形を望む顧客に適した整形画像を得ることができる顔画像変形方法および装置を提供することである。
In this way, there are various techniques for performing virtual shaping and presenting it to the customer. However, in the technique of
本発明の顔画像変形方法は、顔画像を入力する画像入力ステップと、前記顔画像から顔特徴である特徴点および特徴線を抽出する顔特徴抽出ステップと、前記顔特徴抽出ステップにより抽出された前記顔特徴の移動量を学習データに基づき決定する顔特徴移動量決定ステップと、前記顔特徴移動量決定ステップにより決定された移動量に基づき、前記顔画像における前記顔特徴を移動させた画像を生成する変形顔画像作成ステップを備える。
この方法によると、学習データに蓄積されている過去の変形データを基に変形に係る顔特徴の移動量が決定されるため、ユーザは自身の顔をどのように変形させれば美しくなるかが不明な場合にも対応することができる。さらに、変形後の顔画像を生成しユーザに提示されるので、整形後の顔を確認することが可能となる。
The face image deformation method of the present invention is extracted by an image input step for inputting a face image, a face feature extraction step for extracting feature points and feature lines as face features from the face image, and the face feature extraction step. A facial feature movement amount determination step for determining the movement amount of the facial feature based on learning data; and an image obtained by moving the facial feature in the facial image based on the movement amount determined by the facial feature movement amount determination step. A deformed face image creation step is generated.
According to this method, since the movement amount of the facial feature related to the deformation is determined based on the past deformation data accumulated in the learning data, the user can see how beautiful his / her face is deformed. It is possible to cope with an unknown case. Furthermore, since the deformed face image is generated and presented to the user, the face after shaping can be confirmed.
本発明の顔画像変形方法は、前記顔特徴移動量決定ステップは、前記顔特徴抽出ステップにより抽出された顔特徴と類似する顔特徴を有する前記学習データの移動量に基づき当該顔特徴の移動量を決定する。この方法によると、ユーザの顔特徴と類似する顔特徴を持つ学習データが抽出され、当該学習データに対応する顔特徴の移動量に基づき、ユーザの顔特徴の移動量が決定されるため、ユーザの顔に類似する顔の人が過去に行った変形に基づきユーザの顔の変形が決定されるため、ユーザの顔特徴に対し適切な変形を得ることができる。 In the face image deformation method of the present invention, the facial feature movement amount determination step includes a movement amount of the facial feature based on a movement amount of the learning data having a facial feature similar to the facial feature extracted by the facial feature extraction step. To decide. According to this method, learning data having a facial feature similar to the user's facial feature is extracted, and the movement amount of the user's facial feature is determined based on the movement amount of the facial feature corresponding to the learning data. Since the deformation of the user's face is determined based on the deformation performed in the past by a person with a face similar to that of the user's face, it is possible to obtain an appropriate deformation for the user's facial features.
本発明の顔画像変形方法は、前記顔特徴移動量決定ステップは、前記顔特徴抽出ステップにより抽出された顔特徴を入力とし、当該顔特徴の移動量を出力とするニューラルネットワークを用いることを特徴とする。これにより、過去の学習データに基づき、容易にユーザに適切な変形顔画像を得ることが可能となる。 In the face image deformation method of the present invention, the facial feature movement amount determination step uses a neural network that receives the facial feature extracted by the facial feature extraction step and outputs the facial feature movement amount. And This makes it possible to easily obtain a deformed face image appropriate for the user based on past learning data.
本発明の顔画像変形方法は、前記学習データは、複数のクラスタから構成され、前記顔画像の変形の方針を指定する方針指定ステップを備え、前記顔特徴移動量決定ステップは、前記方針指定ステップにより指定された前記方針に基づき選択される前記クラスタを前記学習データとして使用する。これにより、例えば、自身の顔の印象を変えたい場合などにその印象に対応する学習データを用いることができ、容易に所望の印象を与える顔貌への変形顔画像を得ることが可能となる。 In the face image deformation method of the present invention, the learning data includes a plurality of clusters, and includes a policy specifying step that specifies a deformation policy of the face image, and the face feature movement amount determination step includes the policy specifying step. The cluster selected based on the policy specified by is used as the learning data. Thereby, for example, when it is desired to change the impression of the face, learning data corresponding to the impression can be used, and it is possible to easily obtain a deformed facial image that gives a desired impression.
本発明の顔画像変形方法は、変形を施す顔パーツを指定する顔パーツ指定ステップを備え、前記顔特徴移動量決定ステップは前記指定された顔パーツに係る顔特徴の移動量のみを決定する。これにより、顔の一部分のみを変形させたい場合にも対応することが可能となる。 The face image deformation method of the present invention includes a face part specifying step for specifying a face part to be deformed, and the face feature moving amount determining step determines only the moving amount of the face feature related to the specified face part. Thereby, it is possible to cope with a case where only a part of the face is desired to be deformed.
本発明の顔画像変形方法は、前記画像入力ステップに入力される顔画像は視点が異なる2以上の画像を含み、前記顔特徴抽出ステップは、3次元空間における顔特徴の位置を抽出し、前記顔特徴移動量決定ステップは、3次元空間における当該顔特徴の移動量を決定する。これにより、顔特徴を3次元的に捉えることができ、鼻等のように2次元では変形の確認が困難な場合にも対応することが可能となる。更に、複数視点画像を用いることにより3次元変形顔画像を生成することができ、様々な角度から整形後の顔を確認することが可能となる。 In the face image deformation method of the present invention, the face image input to the image input step includes two or more images having different viewpoints, and the face feature extraction step extracts the position of the face feature in a three-dimensional space, The facial feature movement amount determination step determines the movement amount of the facial feature in the three-dimensional space. As a result, facial features can be captured three-dimensionally, and it is possible to cope with cases where it is difficult to confirm deformation in two dimensions, such as the nose. Furthermore, by using a plurality of viewpoint images, a three-dimensional deformed face image can be generated, and the face after shaping can be confirmed from various angles.
さらに、本発明では、上述した顔画像変形方法をコンピュータに実行させるプログラムやそのプログラムを記録した媒体も権利の対象とするものである。
さらに、本発明では、上述した顔画像変形方法を組み込んだ顔画像変形装置も権利の対象としており、そのような顔画像変形装置は、顔画像を入力する画像入力部と、前記顔画像から顔特徴である特徴点および特徴線を抽出する顔特徴抽出部と、前記顔特徴抽出部により抽出された前記顔特徴の移動量を学習データに基づき決定する顔特徴移動量決定部と、前記顔特徴移動量決定部により決定された移動量に基づき、前記顔画像における前記顔特徴を移動させた画像を生成する変形顔画像作成部とから構成されている。当然ながら、このような顔画像変形装置は上述した顔画像変形方法で述べた全ての作用効果を得ることができる。
Further, in the present invention, a program for causing a computer to execute the face image deformation method described above and a medium on which the program is recorded are also subject to rights.
Further, in the present invention, a face image deformation device incorporating the above-described face image deformation method is also subject to rights, and such a face image deformation device includes an image input unit for inputting a face image, and a face from the face image. A facial feature extraction unit that extracts feature points and feature lines as features; a facial feature movement amount determination unit that determines a movement amount of the facial feature extracted by the facial feature extraction unit based on learning data; and the facial feature Based on the amount of movement determined by the amount-of-movement determining unit, a deformed face image creating unit that generates an image obtained by moving the facial feature in the face image is configured. Naturally, such a face image deformation device can obtain all the effects described in the face image deformation method described above.
〔第1の実施形態〕
本発明による、顔画像の変形方法および装置の実施形態を図面に基づき説明する。
図1は、本発明による顔画像変形方法を用いた顔画像変形装置の構成図である。この顔画像変形装置は、装置全体を制御するコントローラ1、コントローラ1に対しユーザの顔画像を入力するカメラ21、顔画像が記録された各種半導体メモリやCD−Rから顔画像データを取得するメディアリーダ22、写真等から顔画像データを取得するスキャナ23、コントローラ1を操作するための入力を行う入力機器24、各種情報を表示するモニタ25が接続されている。入力機器24は、キーボード24aやマウス24bなどを用いることができ、さらにトラックボールやモニタ25上に設置されたタッチパネルをも使用することができる。本実施形態では、汎用パソコンをコントローラ1として機能させている。この場合、コントローラ1をサーバとして機能させ、図示していないネットワークを通じて、クライアント端末から顔画像を送信し、変形顔画像を生成し、返送するなどの構成とすることもできる。
[First Embodiment]
An embodiment of a method and apparatus for deforming a face image according to the present invention will be described with reference to the drawings.
FIG. 1 is a configuration diagram of a face image deformation apparatus using a face image deformation method according to the present invention. This face image deformation apparatus includes a
この顔画像変形装置のコントローラ1は、CPUを中核部材として、顔画像変形装置の種々の動作を行うための機能部をハードウェア又はソフトウェアあるいはその両方で構築している。図2に示されているように、本発明に特に関係する機能部としては、カメラ21、メディアリーダ22、スキャナ23によって読み取られた顔画像を取り込む画像入力部11、画像入力部11により取り込まれた顔画像を保持するメモリ12、各種ウィンドや各種操作ボタンなどを含むグラフィック操作画面の作成やそれらのグラフィック操作画面を通じてのユーザ操作入力(キーボード24aやマウス24bなどによる)から制御コマンドを生成するGUI(Graphical User Interface)を構築するGUI部13、メモリ12に保持されている顔画像の変形画像を作成する顔画像変形部14、顔画像変形部14で作成された変形顔画像の表示やGUI部13により生成されるGUI画面をモニタ25に表示させるためのビデオ信号を生成するビデオ制御部15などが挙げられる。
The
顔画像変形部14は、メモリ12に保持されている顔画像データから顔変形の基礎となる特徴点および特徴線(以下、顔特徴と称する)を抽出する顔特徴抽出部30、学習データを基に顔特徴抽出部30により抽出された顔特徴の移動量を決定する顔特徴移動量決定部31、メモリ12に保持されている顔画像の顔特徴を顔特徴移動量決定部31により決定された移動量だけ移動させた変形顔画像を作成する変形顔画像作成部32を備えている。また、顔特徴移動量決定部31は、学習データを記憶する学習データ記憶部31aを有している。
The face
通常、顔画像変形部14は、ソフトウェアで構成されているが、これらをソフトウェアおよびハードウェアとの組み合わせにより構成しても良いし、ロジック等を組み合わせたハードウェアのみで構成しても構わない。
Normally, the face
次に、本発明による変形顔画像生成方法の動作を図3のフローチャートを用いて説明する。先ず、画像入力部11対し、カメラ21、メディアリーダ22もしくはスキャナ23からユーザの顔画像が入力され、入力された顔画像は顔の大きさの正規化や色補正などの前処理を施され、前処理前後の顔画像が共にメモリ12に顔画像が蓄積される(#01)。このとき、顔の大きさは、両眼距離が所定の距離になるよう正規化され、正規化時の拡大/縮小比率も同時にメモリ12に記憶される。このように正規化することにより、各人の顔の大きさに左右されることなく、顔特徴の移動量を求めることができる。また、入力された顔画像が低解像度である場合には、例えば特開2006−222493に開示されている技術により高解像度画像化し、原画像に代えて使用しても構わない。このように構成することにより、複数枚の低解像度画像が得られさえすれば、低解像度のカメラ21を使用することができ、装置の低廉化に寄与する。さらに、低解像度のカメラ21を用いても、変形後の画像の品質を維持することができる。
Next, the operation of the deformed face image generation method according to the present invention will be described with reference to the flowchart of FIG. First, a user's face image is input from the
顔画像変形装置に顔画像を入力したユーザは、変形を希望する顔パーツ(以下、変形顔パーツと称する)がある場合には、モニタ25上に構成されているGUIを通して、変形顔パーツを指定することができる。この指定を行うことにより、例えば「眼」のみを変形させたい等の要望に応えることができる。このとき、GUI部13は、GUIとして各顔パーツの名称と共にチェックボックスを表示し、ユーザに変形顔パーツに対応するチェックボックスのチェックを入れさせる、マウス24bを用いて、変形顔パーツを直接指定させるなどの方法を用いて、いずれの顔パーツが指定されたかを取得する。変形顔パーツの指定方法は、これに限定されるものではなく、他の方法を用いても構わない。また、変形顔パーツの指定は、複数の指定が可能であり、さらに「眼」等のように対になっている顔パーツに関しては、一方が指定された場合には他方も指定されたとみなすなどの構成とし、ユーザの利便性を高めることも可能である。
When there is a face part desired to be deformed (hereinafter referred to as a deformed face part), the user who has input the face image into the face image deforming apparatus designates the deformed face part through the GUI configured on the
GUI部13は、ユーザが指定した変形顔パーツを顔画像変形部14に通知する。ユーザから変形顔パーツの指定がない場合には、所定の変形顔パーツが指定されたものとして処理を進める。
The
顔画像変形部14において、顔特徴抽出部30が図4に示す顔特徴を抽出する(#02)。顔特徴抽出部30は、汎用的な顔特徴抽出プログラムを使用することができ、さらに顔特徴抽出部30が抽出した顔特徴の位置をGUI部13がユーザに提示し、ユーザはマウス24b等を操作することにより顔特徴位置を修正することも可能である。また、顔特徴抽出部30を用いずに、GUI部13を通じてユーザがマウス24b等を操作することにより、直接顔特徴位置を指定することも可能である。
In the face
本実施形態においては、顔特徴は図4に示す、左右の眉尻PRB1およびPLB1、左右の眉頭PRB2およびPLB2、左右の目尻PRE1およびPLE1、左右の目頭PRE2、PLE2、鼻PRN、PCNおよびPLN、左右の口角PRLおよびPLL、顔輪郭上の3点PRF、PCFおよびPLF、左右の眉の輪郭線LRBU、LRBL、LLBUおよびLLBL、左右の目の輪郭線LREU、LREL、LLEUおよびLLEL、唇の輪郭線LLUおよびLLL、輪郭線LFである。顔特徴はこれに限定されるものではなく、他の特徴点および特徴線を顔特徴として用いても構わない。また、本実施形態においては、特徴線は、曲線をベクトル化する方法を用いるが、関数によって近似し、係数を顔特徴として用いても良いし、他の方法を用いても構わない。 In this embodiment, the facial features shown in FIG. 4 are the left and right eyebrows PRB1 and PLB1, the left and right eyebrows PRB2 and PLB2, the left and right eye corners PRE1 and PLE1, the left and right eye heads PRE2, PLE2, the nose PRN, PCN and PLN, Left and right mouth corners PRL and PLL, three points PRF on the face contour, PCF and PLF, left and right eyebrow contours LRBU, LRBL, LLBU and LLBL, left and right eye contours LREU, LREL, LLEU and LLEL, lip contour Lines LLU and LLL, and contour line LF. The face feature is not limited to this, and other feature points and feature lines may be used as the face feature. In the present embodiment, the feature line uses a method of vectorizing a curve. However, the feature line may be approximated by a function, and a coefficient may be used as a face feature, or another method may be used.
次に、顔特徴移動量決定部31が後述する方法により、顔特徴抽出部30により抽出された顔特徴の移動量を決定する(#03)。このとき、ユーザが変形顔パーツを指定している場合は、指定された顔パーツに係る顔特徴の移動量が求められるが、これに限定されるものではなく、全顔特徴の移動量を求め、ユーザが指定した変形顔パーツに係る顔特徴のみを移動させ、変形顔画像を生成する構成にしても構わない。
Next, the facial feature movement
変形顔画像作成部32は、メモリ12に保持されている顔画像に対し、顔特徴抽出部30により抽出された顔特徴を顔特徴移動量決定部31により決定された移動量だけ移動させることにより、変形顔画像を作成する(#04)。このとき、メモリ12に保持されている正規化時の拡大/縮小比の逆数を移動量にかけることにより、正規化前の顔画像の顔特徴の移動量を算出することができる。
The deformed face
次に、図5のフローチャートを用いて顔特徴移動量決定部31の動作を説明する。学習データ記憶部31aには、多数の変形前顔画像の顔特徴と変形前後のそれらの移動量が蓄積されており、これらが顔特徴移動量決定部31で顔特徴の移動量を決定するための辞書として機能する。この辞書は、各変形前顔画像を顔特徴で張る多次元空間(以下、特徴空間と称する)中の点として表現し、それらの点群、および点群の分散共分散行列Σで構成されている。すなわち、辞書に登録されている画像数をN、特徴空間の次元数をrとすると、各変形前顔画像は特徴空間中の1点diに対応し、辞書は点群{di|i=1、2…N}および分散共分散行列Σ∈Rr×rとして表される。当然ながら、辞書作成時にも、前述した正規化を施された顔画像が使用される。
Next, the operation of the face feature movement
先ず、最小距離Lminおよび最近点dnearを初期化(#11)し、顔特徴抽出部30により抽出された顔特徴を特徴空間の点Pとして表現する(#12)。顔特徴から特徴空間中の点Pとする方法は、特徴点と特徴線を構成するベクトルの要素を所定の順序で並べることにより行うものとするが、これに限定される訳ではなく、他の方法を用いても構わない。
First, initialize the minimum distance L min and the nearest point d near to (# 11), representing the facial features extracted by the facial
次に、点Pと辞書中の点diとの距離を計算する(#13)。点Pと点diの距離Lは、L=(P−di)TΣ+(P−di)で表すことができる。ここでTは行列の転置、+は擬似逆行列を表すものとする。上記距離Lの式は、クラスタと点の距離を表すマハラノビス距離の式を変形したものである。マハラノビス距離を用いた場合、各固有ベクトル軸における点群{di}の分散値に応じて距離計算時に重みがかけられるため、点群{di}の分布特徴に応じた距離計算が可能となっている。本実施形態では、この考え方に基づき、点間距離Lを求めている。距離計算は、これに限定されるものではなく、ユークリッド距離など、他の距離を用いても構わない。 Next, the distance between the point P and the point d i in the dictionary is calculated (# 13). The distance L of the point P and the point d i can be expressed by L = (P-d i) T Σ + (P-d i). Here, T represents a transpose of a matrix, and + represents a pseudo inverse matrix. The above expression of distance L is a modification of the expression of Mahalanobis distance representing the distance between clusters and points. When the Mahalanobis distance is used, weighting is applied at the time of distance calculation according to the variance value of the point group {d i } on each eigenvector axis, so distance calculation according to the distribution feature of the point group {d i } is possible. ing. In this embodiment, the point-to-point distance L is obtained based on this concept. The distance calculation is not limited to this, and other distances such as Euclidean distance may be used.
点Pと点diとの距離Lがその時点の最小距離Lminより小さい場合(#14のYes分岐)には、最近点dnear=点di、Lmin=Lとする(#15)。この処理を全ての点diに対して行い、全ての点diに対する距離計算が完了した(#16のYes分岐)時点でのdnearに対応する顔特徴の移動量を点Pに対する移動量として決定する(#17)。このように、顔特徴の移動量を決定すれば、顔画像を入力したユーザと類似する顔特徴を持つ他人が行った変形と同等の変形を行うことができる。換言すると、ユーザは自分の顔をどのように変形すれば美しくなれるかが明確に分かっていない場合でも、過去に蓄積された変形パターンから自身と似た顔立ちの人が行った変形を用いることで、容易に自身に相応しい変形方法による顔画像変形を行うことが可能となる。 When the distance L between the point P and the point d i is smaller than the minimum distance L min at that time (Yes branch of # 14), the nearest point d near = point d i and L min = L are set (# 15). . This processing is performed for all points d i, the movement amount with respect to the point P of the movement amount of the corresponding face features d near at the time (Yes branch of # 16) which distance calculation is completed for all points d i (# 17). In this way, by determining the amount of movement of the facial feature, it is possible to perform a transformation equivalent to the transformation performed by another person having a facial feature similar to the user who has input the facial image. In other words, even if the user does not clearly know how to transform his / her face to make it beautiful, it is possible to use the deformation performed by a person with a similar face from the deformation pattern accumulated in the past. Therefore, it is possible to easily perform face image deformation by a deformation method suitable for itself.
辞書との距離に基づく移動量の決定方法は、上記方法に限定されるものではなく、点Pと全diとの距離を求め、距離が近いものから所定数を選択し、それらに対応する移動量の平均値を移動量として決定する、所定距離以内のdiに対応する移動量の平均を移動量として決定するなどの方法を用いることも可能であるし、他の方法により移動量を決定しても構わない。 The method for determining the amount of movement based on the distance from the dictionary is not limited to the above method, and the distance between the point P and all d i is obtained, a predetermined number is selected from the closest ones, and the corresponding values are determined. It is possible to use a method such as determining the average value of the movement amount as the movement amount, or determining the average of the movement amount corresponding to d i within a predetermined distance as the movement amount. You can decide.
また、このとき、変形顔パーツの指定があった場合には、特徴点および特徴線をベクトル化する際に、必要な顔パーツの特徴点および特徴線のみを用いてベクトル化を行い、特徴空間の距離計算時にも、必要に応じ、特徴空間の次元を変更する。 At this time, if a deformed face part is specified, when the feature points and feature lines are vectorized, only the necessary feature points and feature lines of the face parts are used for vectorization. When calculating the distance, the dimension of the feature space is changed as necessary.
さらに、GUI部13を通じて、ユーザがどのような印象の顔貌になりたいかを指定させることも可能である。この場合には、学習データは印象毎の複数クラスタに分割されており、ユーザが選択した印象に対応するクラスタを学習データとして使用することにより、ユーザは容易に所望の印象を与える顔貌になるための特徴点および特徴線の移動量を求めることができる。相貌の印象とは、例えば、かわいらしい、理知的、若々しい、などである。このような構成を用いることにより、ユーザは自分と似た顔貌の人が、ある印象を与えるために施した顔の変形を自身の顔に施した結果を知ることができる。
Furthermore, it is also possible to specify what kind of facial appearance the user wants to become through the
また、顔特徴移動量決定部31はニューラルネットワークを用いても実現することが可能である。顔特徴移動量決定部31にニューラルネットワークを用いた場合には、学習データ記憶部31aには、図6に示すニューラルネットワークを構築するパラメータ等が記憶されている。図6のニューラルネットワークは、入力層が顔特徴、出力層が各顔特徴の移動量となる構成となっているが、この構成に限定されるものではなく、複数のニューラルネットワークを用い、各ニューラルネットワークを各顔パーツに対応させる、複数の顔パーツを組み合わせたものを対応させるなど、他の構成のニューラルネットワークを使用しても構わない。また、前記構成のニューラルネットワークを準備しておき、ユーザからの変形顔パーツの指定の有無などにより使用するニューラルネットワークを切り替えてもよい。このような構成すると、全顔特徴を1つのニューラルネットワークで処理した場合は、全体のバランスを考慮した変形、顔パーツ毎のニューラルネットワークを使用した場合には、個々の顔パーツに特化した変形、複数の顔パーツを一つのニューラルネットワークで処理した場合は、顔パーツ間のバランスを考慮した変形など、様々な状況に応じた変形を行うことが可能となる。
The face feature movement
顔特徴移動量決定部31は、図6のニューラルネットワークの入力層に対し、顔特徴抽出部30により抽出された顔特徴を設定し、出力層への出力を当該顔特徴の移動量とする。この場合にも、GUI部13を通じて、ユーザが変形顔パーツを指定していれば、指定された顔パーツに係る顔特徴に対する移動量のみが次の変形顔画像作成部32に渡される。ニューラルネットワークを用いた場合にも、顔の印象毎にニューラルネットワークを作成しておき、ユーザが所望する顔貌の印象によりニューラルネットワークを切り替えるなどの構成としても構わない。
The face feature movement
次に、図7のフローチャートを用いて変形顔画像作成部32において「眼」を変形させる場合の動作を説明する。他の顔パーツを変形させる場合も同様なので、他の顔パーツの変形の説明は割愛する。先ず、顔特徴移動量決定部31により決定された移動量を用いて特徴点PRE1、PRE2、PLE1、PLE2および特徴線LREU、LREL、LLEU、LLELを移動させる(#21)。次に、移動後の顔特徴で規定される顔パーツ(「眼」)を構成する点群{qi|i=1、2…M}を抽出し、各点qiの変形前の画像における対応点piを求め(#22)、piの画素値をqiの画素値とする(#23)。qiの座標値は整数であるが、対応するpiの座標値は、一般的には整数とならないため、piの周辺画素値を用いて補間によりpiの画素値を求め、それをqiの画素値とする。これを全てのqiの画素値が求まるまで(#24のYes分岐)繰り返すことにより、変形顔画像を作成する。このとき、変形前の画像で「眼」であった領域かつ{qi}に含まれていない領域は、変形後の画像では画素値が不定になっている。このような画素は、周辺の肌色画素を用いる等して画素値を決定する(#25)。
Next, an operation in the case where the “eye” is deformed in the deformed face
図8に、左眼を変形した場合を示す。この変形では、特徴線LLEUがLLEU'に移動することにより眼を大きくしている。このとき、特徴線LLEU'とLLELで囲まれる領域が{qi}である。顔特徴の移動から、変形前画像における点qiに対応する点を求め、その点の画素値を求め、その画素値を点qiの画素値とする。この例では、変形前の目領域は全て{qi}に属すため、画素値が不定になる画素は存在しないが、目尻の位置を変えた場合などには、画素値が不定となる画素が存在し、それらの画素値は周辺の肌色画素等を用いてを決定する。 FIG. 8 shows a case where the left eye is deformed. In this modification, the eye is enlarged by moving the feature line LLEU to LLEU ′. At this time, a region surrounded by the feature lines LLEU ′ and LLEL is {q i }. From the movement of the facial features, a point corresponding to the point q i in the pre-deformation image is obtained, the pixel value of the point is obtained, and the pixel value is set as the pixel value of the point q i . In this example, since all the eye regions before deformation belong to {q i }, there is no pixel with an indefinite pixel value, but when the position of the corner of the eye is changed, a pixel with an indefinite pixel value is present. These pixel values are determined using peripheral skin color pixels and the like.
変形顔画像作成部32により作成された変形顔画像は、ビデオ制御部15を通じモニタ25に表示される。このとき、さらにGUI部13を通じてユーザが顔特徴位置を変更可能にしても構わない。また、変形顔画像をユーザが気に入ったか否かを選択するボタン等をGUI上に構成することもでき、ユーザが気に入った場合には、当該ユーザの顔特徴とその移動量が学習データ記憶部31aに通知され、学習データ記憶部31aは通知された顔特徴およびその移動量を学習データに追加し、再学習を行う。再学習は、新たなデータが追加された都度行っても良いし、所定数のデータが追加された時点で行う等所定のタイミングで行っても構わない。このような構成を用いることにより、ユーザが顔画像変形装置を用いる毎に、学習データを強化することができる。
The deformed face image created by the deformed face
〔第2の実施形態〕
本発明による、顔画像の変形方法および装置の第2の実施形態を図面に基づき説明する。本発明による第2の実施形態は、第1の実施形態の機能に加え、3次元座標算出部31bを備えている。本発明の第2の実施形態においては、画像入力部11に対し、3次元座標が計算可能なデータ入力される。3次元座標が計算可能なデータは、例えば、ステレオカメラに代表される多視点画像や通常の顔画像およびレンジファインダ等による3次元データの組などを用いることができるが、これに限定されるものではなく、他の情報を用いても構わない。好ましくは、多視点画像が生成可能であり処理量が少ない3眼カメラによる画像を使用する。本実施形態においても3眼カメラを用いるものとする。図10に3眼カメラの配置例を示す。この例に場合には、カメラ21a、21bおよび21cは全て光軸が平行となる平行ステレオカメラとしているが、輻輳ステレオカメラとしても構わない。輻輳ステレオカメラを用いた場合には、平行ステレオカメラに比べ演算量が増加するが、多視点画像生成時の視点移動の幅を広くすることができる。また、カメラ21aとカメラ21b間の基線長およびカメラ21bとカメラ21c間の基線長を一致させているが、この配置に限定されるものではなく、他の配置を用いても構わない。カメラ21bの水平位置を他のカメラと異ならせているが、全てのカメラの水平位置を同一にしても構わない。このような3眼カメラを用いることにより、顔特徴の3次元位置を特定すると共に、視点を移動させて変形顔画像を確認することが可能となる。
[Second Embodiment]
A second embodiment of a facial image deformation method and apparatus according to the present invention will be described with reference to the drawings. The second embodiment according to the present invention includes a three-dimensional coordinate
以下、図9のフローチャートを用いて本発明の第2の実施形態の動作を説明する。画像入力部11に対し、3眼カメラにより撮影された3枚の顔画像が入力され(#31)、前処理が施された後、メモリ12に記憶される。顔特徴抽出部30では、メモリ12に記憶された3枚の画像それぞれから顔特徴が抽出される(#32)。顔特徴移動量決定部31において、3次元座標算出部31bにより各顔特徴の3次元座標が算出される(#33)。本実施形態においては、入力画像は3眼カメラを用いているため、通常のステレオカメラを用いた三角測量に基づく3次元計測方法と同様の方法で、3次元座標を算出することができる。ステレオカメラを用いた3次元計測においては、一般的に基線長が長い方が距離精度が高いことが知られているため、この3次元座標の算出に際し、カメラ21aとカメラ21cから取得された画像間での対応を優先させる。カメラ21aとカメラ21cから取得された画像間で、特徴点および特徴線の対応が取れない場合に限り、カメラ21bにより取得された画像を用いる。
The operation of the second embodiment of the present invention will be described below using the flowchart of FIG. Three face images photographed by the trinocular camera are input to the image input unit 11 (# 31), pre-processed, and stored in the
また、3次元座標算出部31bは、顔特徴の3次元座標からユーザの3次元顔モデルを生成する。3次元顔モデルは、入力画像から直接生成しても良いし、予め基本顔モデルを保持しておき、得られた顔特徴の3次元座標を用いて基本顔モデルを変形し、ユーザの顔に合った顔モデルを作成しても構わない。このように、変形顔モデルを作成しておくことにより、3次元変形顔画像を容易に作成することが可能となる。
The three-dimensional coordinate
次に、学習データ記憶部31aに記憶されている学習データを用い、前記の方法により顔特徴の3次元移動量が決定される。なお、本実施形態の場合、学習データ記憶部31aに記憶されている学習データも全て3次元的に変形を施されたデータである。
Next, using the learning data stored in the learning
変形顔画像作成部32では、3次元座標算出部31bにより作成された3次元顔モデルの顔特徴を、顔特徴移動量決定部31により決定された移動量に基づき移動させ(#34)、変形後のモデルにメモリ12に保持されているユーザの顔画像をレンダリングし、3次元顔画像を生成する(#35)。この場合、モニタ25は通常の2次元モニタやレンチキュラ方式、パララックスバリヤ方式等の3次元モニタを使用することができ、ビデオ制御部15は、接続されているモニタ25に応じて、3次元顔画像のフォーマットを変換し、モニタ25に表示させる。同時に、GUI部13は、モニタ25に表示されている顔画像を異なる視点から見られるように操作可能なGUIを提供し、ユーザはマウス24b等を操作し、視点の変更を指示し、GUI部13はビデオ制御部15に視点変更を通知し、視点変更を通知されたビデオ制御部15は視点変更に応じた表示画像を生成する。
The deformed face
本実施形態では、顔特徴を3次元位置で捉え、変形させることにより、鼻の高さに代表される2次元画像では確認が困難な顔特徴のカメラの視線方向への変形をも表現することが可能となる。更に、3眼カメラ等の多視点画像を用いることにより、ユーザが変形後の顔を確認する際に、様々な視点から見た画像を提供することができ、変形後の顔画像をより理解することが可能となる。 In the present embodiment, by capturing and deforming a facial feature at a three-dimensional position, the transformation of the facial feature that is difficult to confirm in a two-dimensional image typified by the height of the nose is also expressed. Is possible. Furthermore, by using a multi-viewpoint image such as a three-lens camera, when the user confirms the deformed face, images viewed from various viewpoints can be provided, and the face image after deformation can be understood more. It becomes possible.
上述した実施形態の説明では、本発明による顔画像変形方法が汎用コンピュータにプログラムとして組み込まれた例を説明したが、専用ハードウェアを用いて、ロジックの組み合わせによりハードウェアのみで、もしくはハードウェアとソフトウェアを組み合わせた構成としても構わない。 In the description of the above-described embodiment, an example in which the face image deformation method according to the present invention is incorporated as a program in a general-purpose computer has been described. However, using dedicated hardware, only hardware or a combination of hardware and logic. A configuration combining software may be used.
1:コントローラ
11:画像入力部
12:メモリ
13:GUI部
14:顔画像変形部
15:ビデオ制御部
21:カメラ
22:メディアリーダ
23:スキャナ
24:入力機器
24a:キーボード
24b:マウス
25:モニタ
30:顔特徴抽出部
31:顔特徴移動量決定部
31a:学習データ記憶部
31b:3次元座標算出部
32:変形顔画像作成部
1: Controller 11: Image input unit 12: Memory 13: GUI unit 14: Face image transformation unit 15: Video control unit 21: Camera 22: Media reader 23: Scanner 24:
Claims (7)
前記顔画像から顔特徴である特徴点および特徴線を抽出する顔特徴抽出ステップと、
前記顔特徴抽出ステップにより抽出された前記顔特徴の移動量を統計的学習則に基づき決定する顔特徴移動量決定ステップと、
前記顔特徴移動量決定ステップにより決定された移動量に基づき、前記顔画像における前記顔特徴を移動させた画像を生成する変形顔画像作成ステップと、を備えることを特徴とする顔画像変形方法。 An image input step for inputting a face image;
A facial feature extraction step of extracting feature points and feature lines that are facial features from the facial image;
A facial feature movement amount determination step for determining a movement amount of the facial feature extracted by the facial feature extraction step based on a statistical learning rule;
A face image deformation method comprising: a deformed face image creation step of generating an image obtained by moving the face feature in the face image based on the amount of movement determined by the face feature movement amount determination step.
前記顔画像の変形の方針を指定する方針指定ステップを備え、
前記顔特徴移動量決定ステップは、前記方針指定ステップにより指定された前記方針に基づき選択される前記クラスタを前記学習データとして使用することを特徴とする請求項1から3のいずれか一項に記載の顔画像変形方法。 The learning data used for the statistical learning rule is composed of a plurality of clusters,
A policy designating step of designating a policy of deformation of the face image;
The said face feature movement amount determination step uses the said cluster selected based on the said policy designated by the said policy designation | designated step as said learning data. Face image deformation method.
前記顔特徴移動量決定ステップは前記指定された顔パーツに係る顔特徴の移動量のみを決定することを特徴とする請求項1から4のいずれか一項に記載の顔画像変形方法。 A face part specifying step for specifying a face part to be deformed is provided.
5. The face image deformation method according to claim 1, wherein the facial feature movement amount determination step determines only a movement amount of a facial feature related to the designated facial part. 6.
前記顔特徴抽出ステップは、3次元空間における顔特徴の位置を抽出し、
前記顔特徴移動量決定ステップは、3次元空間における当該顔特徴の移動量を決定することを特徴とする請求項1から5いずれか一項に記載の顔画像変形方法。 The face image input in the face image input step includes two or more images having different viewpoints,
The facial feature extraction step extracts a facial feature position in a three-dimensional space;
The face image deformation method according to claim 1, wherein the face feature movement amount determination step determines a movement amount of the face feature in a three-dimensional space.
前記顔画像から顔特徴である特徴点および特徴線を抽出する顔特徴抽出部と、
前記顔特徴抽出部により抽出された前記顔特徴の移動量を統計的学習則に基づき決定する顔特徴移動量決定部と、
前記顔特徴移動量決定部により決定された移動量に基づき、前記顔画像における前記顔特徴を移動させた画像を生成する変形顔画像作成部と、を備えることを特徴とする顔画像変形装置。 An image input unit for inputting a face image;
A facial feature extraction unit that extracts feature points and feature lines that are facial features from the facial image;
A facial feature movement amount determination unit that determines a movement amount of the facial feature extracted by the facial feature extraction unit based on a statistical learning rule;
A face image deformation apparatus comprising: a deformed face image creation unit that generates an image obtained by moving the face feature in the face image based on the amount of movement determined by the face feature movement amount determination unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007169170A JP2009009296A (en) | 2007-06-27 | 2007-06-27 | Face image deformation method and face image deformation device implementing this method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007169170A JP2009009296A (en) | 2007-06-27 | 2007-06-27 | Face image deformation method and face image deformation device implementing this method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009009296A true JP2009009296A (en) | 2009-01-15 |
Family
ID=40324331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007169170A Withdrawn JP2009009296A (en) | 2007-06-27 | 2007-06-27 | Face image deformation method and face image deformation device implementing this method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009009296A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010224802A (en) * | 2009-03-23 | 2010-10-07 | Hironobu Otoi | Virtual face image creation device and virtual face image creation method |
JP2013242835A (en) * | 2012-05-21 | 2013-12-05 | Ntt Docomo Inc | Image communication system, image generation device and program |
JP2015176251A (en) * | 2014-03-13 | 2015-10-05 | オムロン株式会社 | Image processing apparatus and image processing method |
JP2020506471A (en) * | 2017-01-23 | 2020-02-27 | オックスフォード ユニヴァーシティ イノヴェーション リミテッド | Mobile device location method |
KR20210056944A (en) * | 2019-11-11 | 2021-05-20 | 주식회사 날비컴퍼니 | Method for editing image |
-
2007
- 2007-06-27 JP JP2007169170A patent/JP2009009296A/en not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010224802A (en) * | 2009-03-23 | 2010-10-07 | Hironobu Otoi | Virtual face image creation device and virtual face image creation method |
JP2013242835A (en) * | 2012-05-21 | 2013-12-05 | Ntt Docomo Inc | Image communication system, image generation device and program |
JP2015176251A (en) * | 2014-03-13 | 2015-10-05 | オムロン株式会社 | Image processing apparatus and image processing method |
US9898800B2 (en) | 2014-03-13 | 2018-02-20 | Omron Corporation | Image processing apparatus and image processing method |
JP2020506471A (en) * | 2017-01-23 | 2020-02-27 | オックスフォード ユニヴァーシティ イノヴェーション リミテッド | Mobile device location method |
JP7221203B2 (en) | 2017-01-23 | 2023-02-13 | オックスフォード ユニヴァーシティ イノヴェーション リミテッド | Mobile device location method |
KR20210056944A (en) * | 2019-11-11 | 2021-05-20 | 주식회사 날비컴퍼니 | Method for editing image |
KR102409103B1 (en) * | 2019-11-11 | 2022-06-21 | 주식회사 날비컴퍼니 | Method for editing image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10789453B2 (en) | Face reenactment | |
Bao et al. | High-fidelity 3d digital human head creation from rgb-d selfies | |
JP4950787B2 (en) | Image processing apparatus and method | |
JP4829141B2 (en) | Gaze detection apparatus and method | |
KR101635730B1 (en) | Apparatus and method for generating montage, recording medium for performing the method | |
JP6207210B2 (en) | Information processing apparatus and method | |
JP2022537810A (en) | Scalable 3D Object Recognition in Cross Reality Systems | |
US20200118332A1 (en) | Method for establishing a deformable 3d model of an element, and associated system | |
KR102441171B1 (en) | Apparatus and Method for Monitoring User based on Multi-View Face Image | |
KR20170134513A (en) | How to Display an Object | |
CN112233212A (en) | Portrait editing and composition | |
CN111028354A (en) | Image sequence-based model deformation human face three-dimensional reconstruction scheme | |
Melacci et al. | A template-based approach to automatic face enhancement | |
JP2009009296A (en) | Face image deformation method and face image deformation device implementing this method | |
US20230409896A1 (en) | Method and system for training matting neural network, and method and device for generating portrait to be used on identity document | |
CN114429518A (en) | Face model reconstruction method, device, equipment and storage medium | |
Kang et al. | Appearance-based structure from motion using linear classes of 3-d models | |
JP2012173812A (en) | Face image processor | |
WO2023034100A1 (en) | Systems for generating presentations of eyebrow designs | |
RU2703327C1 (en) | Method of processing a two-dimensional image and a user computing device thereof | |
JP4505616B2 (en) | Eigenspace learning device, eigenspace learning method, and eigenspace program | |
WO2010010342A1 (en) | A system and method for facial recognition | |
Abeysundera et al. | Nearest neighbor weighted average customization for modeling faces | |
Cheraghchi et al. | Hair strand extraction by template matching using Gabor filter and histogram | |
Kang | A structure from motion approach using constrained deformable models and appearance prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100423 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20110105 |