JP2009009296A - Face image deformation method and face image deformation device implementing this method - Google Patents

Face image deformation method and face image deformation device implementing this method Download PDF

Info

Publication number
JP2009009296A
JP2009009296A JP2007169170A JP2007169170A JP2009009296A JP 2009009296 A JP2009009296 A JP 2009009296A JP 2007169170 A JP2007169170 A JP 2007169170A JP 2007169170 A JP2007169170 A JP 2007169170A JP 2009009296 A JP2009009296 A JP 2009009296A
Authority
JP
Japan
Prior art keywords
face
face image
feature
movement amount
facial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007169170A
Other languages
Japanese (ja)
Inventor
Shunsaku Riko
俊策 利弘
Shuichi Matsumoto
修一 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Koki Co Ltd
Original Assignee
Noritsu Koki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noritsu Koki Co Ltd filed Critical Noritsu Koki Co Ltd
Priority to JP2007169170A priority Critical patent/JP2009009296A/en
Publication of JP2009009296A publication Critical patent/JP2009009296A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a face image deformation method and device, allowing acquisition of a face-lifted image fit for a customer desiring facelift with easy operation. <P>SOLUTION: A face image is input to an image input part 11. A characteristic point and a characteristic line that are characteristics are extracted from the input face image by a face characteristic extraction part 30. A face characteristic movement amount determination part 31 determines a movement amount of the extracted face characteristic based on learning data stored in a learning data storage part 31a. A deformed face image creation part 32 moves the face characteristic in the face image based on the movement amount determined by the face characteristic movement amount determination part 31, generates a deformed face image that is a face after the facelift, and presents it to a user. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、学習データに基づき顔画像を変形し、適切な整形画像を作成する顔画像変形技術に関する。   The present invention relates to a face image deformation technique for deforming a face image based on learning data and creating an appropriate shaped image.

現在、世間の美容整形に対する関心は非常に高まっており、顔の一部分を整形するなどの施術は盛んに行われている状況にある。しかしながら、整形を行う前には綿密な話し合いの元、整形の詳細が決定されるものの、整形前に整形後の顔が確認できないため、顧客側には不安が残っているのが現状である。   At present, there is a great interest in public cosmetic surgery, and treatments such as shaping a part of the face are being actively performed. However, although the details of shaping are determined based on a thorough discussion before shaping, the face after shaping cannot be confirmed before shaping, so the customer is still uneasy.

この問題点を解決するために、仮想的に整形後の顔画像を生成し顧客に提示するシステム(特許文献1)や、整形の方針を画面に提示し整形後の顔に対する理解を深めるシステム(特許文献2)、モーフィング用いて自身の顔を好みの顔に近づける方法(特許文献3)などの技術が知られている。   In order to solve this problem, a system that virtually generates a face image after shaping and presents it to the customer (Patent Document 1), or a system that presents a shaping policy on the screen and deepens the understanding of the face after shaping ( There are known techniques such as Patent Document 2) and a method of using morphing to bring a face close to a favorite face (Patent Document 3).

特開2002−109555(段落番号0012−0013、図15)JP 2002-109555 (paragraph number 0012-0013, FIG. 15) 特開2005−62960(段落番号0005−0008、図3)JP 2005-62960 (paragraph number 0005-0008, FIG. 3) 特開平11−185048(段落番号0006、図4)Japanese Patent Laid-Open No. 11-185048 (paragraph number 0006, FIG. 4)

このように、仮想的な整形を行い顧客に提示する種々の技術がある。しかしながら、特許文献1の技術では、顔のパーツ(目、眉、鼻、口、輪郭など)をどのように変形させるかを数値で入力しなければならないため、直感的な操作が困難である。また、特許文献2の技術では、美しくなるための指針は直感的に得られるが、整形後の顔を確認することはできない。特許文献3の技術は、顔パーツ毎に好みの人に近づけた整形画像を作成することはできるが、総合的に美しい整形画像を得るためには多くの試行錯誤が必要となる。本発明の課題は、簡易な操作で、整形を望む顧客に適した整形画像を得ることができる顔画像変形方法および装置を提供することである。   In this way, there are various techniques for performing virtual shaping and presenting it to the customer. However, in the technique of Patent Document 1, it is difficult to perform intuitive operations because it is necessary to input numerically how to deform facial parts (eyes, eyebrows, nose, mouth, contour, etc.). In the technique of Patent Document 2, a guideline for beautifying can be obtained intuitively, but the face after shaping cannot be confirmed. Although the technique of Patent Document 3 can create a shaped image that is close to a favorite person for each face part, many trials and errors are required to obtain a comprehensively beautiful shaped image. An object of the present invention is to provide a face image deformation method and apparatus capable of obtaining a shaped image suitable for a customer who desires shaping with a simple operation.

本発明の顔画像変形方法は、顔画像を入力する画像入力ステップと、前記顔画像から顔特徴である特徴点および特徴線を抽出する顔特徴抽出ステップと、前記顔特徴抽出ステップにより抽出された前記顔特徴の移動量を学習データに基づき決定する顔特徴移動量決定ステップと、前記顔特徴移動量決定ステップにより決定された移動量に基づき、前記顔画像における前記顔特徴を移動させた画像を生成する変形顔画像作成ステップを備える。
この方法によると、学習データに蓄積されている過去の変形データを基に変形に係る顔特徴の移動量が決定されるため、ユーザは自身の顔をどのように変形させれば美しくなるかが不明な場合にも対応することができる。さらに、変形後の顔画像を生成しユーザに提示されるので、整形後の顔を確認することが可能となる。
The face image deformation method of the present invention is extracted by an image input step for inputting a face image, a face feature extraction step for extracting feature points and feature lines as face features from the face image, and the face feature extraction step. A facial feature movement amount determination step for determining the movement amount of the facial feature based on learning data; and an image obtained by moving the facial feature in the facial image based on the movement amount determined by the facial feature movement amount determination step. A deformed face image creation step is generated.
According to this method, since the movement amount of the facial feature related to the deformation is determined based on the past deformation data accumulated in the learning data, the user can see how beautiful his / her face is deformed. It is possible to cope with an unknown case. Furthermore, since the deformed face image is generated and presented to the user, the face after shaping can be confirmed.

本発明の顔画像変形方法は、前記顔特徴移動量決定ステップは、前記顔特徴抽出ステップにより抽出された顔特徴と類似する顔特徴を有する前記学習データの移動量に基づき当該顔特徴の移動量を決定する。この方法によると、ユーザの顔特徴と類似する顔特徴を持つ学習データが抽出され、当該学習データに対応する顔特徴の移動量に基づき、ユーザの顔特徴の移動量が決定されるため、ユーザの顔に類似する顔の人が過去に行った変形に基づきユーザの顔の変形が決定されるため、ユーザの顔特徴に対し適切な変形を得ることができる。   In the face image deformation method of the present invention, the facial feature movement amount determination step includes a movement amount of the facial feature based on a movement amount of the learning data having a facial feature similar to the facial feature extracted by the facial feature extraction step. To decide. According to this method, learning data having a facial feature similar to the user's facial feature is extracted, and the movement amount of the user's facial feature is determined based on the movement amount of the facial feature corresponding to the learning data. Since the deformation of the user's face is determined based on the deformation performed in the past by a person with a face similar to that of the user's face, it is possible to obtain an appropriate deformation for the user's facial features.

本発明の顔画像変形方法は、前記顔特徴移動量決定ステップは、前記顔特徴抽出ステップにより抽出された顔特徴を入力とし、当該顔特徴の移動量を出力とするニューラルネットワークを用いることを特徴とする。これにより、過去の学習データに基づき、容易にユーザに適切な変形顔画像を得ることが可能となる。   In the face image deformation method of the present invention, the facial feature movement amount determination step uses a neural network that receives the facial feature extracted by the facial feature extraction step and outputs the facial feature movement amount. And This makes it possible to easily obtain a deformed face image appropriate for the user based on past learning data.

本発明の顔画像変形方法は、前記学習データは、複数のクラスタから構成され、前記顔画像の変形の方針を指定する方針指定ステップを備え、前記顔特徴移動量決定ステップは、前記方針指定ステップにより指定された前記方針に基づき選択される前記クラスタを前記学習データとして使用する。これにより、例えば、自身の顔の印象を変えたい場合などにその印象に対応する学習データを用いることができ、容易に所望の印象を与える顔貌への変形顔画像を得ることが可能となる。   In the face image deformation method of the present invention, the learning data includes a plurality of clusters, and includes a policy specifying step that specifies a deformation policy of the face image, and the face feature movement amount determination step includes the policy specifying step. The cluster selected based on the policy specified by is used as the learning data. Thereby, for example, when it is desired to change the impression of the face, learning data corresponding to the impression can be used, and it is possible to easily obtain a deformed facial image that gives a desired impression.

本発明の顔画像変形方法は、変形を施す顔パーツを指定する顔パーツ指定ステップを備え、前記顔特徴移動量決定ステップは前記指定された顔パーツに係る顔特徴の移動量のみを決定する。これにより、顔の一部分のみを変形させたい場合にも対応することが可能となる。   The face image deformation method of the present invention includes a face part specifying step for specifying a face part to be deformed, and the face feature moving amount determining step determines only the moving amount of the face feature related to the specified face part. Thereby, it is possible to cope with a case where only a part of the face is desired to be deformed.

本発明の顔画像変形方法は、前記画像入力ステップに入力される顔画像は視点が異なる2以上の画像を含み、前記顔特徴抽出ステップは、3次元空間における顔特徴の位置を抽出し、前記顔特徴移動量決定ステップは、3次元空間における当該顔特徴の移動量を決定する。これにより、顔特徴を3次元的に捉えることができ、鼻等のように2次元では変形の確認が困難な場合にも対応することが可能となる。更に、複数視点画像を用いることにより3次元変形顔画像を生成することができ、様々な角度から整形後の顔を確認することが可能となる。   In the face image deformation method of the present invention, the face image input to the image input step includes two or more images having different viewpoints, and the face feature extraction step extracts the position of the face feature in a three-dimensional space, The facial feature movement amount determination step determines the movement amount of the facial feature in the three-dimensional space. As a result, facial features can be captured three-dimensionally, and it is possible to cope with cases where it is difficult to confirm deformation in two dimensions, such as the nose. Furthermore, by using a plurality of viewpoint images, a three-dimensional deformed face image can be generated, and the face after shaping can be confirmed from various angles.

さらに、本発明では、上述した顔画像変形方法をコンピュータに実行させるプログラムやそのプログラムを記録した媒体も権利の対象とするものである。
さらに、本発明では、上述した顔画像変形方法を組み込んだ顔画像変形装置も権利の対象としており、そのような顔画像変形装置は、顔画像を入力する画像入力部と、前記顔画像から顔特徴である特徴点および特徴線を抽出する顔特徴抽出部と、前記顔特徴抽出部により抽出された前記顔特徴の移動量を学習データに基づき決定する顔特徴移動量決定部と、前記顔特徴移動量決定部により決定された移動量に基づき、前記顔画像における前記顔特徴を移動させた画像を生成する変形顔画像作成部とから構成されている。当然ながら、このような顔画像変形装置は上述した顔画像変形方法で述べた全ての作用効果を得ることができる。
Further, in the present invention, a program for causing a computer to execute the face image deformation method described above and a medium on which the program is recorded are also subject to rights.
Further, in the present invention, a face image deformation device incorporating the above-described face image deformation method is also subject to rights, and such a face image deformation device includes an image input unit for inputting a face image, and a face from the face image. A facial feature extraction unit that extracts feature points and feature lines as features; a facial feature movement amount determination unit that determines a movement amount of the facial feature extracted by the facial feature extraction unit based on learning data; and the facial feature Based on the amount of movement determined by the amount-of-movement determining unit, a deformed face image creating unit that generates an image obtained by moving the facial feature in the face image is configured. Naturally, such a face image deformation device can obtain all the effects described in the face image deformation method described above.

〔第1の実施形態〕
本発明による、顔画像の変形方法および装置の実施形態を図面に基づき説明する。
図1は、本発明による顔画像変形方法を用いた顔画像変形装置の構成図である。この顔画像変形装置は、装置全体を制御するコントローラ1、コントローラ1に対しユーザの顔画像を入力するカメラ21、顔画像が記録された各種半導体メモリやCD−Rから顔画像データを取得するメディアリーダ22、写真等から顔画像データを取得するスキャナ23、コントローラ1を操作するための入力を行う入力機器24、各種情報を表示するモニタ25が接続されている。入力機器24は、キーボード24aやマウス24bなどを用いることができ、さらにトラックボールやモニタ25上に設置されたタッチパネルをも使用することができる。本実施形態では、汎用パソコンをコントローラ1として機能させている。この場合、コントローラ1をサーバとして機能させ、図示していないネットワークを通じて、クライアント端末から顔画像を送信し、変形顔画像を生成し、返送するなどの構成とすることもできる。
[First Embodiment]
An embodiment of a method and apparatus for deforming a face image according to the present invention will be described with reference to the drawings.
FIG. 1 is a configuration diagram of a face image deformation apparatus using a face image deformation method according to the present invention. This face image deformation apparatus includes a controller 1 that controls the entire apparatus, a camera 21 that inputs a user's face image to the controller 1, various semiconductor memories on which face images are recorded, and media that acquires face image data from a CD-R. A reader 22, a scanner 23 that acquires face image data from a photograph, an input device 24 that performs input for operating the controller 1, and a monitor 25 that displays various information are connected. As the input device 24, a keyboard 24a, a mouse 24b, or the like can be used, and a trackball or a touch panel installed on the monitor 25 can also be used. In this embodiment, a general-purpose personal computer functions as the controller 1. In this case, the controller 1 can be made to function as a server, and a face image can be transmitted from a client terminal through a network (not shown), and a deformed face image can be generated and returned.

この顔画像変形装置のコントローラ1は、CPUを中核部材として、顔画像変形装置の種々の動作を行うための機能部をハードウェア又はソフトウェアあるいはその両方で構築している。図2に示されているように、本発明に特に関係する機能部としては、カメラ21、メディアリーダ22、スキャナ23によって読み取られた顔画像を取り込む画像入力部11、画像入力部11により取り込まれた顔画像を保持するメモリ12、各種ウィンドや各種操作ボタンなどを含むグラフィック操作画面の作成やそれらのグラフィック操作画面を通じてのユーザ操作入力(キーボード24aやマウス24bなどによる)から制御コマンドを生成するGUI(Graphical User Interface)を構築するGUI部13、メモリ12に保持されている顔画像の変形画像を作成する顔画像変形部14、顔画像変形部14で作成された変形顔画像の表示やGUI部13により生成されるGUI画面をモニタ25に表示させるためのビデオ信号を生成するビデオ制御部15などが挙げられる。   The controller 1 of this face image deforming apparatus has a function unit for performing various operations of the face image deforming apparatus by using a CPU as a core member by hardware and / or software. As shown in FIG. 2, functional units particularly relevant to the present invention include an image input unit 11 that captures a face image read by a camera 21, a media reader 22, and a scanner 23, and is captured by the image input unit 11. A GUI for generating a control command from a memory 12 for holding a face image, creation of a graphic operation screen including various windows and various operation buttons, and user operation input (via the keyboard 24a, mouse 24b, etc.) through the graphic operation screen (Graphical User Interface) GUI section 13, face image deformation section 14 that creates a deformed image of the face image stored in the memory 12, display of the deformed face image created by the face image deformation section 14, and GUI section A video for generating a video signal for displaying the GUI screen generated by the monitor 13 on the monitor 25 Such as the control section 15, and the like.

顔画像変形部14は、メモリ12に保持されている顔画像データから顔変形の基礎となる特徴点および特徴線(以下、顔特徴と称する)を抽出する顔特徴抽出部30、学習データを基に顔特徴抽出部30により抽出された顔特徴の移動量を決定する顔特徴移動量決定部31、メモリ12に保持されている顔画像の顔特徴を顔特徴移動量決定部31により決定された移動量だけ移動させた変形顔画像を作成する変形顔画像作成部32を備えている。また、顔特徴移動量決定部31は、学習データを記憶する学習データ記憶部31aを有している。   The face image deformation unit 14 extracts feature points and feature lines (hereinafter referred to as face features) that are the basis of face deformation from the face image data held in the memory 12, and based on the learning data. The facial feature movement amount determination unit 31 determines the movement amount of the facial feature extracted by the facial feature extraction unit 30, and the facial feature movement amount determination unit 31 determines the facial feature of the face image held in the memory 12. A deformed face image creation unit 32 is provided that creates a deformed face image that has been moved by the amount of movement. In addition, the face feature movement amount determination unit 31 includes a learning data storage unit 31a that stores learning data.

通常、顔画像変形部14は、ソフトウェアで構成されているが、これらをソフトウェアおよびハードウェアとの組み合わせにより構成しても良いし、ロジック等を組み合わせたハードウェアのみで構成しても構わない。   Normally, the face image deformation unit 14 is configured by software, but may be configured by a combination of software and hardware, or may be configured only by hardware combining logic and the like.

次に、本発明による変形顔画像生成方法の動作を図3のフローチャートを用いて説明する。先ず、画像入力部11対し、カメラ21、メディアリーダ22もしくはスキャナ23からユーザの顔画像が入力され、入力された顔画像は顔の大きさの正規化や色補正などの前処理を施され、前処理前後の顔画像が共にメモリ12に顔画像が蓄積される(#01)。このとき、顔の大きさは、両眼距離が所定の距離になるよう正規化され、正規化時の拡大/縮小比率も同時にメモリ12に記憶される。このように正規化することにより、各人の顔の大きさに左右されることなく、顔特徴の移動量を求めることができる。また、入力された顔画像が低解像度である場合には、例えば特開2006−222493に開示されている技術により高解像度画像化し、原画像に代えて使用しても構わない。このように構成することにより、複数枚の低解像度画像が得られさえすれば、低解像度のカメラ21を使用することができ、装置の低廉化に寄与する。さらに、低解像度のカメラ21を用いても、変形後の画像の品質を維持することができる。   Next, the operation of the deformed face image generation method according to the present invention will be described with reference to the flowchart of FIG. First, a user's face image is input from the camera 21, media reader 22 or scanner 23 to the image input unit 11, and the input face image is subjected to pre-processing such as face size normalization and color correction. Both the face images before and after the preprocessing are accumulated in the memory 12 (# 01). At this time, the size of the face is normalized so that the binocular distance becomes a predetermined distance, and the enlargement / reduction ratio at the time of normalization is also stored in the memory 12 at the same time. By normalizing in this way, the amount of movement of the facial features can be obtained without being influenced by the size of each person's face. Further, when the input face image has a low resolution, it may be converted into a high resolution image by the technique disclosed in Japanese Patent Application Laid-Open No. 2006-222493 and used instead of the original image. With this configuration, as long as a plurality of low-resolution images can be obtained, the low-resolution camera 21 can be used, which contributes to cost reduction of the apparatus. Furthermore, even when the low-resolution camera 21 is used, the quality of the image after deformation can be maintained.

顔画像変形装置に顔画像を入力したユーザは、変形を希望する顔パーツ(以下、変形顔パーツと称する)がある場合には、モニタ25上に構成されているGUIを通して、変形顔パーツを指定することができる。この指定を行うことにより、例えば「眼」のみを変形させたい等の要望に応えることができる。このとき、GUI部13は、GUIとして各顔パーツの名称と共にチェックボックスを表示し、ユーザに変形顔パーツに対応するチェックボックスのチェックを入れさせる、マウス24bを用いて、変形顔パーツを直接指定させるなどの方法を用いて、いずれの顔パーツが指定されたかを取得する。変形顔パーツの指定方法は、これに限定されるものではなく、他の方法を用いても構わない。また、変形顔パーツの指定は、複数の指定が可能であり、さらに「眼」等のように対になっている顔パーツに関しては、一方が指定された場合には他方も指定されたとみなすなどの構成とし、ユーザの利便性を高めることも可能である。   When there is a face part desired to be deformed (hereinafter referred to as a deformed face part), the user who has input the face image into the face image deforming apparatus designates the deformed face part through the GUI configured on the monitor 25. can do. By performing this designation, for example, it is possible to respond to a request to change only the “eye”. At this time, the GUI unit 13 displays a check box together with the name of each face part as a GUI, and allows the user to check the check box corresponding to the deformed face part, and directly designates the deformed face part using the mouse 24b. Which face part is designated is acquired by using a method such as The method for specifying the deformed face part is not limited to this, and other methods may be used. Also, multiple face parts can be specified, and for face parts that are paired, such as “eye”, if one is specified, the other is also specified. It is possible to improve the convenience for the user.

GUI部13は、ユーザが指定した変形顔パーツを顔画像変形部14に通知する。ユーザから変形顔パーツの指定がない場合には、所定の変形顔パーツが指定されたものとして処理を進める。   The GUI unit 13 notifies the face image deformation unit 14 of the deformed face part designated by the user. If the user does not specify a deformed face part, the process proceeds assuming that a predetermined deformed face part is specified.

顔画像変形部14において、顔特徴抽出部30が図4に示す顔特徴を抽出する(#02)。顔特徴抽出部30は、汎用的な顔特徴抽出プログラムを使用することができ、さらに顔特徴抽出部30が抽出した顔特徴の位置をGUI部13がユーザに提示し、ユーザはマウス24b等を操作することにより顔特徴位置を修正することも可能である。また、顔特徴抽出部30を用いずに、GUI部13を通じてユーザがマウス24b等を操作することにより、直接顔特徴位置を指定することも可能である。   In the face image deformation unit 14, the face feature extraction unit 30 extracts the face features shown in FIG. 4 (# 02). The facial feature extraction unit 30 can use a general-purpose facial feature extraction program. Further, the GUI unit 13 presents the position of the facial feature extracted by the facial feature extraction unit 30 to the user, and the user uses the mouse 24b or the like. It is also possible to correct the face feature position by operating. Further, the face feature position can be directly designated by the user operating the mouse 24b or the like through the GUI unit 13 without using the face feature extraction unit 30.

本実施形態においては、顔特徴は図4に示す、左右の眉尻PRB1およびPLB1、左右の眉頭PRB2およびPLB2、左右の目尻PRE1およびPLE1、左右の目頭PRE2、PLE2、鼻PRN、PCNおよびPLN、左右の口角PRLおよびPLL、顔輪郭上の3点PRF、PCFおよびPLF、左右の眉の輪郭線LRBU、LRBL、LLBUおよびLLBL、左右の目の輪郭線LREU、LREL、LLEUおよびLLEL、唇の輪郭線LLUおよびLLL、輪郭線LFである。顔特徴はこれに限定されるものではなく、他の特徴点および特徴線を顔特徴として用いても構わない。また、本実施形態においては、特徴線は、曲線をベクトル化する方法を用いるが、関数によって近似し、係数を顔特徴として用いても良いし、他の方法を用いても構わない。   In this embodiment, the facial features shown in FIG. 4 are the left and right eyebrows PRB1 and PLB1, the left and right eyebrows PRB2 and PLB2, the left and right eye corners PRE1 and PLE1, the left and right eye heads PRE2, PLE2, the nose PRN, PCN and PLN, Left and right mouth corners PRL and PLL, three points PRF on the face contour, PCF and PLF, left and right eyebrow contours LRBU, LRBL, LLBU and LLBL, left and right eye contours LREU, LREL, LLEU and LLEL, lip contour Lines LLU and LLL, and contour line LF. The face feature is not limited to this, and other feature points and feature lines may be used as the face feature. In the present embodiment, the feature line uses a method of vectorizing a curve. However, the feature line may be approximated by a function, and a coefficient may be used as a face feature, or another method may be used.

次に、顔特徴移動量決定部31が後述する方法により、顔特徴抽出部30により抽出された顔特徴の移動量を決定する(#03)。このとき、ユーザが変形顔パーツを指定している場合は、指定された顔パーツに係る顔特徴の移動量が求められるが、これに限定されるものではなく、全顔特徴の移動量を求め、ユーザが指定した変形顔パーツに係る顔特徴のみを移動させ、変形顔画像を生成する構成にしても構わない。   Next, the facial feature movement amount determination unit 31 determines the movement amount of the facial feature extracted by the facial feature extraction unit 30 by a method described later (# 03). At this time, if the user designates a deformed facial part, the movement amount of the facial feature related to the designated facial part is obtained, but the present invention is not limited to this, and the movement amount of all the facial features is obtained. A configuration may be adopted in which only the facial features related to the deformed face part designated by the user are moved to generate a deformed face image.

変形顔画像作成部32は、メモリ12に保持されている顔画像に対し、顔特徴抽出部30により抽出された顔特徴を顔特徴移動量決定部31により決定された移動量だけ移動させることにより、変形顔画像を作成する(#04)。このとき、メモリ12に保持されている正規化時の拡大/縮小比の逆数を移動量にかけることにより、正規化前の顔画像の顔特徴の移動量を算出することができる。   The deformed face image creation unit 32 moves the face feature extracted by the face feature extraction unit 30 by the movement amount determined by the face feature movement amount determination unit 31 with respect to the face image held in the memory 12. Then, a deformed face image is created (# 04). At this time, the movement amount of the facial feature of the face image before normalization can be calculated by multiplying the movement amount by the reciprocal of the enlargement / reduction ratio at the time of normalization held in the memory 12.

次に、図5のフローチャートを用いて顔特徴移動量決定部31の動作を説明する。学習データ記憶部31aには、多数の変形前顔画像の顔特徴と変形前後のそれらの移動量が蓄積されており、これらが顔特徴移動量決定部31で顔特徴の移動量を決定するための辞書として機能する。この辞書は、各変形前顔画像を顔特徴で張る多次元空間(以下、特徴空間と称する)中の点として表現し、それらの点群、および点群の分散共分散行列Σで構成されている。すなわち、辞書に登録されている画像数をN、特徴空間の次元数をrとすると、各変形前顔画像は特徴空間中の1点diに対応し、辞書は点群{di|i=1、2…N}および分散共分散行列Σ∈Rr×rとして表される。当然ながら、辞書作成時にも、前述した正規化を施された顔画像が使用される。 Next, the operation of the face feature movement amount determination unit 31 will be described using the flowchart of FIG. The learning data storage unit 31a accumulates the facial features of a large number of pre-deformation face images and their movement amounts before and after the deformation, and these are used by the facial feature movement amount determination unit 31 to determine the movement amount of the facial features. It functions as a dictionary. This dictionary represents each pre-deformation face image as a point in a multidimensional space (hereinafter referred to as a feature space) spanned by facial features, and is composed of a point group and a variance covariance matrix Σ of the point group. Yes. That is, when the number of images registered in the dictionary N, the number of dimensions of the feature space and r, each of the modified pre-face image corresponds to a point d i in the feature space, the dictionary point group {d i | i = 1, 2,... N} and the variance-covariance matrix Σ∈R r × r . Of course, the above-mentioned normalized face image is also used when creating the dictionary.

先ず、最小距離Lminおよび最近点dnearを初期化(#11)し、顔特徴抽出部30により抽出された顔特徴を特徴空間の点Pとして表現する(#12)。顔特徴から特徴空間中の点Pとする方法は、特徴点と特徴線を構成するベクトルの要素を所定の順序で並べることにより行うものとするが、これに限定される訳ではなく、他の方法を用いても構わない。 First, initialize the minimum distance L min and the nearest point d near to (# 11), representing the facial features extracted by the facial feature extraction unit 30 as a point P in the feature space (# 12). The method of setting the point P in the feature space from the facial feature is performed by arranging the feature points and the vector elements constituting the feature line in a predetermined order, but is not limited to this. You may use the method.

次に、点Pと辞書中の点diとの距離を計算する(#13)。点Pと点diの距離Lは、L=(P−diTΣ+(P−di)で表すことができる。ここでTは行列の転置、+は擬似逆行列を表すものとする。上記距離Lの式は、クラスタと点の距離を表すマハラノビス距離の式を変形したものである。マハラノビス距離を用いた場合、各固有ベクトル軸における点群{di}の分散値に応じて距離計算時に重みがかけられるため、点群{di}の分布特徴に応じた距離計算が可能となっている。本実施形態では、この考え方に基づき、点間距離Lを求めている。距離計算は、これに限定されるものではなく、ユークリッド距離など、他の距離を用いても構わない。 Next, the distance between the point P and the point d i in the dictionary is calculated (# 13). The distance L of the point P and the point d i can be expressed by L = (P-d i) T Σ + (P-d i). Here, T represents a transpose of a matrix, and + represents a pseudo inverse matrix. The above expression of distance L is a modification of the expression of Mahalanobis distance representing the distance between clusters and points. When the Mahalanobis distance is used, weighting is applied at the time of distance calculation according to the variance value of the point group {d i } on each eigenvector axis, so distance calculation according to the distribution feature of the point group {d i } is possible. ing. In this embodiment, the point-to-point distance L is obtained based on this concept. The distance calculation is not limited to this, and other distances such as Euclidean distance may be used.

点Pと点diとの距離Lがその時点の最小距離Lminより小さい場合(#14のYes分岐)には、最近点dnear=点di、Lmin=Lとする(#15)。この処理を全ての点diに対して行い、全ての点diに対する距離計算が完了した(#16のYes分岐)時点でのdnearに対応する顔特徴の移動量を点Pに対する移動量として決定する(#17)。このように、顔特徴の移動量を決定すれば、顔画像を入力したユーザと類似する顔特徴を持つ他人が行った変形と同等の変形を行うことができる。換言すると、ユーザは自分の顔をどのように変形すれば美しくなれるかが明確に分かっていない場合でも、過去に蓄積された変形パターンから自身と似た顔立ちの人が行った変形を用いることで、容易に自身に相応しい変形方法による顔画像変形を行うことが可能となる。 When the distance L between the point P and the point d i is smaller than the minimum distance L min at that time (Yes branch of # 14), the nearest point d near = point d i and L min = L are set (# 15). . This processing is performed for all points d i, the movement amount with respect to the point P of the movement amount of the corresponding face features d near at the time (Yes branch of # 16) which distance calculation is completed for all points d i (# 17). In this way, by determining the amount of movement of the facial feature, it is possible to perform a transformation equivalent to the transformation performed by another person having a facial feature similar to the user who has input the facial image. In other words, even if the user does not clearly know how to transform his / her face to make it beautiful, it is possible to use the deformation performed by a person with a similar face from the deformation pattern accumulated in the past. Therefore, it is possible to easily perform face image deformation by a deformation method suitable for itself.

辞書との距離に基づく移動量の決定方法は、上記方法に限定されるものではなく、点Pと全diとの距離を求め、距離が近いものから所定数を選択し、それらに対応する移動量の平均値を移動量として決定する、所定距離以内のdiに対応する移動量の平均を移動量として決定するなどの方法を用いることも可能であるし、他の方法により移動量を決定しても構わない。 The method for determining the amount of movement based on the distance from the dictionary is not limited to the above method, and the distance between the point P and all d i is obtained, a predetermined number is selected from the closest ones, and the corresponding values are determined. It is possible to use a method such as determining the average value of the movement amount as the movement amount, or determining the average of the movement amount corresponding to d i within a predetermined distance as the movement amount. You can decide.

また、このとき、変形顔パーツの指定があった場合には、特徴点および特徴線をベクトル化する際に、必要な顔パーツの特徴点および特徴線のみを用いてベクトル化を行い、特徴空間の距離計算時にも、必要に応じ、特徴空間の次元を変更する。   At this time, if a deformed face part is specified, when the feature points and feature lines are vectorized, only the necessary feature points and feature lines of the face parts are used for vectorization. When calculating the distance, the dimension of the feature space is changed as necessary.

さらに、GUI部13を通じて、ユーザがどのような印象の顔貌になりたいかを指定させることも可能である。この場合には、学習データは印象毎の複数クラスタに分割されており、ユーザが選択した印象に対応するクラスタを学習データとして使用することにより、ユーザは容易に所望の印象を与える顔貌になるための特徴点および特徴線の移動量を求めることができる。相貌の印象とは、例えば、かわいらしい、理知的、若々しい、などである。このような構成を用いることにより、ユーザは自分と似た顔貌の人が、ある印象を与えるために施した顔の変形を自身の顔に施した結果を知ることができる。   Furthermore, it is also possible to specify what kind of facial appearance the user wants to become through the GUI unit 13. In this case, the learning data is divided into a plurality of clusters for each impression, and by using the cluster corresponding to the impression selected by the user as the learning data, the user can easily make a face that gives a desired impression. The amount of movement of feature points and feature lines can be obtained. The impression of appearance is, for example, cute, intelligent, youthful, etc. By using such a configuration, the user can know the result of a person who has a facial appearance similar to that of his / her face deformed to give a certain impression to his / her face.

また、顔特徴移動量決定部31はニューラルネットワークを用いても実現することが可能である。顔特徴移動量決定部31にニューラルネットワークを用いた場合には、学習データ記憶部31aには、図6に示すニューラルネットワークを構築するパラメータ等が記憶されている。図6のニューラルネットワークは、入力層が顔特徴、出力層が各顔特徴の移動量となる構成となっているが、この構成に限定されるものではなく、複数のニューラルネットワークを用い、各ニューラルネットワークを各顔パーツに対応させる、複数の顔パーツを組み合わせたものを対応させるなど、他の構成のニューラルネットワークを使用しても構わない。また、前記構成のニューラルネットワークを準備しておき、ユーザからの変形顔パーツの指定の有無などにより使用するニューラルネットワークを切り替えてもよい。このような構成すると、全顔特徴を1つのニューラルネットワークで処理した場合は、全体のバランスを考慮した変形、顔パーツ毎のニューラルネットワークを使用した場合には、個々の顔パーツに特化した変形、複数の顔パーツを一つのニューラルネットワークで処理した場合は、顔パーツ間のバランスを考慮した変形など、様々な状況に応じた変形を行うことが可能となる。   The face feature movement amount determination unit 31 can also be realized using a neural network. When a neural network is used for the face feature movement amount determination unit 31, the learning data storage unit 31a stores parameters for constructing the neural network shown in FIG. The neural network in FIG. 6 has a configuration in which the input layer is a facial feature and the output layer is the amount of movement of each facial feature. However, the present invention is not limited to this configuration. Neural networks of other configurations may be used, such as associating a network with each face part or a combination of a plurality of face parts. Further, a neural network having the above-described configuration may be prepared, and the neural network to be used may be switched depending on whether or not a deformed face part is designated by the user. With this configuration, when all facial features are processed by a single neural network, the transformation takes into account the overall balance. When a neural network for each facial part is used, the transformation is specialized for individual facial parts. When a plurality of face parts are processed by a single neural network, it is possible to perform deformation according to various situations such as deformation considering the balance between face parts.

顔特徴移動量決定部31は、図6のニューラルネットワークの入力層に対し、顔特徴抽出部30により抽出された顔特徴を設定し、出力層への出力を当該顔特徴の移動量とする。この場合にも、GUI部13を通じて、ユーザが変形顔パーツを指定していれば、指定された顔パーツに係る顔特徴に対する移動量のみが次の変形顔画像作成部32に渡される。ニューラルネットワークを用いた場合にも、顔の印象毎にニューラルネットワークを作成しておき、ユーザが所望する顔貌の印象によりニューラルネットワークを切り替えるなどの構成としても構わない。   The face feature movement amount determination unit 31 sets the face feature extracted by the face feature extraction unit 30 for the input layer of the neural network in FIG. 6, and uses the output to the output layer as the movement amount of the face feature. Also in this case, if the user designates a deformed face part through the GUI unit 13, only the movement amount for the face feature related to the designated face part is passed to the next deformed face image creation unit 32. Even when a neural network is used, a configuration may be employed in which a neural network is created for each facial impression and the neural network is switched according to the facial impression desired by the user.

次に、図7のフローチャートを用いて変形顔画像作成部32において「眼」を変形させる場合の動作を説明する。他の顔パーツを変形させる場合も同様なので、他の顔パーツの変形の説明は割愛する。先ず、顔特徴移動量決定部31により決定された移動量を用いて特徴点PRE1、PRE2、PLE1、PLE2および特徴線LREU、LREL、LLEU、LLELを移動させる(#21)。次に、移動後の顔特徴で規定される顔パーツ(「眼」)を構成する点群{qi|i=1、2…M}を抽出し、各点qiの変形前の画像における対応点piを求め(#22)、piの画素値をqiの画素値とする(#23)。qiの座標値は整数であるが、対応するpiの座標値は、一般的には整数とならないため、piの周辺画素値を用いて補間によりpiの画素値を求め、それをqiの画素値とする。これを全てのqiの画素値が求まるまで(#24のYes分岐)繰り返すことにより、変形顔画像を作成する。このとき、変形前の画像で「眼」であった領域かつ{qi}に含まれていない領域は、変形後の画像では画素値が不定になっている。このような画素は、周辺の肌色画素を用いる等して画素値を決定する(#25)。 Next, an operation in the case where the “eye” is deformed in the deformed face image creation unit 32 will be described using the flowchart of FIG. The same applies to the case where other face parts are deformed, so the explanation of the deformation of other face parts is omitted. First, the feature points PRE1, PRE2, PLE1, PLE2, and feature lines LREU, LREL, LLEU, LLEL are moved using the movement amount determined by the face feature movement amount determination unit 31 (# 21). Next, a point group {q i | i = 1, 2... M} constituting the face part (“eye”) defined by the face feature after movement is extracted, and the point q i in the image before deformation is extracted. The corresponding point p i is obtained (# 22), and the pixel value of p i is set as the pixel value of q i (# 23). coordinate values of q i is an integer, coordinate values of the corresponding p i, since in general not an integer, obtains a pixel value of p i by interpolation using peripheral pixel values of p i, it Let q i be the pixel value. By repeating this until all the q i pixel values are obtained (Yes branch of # 24), a deformed face image is created. At this time, a region in image before deformation is not included in the "eyes" in a region and {q i} is the image after deformation pixel value becomes undefined. For such pixels, pixel values are determined by using surrounding skin color pixels (# 25).

図8に、左眼を変形した場合を示す。この変形では、特徴線LLEUがLLEU'に移動することにより眼を大きくしている。このとき、特徴線LLEU'とLLELで囲まれる領域が{qi}である。顔特徴の移動から、変形前画像における点qiに対応する点を求め、その点の画素値を求め、その画素値を点qiの画素値とする。この例では、変形前の目領域は全て{qi}に属すため、画素値が不定になる画素は存在しないが、目尻の位置を変えた場合などには、画素値が不定となる画素が存在し、それらの画素値は周辺の肌色画素等を用いてを決定する。 FIG. 8 shows a case where the left eye is deformed. In this modification, the eye is enlarged by moving the feature line LLEU to LLEU ′. At this time, a region surrounded by the feature lines LLEU ′ and LLEL is {q i }. From the movement of the facial features, a point corresponding to the point q i in the pre-deformation image is obtained, the pixel value of the point is obtained, and the pixel value is set as the pixel value of the point q i . In this example, since all the eye regions before deformation belong to {q i }, there is no pixel with an indefinite pixel value, but when the position of the corner of the eye is changed, a pixel with an indefinite pixel value is present. These pixel values are determined using peripheral skin color pixels and the like.

変形顔画像作成部32により作成された変形顔画像は、ビデオ制御部15を通じモニタ25に表示される。このとき、さらにGUI部13を通じてユーザが顔特徴位置を変更可能にしても構わない。また、変形顔画像をユーザが気に入ったか否かを選択するボタン等をGUI上に構成することもでき、ユーザが気に入った場合には、当該ユーザの顔特徴とその移動量が学習データ記憶部31aに通知され、学習データ記憶部31aは通知された顔特徴およびその移動量を学習データに追加し、再学習を行う。再学習は、新たなデータが追加された都度行っても良いし、所定数のデータが追加された時点で行う等所定のタイミングで行っても構わない。このような構成を用いることにより、ユーザが顔画像変形装置を用いる毎に、学習データを強化することができる。   The deformed face image created by the deformed face image creating unit 32 is displayed on the monitor 25 through the video control unit 15. At this time, the user may be able to change the face feature position through the GUI unit 13. Further, a button or the like for selecting whether or not the user likes the deformed face image can be configured on the GUI, and when the user likes it, the facial feature of the user and the amount of movement are stored in the learning data storage unit 31a. The learning data storage unit 31a adds the notified face feature and its movement amount to the learning data, and performs relearning. The re-learning may be performed each time new data is added, or may be performed at a predetermined timing such as when a predetermined number of data is added. By using such a configuration, the learning data can be enhanced each time the user uses the face image deformation device.

〔第2の実施形態〕
本発明による、顔画像の変形方法および装置の第2の実施形態を図面に基づき説明する。本発明による第2の実施形態は、第1の実施形態の機能に加え、3次元座標算出部31bを備えている。本発明の第2の実施形態においては、画像入力部11に対し、3次元座標が計算可能なデータ入力される。3次元座標が計算可能なデータは、例えば、ステレオカメラに代表される多視点画像や通常の顔画像およびレンジファインダ等による3次元データの組などを用いることができるが、これに限定されるものではなく、他の情報を用いても構わない。好ましくは、多視点画像が生成可能であり処理量が少ない3眼カメラによる画像を使用する。本実施形態においても3眼カメラを用いるものとする。図10に3眼カメラの配置例を示す。この例に場合には、カメラ21a、21bおよび21cは全て光軸が平行となる平行ステレオカメラとしているが、輻輳ステレオカメラとしても構わない。輻輳ステレオカメラを用いた場合には、平行ステレオカメラに比べ演算量が増加するが、多視点画像生成時の視点移動の幅を広くすることができる。また、カメラ21aとカメラ21b間の基線長およびカメラ21bとカメラ21c間の基線長を一致させているが、この配置に限定されるものではなく、他の配置を用いても構わない。カメラ21bの水平位置を他のカメラと異ならせているが、全てのカメラの水平位置を同一にしても構わない。このような3眼カメラを用いることにより、顔特徴の3次元位置を特定すると共に、視点を移動させて変形顔画像を確認することが可能となる。
[Second Embodiment]
A second embodiment of a facial image deformation method and apparatus according to the present invention will be described with reference to the drawings. The second embodiment according to the present invention includes a three-dimensional coordinate calculation unit 31b in addition to the functions of the first embodiment. In the second embodiment of the present invention, data capable of calculating three-dimensional coordinates is input to the image input unit 11. As data for which three-dimensional coordinates can be calculated, for example, a multi-viewpoint image represented by a stereo camera, a normal face image, a set of three-dimensional data by a range finder, or the like can be used. Instead, other information may be used. Preferably, an image obtained by a trinocular camera that can generate a multi-viewpoint image and has a small processing amount is used. In this embodiment, a trinocular camera is used. FIG. 10 shows an arrangement example of the trinocular camera. In this example, the cameras 21a, 21b, and 21c are all parallel stereo cameras whose optical axes are parallel, but may be converging stereo cameras. When a converging stereo camera is used, the amount of computation increases compared to a parallel stereo camera, but the range of viewpoint movement when generating a multi-viewpoint image can be widened. Moreover, although the base line length between the camera 21a and the camera 21b and the base line length between the camera 21b and the camera 21c are made to coincide, it is not limited to this arrangement, and other arrangements may be used. Although the horizontal position of the camera 21b is different from that of the other cameras, the horizontal positions of all the cameras may be the same. By using such a three-lens camera, it is possible to specify the three-dimensional position of the facial feature and confirm the deformed face image by moving the viewpoint.

以下、図9のフローチャートを用いて本発明の第2の実施形態の動作を説明する。画像入力部11に対し、3眼カメラにより撮影された3枚の顔画像が入力され(#31)、前処理が施された後、メモリ12に記憶される。顔特徴抽出部30では、メモリ12に記憶された3枚の画像それぞれから顔特徴が抽出される(#32)。顔特徴移動量決定部31において、3次元座標算出部31bにより各顔特徴の3次元座標が算出される(#33)。本実施形態においては、入力画像は3眼カメラを用いているため、通常のステレオカメラを用いた三角測量に基づく3次元計測方法と同様の方法で、3次元座標を算出することができる。ステレオカメラを用いた3次元計測においては、一般的に基線長が長い方が距離精度が高いことが知られているため、この3次元座標の算出に際し、カメラ21aとカメラ21cから取得された画像間での対応を優先させる。カメラ21aとカメラ21cから取得された画像間で、特徴点および特徴線の対応が取れない場合に限り、カメラ21bにより取得された画像を用いる。   The operation of the second embodiment of the present invention will be described below using the flowchart of FIG. Three face images photographed by the trinocular camera are input to the image input unit 11 (# 31), pre-processed, and stored in the memory 12. The face feature extraction unit 30 extracts face features from each of the three images stored in the memory 12 (# 32). In the face feature movement amount determination unit 31, the three-dimensional coordinate calculation unit 31b calculates the three-dimensional coordinates of each face feature (# 33). In this embodiment, since a three-lens camera is used for the input image, three-dimensional coordinates can be calculated by a method similar to a three-dimensional measurement method based on triangulation using a normal stereo camera. In three-dimensional measurement using a stereo camera, it is generally known that the longer the baseline length, the higher the distance accuracy. Therefore, when the three-dimensional coordinates are calculated, images acquired from the camera 21a and the camera 21c are used. Prioritize the correspondence between the two. The image acquired by the camera 21b is used only when the feature points and the feature lines cannot be matched between the images acquired from the camera 21a and the camera 21c.

また、3次元座標算出部31bは、顔特徴の3次元座標からユーザの3次元顔モデルを生成する。3次元顔モデルは、入力画像から直接生成しても良いし、予め基本顔モデルを保持しておき、得られた顔特徴の3次元座標を用いて基本顔モデルを変形し、ユーザの顔に合った顔モデルを作成しても構わない。このように、変形顔モデルを作成しておくことにより、3次元変形顔画像を容易に作成することが可能となる。   The three-dimensional coordinate calculation unit 31b generates a user's three-dimensional face model from the three-dimensional coordinates of the face feature. The three-dimensional face model may be generated directly from the input image, or the basic face model is stored in advance, and the basic face model is deformed using the obtained three-dimensional coordinates of the facial features to obtain the user's face. You may create a matching face model. Thus, by creating a deformed face model, a three-dimensional deformed face image can be easily created.

次に、学習データ記憶部31aに記憶されている学習データを用い、前記の方法により顔特徴の3次元移動量が決定される。なお、本実施形態の場合、学習データ記憶部31aに記憶されている学習データも全て3次元的に変形を施されたデータである。   Next, using the learning data stored in the learning data storage unit 31a, the three-dimensional movement amount of the facial feature is determined by the above method. In the present embodiment, all the learning data stored in the learning data storage unit 31a is also three-dimensionally deformed data.

変形顔画像作成部32では、3次元座標算出部31bにより作成された3次元顔モデルの顔特徴を、顔特徴移動量決定部31により決定された移動量に基づき移動させ(#34)、変形後のモデルにメモリ12に保持されているユーザの顔画像をレンダリングし、3次元顔画像を生成する(#35)。この場合、モニタ25は通常の2次元モニタやレンチキュラ方式、パララックスバリヤ方式等の3次元モニタを使用することができ、ビデオ制御部15は、接続されているモニタ25に応じて、3次元顔画像のフォーマットを変換し、モニタ25に表示させる。同時に、GUI部13は、モニタ25に表示されている顔画像を異なる視点から見られるように操作可能なGUIを提供し、ユーザはマウス24b等を操作し、視点の変更を指示し、GUI部13はビデオ制御部15に視点変更を通知し、視点変更を通知されたビデオ制御部15は視点変更に応じた表示画像を生成する。   The deformed face image creation unit 32 moves the face features of the three-dimensional face model created by the three-dimensional coordinate calculation unit 31b based on the movement amount determined by the face feature movement amount determination unit 31 (# 34). The user's face image held in the memory 12 is rendered in the later model to generate a three-dimensional face image (# 35). In this case, the monitor 25 can use a normal two-dimensional monitor, a three-dimensional monitor such as a lenticular method or a parallax barrier method, and the video control unit 15 can select a three-dimensional face according to the connected monitor 25. The image format is converted and displayed on the monitor 25. At the same time, the GUI unit 13 provides a GUI that can be operated so that the face image displayed on the monitor 25 can be viewed from different viewpoints, and the user operates the mouse 24b or the like to instruct a change of the viewpoint. 13 notifies the video control unit 15 of the viewpoint change, and the video control unit 15 notified of the viewpoint change generates a display image corresponding to the viewpoint change.

本実施形態では、顔特徴を3次元位置で捉え、変形させることにより、鼻の高さに代表される2次元画像では確認が困難な顔特徴のカメラの視線方向への変形をも表現することが可能となる。更に、3眼カメラ等の多視点画像を用いることにより、ユーザが変形後の顔を確認する際に、様々な視点から見た画像を提供することができ、変形後の顔画像をより理解することが可能となる。   In the present embodiment, by capturing and deforming a facial feature at a three-dimensional position, the transformation of the facial feature that is difficult to confirm in a two-dimensional image typified by the height of the nose is also expressed. Is possible. Furthermore, by using a multi-viewpoint image such as a three-lens camera, when the user confirms the deformed face, images viewed from various viewpoints can be provided, and the face image after deformation can be understood more. It becomes possible.

上述した実施形態の説明では、本発明による顔画像変形方法が汎用コンピュータにプログラムとして組み込まれた例を説明したが、専用ハードウェアを用いて、ロジックの組み合わせによりハードウェアのみで、もしくはハードウェアとソフトウェアを組み合わせた構成としても構わない。   In the description of the above-described embodiment, an example in which the face image deformation method according to the present invention is incorporated as a program in a general-purpose computer has been described. However, using dedicated hardware, only hardware or a combination of hardware and logic. A configuration combining software may be used.

本発明による顔画像変形方法を用いた装置の外観図External view of apparatus using face image deformation method according to the present invention 本発明による顔画像変形方法の機能要素を示す機能ブロック図The functional block diagram which shows the functional element of the face image deformation | transformation method by this invention 本発明の第1の実施形態おける処理の流れを示すフローチャートThe flowchart which shows the flow of the process in the 1st Embodiment of this invention. 本発明の実施形態における顔の特徴点および特徴線を示す図The figure which shows the feature point and feature line of the face in embodiment of this invention 本発明の実施形態における特徴点および特徴線の移動量を決定するフローチャートThe flowchart which determines the moving amount | distance of the feature point and feature line in embodiment of this invention 本発明の実施形態における特徴点および特徴線の移動量の決定に使用するニューラルネットワークを示す図The figure which shows the neural network used for the determination of the movement amount of the feature point and feature line in embodiment of this invention 本発明の実施形態における特徴点および特徴線の移動の流れを示すフローチャートThe flowchart which shows the flow of the movement of the feature point and feature line in embodiment of this invention 本発明の実施形態における特徴点および特徴点の移動を示す図The figure which shows the movement of the feature point and feature point in embodiment of this invention 本発明の第2の実施形態における処理の流れを示す図The figure which shows the flow of a process in the 2nd Embodiment of this invention. 本発明の第2の実施形態におけるカメラの配置を示す図The figure which shows arrangement | positioning of the camera in the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1:コントローラ
11:画像入力部
12:メモリ
13:GUI部
14:顔画像変形部
15:ビデオ制御部
21:カメラ
22:メディアリーダ
23:スキャナ
24:入力機器
24a:キーボード
24b:マウス
25:モニタ
30:顔特徴抽出部
31:顔特徴移動量決定部
31a:学習データ記憶部
31b:3次元座標算出部
32:変形顔画像作成部
1: Controller 11: Image input unit 12: Memory 13: GUI unit 14: Face image transformation unit 15: Video control unit 21: Camera 22: Media reader 23: Scanner 24: Input device 24a: Keyboard 24b: Mouse 25: Monitor 30 : Face feature extraction unit 31: face feature movement amount determination unit 31 a: learning data storage unit 31 b: three-dimensional coordinate calculation unit 32: deformed face image creation unit

Claims (7)

顔画像を入力する画像入力ステップと、
前記顔画像から顔特徴である特徴点および特徴線を抽出する顔特徴抽出ステップと、
前記顔特徴抽出ステップにより抽出された前記顔特徴の移動量を統計的学習則に基づき決定する顔特徴移動量決定ステップと、
前記顔特徴移動量決定ステップにより決定された移動量に基づき、前記顔画像における前記顔特徴を移動させた画像を生成する変形顔画像作成ステップと、を備えることを特徴とする顔画像変形方法。
An image input step for inputting a face image;
A facial feature extraction step of extracting feature points and feature lines that are facial features from the facial image;
A facial feature movement amount determination step for determining a movement amount of the facial feature extracted by the facial feature extraction step based on a statistical learning rule;
A face image deformation method comprising: a deformed face image creation step of generating an image obtained by moving the face feature in the face image based on the amount of movement determined by the face feature movement amount determination step.
前記顔特徴移動量決定ステップは、前記顔特徴抽出ステップにより抽出された顔特徴と類似する顔特徴により規定される統計的学習則に基づき当該顔特徴の移動量を決定することを特徴とする請求項1記載の顔画像変形方法。   The facial feature movement amount determination step determines the movement amount of the facial feature based on a statistical learning rule defined by a facial feature similar to the facial feature extracted by the facial feature extraction step. Item 2. The face image deformation method according to Item 1. 前記顔特徴移動量決定ステップは、統計的学習則として、前記顔特徴抽出ステップにより抽出された顔特徴を入力とし、当該顔特徴の移動量を出力とするニューラルネットワークが用いられることを特徴とする請求項1記載の顔画像変形方法。   The facial feature movement amount determination step uses a neural network that receives the facial feature extracted by the facial feature extraction step and outputs the facial feature movement amount as a statistical learning rule. The face image deformation method according to claim 1. 前記統計的学習則に用いられる学習データは、複数のクラスタから構成され、
前記顔画像の変形の方針を指定する方針指定ステップを備え、
前記顔特徴移動量決定ステップは、前記方針指定ステップにより指定された前記方針に基づき選択される前記クラスタを前記学習データとして使用することを特徴とする請求項1から3のいずれか一項に記載の顔画像変形方法。
The learning data used for the statistical learning rule is composed of a plurality of clusters,
A policy designating step of designating a policy of deformation of the face image;
The said face feature movement amount determination step uses the said cluster selected based on the said policy designated by the said policy designation | designated step as said learning data. Face image deformation method.
変形を施す顔パーツを指定する顔パーツ指定ステップを備え、
前記顔特徴移動量決定ステップは前記指定された顔パーツに係る顔特徴の移動量のみを決定することを特徴とする請求項1から4のいずれか一項に記載の顔画像変形方法。
A face part specifying step for specifying a face part to be deformed is provided.
5. The face image deformation method according to claim 1, wherein the facial feature movement amount determination step determines only a movement amount of a facial feature related to the designated facial part. 6.
前記顔画像入力ステップに入力される顔画像は視点が異なる2以上の画像を含み、
前記顔特徴抽出ステップは、3次元空間における顔特徴の位置を抽出し、
前記顔特徴移動量決定ステップは、3次元空間における当該顔特徴の移動量を決定することを特徴とする請求項1から5いずれか一項に記載の顔画像変形方法。
The face image input in the face image input step includes two or more images having different viewpoints,
The facial feature extraction step extracts a facial feature position in a three-dimensional space;
The face image deformation method according to claim 1, wherein the face feature movement amount determination step determines a movement amount of the face feature in a three-dimensional space.
顔画像を入力する画像入力部と、
前記顔画像から顔特徴である特徴点および特徴線を抽出する顔特徴抽出部と、
前記顔特徴抽出部により抽出された前記顔特徴の移動量を統計的学習則に基づき決定する顔特徴移動量決定部と、
前記顔特徴移動量決定部により決定された移動量に基づき、前記顔画像における前記顔特徴を移動させた画像を生成する変形顔画像作成部と、を備えることを特徴とする顔画像変形装置。
An image input unit for inputting a face image;
A facial feature extraction unit that extracts feature points and feature lines that are facial features from the facial image;
A facial feature movement amount determination unit that determines a movement amount of the facial feature extracted by the facial feature extraction unit based on a statistical learning rule;
A face image deformation apparatus comprising: a deformed face image creation unit that generates an image obtained by moving the face feature in the face image based on the amount of movement determined by the face feature movement amount determination unit.
JP2007169170A 2007-06-27 2007-06-27 Face image deformation method and face image deformation device implementing this method Withdrawn JP2009009296A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007169170A JP2009009296A (en) 2007-06-27 2007-06-27 Face image deformation method and face image deformation device implementing this method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007169170A JP2009009296A (en) 2007-06-27 2007-06-27 Face image deformation method and face image deformation device implementing this method

Publications (1)

Publication Number Publication Date
JP2009009296A true JP2009009296A (en) 2009-01-15

Family

ID=40324331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007169170A Withdrawn JP2009009296A (en) 2007-06-27 2007-06-27 Face image deformation method and face image deformation device implementing this method

Country Status (1)

Country Link
JP (1) JP2009009296A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010224802A (en) * 2009-03-23 2010-10-07 Hironobu Otoi Virtual face image creation device and virtual face image creation method
JP2013242835A (en) * 2012-05-21 2013-12-05 Ntt Docomo Inc Image communication system, image generation device and program
JP2015176251A (en) * 2014-03-13 2015-10-05 オムロン株式会社 Image processing apparatus and image processing method
JP2020506471A (en) * 2017-01-23 2020-02-27 オックスフォード ユニヴァーシティ イノヴェーション リミテッド Mobile device location method
KR20210056944A (en) * 2019-11-11 2021-05-20 주식회사 날비컴퍼니 Method for editing image

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010224802A (en) * 2009-03-23 2010-10-07 Hironobu Otoi Virtual face image creation device and virtual face image creation method
JP2013242835A (en) * 2012-05-21 2013-12-05 Ntt Docomo Inc Image communication system, image generation device and program
JP2015176251A (en) * 2014-03-13 2015-10-05 オムロン株式会社 Image processing apparatus and image processing method
US9898800B2 (en) 2014-03-13 2018-02-20 Omron Corporation Image processing apparatus and image processing method
JP2020506471A (en) * 2017-01-23 2020-02-27 オックスフォード ユニヴァーシティ イノヴェーション リミテッド Mobile device location method
JP7221203B2 (en) 2017-01-23 2023-02-13 オックスフォード ユニヴァーシティ イノヴェーション リミテッド Mobile device location method
KR20210056944A (en) * 2019-11-11 2021-05-20 주식회사 날비컴퍼니 Method for editing image
KR102409103B1 (en) * 2019-11-11 2022-06-21 주식회사 날비컴퍼니 Method for editing image

Similar Documents

Publication Publication Date Title
US10789453B2 (en) Face reenactment
Bao et al. High-fidelity 3d digital human head creation from rgb-d selfies
JP4950787B2 (en) Image processing apparatus and method
JP4829141B2 (en) Gaze detection apparatus and method
KR101635730B1 (en) Apparatus and method for generating montage, recording medium for performing the method
JP6207210B2 (en) Information processing apparatus and method
JP2022537810A (en) Scalable 3D Object Recognition in Cross Reality Systems
US20200118332A1 (en) Method for establishing a deformable 3d model of an element, and associated system
KR102441171B1 (en) Apparatus and Method for Monitoring User based on Multi-View Face Image
KR20170134513A (en) How to Display an Object
CN112233212A (en) Portrait editing and composition
CN111028354A (en) Image sequence-based model deformation human face three-dimensional reconstruction scheme
Melacci et al. A template-based approach to automatic face enhancement
JP2009009296A (en) Face image deformation method and face image deformation device implementing this method
US20230409896A1 (en) Method and system for training matting neural network, and method and device for generating portrait to be used on identity document
CN114429518A (en) Face model reconstruction method, device, equipment and storage medium
Kang et al. Appearance-based structure from motion using linear classes of 3-d models
JP2012173812A (en) Face image processor
WO2023034100A1 (en) Systems for generating presentations of eyebrow designs
RU2703327C1 (en) Method of processing a two-dimensional image and a user computing device thereof
JP4505616B2 (en) Eigenspace learning device, eigenspace learning method, and eigenspace program
WO2010010342A1 (en) A system and method for facial recognition
Abeysundera et al. Nearest neighbor weighted average customization for modeling faces
Cheraghchi et al. Hair strand extraction by template matching using Gabor filter and histogram
Kang A structure from motion approach using constrained deformable models and appearance prediction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100423

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20110105