JP2022045944A - Makeup support controller, makeup support system, and makeup support control method - Google Patents

Makeup support controller, makeup support system, and makeup support control method Download PDF

Info

Publication number
JP2022045944A
JP2022045944A JP2020151718A JP2020151718A JP2022045944A JP 2022045944 A JP2022045944 A JP 2022045944A JP 2020151718 A JP2020151718 A JP 2020151718A JP 2020151718 A JP2020151718 A JP 2020151718A JP 2022045944 A JP2022045944 A JP 2022045944A
Authority
JP
Japan
Prior art keywords
makeup
face
control unit
model
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020151718A
Other languages
Japanese (ja)
Inventor
領平 須永
Ryohei Sunaga
聡隆 村田
Satotaka Murata
敏秀 小林
Toshihide Kobayashi
浩 吉川
Hiroshi Yoshikawa
真哉 三原
Shinya Mihara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020151718A priority Critical patent/JP2022045944A/en
Publication of JP2022045944A publication Critical patent/JP2022045944A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Image Analysis (AREA)

Abstract

To perform support so as to make it possible to learn a procedure of makeup.SOLUTION: A control unit 20, which is a makeup support controller, comprises: a projection control unit 25 for performing control matching with an object person's face part so that model video showing a makeup procedure to be a model for each portion is intermittently projected; a photographic data acquisition unit 21 for acquiring photographic data obtained by photographing the face part; and a determination unit 233 for comparing a state of makeup of the face part in the photographic data with a state of makeup in the model video to determine a makeup result. The determination unit 233 performs determination by comparing the photographic data photographed in a period in which the model video is not projected with the model video projected immediately before.SELECTED DRAWING: Figure 1

Description

本発明は、化粧支援制御装置、化粧支援システムおよび化粧支援制御方法に関する。 The present invention relates to a makeup support control device, a makeup support system, and a makeup support control method.

メイクアップの施術に関するアドバイスを行い、施術すべきメイクアップに応じたメイクアップ支援システムが知られている(例えば、特許文献1参照)。人間の顔や動きのある物体等のオブジェクトにメイクアップ等のための画像を投影して、リアルなオブジェクトとバーチャルな投影画像とをシンクロさせる技術が知られている(例えば、特許文献2参照)。 A make-up support system that gives advice on make-up treatment and corresponds to the make-up to be performed is known (see, for example, Patent Document 1). A technique is known in which an image for make-up or the like is projected onto an object such as a human face or a moving object to synchronize a real object with a virtual projected image (see, for example, Patent Document 2). ..

特許第6534168号公報Japanese Patent No. 6534168 特開2018-195996号公報Japanese Unexamined Patent Publication No. 2018-195996

特許文献1に記載の技術では、メイクアップ施術前の対象者映像と、合成されたメイクアップ施術後の対象者映像が並べて表示される。特許文献2に記載の技術では、人間の顔にメイクアップの画像が投影される。このように特許文献1、特許文献2に記載の技術は、化粧の前後の画像を比較する技術であり、化粧の手順を学ぶことを目的としていない。そこで、化粧の手順を学べるように支援する技術が望まれる。 In the technique described in Patent Document 1, the subject image before the make-up treatment and the synthesized subject image after the make-up treatment are displayed side by side. In the technique described in Patent Document 2, a make-up image is projected on a human face. As described above, the techniques described in Patent Document 1 and Patent Document 2 are techniques for comparing images before and after makeup, and are not intended to learn the procedure of makeup. Therefore, a technique that supports learning the makeup procedure is desired.

本発明は、上記に鑑みてなされたものであって、化粧の手順を学べるように支援することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to assist in learning the procedure of makeup.

上述した課題を解決し、目的を達成するために、本発明に係る化粧支援制御装置は、対象者の顔部に合わせて、部位ごとに手本となる化粧の手順を示す手本映像を間欠的に投影するよう制御する投影制御部と、前記顔部を撮影した撮影データを取得する撮影データ取得部と、前記撮影データの前記顔部の化粧の状態と、前記手本映像の化粧の状態とを比較して、化粧の仕上がりを判定する判定部と、を備え、前記判定部は、前記手本映像を投影していない期間に撮影された前記撮影データと直前に投影された前記手本映像とを比較して判定する。 In order to solve the above-mentioned problems and achieve the object, the makeup support control device according to the present invention intermittently displays a model image showing a model makeup procedure for each part according to the face of the subject. A projection control unit that controls the projection of the face, a shooting data acquisition unit that acquires shooting data of the face, a makeup state of the face of the shooting data, and a makeup state of the model image. The determination unit includes a determination unit for determining the finish of makeup by comparing with, and the determination unit includes the photographing data photographed during the period when the model image is not projected and the model projected immediately before. Judgment is made by comparing with the video.

本発明に係る化粧支援システムは、上記の化粧支援制御装置と、部位ごとに手本となる化粧の手順を示す手本映像を間欠的に投影する投影装置と、前記対象者の顔部を映すハーフミラーと、を備え、前記投影制御部は、前記ハーフミラーの表面に表示された前記顔部に合わせて投影するよう投影装置を制御する。 The makeup support system according to the present invention projects the above-mentioned makeup support control device, a projection device that intermittently projects a model image showing a model makeup procedure for each part, and the face of the subject. A half mirror is provided, and the projection control unit controls the projection device so as to project in accordance with the face portion displayed on the surface of the half mirror.

本発明に係る化粧支援制御方法は、対象者の顔部に合わせて、部位ごとに手本となる化粧の手順を示す手本映像を間欠的に投影するよう制御する投影制御ステップと、前記顔部を撮影した撮影データを取得する撮影データ取得ステップと、前記撮影データの前記顔部の化粧の状態と、前記手本映像の化粧の状態とを比較して、化粧の仕上がりを判定する判定ステップと、を含み、前記判定ステップにおいては、前記手本映像を投影していない期間に撮影された前記撮影データと直前に投影された前記手本映像とを比較して判定する。 The makeup support control method according to the present invention includes a projection control step that controls to intermittently project a model image showing a model makeup procedure for each part according to the face of the subject, and the face. A determination step of comparing a shooting data acquisition step of acquiring shooting data of a portion, a makeup state of the face portion of the shooting data, and a makeup state of the model image to determine the finish of the makeup. In the determination step, the photographed data captured during the period in which the model image is not projected is compared with the model image projected immediately before the determination.

本発明によれば、化粧の手順を学べるように支援することができるという効果を奏する。 According to the present invention, there is an effect that it is possible to support learning the procedure of makeup.

図1は、第一実施形態に係る化粧支援制御装置を有する化粧支援システムの構成例を示すブロック図である。FIG. 1 is a block diagram showing a configuration example of a makeup support system having a makeup support control device according to the first embodiment. 図2は、第一実施形態に係る化粧支援制御装置を有する化粧支援システムを示す概略図である。FIG. 2 is a schematic view showing a makeup support system having a makeup support control device according to the first embodiment. 図3は、判定条件の一例を示す図である。FIG. 3 is a diagram showing an example of determination conditions. 図4は、第一実施形態に係る化粧支援制御装置における処理の流れを示すフローチャートである。FIG. 4 is a flowchart showing a processing flow in the makeup support control device according to the first embodiment. 図5は、第一実施形態に係る化粧支援制御装置における処理の流れを示すフローチャートである。FIG. 5 is a flowchart showing a processing flow in the makeup support control device according to the first embodiment. 図6は、第二実施形態に係る化粧支援制御装置を有する化粧支援システムの構成例を示すブロック図である。FIG. 6 is a block diagram showing a configuration example of a makeup support system having a makeup support control device according to the second embodiment. 図7は、第二実施形態に係る化粧支援制御装置における処理の流れを示すフローチャートである。FIG. 7 is a flowchart showing a processing flow in the makeup support control device according to the second embodiment.

以下に添付図面を参照して、本発明に係る化粧支援制御装置、化粧支援システムおよび化粧支援制御方法の実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。 Hereinafter, embodiments of the makeup support control device, the makeup support system, and the makeup support control method according to the present invention will be described in detail with reference to the accompanying drawings. The present invention is not limited to the following embodiments.

[第一実施形態]
(化粧支援システム)
図1は、第一実施形態に係る化粧支援制御装置である制御部20を有する化粧支援システム1の構成例を示すブロック図である。図2は、第一実施形態に係る化粧支援制御装置である制御部20を有する化粧支援システム1を示す概略図である。化粧支援システム1は、化粧を施す対象者Mの顔部Fの部位ごとに手本となる化粧の手順を投影する。顔部Fの部位とは、例えば、目元、口元、頬などのことである。
[First Embodiment]
(Makeup support system)
FIG. 1 is a block diagram showing a configuration example of a makeup support system 1 having a control unit 20 which is a makeup support control device according to the first embodiment. FIG. 2 is a schematic view showing a makeup support system 1 having a control unit 20 which is a makeup support control device according to the first embodiment. The makeup support system 1 projects a makeup procedure as a model for each part of the face F of the subject M to which the makeup is applied. The portion of the face F is, for example, the eyes, mouth, cheeks, and the like.

ミラー10は、対象者Mの顔部Fを映す。対象者Mは、ミラー10を見ながら、顔部Fに投影された手本となる化粧の手順を確認しながら化粧する。ミラー10は、光学式ミラーでも、ハーフミラーでもよい。 The mirror 10 reflects the face F of the subject M. The subject M makes up while looking at the mirror 10 and confirming the makeup procedure as a model projected on the face F. The mirror 10 may be an optical mirror or a half mirror.

化粧支援システム1は、カメラ11と、動画データ記憶部12と、投影装置13と、表示装置14と、制御部(化粧支援制御装置)20とを有する。化粧支援システム1は、ミラー10を含んでもよい。 The makeup support system 1 includes a camera 11, a moving image data storage unit 12, a projection device 13, a display device 14, and a control unit (makeup support control device) 20. The makeup support system 1 may include a mirror 10.

カメラ11は、対象者Mの顔部Fを撮影する。カメラ11は、化粧中の対象者Mの顔部F、または、化粧後の対象者Mの顔部Fを撮影する。カメラ11は、投影装置13によって対象者Mの顔部Fに投影されていない間に対象者Mの顔部Fを撮影する。カメラ11は、対象者Mの顔部Fに後述する手本映像が投影されていない状態の顔部Fを撮影する。これにより、対象者Mの顔部Fの化粧の状態が適切に撮影される。これに対して、手本映像が投影された顔部Fを撮影すると、化粧の状態を確認することが難しくなるおそれがある。カメラ11は、撮影した撮影データを制御部20の撮影データ取得部21へ出力する。 The camera 11 photographs the face F of the subject M. The camera 11 photographs the face F of the subject M during makeup or the face F of the subject M after makeup. The camera 11 photographs the face portion F of the subject M while it is not projected onto the face portion F of the subject M by the projection device 13. The camera 11 captures the face portion F in a state in which the model image described later is not projected on the face portion F of the subject M. As a result, the state of makeup on the face F of the subject M is appropriately photographed. On the other hand, if the face portion F on which the model image is projected is photographed, it may be difficult to confirm the state of makeup. The camera 11 outputs the captured shooting data to the shooting data acquisition unit 21 of the control unit 20.

カメラ11は、ミラー10がハーフミラーである場合、対象者Mと向かい合う表面と反対側の裏面より後ろ側に配置されていてもよい。言い換えると、カメラ11は、ミラー10の内側に配置されていてもよい。カメラ11は、ミラー10に内蔵されていてもよい。本実施形態では、図2に示すように、ミラー10の裏面より後ろ側に配置されている。 When the mirror 10 is a half mirror, the camera 11 may be arranged behind the back surface opposite to the front surface facing the subject M. In other words, the camera 11 may be arranged inside the mirror 10. The camera 11 may be built in the mirror 10. In the present embodiment, as shown in FIG. 2, the mirror 10 is arranged behind the back surface of the mirror 10.

動画データ記憶部12は、顔部に化粧を施す手順が撮影された動画データを記憶する。動画データ記憶部12は、例えば、RAM(Random Access Memory)、SDカードのようなフラッシュメモリなどの半導体メモリ素子、または、ハードディスク、ソリッドステートドライブなどの記憶装置で実現することができる。動画データ記憶部12は、複数の異なるメモリなどで構成されてもよい。動画データ記憶部12は、図示しない通信部を介して接続される、外部の記憶装置であってもよい。 The moving image data storage unit 12 stores moving image data in which the procedure for applying makeup to the face portion is taken. The moving image data storage unit 12 can be realized by, for example, a RAM (Random Access Memory), a semiconductor memory element such as a flash memory such as an SD card, or a storage device such as a hard disk or a solid state drive. The moving image data storage unit 12 may be composed of a plurality of different memories or the like. The moving image data storage unit 12 may be an external storage device connected via a communication unit (not shown).

動画データは、手本となる化粧の手順を示す。手本となる化粧の手順とは、例えば、化粧品及び化粧道具などの化粧関連商品の販売員またはメイクアップアーティストなどのような熟練した施術者によって施される化粧の手順である。手本となる化粧の手順とは、例えば、対象者M自身が行った化粧の手順のうち、手本となる化粧の手順である。手本となる化粧の手順とは、例えば、化粧を得意とする第三者によって施される化粧の手順である。 The video data shows a model makeup procedure. The model makeup procedure is a makeup procedure performed by a skilled practitioner, such as a salesperson of cosmetic-related products such as cosmetics and makeup tools, or a makeup artist. The model makeup procedure is, for example, a model makeup procedure among the makeup procedures performed by the subject M himself. The model makeup procedure is, for example, a makeup procedure performed by a third party who is good at makeup.

動画データは、化粧を施す手順を撮影した動画データである。動画データは、例えば、化粧品の購入時などに販売員または施術者などによって対象者Mの顔部Fに施術された化粧の手順を撮影した動画データである。動画データは、例えば、対象者M自身によって顔部Fに施術された化粧の手順を撮影した動画データである。動画データは、例えば、第三者によって施される化粧の手順を撮影し、インターネット上に公開されている動画データでもよい。 The moving image data is moving image data obtained by shooting the procedure of applying makeup. The moving image data is, for example, moving image data obtained by photographing a makeup procedure applied to the face F of the subject M by a salesperson or a practitioner at the time of purchasing cosmetics. The moving image data is, for example, moving image data obtained by photographing the makeup procedure applied to the face F by the subject M himself. The moving image data may be, for example, moving image data obtained by photographing a makeup procedure applied by a third party and publishing it on the Internet.

投影装置13は、対象者Mの顔部Fに手本となる化粧の手順を示す手本映像を投影可能に設置される。例えば、投影装置13は、液晶を使用したプロジェクタ、または、レーザ光源を使用したプロジェクタである。投影装置13は、制御部20の投影制御部25が出力した映像信号に基づいて手本映像の立体物投影光を投影する。投影装置13は、手本映像を間欠的に投影する。言い換えると、投影装置13は、手本映像を対象者Mの顔部Fに投影している期間と投影していない期間とが繰り返される。投影していない期間は、カメラ11の撮影タイミングと合っていればよい。 The projection device 13 is installed so as to be able to project a model image showing a makeup procedure as a model on the face F of the subject M. For example, the projection device 13 is a projector using a liquid crystal display or a projector using a laser light source. The projection device 13 projects the three-dimensional object projection light of the model image based on the image signal output by the projection control unit 25 of the control unit 20. The projection device 13 intermittently projects the model image. In other words, the projection device 13 repeats a period in which the model image is projected on the face portion F of the subject M and a period in which the model image is not projected. The non-projecting period may match the shooting timing of the camera 11.

投影装置13は、ミラー10の周囲に配置されていてもよい。本実施形態では、図2に示すように、ミラー10の下側に配置されている。この場合、投影装置13は、ミラー10の外側に配置されている。 The projection device 13 may be arranged around the mirror 10. In this embodiment, as shown in FIG. 2, it is arranged under the mirror 10. In this case, the projection device 13 is arranged outside the mirror 10.

投影装置13は、ミラー10がハーフミラーである場合、裏面より後ろ側に配置されていてもよい。言い換えると、投影装置13は、ミラー10の内側に配置されていてもよい。投影装置13は、ミラー10に内蔵されていてもよい。 When the mirror 10 is a half mirror, the projection device 13 may be arranged behind the back surface. In other words, the projection device 13 may be arranged inside the mirror 10. The projection device 13 may be built in the mirror 10.

表示装置14は、化粧の仕上がりの判定結果を示すメッセージ及びアドバイスなどを表示する。表示装置14は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイなどを含むディスプレイである。 The display device 14 displays a message, advice, and the like indicating the determination result of the finish of the makeup. The display device 14 is a display including, for example, a liquid crystal display (LCD) or an organic EL (Electro-Luminescence) display.

(制御部)
制御部20は、例えば、CPU(Central Processing Unit)などで構成された演算処理装置である。制御部20は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部20は、撮影データ取得部21と、動画データ取得部22と、動画処理部23と、投影映像生成部24と、投影制御部25と、表示映像生成部26と、表示制御部27とを有する。制御部20には図示しない内部メモリが含まれ、内部メモリは制御部20におけるデータの一時記憶などに用いられる。
(Control unit)
The control unit 20 is, for example, an arithmetic processing unit composed of a CPU (Central Processing Unit) or the like. The control unit 20 loads a program stored in a storage unit (not shown) into a memory and executes an instruction included in the program. The control unit 20 includes a shooting data acquisition unit 21, a moving image data acquisition unit 22, a moving image processing unit 23, a projection image generation unit 24, a projection control unit 25, a display image generation unit 26, and a display control unit 27. Has. The control unit 20 includes an internal memory (not shown), and the internal memory is used for temporary storage of data in the control unit 20 and the like.

撮影データ取得部21は、化粧中の対象者Mの顔部F、または、化粧後の対象者Mの顔部Fを撮影した撮影データを取得する。撮影データ取得部21は、カメラ11から撮影データを取得する。 The shooting data acquisition unit 21 acquires shooting data obtained by shooting the face F of the subject M during makeup or the face F of the subject M after makeup. The shooting data acquisition unit 21 acquires shooting data from the camera 11.

動画データ取得部22は、動画データ記憶部12から動画データを取得する。 The moving image data acquisition unit 22 acquires moving image data from the moving image data storage unit 12.

動画処理部23は、撮影データ取得部21が取得した撮影データ、動画データ取得部22が取得した動画データ、及び、手本映像の映像データに関する処理を行う。動画処理部23は、顔認識部231と、加工部232と、判定部233とを有する。 The moving image processing unit 23 processes the shooting data acquired by the shooting data acquisition unit 21, the moving image data acquired by the moving image data acquisition unit 22, and the video data of the model video. The moving image processing unit 23 includes a face recognition unit 231, a processing unit 232, and a determination unit 233.

顔認識部231は、動画データ取得部22が取得した動画データに画像処理を行って、動画データに含まれている被施術者、言い換えると化粧を施されている人物の顔部及び部位の形状、大きさ及び色味を認識する。被施術者は、対象者Mに限定されず、第三者を含む。顔認識部231は、動画データの最初から最後まで認識処理を実行する。顔部及び部位を認識する方法は公知の方法を使用可能であり限定されない。 The face recognition unit 231 performs image processing on the video data acquired by the video data acquisition unit 22, and the shape of the face and the portion of the person to be treated, in other words, the person to whom the makeup is applied, included in the video data. , Recognize size and tint. The person to be treated is not limited to the subject M, but includes a third party. The face recognition unit 231 executes the recognition process from the beginning to the end of the moving image data. As a method for recognizing a face and a part, a known method can be used and is not limited.

顔認識部231は、撮影データ取得部21が取得した撮影データに画像処理を行って、対象者Mの顔部Fを認識する。顔認識部231は、顔部F及び部位の形状、大きさ及び色味を認識する。顔認識部231は、撮影データ取得部21が撮影データを取得している間、認識処理を継続する。顔部F及び部位を認識する方法は公知の方法を使用可能であり限定されない。 The face recognition unit 231 performs image processing on the shooting data acquired by the shooting data acquisition unit 21 to recognize the face portion F of the subject M. The face recognition unit 231 recognizes the shape, size, and color of the face portion F and the portion. The face recognition unit 231 continues the recognition process while the shooting data acquisition unit 21 is acquiring the shooting data. As a method for recognizing the face F and the site, a known method can be used and is not limited.

加工部232は、動画データ取得部22が取得した動画データを加工する。加工部232は、動画データ取得部22が取得した動画データを加工して手本映像を生成する。加工部232は、生成した手本映像を図示しない記憶部に記憶する。加工部232による加工処理は、動画データに対して1回実行すればよい。 The processing unit 232 processes the moving image data acquired by the moving image data acquisition unit 22. The processing unit 232 processes the moving image data acquired by the moving image data acquisition unit 22 to generate a model image. The processing unit 232 stores the generated model image in a storage unit (not shown). The processing process by the processing unit 232 may be executed once for the moving image data.

加工部232は、化粧を施す顔部の部位ごとに動画データを区切ってチャプタを付加し、動画データを左右反転して加工して手本映像を生成する。より詳しくは、加工部232は、顔認識部231の認識結果に基づいて、例えば目元、口元、頬などの認識した顔部の部位ごとにチャプタを付加する。例えば、アイシャドウを塗っている期間と口紅を塗っている期間と頬紅を塗っている期間とを含む動画データは、部位で区切って3つのチャプタが付加される。加工部232は、さらに動画データを左右反転する。 The processing unit 232 divides the moving image data into each part of the face to which the makeup is applied, adds chapters, reverses the moving image data left and right, and processes the moving image data to generate a model image. More specifically, the processing unit 232 adds chapters to each recognized facial part such as the eyes, mouth, and cheeks based on the recognition result of the face recognition unit 231. For example, the moving image data including the period of applying eye shadow, the period of applying lipstick, and the period of applying blusher is divided by a site and three chapters are added. The processing unit 232 further flips the moving image data left and right.

加工部232は、動画データのうち化粧に関係のない部分を削除する。より詳しくは、加工部232は、例えば、化粧の開始前または化粧の完了後など化粧の手順以外の部分を動画データから削除する。加工部232は、例えば、動画データに画像処理を行って、背景など被施術者以外の部分を動画データから削除する。加工部232は、例えば、動画データに画像処理を行って、首から下など顔部以外の身体部分を動画データから削除する。 The processing unit 232 deletes a portion of the moving image data that is not related to makeup. More specifically, the processing unit 232 deletes a part other than the makeup procedure from the moving image data, for example, before the start of makeup or after the completion of makeup. The processing unit 232 performs image processing on the moving image data, for example, and deletes a part other than the person to be treated, such as a background, from the moving image data. The processing unit 232 performs image processing on the moving image data, for example, and deletes a body part other than the face part such as from the neck to the bottom from the moving image data.

このように加工された手本映像は、例えば、目元、口元、頬などの部位ごとにチャプタ分けされている。手本映像は、対象者Mの顔部Fに投影するために左右反転されている。手本映像は、動画データに含まれる被施術者の顔画像を含んでもよい。手本映像は、動画データに含まれる被施術者の顔画像が差し引かれた、化粧の色味だけを含むものでもよい。手本映像は、化粧道具及び施術者の手指を含んでいてもよい。 The model image processed in this way is divided into chapters for each part such as the eyes, mouth, and cheeks. The model image is flipped horizontally to be projected onto the face F of the subject M. The model image may include a facial image of the person to be treated included in the moving image data. The model image may include only the color of the makeup to which the facial image of the person to be treated included in the moving image data is subtracted. The model image may include cosmetic tools and the practitioner's fingers.

判定部233は、撮影データの対象者Mの顔部Fの化粧の状態と、手本映像の化粧の状態とを比較して、化粧の仕上がりを判定する。より詳しくは、判定部233は、手本映像を投影していない期間に撮影された撮影データと手本映像とを比較して判定する。 The determination unit 233 compares the makeup state of the face portion F of the subject M in the shooting data with the makeup state of the model image, and determines the finish of the makeup. More specifically, the determination unit 233 determines by comparing the shooting data taken during the period when the model image is not projected with the model image.

図3を用いて、判定部233の判定条件について詳しく説明する。図3は、判定条件の一例を示す図である。判定部233は、顔部Fの部位ごとに化粧の仕上がりを判定してもよい。判定部233は、部位ごとに化粧が完成したか否かを判定する。判定部233は、例えば実際の対象者Mの顔部Fの化粧の状態と手本となる化粧の状態とを比較して化粧の色味を判定する。判定部233は、例えば色味の差異が色味閾値以下である場合、完成していると判定する。判定部233は、例えば実際の対象者Mの顔部Fの化粧の状態と手本となる化粧の状態とを比較して化粧の濃淡を判定する。判定部233は、例えば濃淡の差異が濃淡閾値以下である場合、完成していると判定する。判定部233は、例えば実際の対象者Mの顔部Fの化粧の状態と手本となる化粧の状態とを比較して化粧の明暗を判定する。判定部233は、例えば明暗の差異が明暗閾値以下である場合、完成していると判定する。判定部233は、例えば実際の対象者Mの顔部Fの化粧の状態と手本となる化粧の状態とを比較して化粧を施した範囲を判定する。判定部233は、例えば範囲の差異が範囲閾値以下である場合、完成していると判定する。判定部233は、すべての条件が満たされた場合、完成していると判定してもよい。 The determination conditions of the determination unit 233 will be described in detail with reference to FIG. FIG. 3 is a diagram showing an example of determination conditions. The determination unit 233 may determine the finish of the makeup for each portion of the face portion F. The determination unit 233 determines whether or not the makeup is completed for each part. The determination unit 233 determines the color of the makeup by comparing, for example, the makeup state of the face F of the actual subject M with the makeup state as a model. The determination unit 233 determines that the product is completed, for example, when the difference in color is equal to or less than the color threshold. The determination unit 233 determines the shade of makeup by comparing, for example, the state of makeup on the face F of the actual subject M with the state of makeup as a model. For example, when the difference in shading is equal to or less than the shading threshold value, the determination unit 233 determines that the work is completed. The determination unit 233 determines, for example, the lightness and darkness of the makeup by comparing the makeup state of the face F of the actual subject M with the makeup state as a model. The determination unit 233 determines that the product is completed, for example, when the difference between light and dark is equal to or less than the light and dark threshold value. The determination unit 233 determines, for example, the range in which the makeup is applied by comparing the makeup state of the face F of the actual subject M with the makeup state as a model. The determination unit 233 determines that the range is complete, for example, when the difference in the range is equal to or less than the range threshold value. The determination unit 233 may determine that it is completed when all the conditions are satisfied.

例えば、判定結果が、顔部Fの部位の化粧が完成したことを示す場合、当該部位の手本映像の再生を終了して、次の部位の手本映像を再生する。例えば、判定結果が、顔部Fの部位の化粧が完成していないことを示す場合、当該部位の手本映像の再生を繰り返す。例えば、判定結果が、顔部Fの部位の化粧が完成していないことを示す場合、アドバイスを表示装置14に表示してもよい。 For example, when the determination result indicates that the makeup of the portion of the face F is completed, the reproduction of the model image of the portion concerned is terminated, and the model image of the next portion is reproduced. For example, when the determination result indicates that the makeup of the portion of the face F is not completed, the reproduction of the model image of the portion is repeated. For example, if the determination result indicates that the makeup of the portion of the face F is not completed, the advice may be displayed on the display device 14.

判定部233は、顔部Fの全体の化粧の仕上がりを判定してもよい。判定部233は、例えば全体のバランスを判定してもよい。 The determination unit 233 may determine the finish of the entire makeup of the face portion F. The determination unit 233 may determine, for example, the overall balance.

例えば、判定結果が、顔部Fの全体の化粧が完成したことを示す場合、手本映像の再生を終了する。例えば、判定結果が、顔部Fの全体の化粧が完成していないことを示す場合、所望の手本映像の再生を繰り返す。所望の手本映像とは、例えば、やり直しをしたい部位の手本映像などである。例えば、判定結果が、顔部Fの全体の化粧が完成していないことを示す場合、アドバイスを表示装置14に表示してもよい。 For example, when the determination result indicates that the entire makeup of the face F is completed, the reproduction of the model image is terminated. For example, when the determination result indicates that the makeup of the entire face F is not completed, the reproduction of the desired model image is repeated. The desired model image is, for example, a model image of a part to be redone. For example, if the determination result indicates that the entire makeup of the face F is not completed, the advice may be displayed on the display device 14.

投影映像生成部24は、手本となる化粧の手順を対象者Mの顔部Fに投影する投影用の手本映像を生成する。投影映像生成部24は、加工部232が加工した手本映像から投影用の手本映像を生成する。 The projection image generation unit 24 generates a model image for projection that projects the makeup procedure as a model onto the face F of the subject M. The projection image generation unit 24 generates a model image for projection from the model image processed by the processing unit 232.

投影映像生成部24は、対象者Mの顔部Fに形状及び大きさを合わせた投影用の手本映像を生成する。より詳しくは、投影映像生成部24は、手本映像の顔部及び部位の形状及び大きさを、顔認識部231の認識結果に含まれる対象者Mの顔部F及び部位の形状及び大きさに合わせて変換する。 The projection image generation unit 24 generates a model image for projection whose shape and size are matched to the face portion F of the subject M. More specifically, the projection image generation unit 24 determines the shape and size of the face portion and the portion of the model image, and the shape and size of the face portion F and the portion of the subject M included in the recognition result of the face recognition unit 231. Convert according to.

投影映像生成部24は、対象者Mの顔部Fの色味に合わせた投影用の手本映像を生成してもよい。より詳しくは、投影映像生成部24は、手本映像の化粧の色味を、顔認識部231の認識結果に含まれる対象者Mの顔部F及び部位の色味に合わせて変換する。 The projection image generation unit 24 may generate a model image for projection that matches the color of the face portion F of the subject M. More specifically, the projection image generation unit 24 converts the color of the makeup of the model image according to the color of the face F and the portion of the subject M included in the recognition result of the face recognition unit 231.

投影映像生成部24は、顔画像を含む手本映像、または、顔画像が差し引かれた手本映像を生成してもよい。 The projection image generation unit 24 may generate a model image including a face image or a model image from which the face image is subtracted.

投影映像生成部24は、化粧を施す部位のうち化粧が施された部分の色を薄く、明度を暗く、または、輝度を低くした映像を生成してもよい。投影映像生成部24は、化粧を施す部位のうち化粧が施された部分は枠線のみの映像を生成してもよい。この場合、撮影データに画像処理を行って、顔部Fの部位の色味の変化を認識して、色味が変化した部分を化粧が施された部分として認識すればよい。撮影データに画像処理を行って、化粧道具及び手指の位置及び動きを認識して、化粧道具及び手指が通過した部分を化粧が施された部分として認識してもよい。 The projection image generation unit 24 may generate an image in which the color of the portion to which the makeup is applied is lighter, the brightness is darker, or the brightness is lowered. The projection image generation unit 24 may generate an image of only a frame line in the portion to which the makeup is applied among the parts to which the makeup is applied. In this case, image processing may be performed on the captured data to recognize the change in the color of the portion of the face F, and the portion where the color has changed may be recognized as the portion to which the makeup has been applied. Image processing may be performed on the photographed data to recognize the positions and movements of the makeup tool and the fingers, and the portion through which the makeup tool and the fingers have passed may be recognized as the makeup-applied portion.

投影制御部25は、対象者Mの顔部Fに対して、部位ごとに手本となる化粧の手順を示す手本映像を間欠的に投影するよう制御する。より詳しくは、投影制御部25は、対象者Mの顔部Fに対して、投影映像生成部24によって生成された投影用の手本映像を投影装置13が間欠的に投影するよう制御する。投影制御部25は、手本映像を対象者Mの顔部Fに投影している期間と、投影していない期間とが繰り返されるように投影を制御する。投影制御部25は、投影装置13に対して投影映像生成部24が生成した投影用の手本映像を対象者Mの顔部Fに投影する映像信号を間欠的に出力する。投影制御部25は、対象者Mの顔部Fを追尾して投影用の手本映像を投影するように映像信号を間欠的に出力する。 The projection control unit 25 controls the face portion F of the subject M to intermittently project a model image showing a makeup procedure as a model for each portion. More specifically, the projection control unit 25 controls the face portion F of the subject M so that the projection device 13 intermittently projects the model image for projection generated by the projection image generation unit 24. The projection control unit 25 controls the projection so that the period during which the model image is projected onto the face portion F of the subject M and the period during which the model image is not projected are repeated. The projection control unit 25 intermittently outputs a video signal for projecting a model image for projection generated by the projection image generation unit 24 onto the face portion F of the subject M to the projection device 13. The projection control unit 25 intermittently outputs a video signal so as to track the face portion F of the subject M and project a model image for projection.

投影制御部25は、顔画像を含む手本映像、または、顔画像が差し引かれた手本映像を投影するよう制御してもよい。 The projection control unit 25 may control to project a model image including a face image or a model image from which the face image is subtracted.

投影制御部25は、対象者Mの顔部Fに合わせて投影するよう制御する。 The projection control unit 25 controls the projection so as to be aligned with the face portion F of the subject M.

表示映像生成部26は、対象者Mに化粧のアドバイスなどの情報を示す表示映像を生成する。より詳しくは、表示映像生成部26は、判定部233の判定結果に基づいて、メッセージ及びアドバイスを示す表示映像を生成する。 The display image generation unit 26 generates a display image showing information such as makeup advice to the subject M. More specifically, the display image generation unit 26 generates a display image showing a message and advice based on the determination result of the determination unit 233.

表示映像生成部26は、例えば、化粧の色味の判定結果に応じて「もっと赤く」のように化粧の色味のアドバイスを示す映像を生成する。表示映像生成部26は、例えば、化粧の濃淡の判定結果に応じて「もっと濃く」または「もっと薄く」のように化粧の濃淡のアドバイスを示す映像を生成する。表示映像生成部26は、例えば、化粧の明暗の判定結果に応じて「もっと明るく」または「もっと暗く」のように化粧の明暗のアドバイスを示す映像を生成する。表示映像生成部26は、例えば、化粧の範囲の判定結果に応じて「ラインを細く」または「ラインを短く」のように化粧の範囲のアドバイスを示す映像を生成する。 The display image generation unit 26 generates, for example, an image showing advice on the color of makeup, such as “more red” according to the determination result of the color of makeup. The display image generation unit 26 generates an image showing advice on the shade of makeup, such as “darker” or “lighter”, depending on the determination result of the shade of makeup. The display image generation unit 26 generates an image showing advice on the lightness and darkness of the makeup, such as "brighter" or "darker" depending on the determination result of the lightness and darkness of the makeup. The display image generation unit 26 generates an image showing advice on the range of makeup, such as "thinning the line" or "shortening the line", depending on the determination result of the range of makeup.

表示映像生成部26は、全体のバランスのアドバイスを示す映像を生成する。表示映像生成部26は、全体のバランスが悪い場合には、例えば「バランスが悪いので、目のチャプタをもう一度」のようにやり直しを促す映像を生成する。 The display image generation unit 26 generates an image showing advice on the overall balance. When the overall balance is poor, the display image generation unit 26 generates an image that prompts the user to start over, for example, "Because the balance is poor, repeat the chapters of the eyes."

表示制御部27は、表示装置14に対して、表示映像生成部26によって生成された表示映像を表示するよう制御する。言い換えると、表示制御部27は、表示装置14に対して表示映像生成部26が生成した表示映像を表示する映像信号を出力する。 The display control unit 27 controls the display device 14 to display the display image generated by the display image generation unit 26. In other words, the display control unit 27 outputs a video signal for displaying the display video generated by the display video generation unit 26 to the display device 14.

(制御部における処理)
次に、図4、図5を用いて、化粧支援制御装置である制御部20における処理の流れについて説明する。図4は、第一実施形態に係る化粧支援制御装置である制御部20における処理の流れを示すフローチャートである。図5は、第一実施形態に係る化粧支援制御装置である制御部20における処理の流れを示すフローチャートである。
(Processing in the control unit)
Next, the flow of processing in the control unit 20 which is a makeup support control device will be described with reference to FIGS. 4 and 5. FIG. 4 is a flowchart showing a processing flow in the control unit 20 which is the makeup support control device according to the first embodiment. FIG. 5 is a flowchart showing a processing flow in the control unit 20 which is the makeup support control device according to the first embodiment.

図4を用いて、動画データの加工処理について説明する。図4に示すフローチャートの処理は、動画データ記憶部12に新しい動画データが記憶されるたびに、当該動画データについて実行してもよい。または、所定期間ごとまたは任意のタイミングで、動画データ記憶部12に記憶された動画データのうち、新しく追加された動画データについて実行してもよい。 The processing of moving image data will be described with reference to FIG. The processing of the flowchart shown in FIG. 4 may be executed for the moving image data each time new moving image data is stored in the moving image data storage unit 12. Alternatively, among the moving image data stored in the moving image data storage unit 12, the newly added moving image data may be executed at predetermined intervals or at arbitrary timings.

制御部20は、動画データ取得部22によって、動画データ記憶部12から動画データを取得する(ステップS101)。制御部20は、ステップS102へ進む。 The control unit 20 acquires video data from the video data storage unit 12 by the video data acquisition unit 22 (step S101). The control unit 20 proceeds to step S102.

制御部20は、顔認識部231によって、動画データの化粧を施す顔部の部位(化粧部位)を判別する(ステップS102)。より詳しくは、制御部20は、顔認識部231によって、動画データから化粧を施している目元、口元、頬などの顔部の部位を認識する。例えば、アイシャドウを塗っている期間と口紅を塗っている期間と頬紅を塗っている期間とを含む動画データからは、目元、口元、頬が認識される。制御部20は、ステップS103へ進む。 The control unit 20 determines, by the face recognition unit 231, a portion (makeup portion) of the face portion to which the makeup of the moving image data is applied (step S102). More specifically, the control unit 20 recognizes facial parts such as the eyes, mouth, and cheeks to which makeup is applied from the moving image data by the face recognition unit 231. For example, the eyes, mouth, and cheeks are recognized from the moving image data including the period of applying eye shadow, the period of applying lipstick, and the period of applying blush. The control unit 20 proceeds to step S103.

制御部20は、加工部232によって、動画データを部位ごとに区切ってチャプタを付加する(ステップS103)。例えば、アイシャドウを塗っている期間と口紅を塗っている期間と頬紅を塗っている期間とを含む動画データは、部位で区切られて3つのチャプタが付加される。言い換えると、目元にアイシャドウを塗るチャプタと、口元に口紅を塗るチャプタと、頬に頬紅を塗るチャプタとが含まれる。制御部20は、ステップS104へ進む。 The control unit 20 divides the moving image data into parts by the processing unit 232 and adds chapters (step S103). For example, the moving image data including the period of applying eye shadow, the period of applying lipstick, and the period of applying blusher is divided by a site and three chapters are added. In other words, it includes a chapter that applies eye shadow to the eyes, a chapter that applies lipstick to the mouth, and a chapter that applies blush to the cheeks. The control unit 20 proceeds to step S104.

制御部20は、加工部232によって、動画データのうち化粧に関係のない部分を削除する(ステップS104)。例えば、化粧の開始前または化粧の完了後など化粧の手順以外の部分が動画データから削除される。例えば、背景など被施術者以外の部分が動画データから削除される。例えば、首から下など顔部以外の身体部分が動画データから削除される。制御部20は、ステップS105へ進む。 The control unit 20 deletes a portion of the moving image data that is not related to makeup by the processing unit 232 (step S104). For example, parts other than the makeup procedure, such as before the start of makeup or after the completion of makeup, are deleted from the video data. For example, the part other than the person to be treated, such as the background, is deleted from the moving image data. For example, body parts other than the face, such as below the neck, are deleted from the video data. The control unit 20 proceeds to step S105.

制御部20は、動画データの終了まで加工部232による加工処理が終了しているかを判定する(ステップS105)。制御部20は、動画データのファイルの終わりまで処理が終了しているか否かによって、加工処理が終了しているか否かを判定する。制御部20は、加工処理が終了したと判定する場合(ステップS105でYes)、処理を終了する。制御部20は、加工処理が終了していないと判定する場合(ステップS105でNo)、ステップS102の処理を再度実行する。このようにして、動画データが加工されて手本映像が生成される。 The control unit 20 determines whether or not the processing by the processing unit 232 is completed until the end of the moving image data (step S105). The control unit 20 determines whether or not the processing is completed depending on whether or not the processing is completed until the end of the moving image data file. When the control unit 20 determines that the machining process is completed (Yes in step S105), the control unit 20 ends the process. When the control unit 20 determines that the machining process has not been completed (No in step S105), the control unit 20 re-executes the process of step S102. In this way, the moving image data is processed to generate a model image.

図5を用いて、化粧支援処理について説明する。対象者Mによる、化粧支援の処理を開始する操作が検出されると、化粧支援システム1が起動される。化粧支援システム1の起動中、カメラ11によって対象者Mの顔部Fが撮影されて、撮影された撮影データが制御部20の撮影データ取得部21に出力される。化粧支援システム1の起動中、撮影データに対して、顔認識部231によって対象者Mの顔部Fが認識される。化粧支援システム1の起動中、制御部20によって、ステップS111ないしステップS123の処理が繰り返される。図5は、手本映像のチャプタが3つである場合のフローチャートである。 The makeup support process will be described with reference to FIG. When the operation of the subject M to start the makeup support process is detected, the makeup support system 1 is activated. While the makeup support system 1 is being activated, the camera 11 photographs the face portion F of the subject M, and the captured shooting data is output to the shooting data acquisition unit 21 of the control unit 20. During the activation of the makeup support system 1, the face recognition unit 231 recognizes the face portion F of the subject M with respect to the shooting data. While the makeup support system 1 is being activated, the control unit 20 repeats the processes of steps S111 to S123. FIG. 5 is a flowchart when there are three chapters of the model image.

制御部20は、図示しない記憶部から加工済みの動画データである手本映像を取得する(ステップS111)。制御部20は、ステップS112へ進む。 The control unit 20 acquires a model image which is processed moving image data from a storage unit (not shown) (step S111). The control unit 20 proceeds to step S112.

制御部20は、手本映像の先頭チャプタをリピート再生で対象者Mの顔部Fへ投影する(ステップS112)。例えば、先頭チャプタは、目元にアイシャドウを塗るチャプタである。制御部20は、投影映像生成部24によって、手本映像から投影用の手本映像を生成する。制御部20は、投影制御部25によって、投影用の手本映像を投影する。制御部20は、ステップS113へ進む。 The control unit 20 projects the first chapter of the model image onto the face portion F of the subject M by repeat reproduction (step S112). For example, the first chapter is a chapter that applies eye shadow to the eyes. The control unit 20 generates a model image for projection from the model image by the projection image generation unit 24. The control unit 20 projects a model image for projection by the projection control unit 25. The control unit 20 proceeds to step S113.

制御部20は、撮影データ取得部21によって、ブランキング中の撮影データを取得する(ステップS113)。より詳しくは、制御部20は、撮影データ取得部21によって、投影装置13が投影していない期間に撮影された撮影データを取得する。制御部20は、ステップS114へ進む。 The control unit 20 acquires the shooting data during blanking by the shooting data acquisition unit 21 (step S113). More specifically, the control unit 20 acquires the shooting data taken during the period when the projection device 13 is not projecting by the shooting data acquisition unit 21. The control unit 20 proceeds to step S114.

制御部20は、判定部233によって、再生中のチャプタの化粧が完了したか否かを判定する(ステップS114)。例えば、目元にアイシャドウを塗る化粧が完了したか否かを判定する。制御部20は、判定部233によって、目元の化粧の色味、濃淡、明暗及び範囲を判定する。制御部20は、判定部233によって、再生中のチャプタの化粧が完了したと判定する場合(ステップS114でYes)、ステップS116へ進む。制御部20は、判定部233によって、再生中のチャプタの化粧が完了したと判定しない場合(ステップS114でNo)、ステップS115へ進む。 The control unit 20 determines whether or not the makeup of the chapter being regenerated is completed by the determination unit 233 (step S114). For example, it is determined whether or not the makeup for applying eye shadow to the eyes is completed. The control unit 20 determines the color, shade, lightness and darkness, and range of the makeup around the eyes by the determination unit 233. When the determination unit 233 determines that the makeup of the chapter being reproduced is completed (Yes in step S114), the control unit 20 proceeds to step S116. If the determination unit 233 does not determine that the makeup of the chapter being reproduced is completed (No in step S114), the control unit 20 proceeds to step S115.

再生中のチャプタの化粧が完了したと判定しない場合(ステップS114でNo)、制御部20は、判定結果に応じたアドバイスを表示装置14へ表示する(ステップS115)。より詳しくは、制御部20は、表示映像生成部26によって、判定部233の判定結果に基づいて、アドバイスを示す表示映像を生成する。制御部20は、表示制御部27によって、表示装置14に対して表示映像生成部26が生成したアドバイスを示す表示映像を表示する映像信号を出力する。制御部20は、ステップS112の処理を再度実行する。 When it is not determined that the makeup of the chapter being reproduced is completed (No in step S114), the control unit 20 displays advice according to the determination result on the display device 14 (step S115). More specifically, the control unit 20 generates a display image showing advice by the display image generation unit 26 based on the determination result of the determination unit 233. The control unit 20 outputs a video signal for displaying the display video indicating the advice generated by the display video generation unit 26 to the display device 14 by the display control unit 27. The control unit 20 re-executes the process of step S112.

再生中のチャプタの化粧が完了したと判定する場合(ステップS114でYes)、手本映像の次のチャプタをリピート再生で対象者Mの顔部Fへ投影する(ステップS116)。例えば、次のチャプタは、口元に口紅を塗るチャプタである。制御部20は、投影映像生成部24によって、手本映像から投影用の手本映像を生成する。制御部20は、投影制御部25によって、投影用の手本映像を投影する。制御部20は、ステップS117へ進む。 When it is determined that the makeup of the chapter being reproduced is completed (Yes in step S114), the next chapter of the model image is projected onto the face F of the subject M by repeat reproduction (step S116). For example, the following chapter is a chapter that applies lipstick to the mouth. The control unit 20 generates a model image for projection from the model image by the projection image generation unit 24. The control unit 20 projects a model image for projection by the projection control unit 25. The control unit 20 proceeds to step S117.

制御部20は、撮影データ取得部21によって、ブランキング中の撮影データを取得する(ステップS117)。より詳しくは、制御部20は、撮影データ取得部21によって、投影装置13が投影していない期間に撮影された撮影データを取得する。制御部20は、ステップS118へ進む。 The control unit 20 acquires the shooting data during blanking by the shooting data acquisition unit 21 (step S117). More specifically, the control unit 20 acquires the shooting data taken during the period when the projection device 13 is not projecting by the shooting data acquisition unit 21. The control unit 20 proceeds to step S118.

制御部20は、判定部233によって、再生中のチャプタの化粧が完了したか否かを判定する(ステップS118)。例えば、口元に口紅を塗る化粧が完了したか否かを判定する。制御部20は、判定部233によって、口元の化粧の色味、濃淡、明暗及び範囲を判定する。制御部20は、判定部233によって、再生中のチャプタの化粧が完了したと判定する場合(ステップS118でYes)、ステップS120へ進む。制御部20は、判定部233によって、再生中のチャプタの化粧が完了したと判定しない場合(ステップS118でNo)、ステップS119へ進む。 The control unit 20 determines whether or not the makeup of the chapter being regenerated is completed by the determination unit 233 (step S118). For example, it is determined whether or not the makeup of applying lipstick to the mouth is completed. The control unit 20 determines the color, shade, lightness and darkness, and range of the makeup on the mouth by the determination unit 233. When the determination unit 233 determines that the makeup of the chapter being reproduced is completed (Yes in step S118), the control unit 20 proceeds to step S120. If the determination unit 233 does not determine that the makeup of the chapter being reproduced is completed (No in step S118), the control unit 20 proceeds to step S119.

再生中のチャプタの化粧が完了したと判定しない場合(ステップS118でNo)、制御部20は、判定結果に応じたアドバイスを表示装置14へ表示する(ステップS119)。より詳しくは、制御部20は、表示映像生成部26によって、判定部233の判定結果に基づいて、アドバイスを示す表示映像を生成する。制御部20は、表示制御部27によって、表示装置14に対して表示映像生成部26が生成したアドバイスを示す表示映像を表示する映像信号を出力する。制御部20は、ステップS116の処理を再度実行する。 When it is not determined that the makeup of the chapter being reproduced is completed (No in step S118), the control unit 20 displays advice according to the determination result on the display device 14 (step S119). More specifically, the control unit 20 generates a display image showing advice by the display image generation unit 26 based on the determination result of the determination unit 233. The control unit 20 outputs a video signal for displaying the display video indicating the advice generated by the display video generation unit 26 to the display device 14 by the display control unit 27. The control unit 20 re-executes the process of step S116.

再生中のチャプタの化粧が完了したと判定する場合(ステップS118でYes)、手本映像の次のチャプタをリピート再生で対象者Mの顔部Fへ投影する(ステップS120)。例えば、次のチャプタは最終チャプタであり、頬に頬紅を塗るチャプタである。制御部20は、投影映像生成部24によって、手本映像から投影用の手本映像を生成する。制御部20は、投影制御部25によって、投影用の手本映像を投影する。制御部20は、ステップS121へ進む。 When it is determined that the makeup of the chapter being reproduced is completed (Yes in step S118), the next chapter of the model image is projected onto the face F of the subject M by repeat reproduction (step S120). For example, the next chapter is the final chapter, which is a blusher on the cheeks. The control unit 20 generates a model image for projection from the model image by the projection image generation unit 24. The control unit 20 projects a model image for projection by the projection control unit 25. The control unit 20 proceeds to step S121.

制御部20は、撮影データ取得部21によって、ブランキング中の撮影データを取得する(ステップS121)。より詳しくは、制御部20は、撮影データ取得部21によって、投影装置13が投影していない期間に撮影された撮影データを取得する。制御部20は、ステップS122へ進む。 The control unit 20 acquires the shooting data during blanking by the shooting data acquisition unit 21 (step S121). More specifically, the control unit 20 acquires the shooting data taken during the period when the projection device 13 is not projecting by the shooting data acquisition unit 21. The control unit 20 proceeds to step S122.

制御部20は、判定部233によって、再生中のチャプタの化粧が完了したか否かを判定する(ステップS122)。例えば、頬に頬紅を塗る化粧が完了したか否かを判定する。制御部20は、判定部233によって、頬の化粧の色味、濃淡、明暗及び範囲を判定する。制御部20は、判定部233によって、全体のバランスを判定する。制御部20は、判定部233によって、再生中のチャプタの化粧が完了したと判定する場合(ステップS122でYes)、処理を終了する。制御部20は、判定部233によって、再生中のチャプタの化粧が完了したと判定しない場合(ステップS122でNo)、ステップS123へ進む。 The control unit 20 determines whether or not the makeup of the chapter being regenerated is completed by the determination unit 233 (step S122). For example, it is determined whether or not the makeup for applying blusher to the cheeks is completed. The control unit 20 determines the color, shade, lightness and darkness, and range of the makeup on the cheeks by the determination unit 233. The control unit 20 determines the overall balance by the determination unit 233. When the determination unit 233 determines that the makeup of the chapter being reproduced is completed (Yes in step S122), the control unit 20 ends the process. If the determination unit 233 does not determine that the makeup of the chapter being reproduced is completed (No in step S122), the control unit 20 proceeds to step S123.

再生中のチャプタの化粧が完了したと判定しない場合(ステップS122でNo)、制御部20は、判定結果に応じたアドバイスを表示装置14へ表示する(ステップS123)。より詳しくは、制御部20は、表示映像生成部26によって、判定部233の判定結果に基づいて、アドバイスを示す表示映像を生成する。制御部20は、表示制御部27によって、表示装置14に対して表示映像生成部26が生成したアドバイスを示す表示映像を表示する映像信号を出力する。制御部20は、ステップS120の処理を再度実行する。なお、制御部20は、やり直しをしたい任意のチャプタに対応する処理を再度実行してもよい。 When it is not determined that the makeup of the chapter being reproduced is completed (No in step S122), the control unit 20 displays advice according to the determination result on the display device 14 (step S123). More specifically, the control unit 20 generates a display image showing advice by the display image generation unit 26 based on the determination result of the determination unit 233. The control unit 20 outputs a video signal for displaying the display video indicating the advice generated by the display video generation unit 26 to the display device 14 by the display control unit 27. The control unit 20 re-executes the process of step S120. The control unit 20 may re-execute the process corresponding to any chapter to be redone.

このようにして、対象者Mの顔部Fに部位ごとに手本映像が間欠的に投影される。対象者Mは、ミラー10に映る自身の顔部Fを確認しながら部位ごとに化粧を施す。化粧支援システム1によって、手本映像を投影していない期間に撮影された撮影データと手本映像とが比較されて化粧の仕上がりが判定される。化粧支援システム1によって、判定結果に基づいて、アドバイスを表示したり、特定の部位のやり直しを促したりする。 In this way, the model image is intermittently projected on the face F of the subject M for each part. The subject M applies makeup to each part while checking his / her face F reflected on the mirror 10. The makeup support system 1 compares the shooting data taken during the period when the model image is not projected with the model image to determine the finish of the makeup. The makeup support system 1 displays advice or prompts a redo of a specific part based on the determination result.

(効果)
上述したように、本実施形態は、対象者Mの顔部Fに部位ごとに手本映像を間欠的に投影することができる。本実施形態によれば、対象者Mは、ミラー10に映る自身の顔部Fを確認しながら部位ごとに化粧を施すことができる。さらに、本実施形態によれば、手本映像を投影していない期間に撮影された撮影データと手本映像とを比較して化粧の仕上がりを判定することができる。本実施形態によれば、判定結果に基づいて、アドバイスを表示したり、特定の部位のやり直しを促したりすることができる。このようにして、本実施形態は、対象者Mが化粧の手順を学べるように支援することができる。
(effect)
As described above, in the present embodiment, the model image can be intermittently projected on the face portion F of the subject M for each portion. According to the present embodiment, the subject M can apply makeup to each part while checking his / her face F reflected on the mirror 10. Further, according to the present embodiment, it is possible to determine the finish of the makeup by comparing the shooting data taken during the period when the model image is not projected with the model image. According to the present embodiment, it is possible to display advice or urge a redo of a specific part based on the determination result. In this way, the present embodiment can support the subject M to learn the makeup procedure.

本実施形態では、手本映像は、化粧を施す部位ごとに区切られている。本実施形態によれば、化粧の手順を部位ごとに学べるように支援することができる。また、本実施形態では、手本映像は、化粧を施す手順を撮影した撮影データを左右反転する加工が施されている。本実施形態によれば、対象者Mの顔部Fに適切な手本映像を投影することができる。 In the present embodiment, the model image is divided into parts to which makeup is applied. According to this embodiment, it is possible to support the learning of the makeup procedure for each part. Further, in the present embodiment, the model image is processed by reversing the shooting data obtained by shooting the procedure of applying makeup. According to the present embodiment, an appropriate model image can be projected on the face F of the subject M.

本実施形態では、顔画像を含む手本映像、または、顔画像が差し引かれた手本映像が投影される。本実施形態によれば、対象者Mの顔部Fに適切な手本映像を投影することができる。 In the present embodiment, a model image including a face image or a model image from which the face image is subtracted is projected. According to the present embodiment, an appropriate model image can be projected on the face F of the subject M.

本実施形態は、対象者Mの顔部Fに合わせて手本映像が投影される。本実施形態によれば、対象者Mの顔部Fに適切な手本映像を投影することができる。 In this embodiment, a model image is projected according to the face portion F of the subject M. According to the present embodiment, an appropriate model image can be projected on the face F of the subject M.

[第二実施形態]
図6、図7を参照しながら、本実施形態に係る化粧支援システム1Aについて説明する。図6は、第二実施形態に係る化粧支援制御装置である制御部20Aを有する化粧支援システム1Aの構成例を示すブロック図である。図7は、第二実施形態に係る化粧支援制御装置である制御部20Aにおける処理の流れを示すフローチャートである。本実施形態の化粧支援システム1Aは、基本的な構成は第一実施形態の化粧支援システム1と同様である。以下の説明においては、第一実施形態の化粧支援システム1と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。本実施形態の化粧支援システム1Aは、通信装置15Aを備える点と、制御部20Aが送信制御部31Aと受信制御部32Aとを有する点とが、第一実施形態と異なる。
[Second Embodiment]
The makeup support system 1A according to the present embodiment will be described with reference to FIGS. 6 and 7. FIG. 6 is a block diagram showing a configuration example of a makeup support system 1A having a control unit 20A, which is a makeup support control device according to the second embodiment. FIG. 7 is a flowchart showing a processing flow in the control unit 20A, which is the makeup support control device according to the second embodiment. The basic configuration of the makeup support system 1A of the present embodiment is the same as that of the makeup support system 1 of the first embodiment. In the following description, the same components as those of the makeup support system 1 of the first embodiment are designated by the same reference numerals or corresponding reference numerals, and detailed description thereof will be omitted. The makeup support system 1A of the present embodiment is different from the first embodiment in that it includes a communication device 15A and that the control unit 20A has a transmission control unit 31A and a reception control unit 32A.

通信装置15Aは、通信ユニットである。通信装置15Aは、外部の装置とデータの送受信を可能にする。通信装置15Aは、対象者Mの顔部Fの化粧前データを外部の装置へ送信する。通信装置15Aは、対象者Mの顔部Fに化粧を施す手順を示す化粧後データを外部の装置から受信する。通信装置15Aは、無線または有線によって通信する。通信装置15Aは、例えば、5G回線等を含む携帯電話の回線を使用してもよい。通信装置15Aは、例えば、Wi-Fi(登録商標)を含む無線通信規格を使用してもよい。通信装置15Aは、有線による通信規格を使用してもよい。通信装置15Aは、制御部20Aの送信制御部31Aと受信制御部32Aとによってデータの送受信が制御される。 The communication device 15A is a communication unit. The communication device 15A enables transmission / reception of data with an external device. The communication device 15A transmits the pre-makeup data of the face F of the subject M to an external device. The communication device 15A receives post-makeup data indicating a procedure for applying makeup to the face F of the subject M from an external device. The communication device 15A communicates wirelessly or by wire. As the communication device 15A, for example, a mobile phone line including a 5G line or the like may be used. The communication device 15A may use, for example, a wireless communication standard including Wi-Fi (registered trademark). The communication device 15A may use a wired communication standard. In the communication device 15A, data transmission / reception is controlled by the transmission control unit 31A and the reception control unit 32A of the control unit 20A.

送信制御部31Aは、通信装置15Aを介してデータを送信するよう制御する。送信制御部31Aは、化粧前の対象者Mの顔部Fを撮影した撮影データである化粧前データを通信装置15Aによって外部の装置へ送信するよう制御する。 The transmission control unit 31A controls to transmit data via the communication device 15A. The transmission control unit 31A controls the communication device 15A to transmit the pre-makeup data, which is the photographing data obtained by photographing the face portion F of the subject M before makeup, to an external device.

施術者は、受け取った化粧前データを確認する。そして、施術者は、化粧前データをもとにして、対象者Mの顔部Fに合わせて手本となる化粧をしたように加工した化粧後データを生成する。施術者は、色味、濃淡、明暗及び範囲などが対象者Mに合う化粧を化粧前データに重ねて施す。この際に、施術者は、実際に対象者Mの顔部Fに化粧を施す場合の手順がわかるように化粧後データを生成する。このようにして、化粧前データに対して化粧をしたように加工した化粧後データが生成される。 The practitioner confirms the received pre-makeup data. Then, the practitioner generates post-makeup data based on the pre-makeup data, which is processed so as to be a model makeup according to the face F of the subject M. The practitioner superimposes makeup that matches the subject M in terms of color, shade, lightness and darkness, and range on the pre-makeup data. At this time, the practitioner generates post-makeup data so that the procedure for actually applying makeup to the face F of the subject M can be understood. In this way, the post-makeup data processed as if the makeup was applied to the pre-makeup data is generated.

受信制御部32Aは、化粧前データに対して化粧をしたように加工した化粧後データを通信装置15Aによって外部の装置から受信するよう制御する。受信制御部32Aは、取得した化粧後データを動画データ記憶部12に記憶する。本実施形態では、化粧後データを動画データとして使用する。 The reception control unit 32A controls the communication device 15A to receive the post-makeup data processed as if the pre-makeup data was applied from an external device. The reception control unit 32A stores the acquired post-makeup data in the moving image data storage unit 12. In this embodiment, the post-makeup data is used as moving image data.

次に、図7を用いて、化粧支援制御装置である制御部20Aにおける処理の流れについて説明する。ステップS123ないしステップS126の処理は、図4に示すフローチャートのステップS102ないしステップS105と同様の処理を行う。 Next, the flow of processing in the control unit 20A, which is a makeup support control device, will be described with reference to FIG. 7. The processing of steps S123 to S126 is the same as that of steps S102 to S105 of the flowchart shown in FIG.

制御部20Aは、送信制御部31Aによって、化粧前データを通信装置15Aによって施術者へ送信する(ステップS121)。制御部20Aは、ステップS122へ進む。 The control unit 20A transmits the pre-makeup data to the practitioner by the communication device 15A by the transmission control unit 31A (step S121). The control unit 20A proceeds to step S122.

制御部20Aは、受信制御部32Aによって、化粧後データを通信装置15Aによって施術者から受信する(ステップS122)。受信した化粧後データは、動画データ記憶部12に記憶される。制御部20Aは、ステップS123へ進む。 The control unit 20A receives the post-makeup data from the practitioner by the communication device 15A by the reception control unit 32A (step S122). The received post-makeup data is stored in the moving image data storage unit 12. The control unit 20A proceeds to step S123.

このようにして、施術者によって対象者Mの顔部Fに合わせて生成された手本映像が投影される。 In this way, the model image generated by the practitioner according to the face F of the subject M is projected.

上述したように、本実施形態は、施術者によって対象者Mの顔部Fに合わせて生成された手本映像を使用することができる。本実施形態によれば、対象者Mの顔部Fに合った化粧の手順を学べるように支援することができる。 As described above, in the present embodiment, the model image generated by the practitioner according to the face F of the subject M can be used. According to the present embodiment, it is possible to support the subject M to learn a makeup procedure suitable for the face F.

さて、これまで本発明に係る化粧支援システム1について説明したが、上述した実施形態以外にも種々の異なる形態にて実施されてよいものである。 By the way, although the makeup support system 1 according to the present invention has been described so far, it may be implemented in various different forms other than the above-described embodiment.

図示した化粧支援システム1の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。 Each component of the illustrated makeup support system 1 is functionally conceptual and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically dispersed or integrated in an arbitrary unit according to the processing load and usage status of each device. You may.

化粧支援システム1の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。 The configuration of the makeup support system 1 is realized, for example, by a program loaded in a memory as software. In the above embodiment, it has been described as a functional block realized by cooperation of these hardware or software. That is, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

上記した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。 The above-mentioned components include those that can be easily assumed by those skilled in the art and those that are substantially the same. Further, the above configurations can be combined as appropriate. Further, various omissions, substitutions or changes of the configuration can be made without departing from the gist of the present invention.

上記では、投影装置13は、ミラー10の外側から対象者Mの顔部Fに手本映像を投影するものとして説明したが、これに限定されない。投影装置13は、ハーフミラーであるミラー10の内側に配置されており、ミラー10の表面に表示された対象者Mの顔部Fに重ねて内側から投影するように制御してもよい。この場合、対象者Mの顔部Fに手本映像は投影されていない。対象者Mは、ミラー10によって、顔部に手本映像が重ねられた状態を確認可能になる。 In the above, the projection device 13 has been described as projecting a model image from the outside of the mirror 10 onto the face portion F of the subject M, but the present invention is not limited to this. The projection device 13 is arranged inside the mirror 10 which is a half mirror, and may be controlled to be superimposed on the face portion F of the subject M displayed on the surface of the mirror 10 and projected from the inside. In this case, the model image is not projected on the face F of the subject M. The subject M can confirm the state in which the model image is superimposed on the face portion by the mirror 10.

上記では、対象者Mはミラー10を確認しながら化粧を施すものとして説明したがこれに限定されない。ミラー10の代わりに対象者Mの撮影データを表示するディスプレイなどの確認用表示装置を有していてもよい。言い換えると、例えばミラー10または確認用表示装置のような顔用表示装置を有していればよい。 In the above, the subject M has been described as applying makeup while checking the mirror 10, but the present invention is not limited to this. Instead of the mirror 10, a confirmation display device such as a display for displaying the shooting data of the subject M may be provided. In other words, it suffices to have a face display device such as a mirror 10 or a confirmation display device.

1 化粧支援システム
10 ミラー
11 カメラ
12 動画データ記憶部
13 投影装置
14 表示装置
20 制御部(化粧支援制御装置)
21 撮影データ取得部
22 動画データ取得部
23 動画処理部
231 顔認識部
232 加工部
233 判定部
24 投影映像生成部
25 投影制御部
26 表示映像生成部
27 表示制御部
M 対象者
F 顔部
1 Makeup support system 10 Mirror 11 Camera 12 Video data storage unit 13 Projection device 14 Display device 20 Control unit (makeup support control device)
21 Shooting data acquisition unit 22 Video data acquisition unit 23 Video processing unit 231 Face recognition unit 232 Processing unit 233 Judgment unit 24 Projection image generation unit 25 Projection control unit 26 Display image generation unit 27 Display control unit M Target person F Face unit

Claims (5)

対象者の顔部に合わせて、部位ごとに手本となる化粧の手順を示す手本映像を間欠的に投影するよう制御する投影制御部と、
前記顔部を撮影した撮影データを取得する撮影データ取得部と、
前記撮影データの前記顔部の化粧の状態と、前記手本映像の化粧の状態とを比較して、化粧の仕上がりを判定する判定部と、
を備え、
前記判定部は、前記手本映像を投影していない期間に撮影された前記撮影データと直前に投影された前記手本映像とを比較して判定する、
化粧支援制御装置。
A projection control unit that controls to intermittently project a model image showing the makeup procedure that serves as a model for each part according to the subject's face.
A shooting data acquisition unit that acquires shooting data of the face, and a shooting data acquisition unit.
A determination unit for determining the finish of makeup by comparing the state of makeup on the face of the shooting data with the state of makeup on the model image.
Equipped with
The determination unit makes a determination by comparing the shooting data shot during the period when the model video is not projected with the model video projected immediately before.
Makeup support control device.
化粧に関する動画データを加工する加工部、
を備え、
前記動画データは、化粧を施す手順を撮影したものであり、
前記加工部は、前記動画データを区切り、前記動画データを加工して部位ごとの前記手本映像を生成する、
請求項1に記載の化粧支援制御装置。
Processing department that processes video data related to makeup,
Equipped with
The moving image data is a photograph of the procedure for applying makeup.
The processing unit divides the moving image data and processes the moving image data to generate the model image for each part.
The makeup support control device according to claim 1.
化粧前の前記顔部を撮影した撮影データを送信するよう制御する送信制御部と、
前記化粧前の撮影データに対して化粧をしたように加工した化粧後データを受信するよう制御する受信制御部と、
を備え、
受信した前記化粧後データを前記手本映像とする、
請求項1または2に記載の化粧支援制御装置。
A transmission control unit that controls the transmission of shooting data obtained by photographing the face before makeup, and
A reception control unit that controls to receive post-makeup data processed as if makeup was applied to the pre-makeup shooting data.
Equipped with
The received post-makeup data is used as the model image.
The makeup support control device according to claim 1 or 2.
請求項1から3のいずれか一項に記載の化粧支援制御装置と、
部位ごとに手本となる化粧の手順を示す手本映像を間欠的に投影する投影装置と、
前記対象者の顔部を映すハーフミラーと、を備え、
前記投影制御部は、前記ハーフミラーの表面に表示された前記顔部に合わせて投影するよう投影装置を制御する、
化粧支援システム。
The makeup support control device according to any one of claims 1 to 3.
A projection device that intermittently projects a model image showing the procedure of makeup that serves as a model for each part, and
A half mirror that reflects the subject's face is provided.
The projection control unit controls the projection device so as to project in accordance with the face portion displayed on the surface of the half mirror.
Makeup support system.
対象者の顔部に合わせて、部位ごとに手本となる化粧の手順を示す手本映像を間欠的に投影するよう制御する投影制御ステップと、
前記顔部を撮影した撮影データを取得する撮影データ取得ステップと、
前記撮影データの前記顔部の化粧の状態と、前記手本映像の化粧の状態とを比較して、化粧の仕上がりを判定する判定ステップと、
を含み、
前記判定ステップにおいては、前記手本映像を投影していない期間に撮影された前記撮影データと直前に投影された前記手本映像とを比較して判定する、
化粧支援制御方法。
A projection control step that controls to intermittently project a model image showing the makeup procedure that serves as a model for each part according to the subject's face, and
The shooting data acquisition step for acquiring the shooting data obtained by shooting the face portion, and
A determination step of comparing the makeup state of the face portion of the shooting data with the makeup state of the model image to determine the finish of the makeup.
Including
In the determination step, the determination is made by comparing the shooting data captured during the period when the model image is not projected with the model image projected immediately before.
Makeup support control method.
JP2020151718A 2020-09-10 2020-09-10 Makeup support controller, makeup support system, and makeup support control method Pending JP2022045944A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020151718A JP2022045944A (en) 2020-09-10 2020-09-10 Makeup support controller, makeup support system, and makeup support control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020151718A JP2022045944A (en) 2020-09-10 2020-09-10 Makeup support controller, makeup support system, and makeup support control method

Publications (1)

Publication Number Publication Date
JP2022045944A true JP2022045944A (en) 2022-03-23

Family

ID=80779625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020151718A Pending JP2022045944A (en) 2020-09-10 2020-09-10 Makeup support controller, makeup support system, and makeup support control method

Country Status (1)

Country Link
JP (1) JP2022045944A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117834838A (en) * 2024-03-05 2024-04-05 成都白泽智汇科技有限公司 Binocular vision detection projection equipment and detection projection method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117834838A (en) * 2024-03-05 2024-04-05 成都白泽智汇科技有限公司 Binocular vision detection projection equipment and detection projection method
CN117834838B (en) * 2024-03-05 2024-05-14 成都白泽智汇科技有限公司 Binocular vision detection projection equipment and detection projection method

Similar Documents

Publication Publication Date Title
JP6935036B1 (en) Dental mirror with integrated camera and its applications
US9563975B2 (en) Makeup support apparatus and method for supporting makeup
US20180365484A1 (en) Head-mounted display with facial expression detecting capability
CN110324521B (en) Method and device for controlling camera, electronic equipment and storage medium
JP6234383B2 (en) Method and system for image processing for gaze correction in video conferencing
CN108876708B (en) Image processing method, image processing device, electronic equipment and storage medium
KR20210110533A (en) Method and apparatus for providing virtual plastic surgery sns service
WO2014119254A1 (en) Makeup application assistance device, makeup application assistance method, and makeup application assistance program
US9838616B2 (en) Image processing method and electronic apparatus
US20100189357A1 (en) Method and device for the virtual simulation of a sequence of video images
JP2007257165A (en) Makeup simulation method
JP5949331B2 (en) Image generating apparatus, image generating method, and program
TW200805175A (en) Makeup simulation system, makeup simulation device, makeup simulation method and makeup simulation program
CN111783511A (en) Beauty treatment method, device, terminal and storage medium
JP2007299070A (en) Face shape model generation apparatus and method
JP2022045944A (en) Makeup support controller, makeup support system, and makeup support control method
KR20210103998A (en) Method for facial authentication of a wearer of a watch
JP2009053981A (en) Makeup simulation device
JP5227212B2 (en) Skin color measuring device, skin color measuring program, makeup simulation device and makeup simulation program
US20230222750A1 (en) Method and device for three-dimensional reconstruction of a face with toothed portion from a single image
WO2015130309A1 (en) Customizable profile to modify an identified feature in video feed
CN111275648B (en) Face image processing method, device, equipment and computer readable storage medium
JP2017146577A (en) Technical support device, method, program and system
CN111083345B (en) Apparatus and method for generating a unique illumination and non-volatile computer readable medium thereof
JP2010073222A (en) Makeup simulation method