JP2023005345A - メイク支援装置、メイク支援方法、及びメイク支援プログラム - Google Patents

メイク支援装置、メイク支援方法、及びメイク支援プログラム Download PDF

Info

Publication number
JP2023005345A
JP2023005345A JP2021107184A JP2021107184A JP2023005345A JP 2023005345 A JP2023005345 A JP 2023005345A JP 2021107184 A JP2021107184 A JP 2021107184A JP 2021107184 A JP2021107184 A JP 2021107184A JP 2023005345 A JP2023005345 A JP 2023005345A
Authority
JP
Japan
Prior art keywords
color
makeup
user
information
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021107184A
Other languages
English (en)
Inventor
実希 諸町
Miki Moromachi
陽平 田村
Yohei Tamura
秀輔 中村
Shusuke Nakamura
大輝 小林
Daiki Kobayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orbis Inc
Original Assignee
Orbis Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orbis Inc filed Critical Orbis Inc
Priority to JP2021107184A priority Critical patent/JP2023005345A/ja
Publication of JP2023005345A publication Critical patent/JP2023005345A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

【課題】ユーザが所望のメイクを行なえるように支援する技術を提供する。【解決手段】メイク支援装置が、メイク対象とするユーザの顔においてサンプリング位置毎の色を示す情報を含むユーザ情報を取得することと、メイクの目標とする顔において前記サンプリング位置と対応する位置毎の色を示す色情報を含む目標情報を取得することと、前記ユーザ情報と前記目標情報とに基づいて前記ユーザの顔に塗布する化粧料の色を決定することと、所定の基本色の化粧料を混色することで、前記塗布する化粧料の色となる各基本色の混色比率を求めることと、前記混色比率を示す混色情報を出力することとを実行する制御部を備えた。【選択図】図1

Description

本発明は、メイク支援装置、メイク支援方法、及びメイク支援プログラムに関する。
従来、ファンデーションや口紅などの化粧料は、様々な色のものが用意され、各ユーザが好みや、T.P.O(Time Place Occasion)に応じて選択できるように販売されていた。
しかし、需要の少ない色の製品を予め用意したのでは、無駄になることが多く、用意できる色の種類には限界があった。このため、ユーザのニーズが多様化し、各色の需要が分散すると、ユーザのニーズを満たすのが難しくなってくる。そこで、特許文献1では、所望の配合を消費者から獲得し、この配合に基づいて、添加物を混合し、個別の化粧品組成物を形成する装置が提案されている。
特表2021-508726号公報 特表2019-511933号公報
引用文献1のように、添加物を混合することで、色の自由度が高まったとしても、ユーザが適切に混合比を設定し、自分に合ったメイクを行なえるとは限らないという問題があった。例えば、ユーザの肌の色は個々に異なるため、他の人と同じ配合比でメイクをしても同じ結果にはならず、他の人の配合比が参考にならない。
そこで、本発明は、ユーザが所望のメイクを行なえるように支援する技術の提供を目的とする。
上記課題を解決するため、本発明に係るメイク支援装置は、
メイク対象とするユーザの顔においてサンプリング位置毎の色を示す情報を含むユーザ情報を取得することと、
メイクの目標とする顔において前記サンプリング位置と対応する位置毎の色を示す色情報を含む目標情報を取得することと、
前記ユーザ情報と前記目標情報とに基づいて前記ユーザの顔に塗布する化粧料の色を決定することと、
所定の基本色の化粧料を混色することで、前記塗布する化粧料の色となる各基本色の混色比率を求めることと、
前記混色比率を示す混色情報を出力することと、
を実行する制御部を備える。
前記メイク支援装置は、前記制御部が、
前記サンプリング位置毎の三次元座標を示す三次元情報を更に含む前記ユーザ情報を取得し、
前記三次元情報に基づいてメイク領域を決定し、
前記メイク領域毎に前記ユーザの顔に塗布する化粧料の色を決定し、
前記メイク領域毎に前記混色情報を出力してもよい。
前記メイク支援装置は、前記制御部が、
メイク後の印象を示す複数の印象モードのうち、ユーザによって選択された印象モードを取得し、
前記印象モードに基づいて前記ユーザの顔に塗布する化粧料の色又は領域を決定してもよい。
前記メイク支援装置は、前記基本色の化粧料を内蔵したメイクデバイスを更に備え、
前記メイクデバイスが、前記混色情報に基づいて前記基本色の化粧料を混色し、混色後の化粧料を出力してもよい。
前記混色情報が前記化粧料を塗布する位置を示す位置情報を含み、
前記メイクデバイスが、前記ユーザの顔に対し、前記位置情報が示す位置に前記混色後の化粧料を塗布してもよい。
前記メイク支援装置は、前記メイクデバイスが、前記位置情報が示す位置に前記混色後の化粧料を吹き付けてもよい。
前記メイク支援装置は、前記ユーザのメイク対象面においてサンプリング位置毎の色を測定し、前記ユーザ情報として前記制御部へ提供する測定デバイスを更に備えてもよい。
前記メイク支援装置は、前記ユーザの顔に対してメイクを施す動作を撮影した撮影画像を取得することと、
前記撮影画像に基づいて前記目標情報を生成することと、
を前記制御部が更に実行してもよい。
前記メイク支援装置において、
前記制御部が、前記メイクを施す動作に基づいて、前記メイクデバイスに対する制御信号を生成し、
前記メイクデバイスが、前記制御情報に基づいて前記化粧料の塗布を行ってもよい。
前記メイク支援装置において、
前記目標情報に基づいてメイク後の色が徐々に変化する領域をグラデーション領域として特定することと、
前記グラデーション領域において前記色が変化する方向と、前記方向における位置毎の変化の割合とを示すパラメータを決定することと、
を前記制御部が更に実行してもよい。
上記課題を解決するため、本発明に係るメイク支援方法は、
メイク対象とするユーザの顔においてサンプリング位置毎の色を示す情報を含むユーザ情報を取得することと、
メイクの目標とする顔において前記サンプリング位置と対応する位置毎の色を示す色情報を含む目標情報を取得することと、
前記ユーザ情報と前記目標情報とに基づいて前記ユーザの顔に塗布する化粧料の色を決定することと、
所定の基本色の化粧料を混色することで、前記塗布する化粧料の色となる各基本色の混色比率を求めることと、
前記混色比率を示す混色情報を出力することと、
を制御部が実行する。
上記課題を解決するため、本発明に係るメイク支援プログラムは、
メイク対象とするユーザの顔においてサンプリング位置毎の色を示す情報を含むユーザ情報を取得することと、
メイクの目標とする顔において前記サンプリング位置と対応する位置毎の色を示す色情報を含む目標情報を取得することと、
前記ユーザ情報と前記目標情報とに基づいて前記ユーザの顔に塗布する化粧料の色を決定することと、
所定の基本色の化粧料を混色することで、前記塗布する化粧料の色となる各基本色の混色比率を求めることと、
前記混色比率を示す混色情報を出力することと、
を制御部に実行させる。
本発明によれば、ユーザが所望のメイクを行なえるように支援する技術を提供できる。
実施形態に係るメイク支援システムの構成を示す図である。 管理サーバの構成を示す図である。 ユーザ端末の構成を示す図である。 メイクデバイスの外観図である。 メイクデバイスの構成を示す図である。 管理サーバの制御部が、メイク支援プログラムに基づいて実行するメイク支援方法の処理手順を示す図である。 メイクデバイスの制御部が実行する処理手順を示す図である。 ガイド情報の一例を示す図である。 メイクデバイスの変形例を示す図である。 アイメイクのパラメータ決定に用いる目標情報の例を示す図である。 グラデーションを施す領域を示す図である。 グラデーションを施す領域の割合を示す図である。 ユーザの顔の形を求める例の説明図である。 ユーザの顔の形応じてパラメータを決定する例を示す図である。 チークを入れる領域の座標を示す図である。 印象モードに応じてパラメータを決定する例を示す図である。 メイクデバイスの変形例を示す図である。
以下、本発明の実施の形態について、図面に基づいて説明する。なお、実施の形態は本発明の一例であり、本発明の構成は以下の例には限られない。以下、本発明のメイク支援装置(メイク支援システム)、メイク支援方法、及びメイク支援プログラムの実施の形態について、図面を参照して説明する。
図1は、本実施形態に係るメイク支援システム100の構成を示す図である。図1に示すように、メイク支援システム100は、管理サーバ10、ユーザ端末20、メイクデバイス30を有している。メイク支援システム100は、メイク対象とするユーザの顔の情報(ユーザ情報)を取得すると共に、ユーザが目標とする顔の情報(目標情報)を取得し、ユーザの顔が目標の顔に近づくように化粧料の混合比率を決定し、この混合比率でメイクを行わせる。管理サーバ10は、ユーザ情報及び目標情報に基づいて化粧料の混合比率を決定するなどの情報処理を行う装置である。
ユーザ端末20は、管理サーバ10及びメイクデバイス30と通信して情報を伝達する通信インタフェースとしての機能や、ユーザへ情報を提供するユーザインタフェースとし
ての機能を有する装置である。メイクデバイス30は、ユーザ情報を取得する機能や、ユーザの顔に化粧料を塗布する機能を有する装置である。
このように本実施形態のメイク支援システム100では、管理サーバ10、ユーザ端末20、メイクデバイス30を別体としたが、これらを一体とした装置であってもよい。また、管理サーバ10とユーザ端末20とを一体とし、メイクデバイス30を別体とした構成であっても、ユーザ端末20とメイクデバイス30とを一体とし、管理サーバ10を別体とした構成であってもよい。本実施形態のメイク支援システム100は、メイク支援装置の一形態である。
<管理サーバ>
図2は、管理サーバ10の構成を示す図である。管理サーバ10は、所謂コンピュータであって、制御部11、記憶部12、入出力部14、及び通信部15を備える。管理サーバ10は、例えばインターネット等の公衆回線Nを介して複数のユーザのユーザ端末20やメイクデバイス30からユーザ情報等の情報を取得し、処理結果を取得元へ返信するクラウド上のサーバである。また、管理サーバ10は、ユーザ宅内に配置され、LAN等の公衆回線Nを介してユーザ端末20やメイクデバイス30からユーザ情報等の情報を取得し、処理結果を取得元へ返信するローカルコンピュータであってもよい。
制御部11は、管理サーバ10全体の動作を制御し、管理サーバ10が有する各種の機能を実現する。制御部11は、例えば、プロセッサ及びメモリを備える。プロセッサは、管理サーバ10の動作を統括的に制御する。プロセッサは、CPU又はMPU等とも呼ばれる。メモリは、例えばROM及びRAMである。ROMは、各種プログラム又はデータを記憶する記憶媒体である。RAMは、各種プログラム又はデータを一時的に記憶する記憶媒体である。RAMは、プロセッサから直接アクセス可能とし、メインメモリとして機能してもよい。
記憶部12は、HDD又はSSDなどの記憶装置である。記憶部12は、制御部11の外部記憶装置として機能する。
入出力部14は、オペレータ等からの操作の受け付け及びオペレータへの情報の出力を行う手段であり、例えば、ボタン、キーボード、タッチパネル、表示部、又はスピーカ等である。通信部15は、通信回線を介して外部装置と通信を行うための通信インタフェースである。
制御部11は、プロセッサが、RAMをワークエリア(作業領域)とし、ROM又は記憶部12等に格納されたプログラムを実行する。例えば、メイク支援プログラムを実行することにより、制御部11は、ユーザ情報取得部111、目標情報取得部112、メイク決定部113、制御信号生成部114、出力制御部115等の機能部として機能する。制御部11は、これら複数の機能部の機能を複数のプロセッサ又は単一のプロセッサに含まれる複数のコアによって、それぞれ実現してもよい。また、制御部11は、これら複数の機能部の機能をマルチタスク又はマルチスレッドといった技術で単一のプロセッサが実現してもよい。
ユーザ情報取得部111は、メイク対象とするユーザの顔においてサンプリング位置毎の色を示す情報を含むユーザ情報をユーザ端末20又はメイクデバイス30から取得する。
目標情報取得部112は、メイクの目標とする顔において、サンプリング位置と対応する位置毎の色を示す色情報を含む目標情報を取得する。
メイク決定部113は、ユーザ情報と目標情報とに基づいて、ユーザの顔に塗布する化粧料の色や、化粧料を塗布する範囲など、メイクに係るパラメータを決定する。
制御信号生成部114は、メイクデバイス30により塗布する化粧料の色や塗布位置等を制御する制御信号を生成する。例えば、メイクデバイス30が備える基本色の化粧料を混色することで、メイク決定部113で決定した色となるように、各基本色の混色比率を求め、この混色比率を示す混色情報や、塗布位置を示す塗布位置情報を含む制御信号を生成する。また、制御信号生成部114は、ユーザにメイクデバイス30の使い方等を提示するガイド情報を生成し、制御信号に含めてもよい。
出力制御部115は、制御信号をユーザ端末20又はメイクデバイス30へ出力する。
<ユーザ端末>
図3は、ユーザ端末20の構成を示す図である。ユーザ端末20は、所謂コンピュータであって、制御部21、記憶部22、入出力部24、及び通信部25を備える。
制御部21は、ユーザ端末20全体の動作を制御し、ユーザ端末20が有する各種の機能を実現する。制御部21は、例えば、プロセッサ及びメモリを備える。プロセッサは、ユーザ端末20の動作を統括的に制御する。プロセッサは、CPU又はMPU等とも呼ばれる。メモリは、例えばROM及びRAMである。ROMは、各種プログラム又はデータを記憶する記憶媒体である。RAMは、各種プログラム又はデータを一時的に記憶する記憶媒体である。RAMは、プロセッサから直接アクセス可能とし、メインメモリとして機能してもよい。
記憶部22は、HDD又はSSDなどの記憶装置である。記憶部22は、制御部21の外部記憶装置として機能する。
入出力部24は、入力手段からの情報の入力、ユーザによる操作の受け付け、及びユーザへの情報の出力を行う。例えば、センサ、カメラ、ボタン、キーボード、タッチパネル、等の入力手段からの入力や、表示部、スピーカ等の出力手段からの出力を行う。通信部25は、通信回線を介して、管理サーバ10やメイクデバイス30等の外部装置と通信を行うための通信インタフェースである。
制御部21は、プロセッサが、RAMをワークエリア(作業領域)とし、ROM又は記憶部22等に格納されたプログラムを実行する。例えば、メイク支援プログラムを実行することにより、制御部21は、ユーザ情報提供部211、目標設定部212、制御信号取得部213、ガイド情報提示部214等の機能部として機能する。制御部21は、これら複数の機能部の機能を複数のプロセッサ又は単一のプロセッサに含まれる複数のコアによって、それぞれ実現してもよい。また、制御部21は、これら複数の機能部の機能をマルチタスク又はマルチスレッドといった技術で単一のプロセッサが実現してもよい。
ユーザ情報提供部211は、メイクデバイス30からユーザ情報を取得し、このユーザ情報を管理サーバ10へ提供(送信)する。ユーザ情報提供部211は、メイクデバイス30から取得したユーザ情報を記憶部22に記憶させておき、記憶部22から読み出して管理サーバ10へ提供してもよい。また、ユーザ情報提供部211は、ユーザ端末20のセンサやカメラによってユーザ情報を取得し、このユーザ情報を管理サーバ10へ提供してもよい。
目標設定部212は、ユーザの操作によって、メイクの目標とする顔を設定し、この設定情報を管理サーバ10へ送信する。例えば、ユーザ端末20のカメラによって撮影した
顔の画像や、Webページなどに掲載されている顔の画像をユーザが選択した場合に、目標設定部212は、この画像を設定情報として管理サーバ10へ送信する。また、目標設定部212は、管理サーバ10から、モデルとする顔の画像を複数取得し、表示部に表示させ、この中から目標とする顔の画像をユーザが選択した場合に、この選択結果を設定情報として管理サーバ10へ送信してもよい。
制御信号取得部213は、管理サーバ10から制御信号を取得し、メイクデバイス30へ送信する。
ガイド情報提示部214は、管理サーバ10からガイド情報を取得した場合、例えば制御信号にガイド情報が含まれていた場合に、このガイド情報を表示部に表示させることや、スピーカから音声出力させることによりユーザに提示する。
<メイクデバイス>
図4は、メイクデバイス30の外観図、図5は、メイクデバイス30の構成を示す図である。メイクデバイス30は、図4に示すように、一方向に延伸したペン型であり、ユーザが筐体31の側部を把持し、先端3Fを顔に近づけた際に、先端3Fから顔表面へ化粧料を吹き付けて塗布する。
メイクデバイス30は、筐体31内に、センサユニット32、ノズルユニット33、ブロワ34、バルブ35、化粧料カードリッジ36、通信部37、操作部38及び制御部39を備えている。
センサユニット32は、ユーザ情報を検出するセンサや、メイクデバイス30の位置を検出するセンサを有している。ユーザ情報を検出するセンサとしては、例えば、ユーザの顔表面の三次元形状を検出する三次元レーザスキャナや、ToFセンサ、及び顔表面の色を検出する撮像素子やカメラが挙げられる。この三次元レーザスキャナやToFセンサにより、顔表面を所定単位に区分し、各所定単位の三次元座標(サンプリング位置)を検出すると共に、撮像素子やカメラにより、所定単位毎の色を検出してユーザ情報とする。また、センサユニット32は、加速度センサを備え、メイクデバイス30の姿勢や移動速度などを検出してもよい。本実施形態のメイクデバイス30は、ユーザ情報を測定する測定デバイスの機能を備える。なお、測定デバイスは、メイクデバイス30から独立した装置であってもよい。
ノズルユニット33は、メイクデバイス30の先端3Fに配置された複数のノズル331を備えている。各ノズル331は、化粧料の供給管361を介して化粧料カードリッジ36と接続され、化粧料カードリッジ36から化粧料が供給される。供給管361には、バルブ35が設けられ、制御部39の制御により、化粧料の供給量が調整される。
ブロワ34は、ノズル331に空気を供給し、この空気と共に化粧料をノズル331から噴き出させる。
化粧料カードリッジ36は、基本色の化粧料を格納したカートリッジである。基本色の化粧料とは、例えば、シアン、マゼンタ、イエロー、ブラックの化粧料が挙げられる。また、基本色の化粧料として、白色や灰色といった無彩色の化粧料や、ゴールド、シルバー、パール、ラメなど、特定の光沢を有した化粧料を備えてもよい。更に、マットやグロス等の化粧料を備えてもよい。
通信部37は、ユーザ端末20や、管理サーバ10等、他の装置と通信する多面の通信インタフェースである。
操作部38は、ユーザによって操作される入力手段であり、例えば、電源ボタンや、操作ボタン、選択スイッチ等である。
制御部39は、センサユニット32で検出したユーザ情報をユーザ端末20又は管理サーバ10へ送信すると共に、ユーザ端末20を介して管理サーバ10から取得した制御信号に基づいてバルブ35やブロワ34を制御して、ユーザの顔に吹き付ける化粧料を調整する。
<メイク支援方法>
次にメイク支援システム100を用いてユーザのメイクを支援する方法について説明する。
≪ユーザ情報の取得≫
ユーザ情報は、例えばメイクデバイス30の先端3Fに設けられたセンサユニット32をユーザの正面から当該ユーザの顔に向けて配置し、顔表面の三次元形状及び色を測定することにより取得される。なお、正面に限らず、上下、左右など、複数方向から撮影した画像を合成することによってユーザ情報を作成してもよい。
また、ユーザ端末20が、カメラやToFセンサを備えている場合、このカメラやToFセンサを用いて上記メイクデバイス30と同様にユーザ情報を取得してもよい。
ユーザ情報は、顔全体の情報を所得したのち、この情報から目元や口唇など各パーツの情報を抽出してもよいし、パーツ毎に検出した情報を組み合わせてユーザ情報を構成してもよい。
パーツ毎に情報を検出する場合、例えばメイクデバイス30のカメラでパーツを撮影し、この撮影画像とガイドラインをユーザ端末20の表示部に表示させると共に、「目の横幅をこのガイドラインに合わせて撮影してください」、「唇の輪郭をこのガイドラインの内側に収まるように撮影してください」のようにガイド情報を表示することで、各パーツを適切に撮影させ、ユーザ情報とする。また、メイクデバイスとは別に、カメラやToFセンサを備えた測定デバイスを用い、上記と同様にユーザ情報を取得し、ユーザ端末20又は管理サーバ10へ提供してもよい。
≪目標情報の取得≫
ユーザがWebページなどで目標としたい顔の画像を見つけた場合、ユーザ端末20上でこの画像を選択することで、ユーザ端末20が、この画像を目標情報として管理サーバ10へ送信する。また、ユーザ端末20のカメラで目標としたい人の顔や、メイク後のユーザの顔を撮影し、この撮影画像を目標情報として管理サーバ10へ送信してもよい。例えば、メイク後の顔を日々撮影し、これらの画像から平均的な色や位置の情報を求めて目標情報を作成してもよい。
更に、ユーザの顔に対してメイクを施す動作をユーザ端末20やメイクデバイス30のカメラで撮影し、この撮影画像に基づいて目標情報を生成してもよい。例えば上記ユーザ情報の取得と同様にユーザ端末20やメイクデバイス30のカメラをユーザの顔に向けて配置し、ユーザ自身やメイクアップアーティスト等がメイクを施す際、アイシャドウやチーク等の化粧料を塗布する速度(手や筆が動く速度)、化粧料を塗布する方向、範囲など、メイクを施す動作を動画で撮影する。そして、この撮影画像(動画像)から、化粧料を塗布する速度、方向、範囲などの情報を抽出して目標情報に反映させる。
≪管理サーバの動作≫
図6は、管理サーバ10の制御部11が、メイク支援プログラムに基づいて実行するメイク支援方法の処理手順を示す図である。
ステップS10にて、制御部11は、ユーザ端末20からユーザ情報を取得する。
ステップS20にて、制御部11は、メイクの目標とする顔を示す設定情報をユーザ端末20から受信する。例えば、ユーザ端末20のカメラによって撮影した顔の画像や、Webページなどに掲載されている顔の画像を受信する。また、モデルとする顔の画像の中からユーザが目標とする顔の画像を選択した場合に、この選択結果を設定情報として受信する。
ステップS30にて、制御部11は、ステップS20で受信した設定情報に基づき、ユーザが目標とする顔の画像から、目標情報を取得する。
ステップS40にて、制御部11は、ユーザ情報及び目標情報を目元、眉、頬(チーク)、鼻、口唇等のパーツに分割する。
ステップS45にて、制御部11は、ユーザの顔に対し、過去にメイクを施した際の動作を撮影した動画像に基づいて目標情報を補正する。例えば、ステップS20で設定した目標の顔に加え、ユーザが過去にメイクした際の手技に基づいてメイクの方向や範囲、塗り重ね方などに合わせて目標情報を補正する。これにより、ユーザが実際に行ったメイクや、日々行っているメイクに近づくように目標を設定している。
ステップS50にて、制御部11は、パーツ毎に、ユーザ情報と目標情報とを比較し、この差分からユーザの顔に塗布する化粧料の色や、化粧料を塗布する範囲など、メイクに係るパラメータを決定する。
ステップS60にて、制御部11は、全てのパーツについてパラメータの決定が完了したか否かを判定する。なお、各パーツにおける具体的なパラメータの決定手法については後述する。ステップS60にて、否定判定の場合、制御部11は、ステップS50に戻り、まだ決定していなパラメータについて決定を行い、肯定判定となった場合、ステップS70へ移行する。なお、全てのパーツとは、顔を構成するパーツ全てに限らず、メイクの対象としたものであってもよい。即ち、目元と口唇のみをメイク対象とした場合、目元と口唇についてパラメータの決定が完了すれば、肯定判定とする。
ステップS70にて、制御部11は、メイクデバイス30により塗布する化粧料の色や塗布位置、塗り重ね回数、塗布速度、塗布の密度等を制御する制御信号を生成する。なお、本例では、ステップS45で、過去のメイク動作に基づいて目標情報を補正しているので、ステップS70で生成される制御信号にも当該メイク動作が反映されている。また、ステップS45で、目標情報を補正するのではなく、ステップS70で生成される制御信号を当該メイク動作に基づいて補正することで、メイク動作を反映させてもよい。
ステップS80にて、制御部11は、ステップS70で生成した制御信号をユーザ端末20へ送信し、ユーザ端末20を介してメイクデバイス30へ送り、制御信号に基づくメイクを行わせる。
図7Aは、メイクデバイス30の制御部39が実行する処理手順を示す図である。
ステップS110にて、制御部39は、ユーザ端末20から制御信号を取得する。
ステップS120にて、制御部39は、制御信号に基づき、メイク対象とするパーツを
特定し、このパーツを示す情報をユーザ端末20に通知し、このパーツのメイクを行う旨のガイド情報を出力させる。図7Bは、ガイド情報の一例を示す図である。図7Bでは、開始位置から終了位置へ移動させてチークを塗布する例を示している。また、ガイド情報は、「ゆっくり」「素早く」など、メイクデバイス30を移動させる速度(塗布速度)を指示する情報を含んでもよい。
ステップS130にて、制御部39は、センサユニット32により、ユーザの顔に対するメイクデバイス30の相対位置を検出する。
ステップS140にて、制御部39は、制御信号の位置情報及び混色情報に基づき、ステップS130で検出した位置に対し、混色情報に応じて比率で化粧料を吹き付ける。また、制御部39は、ステップS45で目標情報に反映させた速度や塗布範囲、塗布の密度等の情報に基づいて化粧料を吹き付ける。
ステップS150にて、制御部39は、化粧料を吹き付けた後の色をセンサユニット32により検出する。
ステップS160にて、制御部39は、メイクが完了したか否かを判定する。ステップS150で検出した色が目標の色になっていない場合や、メイクが完了していないパーツがある場合、所定の塗り重ね回数に達していない場合には、否定判定とし、制御部39は、ステップS120へ戻って完了していないパーツのメイクを行う。そして、ステップS160で肯定判定となった場合、制御部39は、図7Aの処理を終了する。
≪ユーザ端末の動作≫
図8は、ユーザ端末20の制御部21が、メイク後のユーザの顔を撮影し、管理サーバ10へ送信する処理手順を示す図である。ユーザ端末20の制御部21は、メイクデバイス30による図7Aの処理が終了した場合に、図8の処理を開始する。
ステップS210にて、制御部21は、表示部に「メイクを修正しますか?」のようにメッセージを表示させ、ユーザに修正を行うか否かの選択を促す。
ステップS220にて、制御部21は、修正が選択されたか否かを判定し、ステップS210でユーザが修正を行うことを選択した場合に肯定判定し(S220、Yes)、ステップS230へ移行する。
ステップS230にて、制御部21は、撮影を開始する旨のガイド情報を表示すると共に撮影を開始する。これにより、メイクデバイス30でメイクを行った後、ユーザ自身が仕上げや微調整等を行う際の手技を撮影する。
ステップS240にて、制御部21は、制御部21は、表示部に「メイクが完了しましたか?」のようにメッセージを表示させ、ユーザにメイクが完了したか否かの選択を促す。
ステップS250にて、制御部21は、完了が選択されたか否かを判定し、ステップS240でユーザが完了を選択した場合に肯定判定し(S250、Yes)、ステップS270へ移行する。
一方、ステップS220で否定判定であった場合、制御部21は、ステップS260にてメイクデバイス30でメイクを行った後のユーザの顔を撮影し、ステップS270へ移行する。
ステップS270にて、制御部21は、ステップS230,260で撮影した撮影画像を管理サーバ10へ送信する。これにより、ユーザが好みに応じてメイクを修正した場合(S220、Yes)に、この手技を撮影した画像や、修正が必要ないと判断(S220、No)した状態の画像を管理サーバ10に送り、目標情報に反映させることができる。
<アイメイク>
図9~図11は、アイメイクの具体例を示す図である。管理サーバ10の制御部11は、ステップS50にて、目元のパラメータを決定する場合、図9のように目標情報から目元の画像を取得し、グラデーションの方向を求める。図9の例では、瞼の下側が濃く、上側が薄いため、濃い側を開始点、薄い側を終了点とするように、パターンP1が選択される。
次に、パターンP1で塗布する領域を所定数(例えば1~6)で分割する。図10では、4つに分割し、分割した各領域の色を求め、ユーザ情報と比較して、この差分から各領域について、CMYKの混合比率を求める。
更に、図11に示すように、全体の幅に対して、分割された各領域の幅の割合を求め、この割合で変化するようにサンプリング位置毎の色を決定し、制御信号を生成する。
このように、位置に応じて混合比率を変化させた制御信号をメイクデバイス30へ送信するので、メイクデバイス30は、この制御信号に基づいて、目標のグラデーションとなるようにメイクを行うことができる。
<チーク>
図12~図15は、チークの具体例を示す図である。管理サーバ10の制御部11は、ステップS50にて、チークのパラメータを決定する場合、図12のようにユーザ情報からユーザの顔の形を求める。例えば、「眉から口までの縦の長さ」と「口の位置における正面からみた顔の横幅の長さ」との比率が、1:1であれば卵顔、2:3であれば丸顔、1:2であれば四角型、3:2であれば面長顔とする。
また、「小鼻と耳中央を結ぶ線」と「黒目外側から下へ向かう直線」が交わる場所を起点とし、この起点に対して、チークを入れる領域の始点を示す座標と、終点を示す座標と、領域の形状を図13のデータテーブルから求める。なお、座標の縦軸は、図14に示すように、目の縦幅中央から小鼻までの縦幅までの5等分とし、起点から上をy+、下をy-と表す。座標の横軸は、鼻筋から左右それぞれ顔の最大横幅までの横幅を5等分とし、起点から左をx-、右をx+と表す。
そして、このように定めた領域において、目標情報とユーザ情報と比較して、この差分から各領域について、CMYKの混合比率を求め、制御信号を生成する。
このように、ユーザの顔の形に応じてチークを入れる領域を定めて制御信号を生成し、メイクデバイス30へ送信するので、メイクデバイス30は、この制御信号に基づいて、ユーザの顔の形に適したチークとなるようにメイクを行うことができる。
図15は、印象モードに応じてパラメータを決定する例を示す図である。ユーザが、キュート、フレッシュ、クール、エレガントなど、所望の印象モードを選択した場合、制御部11は、図13のデータテーブルに代えて、図15のデータテーブルに基づいて、チークを入れる領域の始点を示す座標と、終点を示す座標と、領域の形状を定めてもよい。
このようにユーザが選択した印象モードに応じてチークを入れる領域を定めて制御信号を生成し、メイクデバイス30へ送信することで、メイクデバイス30は、この制御信号に基づいて、ユーザが所望する印象に適したチークとなるようにメイクを行うことができる。
以上のように、本実施形態によれば、化粧料を混色し、ユーザに適した色やグラデーションでメイクを行うことができる。
<変形例>
図16は、メイクデバイス30Aの変形例を示す図である。図16のメイクデバイス30Aは、前述のメイクデバイス30と比べ、ブロワ34を排し、ローラ330を備え、ローラ330を介して化粧料を塗布する構成が異なっている。なお、その他の構成は、前述の実施形態と同じであるため、同一の要素には同符号を付すなどして再度の説明を省略する。
ローラ330は、メイクデバイス30Aの長手方向と直交する方向に回転軸を有し、回転可能に保持されている。ユーザがローラ330を顔表面に当てた状態でメイクデバイス30Aを移動させると、顔表面との摩擦によりローラ330が回転する。メイクデバイス30Aは、制御部39の制御によりノズル331から化粧料が吐出されると、この化粧料がローラ330の外周に担持され、ローラ330の回転に伴って、この化粧料が顔表面に塗布される。
このように、ローラ330を介して化粧料を塗布する構成であっても適切にメイクを行うことができる。また、化粧料を担持する部材は、ローラ330に限らず、筆状の部材など、他の形状の部材であってもよい。
10 管理サーバ
11 制御部
12 記憶部
13 表示部
14 入出力部
15 通信部
20 ユーザ端末
21 制御部
22 記憶部
23 表示部
24 入出力部
25 通信部
30 メイクデバイス
31 筐体
32 センサユニット
33 ノズルユニット
34 ブロワ
35 バルブ
36 化粧料カードリッジ
37 通信部
38 操作部
38 制御部
39 制御部
100 メイク支援システム
111 ユーザ情報取得部
112 目標情報取得部
113 メイク決定部
114 制御信号生成部
115 出力制御部
211 ユーザ情報提供部
212 目標設定部
213 制御信号取得部
214 制御信号生成部
331 ノズル
361 供給管

Claims (12)

  1. メイク対象とするユーザの顔においてサンプリング位置毎の色を示す情報を含むユーザ情報を取得することと、
    メイクの目標とする顔において前記サンプリング位置と対応する位置毎の色を示す色情報を含む目標情報を取得することと、
    前記ユーザ情報と前記目標情報とに基づいて前記ユーザの顔に塗布する化粧料の色を決定することと、
    所定の基本色の化粧料を混色することで、前記塗布する化粧料の色となる各基本色の混色比率を求めることと、
    前記混色比率を示す混色情報を出力することと、
    を実行する制御部を備えたメイク支援装置。
  2. 前記制御部が、
    前記サンプリング位置毎の三次元座標を示す三次元情報を更に含む前記ユーザ情報を取得し、
    前記三次元情報に基づいてメイク領域を決定し、
    前記メイク領域毎に前記ユーザの顔に塗布する化粧料の色を決定し、
    前記メイク領域毎に前記混色情報を出力する
    請求項1に記載のメイク支援装置。
  3. 前記制御部が、
    メイク後の印象を示す複数の印象モードのうち、ユーザによって選択された印象モードを取得し、
    前記印象モードに基づいて前記ユーザの顔に塗布する化粧料の色又は領域を決定する、請求項2に記載のメイク支援装置。
  4. 前記基本色の化粧料を内蔵したメイクデバイスを更に備え、
    前記メイクデバイスが、前記混色情報に基づいて前記基本色の化粧料を混色し、混色後の化粧料を出力する、
    請求項1~3の何れか1項に記載のメイク支援装置。
  5. 前記混色情報が前記化粧料を塗布する位置を示す位置情報を含み、
    前記メイクデバイスが、前記ユーザの顔に対し、前記位置情報が示す位置に前記混色後の化粧料を塗布する
    請求項4に記載のメイク支援装置。
  6. 前記メイクデバイスが、前記位置情報が示す位置に前記混色後の化粧料を吹き付ける請求項5に記載のメイク支援装置。
  7. 前記ユーザのメイク対象面においてサンプリング位置毎の色を測定し、前記ユーザ情報として前記制御部へ提供する測定デバイスを更に備える
    請求項1から6の何れか1項に記載のメイク支援装置。
  8. 前記ユーザの顔に対してメイクを施す動作を撮影した撮影画像を取得することと、
    前記撮影画像に基づいて前記目標情報を生成することと、
    を前記制御部が更に実行する
    請求項1から7の何れか1項に記載のメイク支援装置。
  9. 前記制御部が、前記メイクを施す動作に基づいて、前記メイクデバイスに対する制御信
    号を生成し、
    前記メイクデバイスが、前記制御情報に基づいて前記化粧料の塗布を行う請求項5又は6を引用する請求項8に記載のメイク支援装置。
  10. 前記目標情報に基づいてメイク後の色が徐々に変化する領域をグラデーション領域として特定することと、
    前記グラデーション領域において前記色が変化する方向と、前記方向における位置毎の変化の割合とを示すパラメータを決定することと、
    を前記制御部が更に実行する
    請求項1から9の何れか1項に記載のメイク支援装置。
  11. メイク対象とするユーザの顔においてサンプリング位置毎の色を示す情報を含むユーザ情報を取得することと、
    メイクの目標とする顔において前記サンプリング位置と対応する位置毎の色を示す色情報を含む目標情報を取得することと、
    前記ユーザ情報と前記目標情報とに基づいて前記ユーザの顔に塗布する化粧料の色を決定することと、
    所定の基本色の化粧料を混色することで、前記塗布する化粧料の色となる各基本色の混色比率を求めることと、
    前記混色比率を示す混色情報を出力することと、
    を制御部が実行するメイク支援方法。
  12. メイク対象とするユーザの顔においてサンプリング位置毎の色を示す情報を含むユーザ情報を取得することと、
    メイクの目標とする顔において前記サンプリング位置と対応する位置毎の色を示す色情報を含む目標情報を取得することと、
    前記ユーザ情報と前記目標情報とに基づいて前記ユーザの顔に塗布する化粧料の色を決定することと、
    所定の基本色の化粧料を混色することで、前記塗布する化粧料の色となる各基本色の混色比率を求めることと、
    前記混色比率を示す混色情報を出力することと、
    を制御部に実行させるためのメイク支援プログラム。
JP2021107184A 2021-06-29 2021-06-29 メイク支援装置、メイク支援方法、及びメイク支援プログラム Pending JP2023005345A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021107184A JP2023005345A (ja) 2021-06-29 2021-06-29 メイク支援装置、メイク支援方法、及びメイク支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021107184A JP2023005345A (ja) 2021-06-29 2021-06-29 メイク支援装置、メイク支援方法、及びメイク支援プログラム

Publications (1)

Publication Number Publication Date
JP2023005345A true JP2023005345A (ja) 2023-01-18

Family

ID=85107104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021107184A Pending JP2023005345A (ja) 2021-06-29 2021-06-29 メイク支援装置、メイク支援方法、及びメイク支援プログラム

Country Status (1)

Country Link
JP (1) JP2023005345A (ja)

Similar Documents

Publication Publication Date Title
US10413042B2 (en) Makeup support device, makeup support method, and makeup support program
JP7200439B1 (ja) アバター表示装置、アバター生成装置及びプログラム
US7714912B2 (en) Intelligent mirror
JP3984191B2 (ja) 仮想化粧装置及びその方法
JP5372276B1 (ja) メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
KR20160135652A (ko) 헤드 마운티드 디스플레이(Head Mounted Display: HMD) 디바이스를 위한 이미지 처리
JP7080212B2 (ja) コンピュータプログラム、サーバ装置及び方法
JPH10255066A (ja) 顔画像の修正方法、化粧シミュレーション方法、化粧方法、化粧サポート装置及びファンデーション転写膜
JP2008017936A (ja) 化粧装置及び方法
JP6675384B2 (ja) 化粧支援システム、計測装置、携帯端末装置およびプログラム
CN110263617B (zh) 三维人脸模型获取方法及装置
JP2010211308A (ja) メイクアップアドバイス装置、メイクアップアドバイス方法及びプログラム
WO2015152028A1 (ja) 化粧支援装置および記録媒体
JP6563580B1 (ja) コミュニケーションシステム及びプログラム
JP2018195996A (ja) 画像投影装置、画像投影方法、及び、画像投影プログラム
CN112741609A (zh) 电子装置、电子装置的控制方法以及介质
JP7273752B2 (ja) 表情制御プログラム、記録媒体、表情制御装置、表情制御方法
JP2023005345A (ja) メイク支援装置、メイク支援方法、及びメイク支援プログラム
JP6672414B1 (ja) 描画プログラム、記録媒体、描画制御装置、描画制御方法
TW201834451A (zh) 資訊處理裝置、程式
JP6738780B2 (ja) 頬紅案内装置及びその方法
JP6934806B2 (ja) 表示装置、表示装置の制御方法
JP2021010652A (ja) 情報処理装置、評価方法、および情報処理プログラム
JP2001216531A (ja) 3次元仮想空間参加者表示方法及び3次元仮想空間表示装置
WO2024023889A1 (ja) シミュレーションシステム及びシミュレーション方法