JP7413691B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP7413691B2
JP7413691B2 JP2019173568A JP2019173568A JP7413691B2 JP 7413691 B2 JP7413691 B2 JP 7413691B2 JP 2019173568 A JP2019173568 A JP 2019173568A JP 2019173568 A JP2019173568 A JP 2019173568A JP 7413691 B2 JP7413691 B2 JP 7413691B2
Authority
JP
Japan
Prior art keywords
makeup
operation amount
face
user
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019173568A
Other languages
English (en)
Other versions
JP2021049082A (ja
Inventor
加寿子 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2019173568A priority Critical patent/JP7413691B2/ja
Publication of JP2021049082A publication Critical patent/JP2021049082A/ja
Application granted granted Critical
Publication of JP7413691B2 publication Critical patent/JP7413691B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。
現在、ユーザの顔に化粧品を塗布したときの顔の状態をシミュレーションする技術が知られている。例えば、特許文献1には、ユーザの顔画像に、顔部品に対してメイクを施したときのメイクの状態を示すメイクパーツを重畳してシミュレーション画像を生成し、生成したシミュレーション画像を表示する技術が記載されている。
ここで、ユーザは、顔のメイクで表現したい印象(例えば、クールな印象、明るい印象、落ち着いた印象など)を意識しながらメイクすることが一般的である。しかしながら、所望の印象をメイクで適切に表現するためには、ユーザの顔パーツの形状や配置を考慮する必要がある。従って、ユーザが、所望の印象をメイクで適切に表現することは容易ではない。このため、メイクのシミュレーションにおいて、ユーザが所望する印象を適切に表現するためのメイクの方法が提示されると便利である。
国際公開第2017/115453号
しかしながら、特許文献1には、そもそもユーザが所望する印象を表現するためのメイクの方法を提示することについて記載も示唆もされていない。このため、ユーザが所望する印象を適切に表現するためのメイクの方法を提示する技術が望まれている。
本発明は、上記問題に鑑みてなされたものであり、ユーザが所望する印象を適切に表現するためのメイクの方法を提示する画像処理装置、画像処理方法及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明に係る画像処理装置は、
ユーザの顔が撮像された撮像画像を表示する表示手段と、
前記撮像画像に基づいて、複数の顔パラメータのそれぞれについて、前記ユーザの顔パラメータの値であるユーザ値を取得するユーザ値取得手段と、
前記複数の顔パラメータのそれぞれについて、予め定められたモデル顔の顔パラメータの値であるモデル値を示すモデル値情報を記憶するモデル値記憶手段と、
前記モデル顔に、顔のメイクで表現する目標の印象として設定された目標印象を持たせるための前記モデル値に対する操作量である基本操作量を示す基本操作量情報を取得する基本操作量取得手段と、
前記基本操作量情報と前記目標印象とに基づいて、前記複数の顔パラメータのそれぞれについて、前記基本操作量を決定する基本操作量決定手段と、
前記ユーザ値と前記モデル値情報とに基づいて、前記複数の顔パラメータのそれぞれについて、前記ユーザの顔を前記モデル顔に近づけるための前記ユーザ値に対する操作量である追加操作量を決定する追加操作量決定手段と、
前記ユーザ値又は前記モデル値に対する操作量に対応するメイク内容を示すメイク内容情報を記憶するメイク内容記憶手段と、
前記基本操作量決定手段により前記複数の顔パラメータのそれぞれについて決定された前記基本操作量のうち、前記基本操作量として予め定められた閾値以上の操作量が決定された顔パラメータである特定顔パラメータについて決定された基本操作量と、前記追加操作量決定手段により前記複数の顔パラメータのそれぞれについて決定された前記追加操作量のうち、前記特定顔パラメータについて決定された追加操作量と、前記メイク内容情報とに基づいて、前記メイク内容を決定するメイク内容決定手段と、
前記表示手段に、前記撮像画像が前記メイク内容決定手段により決定された前記メイク内容に応じて加工されたメイク画像を表示させる表示制御手段と、を備える。
本発明によれば、ユーザが所望する印象を適切に表現するためのメイクの方法を提示することができる。
本発明の実施形態1に係るメイクシミュレーション装置の外観図 本発明の実施形態1に係る画像処理装置のハードウェア構成を示すブロック図 本発明の実施形態1に係る指示装置のハードウェア構成を示すブロック図 本発明の実施形態1に係る画像処理装置の機能的な構成を示すブロック図 本発明の実施形態1に係る画像処理装置をユーザが使用している様子を示す図 本発明の実施形態1に係る画像処理装置がメイク画像を表示する様子を示す図 顔パラメータの第1の説明図 顔パラメータの第2の説明図 モデル値情報の説明図 基本操作量情報の説明図 メイク内容情報の説明図 ユーザの顔をモデル顔に近づけるためのメイク方法を示す図であり、(A)は垂れ目を標準の目に見せるためのメイク方法を示す図であり、(B)はつり目を標準の目に見せるためのメイク方法を示す図 本発明の実施形態1に係る画像処理装置が実行する画像表示処理を示すフローチャート 本発明の実施形態2に係る画像処理装置の機能的な構成を示すブロック図 適合印象情報の説明図
以下、本発明の実施形態について、図面を参照して説明する。なお、図中において、同一又は対応する部分には、同一の符号を付す。
(実施形態1)
まず、図1を参照して、本発明の実施形態1に係るメイクシミュレーション装置100の構成について説明する。メイクシミュレーション装置100は、ユーザが化粧品でメイクした後の状態をコンピュータ上でシミュレーションする装置である。ユーザは、メイクシミュレーション装置100を用いることで、本物の化粧品を用いることなく、気軽にメイクを練習したり、メイク後の状態を事前に確認したりすることができる。
図1に示すように、メイクシミュレーション装置100は、画像処理装置10と、指示装置30とを備える。画像処理装置10は、ユーザの顔が撮像された撮像画像を用いて、メイク後の状態を表す画像をシミュレーションにより生成して表示する装置である。画像処理装置10は、例えば、メイク用のパレットを模した形状を有する。
図2に、画像処理装置10のハードウェア構成を示す。図2に示すように、画像処理装置10は、プロセッサ11と、フラッシュメモリ12と、カメラ13と、第1のタッチスクリーン14と、第2のタッチスクリーン15と、通信インターフェース16とを備える。画像処理装置10が備えるこれらの要素は、例えば、システムバスを介して相互に接続される。
プロセッサ11は、画像処理装置10の全体の動作を制御する。プロセッサ11は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、RTC(Real Time Clock)を備える。フラッシュメモリ12は、各種の情報を記憶する。
カメラ13は、被写体を撮像する。カメラ13は、被写体から射出された光を集光するレンズと、集光した光を受けて被写体の画像を取得するCCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等の撮像素子と、撮像素子から電気信号として送られた撮像データをデジタルデータに変換するA/D(Analog/Digital)変換器とを備える。図1に示すように、カメラ13は、第1のタッチスクリーン14の近傍に配置され、第1のタッチスクリーン14を見ながら画像処理装置10を使用しているユーザの顔を撮像する。
第1のタッチスクリーン14と第2のタッチスクリーン15とは、ユーザインターフェースであり、各種の情報をユーザから受け付け、また、各種の情報をユーザに提示する。図1に示すように、第1のタッチスクリーン14は、画像処理装置10の上側の面に配置され、カメラ13の撮像により得られた撮像画像を表示する。第2のタッチスクリーン15は、画像処理装置10の下側の面に配置され、操作受付画像又は化粧品画像を表示する。
操作受付画像は、ユーザから各種の操作を受け付けるための画面である。化粧品画像は、メイクシミュレーションにおいてユーザの顔に仮想的に塗布される化粧品を表現する画像である。化粧品画像は、複数の化粧品のそれぞれを異なる領域において表現する画像である。複数の化粧品のそれぞれは、色、光沢、質感等が少なくとも1つ相違する化粧品である。また、第2のタッチスクリーン15は、第2のタッチスクリーン15の表面に対する接触を伴うユーザ操作を受け付ける。
通信インターフェース16は、プロセッサ11による制御のもと、指示装置30を含む外部の装置と通信するモジュールである。通信インターフェース16は、例えば、無線LAN(Local Area Network)、Bluetooth(登録商標)等の無線通信、又はUSB(Universal Serial Bus)ケーブル等の有線通信により外部の機器と通信する。
指示装置30は、メイクシミュレーションにおいて、化粧品を選択し、選択した化粧品を仮想的に塗布する顔の位置を指示するための装置である。指示装置30は、スティック状の形状を有し、いわゆる化粧筆(化粧ブラシ、メイクブラシ)のように、顔に化粧品を塗布するために用いられる塗布ツールを模した部材である。ユーザは、指示装置30を手で把持し、画像処理装置10に表示された化粧品画像及びユーザの実際の顔を、指示装置30の端部で指し示すようにして使用する。
図3に、指示装置30のハードウェア構成を示す。指示装置30は、プロセッサ31と、フラッシュメモリ32と、圧力センサ33と、通信インターフェース34とを備える。指示装置30が備えるこれらの要素は、例えば、システムバスを介して相互に接続される。
プロセッサ31は、指示装置30の全体の動作を制御する。プロセッサ31は、例えば、CPU、ROM、RAM、RTCを備える。フラッシュメモリ32は、各種の情報を記憶する。圧力センサ33は、指示装置30の端部にかかる圧力を検知する。つまり、圧力センサ33は、指示装置30の端部に対する接触を検知する。
圧力センサ33は、静電容量式、歪みゲージ式などの方式で圧力を検知する。通信インターフェース34は、プロセッサ31による制御のもと、画像処理装置10と通信するモジュールである。通信インターフェース34は、圧力センサ33が検知した圧力を示す圧力情報を画像処理装置10に送信する。通信インターフェース34は、例えば、無線LAN、Bluetooth(登録商標)等の無線通信、又はUSBケーブル等の有線通信により画像処理装置10と通信する。
メイクシミュレーション装置100は、バーチャルメイク機能とメイク方法提示機能とを有する。バーチャルメイク機能は、ユーザによるメイク動作に従ったメイクパーツを、ユーザの顔画像に重ねて表示する機能である。メイク方法提示機能は、ユーザの顔画像に、ユーザが顔のメイクで表現したい印象に合致するメイクパーツを重ねて表示する機能である。つまり、メイク方法提示機能は、ユーザの顔を所望の印象の顔に近づけるためのメイクの見本を提示する機能である。バーチャルメイク機能とメイク方法提示機能とは、例えば、第2のタッチスクリーン15に対するユーザ操作に従って切り替えられる。
以下、バーチャルメイク機能を実現するためにメイクシミュレーション装置100が実行する処理について簡単に説明する。まず、メイクシミュレーション装置100は、第1のタッチスクリーン14にカメラ13の撮像により得られた撮像画像を表示し、第2のタッチスクリーン15に化粧品画像を表示する。そして、メイクシミュレーション装置100は、ユーザのメイク動作に従って、ユーザの顔に仮想的に塗布される化粧品を示すメイクパーツを撮像画像に重ねて表示する。
このメイク動作には、第1のメイク動作と第2のメイク動作とがある。第1のメイク動作は、化粧用のパレットに収納された化粧品を化粧筆の先端部に付着させる動作を模した動作である。第1のメイク動作は、具体的には、第2のタッチスクリーン15に表示された化粧品画像のうち所望の化粧品を表す領域に指示装置30の先端を接触させる動作である。メイクシミュレーション装置100は、第2のタッチスクリーン15上における接触位置からユーザが選択した化粧品を特定することができる。
第2のメイク動作は、化粧筆の先端部に付着した化粧品をユーザの顔に塗布する動作を模した動作である。第2の動作は、具体的には、指示装置30の先端をユーザの顔の所望の領域に接触させる動作である。メイクシミュレーション装置100は、指示装置30から画像処理装置10に送信される圧力情報と、カメラ13による撮像により得られた撮像画像内における、ユーザの顔と指示装置30の先端との位置関係とに基づいて、ユーザの顔における指示装置30の先端の接触位置を特定することができる。
メイクシミュレーション装置100は、第1のメイク動作においてユーザが選択した化粧品を、第2のメイク動作においてユーザが指定した顔の領域に塗布する動作をシミュレーションする。つまり、メイクシミュレーション装置100は、ユーザが選択した化粧品を表すメイクパーツを、撮像画像上における、ユーザが指定した顔の領域に重ねたメイク画像を表示する。バーチャルメイク機能によれば、メイク後の状態をシミュレーションすることができる。なお、ユーザは、バーチャルメイク機能を利用する前にメイク方法提示機能を利用して、適切なメイク方法を把握することが好適である。以下、本実施形態では、基本的に、メイク方法提示機能について説明する。
図4に示すように、画像処理装置10は、機能的には、撮像部101と、画像取得部102と、表示制御部103と、表示部104と、特徴特定部105と、印象指定操作受付部106と、印象設定部107と、調整指示操作受付部108と、メイク内容決定部110と、記憶部120とを備える。特徴特定部105は、ユーザ値取得部115を備える。メイク内容決定部110は、基本操作量決定部111と、追加操作量決定部112と、メイク領域決定部113と、メイク色決定部114とを備える。記憶部120は、モデル値記憶部121と、基本操作量記憶部122と、メイク内容記憶部123とを備える。
画像取得部102は、本発明における画像取得手段の一例である。表示制御部103は、本発明における表示制御手段の一例である。表示部104は、本発明における表示手段及び表示装置の一例である。特徴特定部105は、本発明における特徴特定手段の一例である。印象設定部107は、本発明における印象設定手段の一例である。調整指示操作受付部108は、本発明における調整指示操作受付手段の一例である。メイク内容決定部110は、本発明におけるメイク内容決定手段の一例である。基本操作量決定部111は、本発明における基本操作量決定手段の一例である。追加操作量決定部112は、本発明における追加操作量決定手段の一例である。ユーザ値取得部115は、本発明におけるユーザ値取得手段の一例である。モデル値記憶部121は、本発明におけるモデル値記憶手段の一例である。基本操作量記憶部122は、本発明における基本操作量記憶手段の一例である。メイク内容記憶部123は、本発明におけるメイク内容記憶手段の一例である。
撮像部101は、ユーザの顔を含む範囲を撮像し、この範囲を表す撮像画像を生成する。図5に、ユーザがメイクシミュレーション装置100を用いてメイクのシミュレーションをするために、画像処理装置10が備える第1のタッチスクリーン14に向かい合っている様子を示す。撮像部101は、図5において破線で示す視野の内側の範囲、具体的には、第1のタッチスクリーン14に向かい合っているユーザの顔を含む範囲を撮像する。
従って、撮像部101を実現するためのカメラ13の設置位置及び光軸の向きは、第1のタッチスクリーン14に向かい合うユーザの顔がカメラ13の視野に含まれるように調整される。撮像部101は、画像処理装置10がユーザにより使用されている間、継続的に、ユーザの顔を撮像して撮像画像を生成する処理を実行する。撮像部101の機能は、例えば、プロセッサ11とカメラ13とが協働することにより実現される。
画像取得部102は、撮像部101が生成した撮像画像を取得する。画像取得部102の機能は、例えば、プロセッサ11の機能により実現される。
表示制御部103は、表示部104による画像の表示を制御する。具体的には、表示制御部103は、表示部104が備える第1の表示領域に、画像取得部102により取得された撮像画像を表示する。第1の表示領域は、例えば、第1のタッチスクリーン14に対応する表示領域である。このように、表示制御部103は、ユーザの顔の様子をリアルタイムで表示する。
また、表示制御部103は、表示部104が備える第2の表示領域に、ユーザ操作を受け付けるための操作受付画像を表示する。第2の表示領域は、第1の表示領域とは異なる表示領域であり、例えば、第2のタッチスクリーン15に対応する表示領域である。操作受付画像は、ユーザ操作を受け付けるための各種のボタンなどを含む画像である。例えば、操作受付画像は、ユーザが複数の印象から所望する印象を決定するためのボタン、メイクシミュレーション装置100が実行する処理を、メイク方法提示機能のための処理からバーチャルメイク機能のための処理に切り替えることを指示するためのボタンなどを含む画像である。表示制御部103の機能は、例えば、プロセッサ11の機能により実現される。
表示部104は、表示制御部103による制御に従って画像を表示する。具体的には、表示部104は、第1の表示領域に画像取得部102が取得した撮像画像を表示し、第2の表示領域に操作受付画像を表示する。なお、表示部104は、表示制御部103による制御に従って、第1の表示領域において撮像画像にメイクパーツが重ねられたメイク画像を表示する。図6に、第1のタッチスクリーン14において、顔画像である画像50を含む撮像画像に、メイクパーツである画像51が重ねられたメイク画像が表示された様子を示す。表示部104の機能は、例えば、プロセッサ11と第1のタッチスクリーン14と第2のタッチスクリーン15とが協働することにより実現される。
特徴特定部105は、画像取得部102により取得された撮像画像に基づいて、ユーザの顔の特徴を特定する。ユーザの顔の特徴は、例えば、ユーザの顔パーツの大きさ、形状、配置位置、配置角度、又は、ユーザの顔パーツ間の配置関係に関わる特徴である。ユーザの顔の特徴は、例えば、ユーザの顔パラメータの値により表現される。上述したように、特徴特定部105は、ユーザ値取得部115を備える。特徴特定部105の機能は、例えば、プロセッサ11の機能により実現される。
ユーザ値取得部115は、画像取得部102により取得された撮像画像に基づいて、ユーザの顔パラメータの値であるユーザ値を取得する。顔パラメータは、顔が備えるパーツである顔パーツに関するパラメータである。顔パーツは、右目、左目、右眉、左眉、鼻、眉間、口、右耳、左耳などである。顔パラメータは、例えば、顔パーツのサイズ、顔パーツの形状、顔パーツの配置位置、顔パーツの配置角度、複数の顔パーツ間のサイズの比率、複数の顔パーツ間の配置バランスなどのパラメータである。なお、顔パラメータの値ではなく顔パラメータの種類のことを、適宜、単に、顔パラメータという。本実施形態では、顔パラメータは、目の角度と、目の間隔と、目の大きさと、目の開きとの4つである。以下、図7と図8とを参照して、これらの顔パラメータについて説明する。
図7に、第1のタッチスクリーン14に表示されるユーザの顔の一部を示す。図7における右側の目がユーザの右目であり、図7における左側の目がユーザの左目である。また、図8に、ユーザの右目の近傍の拡大図を示す。図7において、W1は右目の横幅を表し、W2は左目の横幅を表し、W3は右目の目頭から左目の目頭までの長さを表し、W4は右目の目頭から顔の右側の輪郭までの長さを表す。
図8において、W1は右目の横幅を表し、H1は右目の縦幅を表し、W5は右眉の眉頭から右眉の眉尻までの長さを表し、W6は右眉の眉頭から右眉の眉山までの長さを表す。また、図8において、直線L1は、右目の目頭を通過し、顔の幅方向に延びる直線であり、直線L2は、右目の目頭と右目の目尻とを結ぶ直線であり、D1は直線L1と直線L2とのなす角度を表す。なお、顔の幅方向は、顔の縦方向と顔の前後方向とに直交する方向であり、概ね、両耳を結ぶ方向である。顔の縦方向は、概ね、脳天とあごとを結ぶ方向である。顔の前後方向は、概ね、顔面と直交する方向である。
目の角度は、右目の角度と左目の角度とを総称する概念である。目の角度は、目頭と目尻とを結ぶ直線と、目頭を通過し、顔の幅方向に延びる直線とのなす角度により表される。従って、右目の角度は、直線L1と直線L2とのなす角度を表すD1により表される。目の間隔は、目の横幅に対する両目の目頭間の長さの割合により表される。目の横幅としては、右目の横幅、左目の横幅、又は、右目の横幅と左目の横幅との平均値を採用することができる。目の間隔は、W3/W1、W3/W2、又は、W3×2/(W1+W2)により表される。
目の大きさは、右目の大きさと左目の大きさとを総称する概念である。目の大きさは、目頭から顔の輪郭までの長さに対する目の横幅の割合により表される。従って、右目の大きさは、W1/W4により表される。目の開きは、右目の開きと左目の開きとを総称する概念である。目の開きは、目の横幅に対する目の縦幅の割合により表される。従って、右目の開きは、H1/W1により表される。
なお、顔パラメータは、目に関する顔パラメータに限定されず、例えば、眉に関する顔パラメータであってもよい。例えば、顔パラメータとして、眉山の位置がある。眉山の位置は、右眉の眉山の位置と左眉の眉山の位置とを総称する概念である。眉山の位置は、眉頭から眉尻までの長さに対する眉頭から眉山までの長さの割合により表される。従って、右眉の眉山の位置は、W6/W5により表される。
ユーザ値取得部115は、画像取得部102により取得された撮像画像から、ユーザの顔の位置を特定し、特定した顔の位置から各顔パーツの位置及びサイズを特定する。そして、ユーザ値取得部115は、全ての顔パラメータについて、各顔パーツの位置及びサイズから、ユーザの顔パラメータの値であるユーザ値を求める。なお、ユーザ値取得部115は、エッジ検出、パターンマッチングなどの周知の技術を利用して、顔の位置と、各顔パーツの位置と、各顔パーツのサイズとを特定することができる。ユーザ値取得部115の機能は、例えば、プロセッサ11の機能により実現される。
印象指定操作受付部106は、ユーザから印象指定操作を受け付ける。印象指定操作は、ユーザが顔のメイクで表現することを所望する印象を指定する操作である。つまり、印象指定操作受付部106は、ユーザがメイクで実現したい顔の印象を示す情報をユーザから取得する。印象指定操作により指定される印象としては、知的、おおらか、控えめ、華やか、クール、明るい、可愛い、シャープなどがある。印象指定操作受付部106は、例えば、これらの印象を表す画像をユーザに提示した上で、ユーザから印象を選択する操作を受け付ける。印象指定操作受付部106の機能は、例えば、プロセッサ11と第2のタッチスクリーン15とが協働することにより実現される。
印象設定部107は、ユーザから取得された情報に基づいて、顔のメイクで表現する目標の印象である目標印象を設定する。本実施形態では、印象指定操作受付部106がユーザから受け付ける印象指定操作によりユーザが所望する印象が指定される。従って、印象設定部107は、印象指定操作により指定された印象を目標印象として設定する。印象設定部107の機能は、例えば、プロセッサ11の機能により実現される。
調整指示操作受付部108は、ユーザから調整指示操作を受け付ける。調整指示操作は、メイク内容決定部110により決定されたメイク内容の調整を指示する操作である。調整指示操作受付部108は、例えば、メイク色やメイク領域を調整するためのオブジェクトをユーザに提示した上で、ユーザからこのオブジェクトを用いてメイク色やメイク領域を調整する操作を受け付ける。このようなオブジェクトとしては、例えば、スクロールバーなどがある。メイク色は、撮像画像に重ねられるメイクパーツの色である。メイク領域は、撮像画像にメイクパーツが重ねられる領域である。調整指示操作受付部108は、の機能は、例えば、プロセッサ11と第2のタッチスクリーン15とが協働することにより実現される。
メイク内容決定部110は、ユーザ値取得部115により取得されたユーザ値と、印象設定部107により設定された目標印象とに基づいて、目標印象を表現するためのメイク内容を決定する。メイク内容は、メイク色とメイク領域とを含む。本実施形態では、仮想的に塗布される化粧品はアイシャドーであり、メイク色は仮想的に塗布されるアイシャドーの色であり、メイク領域はアイシャドーが仮想的に塗布される領域である。メイク内容決定部110の詳細については後述する。メイク内容決定部110の機能は、例えば、プロセッサ11の機能により実現される。
ここで、表示制御部103は、表示部104に、メイク内容決定部110により決定されたメイク内容に応じたメイクパーツを撮像画像に重ねたメイク画像を表示させる。例えば、表示制御部103は、図6に示すように、メイク内容に応じたメイクパーツを表す画像51を、顔画像である画像50を含む撮像画像に重ねることにより得られるメイク画像を表示する。
記憶部120は、メイク内容決定部110がメイク内容を決定するときに用いる各種の情報を記憶する。上述したように、記憶部120は、モデル値記憶部121と、基本操作量記憶部122と、メイク内容記憶部123とを備える。記憶部120、モデル値記憶部121、基本操作量記憶部122、及び、メイク内容記憶部123の機能は、例えば、フラッシュメモリ12の機能により実現される。
モデル値記憶部121は、モデル値情報を記憶する。モデル値情報は、複数の顔パラメータのそれぞれについて、予め定められたモデル顔の顔パラメータの値であるモデル値を示す情報である。モデル顔は、各顔パーツのサイズ、各顔パーツの配置バランスなどが適正である模範的な顔である。つまり、モデル値は、顔パラメータの値の模範的な値である。モデル値情報は、例えば、図9に示すように、顔パラメータ毎に、モデル値を示す情報である。このモデル値情報は、目の角度が+5度であり、目の間隔が1であり、目の大きさが0.7であり、目の開きが0.33である顔が、モデル顔であることを示している。
基本操作量記憶部122は、基本操作量情報を記憶する。基本操作量情報は、モデル顔に目標印象を持たせるためのモデル値に対する操作量である基本操作量を特定可能な情報である。具体的には、基本操作量情報は、複数の印象のそれぞれについて、モデル顔に各印象を持たせるための各モデル値に対する操作量を示す情報である。モデル顔は、基本的には、目標印象を与えることができる顔である目標顔とは一致しない。言い換えれば、モデル顔の顔パラメータの値であるモデル値と、目標顔の顔パラメータの値である目標値とは一致しない。そこで、モデル値を目標値にするための操作量、つまり、モデル値と目標値との差分値を、モデル値に対する操作量とする。
基本操作量情報は、例えば、図10に示すように、印象毎に、顔パラメータと基本操作量とを示す情報である。図10に示す基本操作量情報は、例えば、モデル顔を知的な印象の顔に近づけるためには、目の間隔を0.2だけ狭める必要があることを示している。言い換えれば、この基本操作量情報は、知的な印象の顔の目の間隔は、模範的な顔の目の間隔である1よりも0.2少ない0.8であることを示している。
また、基本操作量情報の内容を考慮すると、以下のように考えることができる。つまり、モデル顔をおおらかな印象の顔に近づけるためには、目の間隔を0.2だけ広げるとよい。また、モデル顔を控えめな印象の顔に近づけるためには、目の大きさを0.1だけ小さくするとよい。また、モデル顔を華やかな印象の顔に近づけるためには、目の大きさを0.1だけ大きくするとよい。また、モデル顔をクールな印象の顔に近づけるためには、目の開きを0.05だけ小さくするとよい。また、モデル顔を明るい印象の顔に近づけるためには、目の開きを0.05だけ大きくするとよい。また、モデル顔を可愛い印象の顔に近づけるためには、目の角度を5度だけ小さくするとよい。また、モデル顔をシャープな印象の顔に近づけるためには、目の角度を5度だけ大きくするとよい。
メイク内容記憶部123は、メイク内容情報を記憶する。メイク内容情報は、複数の顔パラメータのそれぞれについて、ユーザ値又はモデル値に対する操作量に対応するメイク内容を示す情報である。この操作量は、基本操作量又は追加操作量に対応する。なお、基本操作量は、モデル顔に目標印象を持たせるためのモデル値に対する操作量である。また、追加操作量は、ユーザの顔をモデル顔に近づけるためのユーザ値に対する操作量である。メイク内容情報は、顔パラメータを変更した場合と同様の効果が期待できるメイク内容、言い換えれば、顔パラメータに対する操作と同様の効果が期待できるメイク内容を示す情報である。
メイク内容情報は、例えば、図11に示すように、顔パラメータと操作量との組み合わせ毎に、メイク領域とメイク色とを含むメイク内容を示す情報である。図11に示すメイク内容情報は、例えば、目の角度を10度下げた場合と同様の効果を得るためには、目の周囲に幅広く紫色のアイシャドーを塗布するメイクを施すべきことを示している。
以下、図12(A)と図12(B)とを参照して、見た目の印象を変えるためのメイクについて説明する。まず、図12(A)を参照して、垂れ目を模範的な目に近づけるためのメイクについて説明する。目の角度の適正値は+5度であり、モデル顔の目の角度は+5度であるものとする。また、ユーザの右目は垂れ目であり、ユーザの右目の角度は-5度であるものとする。この場合、ユーザの右目の角度をモデル顔の右目の角度にするための操作量は、+10度である。そこで、右目の角度が10度上がった場合と同様の効果が得られるメイクとして、目尻の外側の上部に紫色のアイシャドーを塗布するというメイク内容が決定される。図12(A)に、アイシャドーが仮想的に塗布されるメイク領域として、領域E1を示す。かかるメイクが施されたユーザの顔は、右目の角度が+5度であるモデル顔と同様の印象を見た人に与えることが期待できる。
次に、図12(B)を参照して、つり目を模範的な目に近づけるためのメイクについて説明する。ここでは、ユーザの右目はつり目であり、ユーザの右目の角度は+10度であるものとする。この場合、ユーザの右目の角度をモデル顔の右目の角度にするための操作量は、-5度である。そこで、右目の角度が5度下がった場合と同様の効果が得られるメイクとして、目の周囲に幅広く薄紫色のアイシャドーを塗布するというメイク内容が決定される。図12(B)に、アイシャドーが仮想的に塗布されるメイク領域として、領域E2を示す。かかるメイクが施されたユーザの顔は、右目の角度が+5度であるモデル顔と同様の印象を見た人に与えることが期待できる。
なお、垂れ目を模範的な目に近づけるためのメイクは、模範的な目をシャープな印象を与える目に近づけるメイクでもある。つまり、目の角度が上がったように見せるメイクは、よりシャープな印象を与えるためのメイクである。同様に、つり目を模範的な目に近づけるためのメイクは、模範的な目を可愛い印象を与える目に近づけるメイクでもある。つまり、目の角度が下がったように見せるメイクは、より可愛い印象を与えるためのメイクである。
また、目の間隔が狭くなったように見せるメイクは、より知的な印象を与えるためのメイクである。また、目の間隔が広くなったように見せるメイクは、よりおおらかな印象を与えるためのメイクである。また、目の大きさが小さくなったように見せるメイクは、より控えめな印象を与えるためのメイクである。また、目の大きさが大きくなったように見せるメイクは、より華やかな印象を与えるためのメイクである。また、目の開きが狭くなったように見せるメイクは、よりクール印象を与えるためのメイクである。また、目の開きが広くなったように見せるメイクは、より明るい印象を与えるためのメイクである。
次に、メイク内容決定部110について詳細に説明する。上述したように、メイク内容決定部110は、基本操作量決定部111と、追加操作量決定部112と、メイク領域決定部113と、メイク色決定部114とを備える。
基本操作量決定部111は、基本操作量記憶部122に記憶された操作量情報と目標印象とに基づいて、複数の顔パラメータのそれぞれについて、基本操作量を決定する。例えば、目標印象がシャープである場合、目の角度については、基本操作量として+5度が決定される。なお、目の角度以外のパラメータについては、基本操作量として0が決定される。基本操作量決定部111の機能は、例えば、プロセッサ11の機能により実現される。
追加操作量決定部112は、複数の顔パラメータのそれぞれについて取得されたユーザ値とモデル値記憶部121に記憶されたモデル値情報とに基づいて、複数の顔パラメータのそれぞれについて、追加操作量を決定する。例えば、顔パラメータが目の角度であり、ユーザの顔の目の角度が0度であり、モデル顔の目の角度が+5度であるものとする。この場合、目の角度については、追加操作量として+5度が決定される。なお、目の角度以外のパラメータについては、追加操作量として0が決定される。追加操作量決定部112の機能は、例えば、プロセッサ11の機能により実現される。
メイク内容決定部110は、メイク内容記憶部123に記憶されたメイク内容情報と、基本操作量決定部111により決定された基本操作量と、追加操作量決定部112により決定された追加操作量とに基づいて、メイク内容を決定する。ここで、メイク内容決定部110は、特定顔パラメータを考慮してメイク内容を決定してもよいし、特定顔パラメータを考慮せずにメイク内容を決定してもよい。特定顔パラメータは、基本操作量決定部111により決定された基本操作量のうち、基本操作量として予め定められた閾値以上の操作量が決定された顔パラメータである。特定顔パラメータは、モデル顔に目標印象を与えるために操作すべき顔パラメータである。
ここで、メイク内容決定部110は、メイク内容を決定するときに、特定顔パラメータについて決定された基本操作量を考慮する。一方、メイク内容決定部110は、メイク内容を決定するときに、特定顔パラメータ以外の顔パラメータについて決定された基本操作量を考慮しなくてもよい。このような顔パラメータは、そもそも基本操作量が小さいため、このような顔パラメータのためにメイク箇所を増やすことは好ましくないためである。
また、メイク内容決定部110は、メイク内容を決定するときに、特定顔パラメータについて決定された追加操作量を考慮する。このような追加操作量は、メイクすべき箇所に関わるため、ユーザの顔の個人差を吸収するために、考慮することが望ましいためである。一方、メイク内容決定部110は、メイク内容を決定するときに、特定顔パラメータ以外の顔パラメータについて決定された追加操作量を考慮しなくてもよい。このような追加操作量は、メイクすべき箇所に関わらないため、仮にユーザの顔のこの箇所に特徴がある場合でも、メイク箇所の増大を抑制するために考慮しないことが望ましいと考えられるためである。
以下、特定顔パラメータを考慮してメイク内容を決定する具体例について説明する。例えば、第1の具体例として、目標印象がシャープであり、目の角度について決定される基本操作量が+5度であり、目の角度について決定される追加操作量が+5度である場合を想定する。この場合、目の角度のみが特定顔パラメータである。従って、メイク内容決定部110は、目の角度について決定された基本操作量である+5度と目の角度について決定された追加操作量である+5度との合計量である+10度に対応するメイク内容を決定する。
つまり、メイク内容決定部110は、メイク内容情報に基づいて、目の角度を10度上げる場合と同様の効果を得るためのメイク、つまり、目尻の外側の上部に紫色のアイシャドーを塗布するというメイク内容を決定する。このように、メイク内容決定部110は、垂れ目のユーザがシャープな印象を所望する場合、シャープな印象を与える程度につり目に見えるメイク内容を決定する。このように、特定顔パラメータについて決定された追加操作量に関しては、過度のメイク若しくはメイク不足を抑制するために考慮することが好適である。
次に、第2の具体例として、目標印象が華やかであり、目の大きさについて決定される基本操作量が+5度であり、目の角度について決定される追加操作量が+5度である場合を想定する。この場合、目の大きさのみが特定顔パラメータであり、目の角度は特定顔パラメータではない。従って、メイク内容決定部110は、目の大きさについて決定された基本操作量である+5度に対応するメイク内容を決定する。つまり、メイク内容決定部110は、メイク内容情報に基づいて、目の大きさを0.1大きくする場合と同様の効果を得るためのメイク、つまり、目尻の近傍に薄紫色のアイシャドーを塗布するというメイク内容を決定する。このように、特定顔パラメータ以外の顔パラメータについて決定された追加操作量に関しては、メイク箇所の増大を抑制するため考慮しないことが好適である。
なお、特定顔パラメータ以外の顔パラメータを考慮してメイク内容を決定してもよい。例えば、第3の具体例として、目標印象が華やかであり、目の大きさについて決定される基本操作量が+5度であり、目の角度について決定される追加操作量が+5度である場合を想定する。この場合、まず、メイク内容決定部110は、目の大きさについて決定された基本操作量である+5度に対応するメイク内容を決定する。つまり、メイク内容決定部110は、メイク内容情報に基づいて、目の大きさを0.1大きくする場合と同様の効果を得るためのメイク、つまり、目尻の近傍に薄紫色のアイシャドーを塗布するというメイク内容を決定する。
更に、メイク内容決定部110は、目の角度について決定された追加操作量に対応するメイク内容を決定する。つまり、メイク内容決定部110は、メイク内容情報に基づいて、目の角度を5度上げる場合と同様の効果を得るためのメイク、つまり、目尻の外側の上部に薄紫色のアイシャドーを塗布するというメイク内容を決定する。このように、特定顔パラメータ以外の顔パラメータについて決定された追加操作量に関しても、ユーザの顔をモデル顔に近づけるために考慮してもよい。
メイク領域決定部113は、複数の顔パラメータのそれぞれについて決定された基本操作量と、複数の顔パラメータのそれぞれについて決定された追加操作量と、メイク内容情報とに基づいて、メイク領域を決定する。メイク領域決定部113の機能は、例えば、プロセッサ11の機能により実現される。
メイク色決定部114は、複数の顔パラメータのそれぞれについて決定された基本操作量と、複数の顔パラメータのそれぞれについて決定された追加操作量と、メイク内容情報とに基づいて、メイク色を決定する。メイク色を決定することは、化粧品と塗布量とを決定することを意味する。メイク色は、例えば、顔画像におけるメイク領域の色と決定された化粧品の色とを、決定された塗布量に応じた割合で合成した色である。例えば、メイク色は、塗布量が多いほど化粧品の色に近づき、塗布量が少ないほど顔画像におけるメイク領域の色に近づく。なお、メイクパーツの色は、全体としてメイク色に応じた色であればよい。つまり、メイクパーツの全体がメイク色で統一されている必要はなく、メイクパーツの各部の色が異なっていても良い。メイク色決定部114の機能は、例えば、プロセッサ11の機能により実現される。
また、メイク内容決定部110は、調整指示操作受付部108により調整指示操作が受け付けられた場合、調整指示操作に基づいて、メイク内容に含まれる、メイク色とメイク領域とのうちの少なくとも一方を調整する。例えば、メイク内容決定部110は、調整指示操作に従って、メイクパーツの色を濃くしたり、メイクパーツの色を薄くしたりする。また、メイク内容決定部110は、調整指示操作に従って、メイク領域を全体的に又は特定の方向に向けて広げたり、メイク領域を全体的に又は特定の方向に向けて狭めたりする。
次に、図13に示すフローチャートを参照して、画像処理装置10が実行する画像表示処理について説明する。
まず、画像処理装置10が備えるプロセッサ11は、操作受付画像を表示する(ステップS101)。具体的には、プロセッサ11は、第2のタッチスクリーン15に操作受付画像を表示する。プロセッサ11は、ステップS101の処理を完了すると、撮像を開始する(ステップS102)。具体的には、プロセッサ11は、カメラ13に撮像を開始させ、以後、カメラ13から撮像画像を継続的に取得する。
プロセッサ11は、ステップS102の処理を完了すると、撮像画像を表示する(ステップS103)。具体的には、プロセッサ11は、カメラ13から取得した撮像画像を、第1のタッチスクリーン14に表示させる。プロセッサ11は、ステップS103の処理を完了すると、印象指定操作があるか否かを判別する(ステップS104)。例えば、プロセッサ11は、第2のタッチスクリーン15に対して印象指定操作がなされたか否かを判別する。
プロセッサ11は、印象指定操作があると判別すると(ステップS104:YES)、目標印象を設定する(ステップS105)。なお、プロセッサ11は、印象指定操作により指示された印象を目標印象として設定する。プロセッサ11は、ステップS105の処理を完了すると、撮像画像からユーザの顔の特徴を特定する(ステップS106)。つまり、プロセッサ11は、撮像画像から抽出される顔画像から各顔パーツを特定し、各顔パーツの形状、大きさ及び位置関係などから各顔パラメータについてユーザ値を特定する。
プロセッサ11は、ステップS106の処理を完了すると、基本操作量を決定する(ステップS107)。具体的には、プロセッサ11は、基本操作量情報と目標印象とに基づいて、各顔パラメータにおける基本操作量を決定する。プロセッサ11は、ステップS107の処理を完了すると、追加操作量を決定する(ステップS108)。具体的には、プロセッサ11は、各顔パラメータについて、ユーザ値とモデル値との差分を求めることにより、各顔パラメータの追加操作量を決定する。
プロセッサ11は、ステップS108の処理を完了すると、特定顔パラメータを特定する(ステップS109)。具体的には、プロセッサ11は、複数の顔パラメータのそれぞれについて決定された基本操作量のうち、基本操作量として予め定められた閾値以上の操作量が決定された顔パラメータを特定顔パラメータとして特定する。プロセッサ11は、ステップS109の処理を完了すると、メイク領域を決定する(ステップS110)。具体的には、プロセッサ11は、各特定顔パラメータについて、基本操作量と追加操作量との合計である合計操作量を求め、各特定顔パラメータについて、メイク内容情報に基づいて合計操作量に応じたメイク領域を決定する。
プロセッサ11は、ステップS110の処理を完了すると、メイク色を決定する(ステップS111)。具体的には、プロセッサ11は、各特定顔パラメータについて、メイク内容情報に基づいて合計操作量に応じたメイク色を決定する。プロセッサ11は、ステップS111の処理を完了すると、メイク画像を表示する(ステップS112)。具体的には、プロセッサ11は、表示部104を制御して、撮像画像におけるメイク領域にメイク色に応じたメイクパーツを重ねることにより得られるメイク画像を表示する。プロセッサ11は、ステップS112の処理を完了すると、ステップS103に処理を戻す。
ここで、プロセッサ11は、印象指定操作がないと判別すると(ステップS104:NO)、調整指示操作があるか否かを判別する(ステップS113)。具体的には、プロセッサ11は、第2のタッチスクリーン15に対して調整指示操作がなされたか否かを判別する。プロセッサ11は、調整指示操作があると判別すると(ステップS113:YES)、メイクパーツを調整する(ステップS114)。具体的には、プロセッサ11は、調整指示操作に従って、メイク領域とメイク色とのうち少なくとも一方を調整する。
プロセッサ11は、ステップS114の処理を完了すると、調整後のメイク画像を表示する(ステップS115)。具体的には、プロセッサ11は、表示部104を制御して、撮像画像における調整後のメイク領域に調整後のメイク色に応じたメイクパーツを重ねることにより調整後のメイク画像を生成し、生成した調整後のメイク画像を表示する。プロセッサ11は、調整指示操作がないと判別した場合(ステップS113:NO)、又は、ステップS115の処理を完了した場合、ステップS103に処理を戻す。
本実施形態では、ユーザの顔の特徴に応じて、目標印象を表現するためのメイク内容が決定され、撮像画像がこのメイク内容に応じて加工されたメイク画像が表示される。従って、本実施形態によれば、ユーザが所望する印象を適切に表現するためのメイクの方法を提示することができる。
また、本実施形態では、モデル顔に目標印象を持たせるための基本操作量と、ユーザの顔をモデル顔に近づけるための追加操作量とに基づいて、メイク内容が決定される。従って、本実施形態によれば、ユーザが所望する印象とユーザの顔の特徴とに応じた適切なメイクの方法を提示することができる。
また、本実施形態では、特定顔パラメータについて決定された基本操作量と特定顔パラメータについて決定された追加操作量とに基づいて、メイク内容が決定される。従って、本実施形態によれば、ユーザが所望する印象への影響が少ない顔部分へのメイクが排除されたメイクを提示することができる。
また、本実施形態では、調整指示操作に基づいて、メイク内容が調整される。従って、本実施形態によれば、ユーザが所望する印象をより適切に表現するためのメイクの方法を提示することができる。
(実施形態2)
実施形態1では、ユーザが所望する印象が直接ユーザから指定される例について説明した。ユーザが所望する印象が直接ユーザから指定されなくてもよい。以下、本実施形態では、ユーザから指定されたシーンからユーザが所望する印象を特定する例について説明する。以下、図14を参照して、本実施形態に係る画像処理装置20の機能について説明する。
本実施形態に係る画像処理装置20は、機能的には、実施形態1に係る画像処理装置10と比較して、印象指定操作受付部106を備えず、シーン指定操作受付部109を備え、記憶部120が適合印象記憶部124を更に備える。シーン指定操作受付部109は、本発明におけるシーン指定操作受付手段の一例である。適合印象記憶部124は、本発明における適合印象記憶手段の一例である。
適合印象記憶部124は、複数のシーンのそれぞれに適合する印象を示す適合印象情報を記憶する。図15に、適合印象情報を示す。この適合印象情報は、シーンと印象との対応関係を示す情報であり、シーン毎にシーンに相応しいと考えられる印象を示す情報である。図15に示す適合印象情報は、例えば、面接というシーンでは、知的な印象を与える顔が望ましいことを示している。適合印象記憶部124の機能は、例えば、フラッシュメモリ12の機能により実現される。
シーン指定操作受付部109は、ユーザからシーン指定操作を受け付ける。シーン指定操作は、複数のシーンのうちいずれかのシーンを指定する操作である。複数のシーンは、面接、接客、随行、パーティー、プレゼン、飲み会、観光、会議などである。シーン指定操作受付部109は、例えば、これらのシーンを表す画像をユーザに提示した上で、ユーザからシーンを選択する操作を受け付ける。シーン指定操作受付部109の機能は、例えば、プロセッサ11と第2のタッチスクリーン15とが協働することにより実現される。
ここで、印象設定部107は、シーン指定操作受付部109によりシーン指定操作が受け付けられた場合、適合印象記憶部124に記憶された適合印象情報に基づいて、複数のシーンのうちシーン指定操作により指定されたシーンに適合する印象を目標印象として設定する。
本実施形態では、ユーザにより指定されたシーンに基づいて、目標印象が自動で設定される。従って、本実施形態によれば、ユーザにより指定されたシーンに適合する印象を適切に表現するためのメイクの方法を提示することができる。
(変形例)
以上、本発明の実施形態を説明したが、本発明を実施するにあたっては、種々の形態による変形及び応用が可能である。
本発明において、上記実施形態において説明した構成、機能、動作のどの部分を採用するのかは任意である。また、本発明において、上述した構成、機能、動作のほか、更なる構成、機能、動作が採用されてもよい。また、上述した実施形態は、適宜、自由に組み合わせることができる。また、上述した実施形態で説明した構成要素の個数は、適宜、調整することができる。また、本発明において採用可能な素材、サイズ、電気的特性などが、上記実施形態において示したものに限定されないことは勿論である。
実施形態1では、メイク方法提示機能のための処理と、バーチャルメイク機能のための処理とが、別々に実行される例について説明した。これらの処理が組み合わせて実行されてもよい。例えば、メイクシミュレーション装置100は、メイク方法提示機能により生成したメイク画像を第1のタッチスクリーン14の左半分の領域に表示し、バーチャルメイク機能により生成したメイク画像を第1のタッチスクリーン14の右半分の領域に表示し、バーチャルメイク機能により生成した化粧品画像を第2のタッチスクリーン15に表示することができる。
メイク方法提示機能により生成したメイク画像は、撮像画像に、目標印象を表現するためのメイク内容に応じたメイクパーツを重ねた画像である。バーチャルメイク機能により生成したメイク画像は、撮像画像に、ユーザによるメイク動作に従ったメイクパーツを重ねた画像である。かかる構成によれば、ユーザは、第1のタッチスクリーン14の左半分の領域に表示された、見本となるメイクの方法を示すメイク画像を参考にしながら、メイクをシミュレーションすることができる。
あるいは、バーチャルメイク機能により生成したメイク画像にメイク方法提示機能により決定したメイク領域の輪郭を示す輪郭画像を重ねた画像を、第1のタッチスクリーン14に表示し、バーチャルメイク機能により生成した化粧品画像を第2のタッチスクリーン15に表示してもよい。かかる構成によれば、ユーザは、第1のタッチスクリーン14に表示された輪郭画像を参考にしながら、メイクをシミュレーションすることができる。
実施形態1,2では、印象設定部107は、ユーザから取得された情報に基づいて、目標印象を設定する例について説明した。印象設定部107は、予め定められた基準に従って、自動で目標印象を設定してもよい。例えば、目標印象は、ユーザの嗜好に基づく印象に、自動で設定されてもよい。この場合、嗜好と印象との対応関係を示す情報が、フラッシュメモリ12に記憶されていればよい。なお、ユーザの嗜好は、例えば、通信インターフェース16を介して他の装置から取得された情報などから自動的に特定される。また、目標印象は、ユーザの現在の顔の印象をより際立たせる印象に自動で設定されてもよい。或いは、目標印象は、ユーザの現在の顔の印象を弱める印象に自動で設定されてもよい。例えば、ユーザの目がつり目であれば、目標印象は、つり目を和らげる印象に自動で設定されてもよい。
実施形態1では、メイク内容が、目の周囲にアイシャドーを塗布するメイクである例について説明した。メイク内容は、この例に限定されないことは勿論である。例えば、メイク内容が、目の周囲にアイラインを塗布するメイクであってもよい。また、メイク内容が、眉の周囲にアイブロウを塗布するメイクであってもよい。
上記実施形態では、プロセッサ11において、CPUがROMに記憶されたプログラムを実行することによって、各種の処理を実行する例について説明した。本発明において、プロセッサ11の代わりに、例えばASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、各種制御回路等の専用のハードウェアを備え、専用のハードウェアが、各種の処理を実行してもよい。この場合、各部の機能それぞれを個別のハードウェアで実現しても良いし、各部の機能をまとめて単一のハードウェアで実現しても良い。また、各部の機能のうち、一部を専用のハードウェアによって実現し、他の一部をソフトウェア又はファームウェアによって実現しても良い。
なお、本発明に係る機能を実現するための構成を予め備えた画像処理装置として提供できることはもとより、プログラムの適用により、既存の情報処理装置等を、本発明に係る画像処理装置として機能させることもできる。すなわち、上記実施形態で例示した画像処理装置10による各機能構成を実現させるためのプログラムを、既存の情報処理装置等を制御するCPU等が実行できるように適用することで、本発明に係る画像処理装置として機能させることができる。
また、このようなプログラムの適用方法は任意である。プログラムを、例えば、フレキシブルディスク、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM、メモリカード等のコンピュータ読み取り可能な記憶媒体に格納して適用できる。さらに、プログラムを搬送波に重畳し、インターネットなどの通信媒体を介して適用することもできる。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)にプログラムを掲示して配信してもよい。そして、このプログラムを起動し、OS(Operating System)の制御下で、他のアプリケーションプログラムと同様に実行することにより、上記の処理を実行できるように構成してもよい。
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲とが含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
ユーザの顔が撮像された撮像画像を表示する表示手段と、
前記撮像画像に基づいて、前記ユーザの顔の特徴を特定する特徴特定手段と、
顔のメイクで表現する目標の印象として設定された目標印象と、前記特徴特定手段により特定された前記ユーザの顔の特徴とに基づいて、前記目標印象を表現するためのメイク内容を決定するメイク内容決定手段と、
前記表示手段に、前記撮像画像が前記メイク内容決定手段により決定された前記メイク内容に応じて加工されたメイク画像を表示させる表示制御手段と、を備える、
画像処理装置。
(付記2)
前記特徴特定手段は、前記撮像画像に基づいて、前記ユーザの顔パラメータの値であるユーザ値を取得するユーザ値取得手段を備え、
前記メイク内容決定手段は、前記目標印象と前記ユーザ値取得手段により取得された前記ユーザ値とに基づいて、前記メイク内容を決定する、
付記1に記載の画像処理装置。
(付記3)
予め定められたモデル顔の顔パラメータの値であるモデル値を示すモデル値情報を記憶するモデル値記憶手段と、
前記モデル顔に前記目標印象を持たせるための前記モデル値に対する操作量である基本操作量を示す基本操作量情報を記憶する基本操作量記憶手段と、
前記ユーザ値又は前記モデル値に対する操作量に対応するメイク内容を示すメイク内容情報を記憶するメイク内容記憶手段と、を更に備え、
前記メイク内容決定手段は、
前記基本操作量記憶手段に記憶された前記基本操作量情報に基づいて、前記基本操作量を決定する基本操作量決定手段と、
前記ユーザ値取得手段により取得された前記ユーザ値と前記モデル値記憶手段に記憶された前記モデル値情報とに基づいて、前記ユーザの顔を前記モデル顔に近づけるための前記ユーザ値に対する操作量である追加操作量を決定する追加操作量決定手段と、を備え、
前記メイク内容決定手段は、前記基本操作量決定手段により決定された前記基本操作量と、前記追加操作量決定手段により決定された前記追加操作量と、前記メイク内容記憶手段に記憶された前記メイク内容情報とに基づいて、前記メイク内容を決定する、
付記2に記載の画像処理装置。
(付記4)
前記モデル値情報は、複数の顔パラメータのそれぞれについて、前記モデル値を示す情報であり、
前記基本操作量情報は、複数の印象のそれぞれについて、前記モデル顔に各印象を持たせるための各モデル値に対する操作量を示す情報であり、
前記メイク内容情報は、前記複数の顔パラメータのそれぞれについて、前記ユーザ値又は前記モデル値に対する前記操作量に対応する前記メイク内容を示す情報であり、
前記ユーザ値取得手段は、前記撮像画像に基づいて、前記複数の顔パラメータのそれぞれについて、前記ユーザ値を取得し、
前記基本操作量決定手段は、前記基本操作量情報と前記目標印象とに基づいて、前記複数の顔パラメータのそれぞれについて、前記基本操作量を決定し、
前記追加操作量決定手段は、前記ユーザ値取得手段により前記複数の顔パラメータのそれぞれについて取得された前記ユーザ値と前記モデル値情報とに基づいて、前記複数の顔パラメータのそれぞれについて、前記追加操作量を決定し、
前記メイク内容決定手段は、前記基本操作量決定手段により前記複数の顔パラメータのそれぞれについて決定された前記基本操作量と、前記追加操作量決定手段により前記複数の顔パラメータのそれぞれについて決定された前記追加操作量と、前記メイク内容情報とに基づいて、前記メイク内容を決定する、
付記3に記載の画像処理装置。
(付記5)
前記メイク内容決定手段は、前記基本操作量決定手段により前記複数の顔パラメータのそれぞれについて決定された前記基本操作量のうち、前記基本操作量として予め定められた閾値以上の操作量が決定された顔パラメータである特定顔パラメータについて決定された基本操作量と、前記追加操作量決定手段により前記複数の顔パラメータのそれぞれについて決定された前記追加操作量のうち、前記特定顔パラメータについて決定された追加操作量と、前記メイク内容情報とに基づいて、前記メイク内容を決定する、
付記4に記載の画像処理装置。
(付記6)
前記メイク内容決定手段により決定された前記メイク内容の調整を指示する操作である調整指示操作を受け付ける調整指示操作受付手段を更に備え、
前記メイク内容決定手段は、前記調整指示操作受付手段により前記調整指示操作が受け付けられた場合、前記メイク内容に含まれる、前記メイク画像の色であるメイク色と前記メイク画像が重ねられる領域であるメイク領域とのうちの少なくとも一方を調整する、
付記1から5のいずれか1項に記載の画像処理装置。
(付記7)
前記目標印象を設定する印象設定手段を更に備える、
付記1から6のいずれか1項に記載の画像処理装置。
(付記8)
複数のシーンのそれぞれに適合する印象を示す適合印象情報を記憶する適合印象記憶手段と、
前記ユーザから前記複数のシーンのうちいずれかのシーンを指定する操作であるシーン指定操作を受け付けるシーン指定操作受付手段と、を更に備え、
前記印象設定手段は、前記シーン指定操作受付手段により前記シーン指定操作が受け付けられた場合、前記適合印象記憶手段に記憶された前記適合印象情報に基づいて、前記複数のシーンのうち前記シーン指定操作により指定されたシーンに適合する印象を前記目標印象として設定する、
付記7に記載の画像処理装置。
(付記9)
前記メイク画像は、前記撮像画像における、前記メイク内容に応じたメイク領域に、前記メイク内容に応じた化粧品が前記ユーザの顔に塗布された状態を表現するメイクパーツが重ねられた画像である、
付記1から8のいずれか1項に記載の画像処理装置。
(付記10)
前記撮像画像を取得する画像取得手段を更に備え、
前記表示手段は、前記画像取得手段により取得された前記撮像画像を表示する、
付記1から9のいずれか1項に記載の画像処理装置。
(付記11)
ユーザの顔が撮像された撮像画像を表示し、
前記撮像画像に基づいて、前記ユーザの顔の特徴を特定し、
顔のメイクで表現する目標の印象として設定された目標印象と、前記ユーザの顔の特徴とに基づいて、前記目標印象を表現するためのメイク内容を決定し、
前記撮像画像が前記メイク内容に応じて加工されたメイク画像を表示する、
画像処理方法。
(付記12)
コンピュータを、
ユーザの顔が撮像された撮像画像を表示装置に表示させる表示制御手段、
前記撮像画像に基づいて、前記ユーザの顔の特徴を特定する特徴特定手段、
顔のメイクで表現する目標の印象として設定された目標印象と、前記特徴特定手段により特定された前記ユーザの顔の特徴とに基づいて、前記目標印象を表現するためのメイク内容を決定するメイク内容決定手段、として機能させるプログラムであって、
前記表示制御手段は、前記表示装置に、前記撮像画像が前記メイク内容決定手段により決定された前記メイク内容に応じて加工されたメイク画像を表示させる、
プログラム。
10,20…画像処理装置、11…プロセッサ、12…フラッシュメモリ、13…カメラ、14…第1のタッチスクリーン、15…第2のタッチスクリーン、16…通信インターフェース、30…指示装置、31…プロセッサ、32…フラッシュメモリ、33…圧力センサ、34…通信インターフェース、50,51…画像、100…メイクシミュレーション装置、101…撮像部、102…画像取得部、103…表示制御部、104…表示部、105…特徴特定部、106…印象指定操作受付部、107…印象設定部、108…調整指示操作受付部、109…シーン指定操作受付部、110…メイク内容決定部、111…基本操作量決定部、112…追加操作量決定部、113…メイク領域決定部、114…メイク色決定部、115…ユーザ値取得部、120…記憶部、121…モデル値記憶部、122…基本操作量記憶部、123…メイク内容記憶部、124…適合印象記憶部、E1,E2…領域、L1,L2…直線

Claims (10)

  1. ユーザの顔が撮像された撮像画像を表示する表示手段と、
    前記撮像画像に基づいて、複数の顔パラメータのそれぞれについて、前記ユーザの顔パラメータの値であるユーザ値を取得するユーザ値取得手段と、
    前記複数の顔パラメータのそれぞれについて、予め定められたモデル顔の顔パラメータの値であるモデル値を示すモデル値情報を記憶するモデル値記憶手段と、
    前記モデル顔に、顔のメイクで表現する目標の印象として設定された目標印象を持たせるための前記モデル値に対する操作量である基本操作量を示す基本操作量情報を取得する基本操作量取得手段と、
    前記基本操作量情報と前記目標印象とに基づいて、前記複数の顔パラメータのそれぞれについて、前記基本操作量を決定する基本操作量決定手段と、
    前記ユーザ値と前記モデル値情報とに基づいて、前記複数の顔パラメータのそれぞれについて、前記ユーザの顔を前記モデル顔に近づけるための前記ユーザ値に対する操作量である追加操作量を決定する追加操作量決定手段と、
    前記ユーザ値又は前記モデル値に対する操作量に対応するメイク内容を示すメイク内容情報を記憶するメイク内容記憶手段と、
    前記基本操作量決定手段により前記複数の顔パラメータのそれぞれについて決定された前記基本操作量のうち、前記基本操作量として予め定められた閾値以上の操作量が決定された顔パラメータである特定顔パラメータについて決定された基本操作量と、前記追加操作量決定手段により前記複数の顔パラメータのそれぞれについて決定された前記追加操作量のうち、前記特定顔パラメータについて決定された追加操作量と、前記メイク内容情報とに基づいて、前記メイク内容を決定するメイク内容決定手段と、
    前記表示手段に、前記撮像画像が前記メイク内容決定手段により決定された前記メイク内容に応じて加工されたメイク画像を表示させる表示制御手段と、を備える、
    画像処理装置。
  2. 前記基本操作量情報は、複数の印象のそれぞれについて、前記モデル顔に各印象を持たせるための各モデル値に対する操作量を示す情報である、
    請求項1に記載の画像処理装置。
  3. 前記メイク内容情報は、前記複数の顔パラメータのそれぞれについて、前記ユーザ値又は前記モデル値に対する前記操作量に対応する前記メイク内容を示す情報である、
    請求項1または2に記載の画像処理装置。
  4. 前記メイク内容決定手段により決定された前記メイク内容の調整を指示する操作である調整指示操作を受け付ける調整指示操作受付手段を更に備え、
    前記メイク内容決定手段は、前記調整指示操作受付手段により前記調整指示操作が受け付けられた場合、前記メイク内容に含まれる、前記メイク画像の色であるメイク色と前記メイク画像が重ねられる領域であるメイク領域とのうちの少なくとも一方を調整する、
    請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記目標印象を設定する印象設定手段を更に備える、
    請求項1から4のいずれか1項に記載の画像処理装置。
  6. 複数のシーンのそれぞれに適合する印象を示す適合印象情報を記憶する適合印象記憶手段と、
    前記ユーザから前記複数のシーンのうちいずれかのシーンを指定する操作であるシーン指定操作を受け付けるシーン指定操作受付手段と、を更に備え、
    前記印象設定手段は、前記シーン指定操作受付手段により前記シーン指定操作が受け付けられた場合、前記適合印象記憶手段に記憶された前記適合印象情報に基づいて、前記複数のシーンのうち前記シーン指定操作により指定されたシーンに適合する印象を前記目標印象として設定する、
    請求項5に記載の画像処理装置。
  7. 前記メイク画像は、前記撮像画像における、前記メイク内容に応じたメイク領域に、前記メイク内容に応じた化粧品が前記ユーザの顔に塗布された状態を表現するメイクパーツが重ねられた画像である、
    請求項1から6のいずれか1項に記載の画像処理装置。
  8. 前記撮像画像を取得する画像取得手段を更に備え、
    前記表示手段は、前記画像取得手段により取得された前記撮像画像を表示する、
    請求項1から7のいずれか1項に記載の画像処理装置。
  9. ユーザの顔が撮像された撮像画像を表示し、
    前記撮像画像に基づいて、複数の顔パラメータのそれぞれについて、前記ユーザの顔パラメータの値であるユーザ値を取得し、
    前記複数の顔パラメータのそれぞれについて、予め定められたモデル顔の顔パラメータの値であるモデル値を示すモデル値情報を記憶し、
    前記モデル顔に、顔のメイクで表現する目標の印象として設定された目標印象を持たせるための前記モデル値に対する操作量である基本操作量を示す基本操作量情報を取得し、
    前記基本操作量情報と前記目標印象とに基づいて、前記複数の顔パラメータのそれぞれについて、前記基本操作量を決定し、
    前記ユーザ値と前記モデル値情報とに基づいて、前記複数の顔パラメータのそれぞれについて、前記ユーザの顔を前記モデル顔に近づけるための前記ユーザ値に対する操作量である追加操作量を決定し、
    前記ユーザ値又は前記モデル値に対する操作量に対応するメイク内容を示すメイク内容情報を記憶し、
    前記基本操作量決定手段により前記複数の顔パラメータのそれぞれについて決定された前記基本操作量のうち、前記基本操作量として予め定められた閾値以上の操作量が決定された顔パラメータである特定顔パラメータについて決定された基本操作量と、前記追加操作量決定手段により前記複数の顔パラメータのそれぞれについて決定された前記追加操作量のうち、前記特定顔パラメータについて決定された追加操作量と、前記メイク内容情報とに基づいて、前記メイク内容を決定し、
    前記撮像画像が前記メイク内容に応じて加工されたメイク画像を表示する、
    画像処理方法。
  10. コンピュータを、
    ユーザの顔が撮像された撮像画像を表示装置に表示させる表示制御手段、
    前記撮像画像に基づいて、複数の顔パラメータのそれぞれについて、前記ユーザの顔パラメータの値であるユーザ値を取得するユーザ値取得手段、
    前記複数の顔パラメータのそれぞれについて、予め定められたモデル顔の顔パラメータの値であるモデル値を示すモデル値情報を記憶するモデル値記憶手段、
    前記モデル顔に、顔のメイクで表現する目標の印象として設定された目標印象を持たせるための前記モデル値に対する操作量である基本操作量を示す基本操作量情報を取得する基本操作量取得手段、
    前記基本操作量情報と前記目標印象とに基づいて、前記複数の顔パラメータのそれぞれについて、前記基本操作量を決定する基本操作量決定手段、
    前記ユーザ値と前記モデル値情報とに基づいて、前記複数の顔パラメータのそれぞれについて、前記ユーザの顔を前記モデル顔に近づけるための前記ユーザ値に対する操作量である追加操作量を決定する追加操作量決定手段、
    前記ユーザ値又は前記モデル値に対する操作量に対応するメイク内容を示すメイク内容情報を記憶するメイク内容記憶手段、
    前記基本操作量決定手段により前記複数の顔パラメータのそれぞれについて決定された前記基本操作量のうち、前記基本操作量として予め定められた閾値以上の操作量が決定された顔パラメータである特定顔パラメータについて決定された基本操作量と、前記追加操作量決定手段により前記複数の顔パラメータのそれぞれについて決定された前記追加操作量のうち、前記特定顔パラメータについて決定された追加操作量と、前記メイク内容情報とに基づいて、前記メイク内容を決定するメイク内容決定手段、として機能させるプログラムであって
    前記表示制御手段は、前記表示装置に、前記撮像画像が前記メイク内容決定手段により決定された前記メイク内容に応じて加工されたメイク画像を表示させる、
    プログラム。
JP2019173568A 2019-09-24 2019-09-24 画像処理装置、画像処理方法及びプログラム Active JP7413691B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019173568A JP7413691B2 (ja) 2019-09-24 2019-09-24 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019173568A JP7413691B2 (ja) 2019-09-24 2019-09-24 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2021049082A JP2021049082A (ja) 2021-04-01
JP7413691B2 true JP7413691B2 (ja) 2024-01-16

Family

ID=75155134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019173568A Active JP7413691B2 (ja) 2019-09-24 2019-09-24 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7413691B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008102440A1 (ja) 2007-02-21 2008-08-28 Tadashi Goino 化粧顔画像生成装置及び方法
JP2018012136A (ja) 2016-07-22 2018-01-25 リョービ株式会社 金型冷却装置
WO2018088243A1 (ja) 2016-11-11 2018-05-17 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
WO2019130933A1 (ja) 2017-12-26 2019-07-04 パナソニックIpマネジメント株式会社 身体外観補正支援装置、身体外観補正支援方法、およびコンピュータプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3485762A4 (en) * 2016-07-14 2019-07-24 Panasonic Intellectual Property Management Co., Ltd. MAKE-UP ASSISTANCE AND MAKE-UP ASSISTANCE PROCEDURES

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008102440A1 (ja) 2007-02-21 2008-08-28 Tadashi Goino 化粧顔画像生成装置及び方法
JP2018012136A (ja) 2016-07-22 2018-01-25 リョービ株式会社 金型冷却装置
WO2018088243A1 (ja) 2016-11-11 2018-05-17 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
WO2019130933A1 (ja) 2017-12-26 2019-07-04 パナソニックIpマネジメント株式会社 身体外観補正支援装置、身体外観補正支援方法、およびコンピュータプログラム

Also Published As

Publication number Publication date
JP2021049082A (ja) 2021-04-01

Similar Documents

Publication Publication Date Title
JP6055160B1 (ja) 化粧品情報提供システム、化粧品情報提供装置、化粧品情報提供方法、及びプログラム
US10617301B2 (en) Information processing device and information processing method
CN105229673B (zh) 一种装置和相关联的方法
JP5432532B2 (ja) 化粧方法、化粧シミュレーション装置、及び化粧シミュレーションプログラム
US20120044335A1 (en) Makeup simulation system, makeup simulation apparatus, makeup simulation method, and makeup simulation program
CN109147037B (zh) 基于三维模型的特效处理方法、装置和电子设备
CN109196856B (zh) 虚拟化妆装置和虚拟化妆方法
US11315298B2 (en) Personalized stylized avatars
JP2010211308A (ja) メイクアップアドバイス装置、メイクアップアドバイス方法及びプログラム
WO2014190509A1 (en) An apparatus and associated methods
US20180276230A1 (en) Information processing device, information processing method, and program
US11321764B2 (en) Information processing apparatus and information processing method
JP5949030B2 (ja) 画像生成装置、画像生成方法及びプログラム
JP2020016961A (ja) 情報処理装置、情報処理方法、および情報処理プログラム
WO2015152028A1 (ja) 化粧支援装置および記録媒体
JP2000151985A (ja) 画像処理方法及び記録媒体
JP2011022733A (ja) メーキャップシミュレーション装置、メーキャップシミュレーションプログラム及び対面販売支援方法
KR101719927B1 (ko) 립 모션을 이용한 실시간 메이크업 미러 시뮬레이션 장치
JP7413691B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2023164494A (ja) 画像処理装置、画像処理方法及びプログラム
JP4318825B2 (ja) 画像処理装置および画像処理方法
CN111913560B (zh) 虚拟内容的显示方法、装置、系统、终端设备及存储介质
CN109744703A (zh) 一种美甲装置
KR20210108080A (ko) 전자 장치 및 이를 이용한 시각적 효과 제공 방법
CN112037338A (zh) Ar形象的创建方法、终端设备以及可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231211

R150 Certificate of patent or registration of utility model

Ref document number: 7413691

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150